KR20240001343A - 청소를 위한 게임을 제공하는 시스템 및 방법과 이를 위한 저장 매체 - Google Patents

청소를 위한 게임을 제공하는 시스템 및 방법과 이를 위한 저장 매체 Download PDF

Info

Publication number
KR20240001343A
KR20240001343A KR1020220077298A KR20220077298A KR20240001343A KR 20240001343 A KR20240001343 A KR 20240001343A KR 1020220077298 A KR1020220077298 A KR 1020220077298A KR 20220077298 A KR20220077298 A KR 20220077298A KR 20240001343 A KR20240001343 A KR 20240001343A
Authority
KR
South Korea
Prior art keywords
cleaning
cleaner
display device
dust
data
Prior art date
Application number
KR1020220077298A
Other languages
English (en)
Inventor
김동익
추지민
황인영
이경하
한상훈
박홍민
김남영
이호필
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020220077298A priority Critical patent/KR20240001343A/ko
Publication of KR20240001343A publication Critical patent/KR20240001343A/ko

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4036Parts or details of the surface treating tools
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/30Arrangement of illuminating devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/06Control of the cleaning action for autonomous devices; Automatic detection of the surface condition before, during or after cleaning
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Pinball Game Machines (AREA)
  • Coin-Freed Apparatuses For Hiring Articles (AREA)

Abstract

본 개시는 청소를 위한 게임을 제공하는 시스템 및 방법과 이를 위한 저장 매체에 관한 것이다.
이를 위해, 본 개시에 따른 시스템은 청소 중에 식별되는 먼지량, 및 수분량 중 적어도 일부에 기반한 청소 데이터를 생성하여 디스플레이 장치로 전송하는 청소기와 먼지량 및 수분량 중 적어도 일부에 대응되는 적어도 하나의 객체를 생성하고, 상기 생성된 적어도 하나의 객체를 상기 청소 데이터 상의 해당 위치에 반영하여 표시하는 디스플레이 장치를 포함할 수 있다. 따라서, 본 개시는 사용자에게 바닥의 상태에 따라 새로운 게임 환경을 제공하여 청소를 유도할 수 있다.

Description

청소를 위한 게임을 제공하는 시스템 및 방법과 이를 위한 저장 매체{A SYSTEM AND METHOD FOR PROVIDING A GAME FOR CLEANING AND A STORAGE MEDIUM THEREFOR}
본 개시는 청소를 위한 게임을 제공하는 시스템 및 방법과 이를 위한 저장 매체에 관한 것이다.
일반적으로 청소 구역(예: 홈 내, 사무실 등)에는 자동으로 주행하여 청소하는 로봇 청소기 또는 사용자가 직접 파지하여 청소하는 진공 청소기가 구비되어 있다. 사용자는 이러한 로봇 청소기 또는 진공 청소기를 통해 바닥의 먼지 또는 이물질을 제거하는 청소를 수행한다.
그러나, 바쁜 현대인들에게 매일 청소를 하는 것은 시간 상의 제약으로 인해 어려울 수 있고, 또한, 지루한 청소 과정으로 인해 매일 매일 청소하는 것은 현실적으로 어려울 수 있다.
이를 위해, 종래 제1 선행 기술(한국 등록특허공보 제10-208963호)은 헤드 마운티드 디스플레이(Head Mounted Display, HMD)를 이용한 로봇 청소 시스템 및 그 제어 방법에 관한 것으로서, 로봇 청소기를 이용한 무선 컨트롤의 활용성을 증대시키기 위하여 HMD를 활용해 유희적 요소를 부가한 로봇 청소 방법을 제공하는 내용을 개시하고 있다.
그러나, 종래 제1 선행 기술은 단지 사용자가 HMD를 착용한 상태에서 로봇 청소기를 무선으로 제어하여 청소할 뿐, 청소를 위한 게임을 제공하지 않는다.
뿐만 아니라, 종래 제1 선행 기술은 로봇 청소기가 청소에 따른 청소 궤적을 포함하는 지도 데이터를 생성하지 않을 뿐만 아니라, 먼지량 또는 수분량에 대한 청소 정보에 기반한 청소 데이터를 생성하지 않는다.
그리고, 종래 제2 선행 기술(한국 등록특허공보 제10-2017953호)은 증강 현실을 이용한 청소 방법 및 그 장치에 관한 것으로서, 사용자에게 청소에 대한 흥미를 주면서 효율적 청소를 가능하게 하는 증강 현실을 이용한 청소 장치에 관한 내용을 개시하고 있다.
그러나, 종래 제2 선행 기술은 단지 증강 현실 안경이 먼지량을 센싱하여 청소기로 전송하면, 청소기는 먼지량에 따른 몬스터의 크기를 게임 상에 설정하여 게임 화면을 사용자에게 제공할 뿐, 청소기가 청소에 따른 청소 궤적을 포함하는 지도 데이터를 생성하지 않을 뿐만 아니라, 먼지량 또는 수분량의 청소 정보에 기반한 청소 데이터를 생성하지 않는다.
또한, 종래 제2 선행 기술은 청소 구역 내의 다양한 사물에 대한 모델링 데이터의 생성에 기반하여 청소 데이터를 생성하지 않는다.
따라서, 바닥의 먼지량 또는 수분량의 정보에 기반한 청소 데이터를 생성하고, 사용자가 게임을 하면서 청소를 즐기도록 하는 필요성이 제기된다.
한국 등록특허공보 제10-208963호 한국 등록특허공보 제10-2017953호
종래에는 바닥의 먼지량 또는 수분량의 정보에 기반한 청소 데이터를 생성하지 않았기 때문에, 바닥 상태에 맞춤화된 게임을 제공하지 못하였다.
따라서, 본 개시는 바닥의 먼지량 또는 수분량의 정보에 기반한 청소 데이터를 생성하고, 바닥 상태에 맞춤화된 게임을 사용자에게 제공하는 것이다.
또한, 본 개시는 사용자가 청소하는 것을 유도하도록 사용자에게 청소를 위한 게임을 제공하는 시스템을 제공하는 것이다.
또한, 본 개시는 청소를 위한 게임을 제공하는 시스템 및 방법과 저장 매체를 제공하는 것이다.
또한, 본 개시는 청소 데이터 상에 게임을 위한 객체를 포함하여 사용자에게 게임 환경을 제공하는 시스템 및 방법과 저장 매체를 제공하는 것이다.
또한, 본 개시는 바닥의 먼지량 및 수분량 중 적어도 일부에 기반한 청소 데이터를 생성하여 디스플레이 장치로 전송하는 청소기 및 방법을 제공하는 것이다.
본 개시의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 개시의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 개시의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 개시의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
이러한 목적을 달성하기 위해 본 개시에 따른 청소기는 청소 중에 식별되는 먼지량 및 수분량 중 적어도 일부에 기반한 청소 데이터를 생성하여 디스플레이 장치로 전송할 수 있다.
또한, 본 개시에 따른 디스플레이 장치는 청소 데이터에 포함된 먼지량 및 수분량 중 적어도 일부에 기반하여 생성되는 객체를 청소 데이터 상의 해당 위치에 반영하여 표시할 수 있다.
또한, 본 개시에 따른 청소기는 청소 위치 및 청소 정보를 이용하여 청소 데이터를 생성할 수 있다.
또한, 본 개시에 따른 디스플레이 장치는 청소 데이터를 표시한 상태에서 임의 영역이 청소되면 임의 영역에 위치한 객체를 청소 데이터 상에서 제거하고, 제거되는 비주얼 효과를 표시할 수 있다.
또한, 본 개시에 따른 청소기는 청소 중에 식별된 적어도 하나의 사물에 해당되는 모델링 데이터를 결정하고, 상기 결정된 모델링 데이터를 지도 데이터 상의 해당 위치에 추가하여 청소 데이터를 생성할 수 있다.
또한, 본 개시에 따른 청소기는 헤드가 먼지 청소 헤드인지, 또는 물걸레 청소 헤드인지를 식별하고, 상기 식별된 제2 청소기의 위치, 및 상기 제2 청소기의 헤드에 대한 식별자를 포함한 정보를 생성하여 디스플레이 장치로 전송할 수 있다.
또한, 본 개시에 따른 청소기는 배관을 통과하는 먼지의 진행 방향에 수직 방향으로 제1 광원을 조사하고, 상기 조사된 제1 광원에 기반하여, 먼지를 통과한 제2 광원을 수신하고, 상기 제1 광원의 세기와 상기 제2 광원의 세기를 비교하여 먼지량을 측정할 수 있다.
또한, 본 개시에 따른 디스플레이 장치는 청소 데이터에 포함된 적어도 하나의 위치의 먼지량의 정도를 각각 식별하고, 상기 식별된 먼지량의 정도에 해당되는 객체를 결정할 수 있다.
또한, 본 개시에 따른 디스플레이 장치는 청소기의 헤드가 먼지 청소 헤드인 경우, 먼지량에 따라 객체의 크기를 결정할 수 있다.
또한, 본 개시에 따른 디스플레이 장치는 청소기의 헤드가 물걸레 청소 헤드인 경우, 바닥에 존재하는 물의 양에 따라 객체의 크기를 결정할 수 있다.
또한, 본 개시에 따른 디스플레이 장치는 청소 데이터 상에서 객체의 제거에 따른 점수를 표시할 수 있다.
또한, 본 개시에 따른 저장 매체는 청소기가, 청소 중에 식별되는 먼지량, 및 수분량 중 적어도 일부에 기반한 청소 데이터를 생성하여 디스플레이 장치로 전송하는 명령어들, 및 상기 디스플레이 장치가, 상기 청소 데이터에 포함된 적어도 하나의 위치의 먼지량 및 수분량 중 적어도 일부에 대응되는 적어도 하나의 객체를 생성하고, 상기 생성된 적어도 하나의 객체를 상기 청소 데이터 상의 해당 위치에 반영하여 표시하는 명령어들을 포함할 수 있다.
본 개시는 청소 중에 식별되는 먼지량 및 수분량 중 적어도 일부에 기반한 청소 데이터를 생성함으로써, 사용자에게 바닥의 상태에 따라 다양한 게임 환경을 제공하여 청소를 유도할 수 있다.
또한, 본 개시는 청소 데이터에 포함된 먼지량 및 수분량 중 적어도 일부에 기반하여 생성되는 객체를 청소 데이터 상의 해당 위치에 반영하여 표시함으로써, 오염이 심한 영역을 집중적으로 청소할 수 있다.
또한, 본 개시는 청소 위치 및 청소 정보를 이용하여 청소 데이터를 생성함으로써, 청소하는 지점에 따라 서로 다른 게임 환경을 제공할 수 있다.
또한, 본 개시는 청소 데이터를 표시한 상태에서 임의 영역이 청소되면 임의 영역에 위치한 객체를 청소 데이터 상에서 제거하고, 제거되는 비주얼 효과를 표시함으로써, 사용자에게 재미있는 게임 환경을 제공할 수 있다.
또한, 본 개시는 청소 중에 식별된 적어도 하나의 사물에 해당되는 모델링 데이터를 결정하고, 상기 결정된 모델링 데이터를 지도 데이터 상의 해당 위치에 추가하여 청소 데이터를 생성함으로써, 사용자가 가상 현실 또는 증강 현실에 대한 어색함을 줄일 수 있고, 또한, 디스플레이 장치의 착용에 의해 사용자가 주변 사물과 부딪히는 충돌을 방지할 수 있다.
또한, 본 개시는 청소기가 현재 먼지 청소 모드인지, 또는 물걸레 청소 모드인지를 식별하고, 이에 대한 식별자를 포함한 정보를 생성하여 디스플레이 장치로 전송하면, 디스플레이 장치는 각각의 모드에 따라 서로 다른 객체를 청소 데이터에 반영하여 표시함으로써, 사용자는 현재 청소 모드에 따라 서로 다른 게임 환경을 제공받을 수 있다.
또한, 본 개시는 청소기는 광원의 세기의 변화를 이용하여 먼지량을 측정함으로써, 게임 환경에서 먼지량에 맞춤화된 객체의 크기를 결정할 수 있다.
상술한 효과와 더불어 본 개시의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.
도 1은 본 개시의 일 실시 예에 따른 사용자가 청소를 하는 상태를 나타낸 예시도이다.
도 2는 본 개시의 일 실시 예에 따른 청소를 위한 게임을 제공하는 시스템을 나타낸 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 청소를 위한 게임을 제공하는 시스템의 과정을 나타낸 순서도이다.
도 4는 본 개시의 일 실시 예에 따른 청소기가 지도 데이터를 생성하여 전송하는 과정을 나타낸 순서도이다.
도 5는 본 개시의 일 실시 예에 따른 홈 내의 지도 데이터의 예시도이다.
도 6은 본 개시의 일 실시 예에 따른 지도 데이터에 청소기의 궤적을 표시한 예시도이다.
도 7은 본 개시의 일 실시 예에 따른 지도 데이터에 청소 정보를 표시한 예시도이다.
도 8은 본 개시의 일 실시 예에 따른 청소기가 먼지량을 추정하여 청소 데이터를 생성하는 과정을 나타낸 순서도이다.
도 9는 본 개시의 일 실시 예에 따른 먼지량을 측정하는 예시도이다.
도 10은 본 개시의 일 실시 예에 따른 청소기가 청소 구역 내의 사물에 대한 모델링 데이터를 반영하여 청소 데이터를 생성하는 과정을 나타낸 순서도이다.
도 11은 본 개시의 일 실시 예에 따른 청소 구역의 이미지를 나타낸 예시도이다.
도 12는 본 개시의 일 실시 예에 따른 청소 구역에 증강 현실에 기반한 객체를 포함하여 생성한 청소 데이터를 나타낸 예시도이다.
도 13은 본 개시의 일 실시 예에 따른 청소 구역에 가상 현실에 기반한 객체를 포함하여 생성한 청소 데이터를 나타낸 예시도이다.
도 14는 본 개시의 일 실시 예에 따른 청소기가 위치를 식별하는 과정을 나타낸 순서도이다.
도 15는 본 개시의 일 실시 예에 따른 청소기를 나타낸 예시도이다.
도 16의 (a)는 본 개시의 일 실시 예에 따른 물걸레 기능을 갖춘 청소기를 나타낸 예시도이다.
도 16의 (b)는 본 개시의 일 실시 예에 따른 먼지 청소 기능을 갖춘 청소기를 나타낸 예시도이다.
도 17의 (a)는 본 개시의 일 실시 예에 따른 청소기의 샤프트의 길이를 축소한 상태를 나타낸 예시도이다.
도 17의 (b)는 본 개시의 일 실시 예에 따른 청소기의 샤프트의 길이를 확장한 상태를 나타낸 예시도이다.
도 18은 본 개시의 일 실시 예에 따른 디스플레이 장치가 청소를 위한 게임을 제공하는 과정을 나타낸 순서도이다.
도 19는 본 개시의 일 실시 예에 따른 디스플레이 장치를 머리에 착용한 사용자가 청소를 하는 상태를 나타낸 예시도이다.
도 20은 본 개시의 일 실시 예에 따른 디스플레이 장치가 먼지 청소에 따른 청소 데이터를 표시한 예시도이다.
도 21은 본 개시의 일 실시 예에 따른 디스플레이 장치가 물걸레 청소에 따른 청소 데이터를 표시한 예시도이다.
도 22는 본 개시의 일 실시 예에 따른 디스플레이 장치가 청소에 의해 제거된 객체에 대한 점수 화면을 표시한 예시도이다.
도 23은 본 개시의 일 실시 예에 따른 디스플레이 장치를 이용하여 청소 데이터를 생성하는 과정을 나타낸 순서도이다.
도 24는 본 개시의 일 실시 예에 따른 디스플레이 장치를 통해 획득한 이미지를 나타낸 예시도이다.
도 25는 본 개시의 일 실시 예에 따른 이미지 내의 사물을 모델링한 모델링 데이터를 나타낸 예시도이다.
도 26은 본 개시의 일 실시 예에 따른 청소 데이터에서 하나의 객체에 대한 모델링 데이터를 선택하는 상태를 나타낸 예시도이다.
도 27은 본 개시의 일 실시 예에 따른 선택된 모델링 데이터에 대체 가능한 다른 모델링 데이터를 표시한 예시도이다.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자가 본 개시의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 개시를 설명함에 있어서 본 개시와 관련된 공지 기술에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 개시에 따른 바람직한 실시 예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.
비록 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것으로, 특별히 반대되는 기재가 없는 한, 제1 구성요소는 제2 구성요소일 수도 있음은 물론이다.
이하에서 구성요소의 "상부 (또는 하부)" 또는 구성요소의 "상 (또는 하)"에 임의의 구성이 배치된다는 것은, 임의의 구성이 상기 구성요소의 상면 (또는 하면)에 접하여 배치되는 것뿐만 아니라, 상기 구성요소와 상기 구성요소 상에 (또는 하에) 배치된 임의의 구성 사이에 다른 구성이 개재될 수 있음을 의미할 수 있다.
또한 어떤 구성요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 상기 구성요소들은 서로 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성요소 사이에 다른 구성요소가 "개재"되거나, 각 구성요소가 다른 구성요소를 통해 "연결", "결합" 또는 "접속"될 수도 있는 것으로 이해되어야 할 것이다.
명세서 전체에서, 특별히 반대되는 기재가 없는 한, 각 구성요소는 단수일수도 있고 복수일 수도 있다.
본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
명세서 전체에서, "A 및/또는 B" 라고 할 때, 이는 특별한 반대되는 기재가 없는 한, A, B 또는 A 및 B 를 의미하며, "C 내지 D" 라고 할 때, 이는 특별한 반대되는 기재가 없는 한, C 이상이고 D 이하인 것을 의미한다
이하에서는, 본 개시의 몇몇 실시 예에 따른 청소를 위한 게임을 제공하는 시스템 및 방법과 이를 위한 저장 매체를 설명하도록 한다.
도 1은 본 개시의 일 실시 예에 따른 사용자가 청소를 하는 상태를 나타낸 예시도이다.
도 1을 참조하면, 제1 청소기(110)(예: 로봇 청소기)는 청소 구역(100) 내에서 이동하면서 바닥의 먼지, 이물질을 흡입하는 청소를 수행할 수 있다. 그리고, 제1 청소기(110)는 청소 중에 주변의 사물에 대한 이미지를 획득하여 청소 데이터를 생성할 수 있다. 상기 청소 데이터에는 먼지량, 먼지 종류, 이물질, 수분량, 수분 종류 등 다양한 청소 정보가 포함될 수 있다.
그리고, 제1 청소기(110)는 청소 데이터를 디스플레이 장치(130)로 전송할 수 있다.
또한, 청소 데이터는 제1 청소기(110)뿐만 아니라, 제2 청소기(120)(예: 진공 청소기)를 통해서도 생성될 수 있으며, 디스플레이 장치(130)로 전송될 수 있다.
일 실시 예에 따르면, 사용자(140)는 디스플레이 장치(130)(예: HMD(Head Mounted Display))를 착용한 상태에서, 진공 청소기(120)를 이용하여 청소 구역(100)(예: 거실, 방, 주방 등)을 청소할 수 있다.
예를 들면, 진공 청소기(120)의 헤드(121)에는 진공 청소기(120)의 위치를 파악할 수 있는 센서(122)가 배치될 수 있다. 이러한 센서(122)는 진공 청소기(120)의 헤드(121)뿐만 아니라 다른 곳에 배치될 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)는 청소 구역(100)에서의 먼지량, 먼지 종류, 이물질, 수분량, 수분 종류에 기반한 청소 데이터를 표시할 수 있다. 그리고, 디스플레이 장치(130)를 착용한 사용자(140)는 디스플레이 장치(130)를 통해 표시된 영상(예: 증강 현실 영상, 또는 가상 현실 영상)을 보면서 청소와 게임을 동시에 할 수 있다.
도 2는 본 개시의 일 실시 예에 따른 청소를 위한 게임을 제공하는 시스템을 나타낸 블록도이다.
도 2를 참조하면, 본 개시의 일 실시 예에 따른 청소를 위한 게임을 제공하는 시스템(200)은 제1 청소기(110)(예: 로봇 청소기), 제2 청소기(120)(예: 진공 청소기), 및 디스플레이 장치(130)(예: HMD(Head Mounted Display))를 포함할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)는 스스로 주행을 하면서 사물을 인식하고 상황을 판단하여 청소를 수행하는 지능형 로봇으로서, 먼지 또는 이물질을 흡입하는 흡입형 로봇 청소기와 바닥의 수분을 제거하도록 걸레질을 수행하는 물걸레 로봇 청소기가 있다. 또는 제1 청소기(110)는 흡입 기능과 걸레질 지능이 탑재된 일체형 로봇 청소기일 수 있다.
일 실시 예에 따르면, 제2 청소기(120)는 사용자가 청소하고자 하는 구역으로 직접 이동시키면, 흡입력으로 먼지 또는 이물질을 흡입하는 청소기이다. 예를 들면, 제2 청소기(120)는 바퀴가 달린 본체에 호스와 밀대를 연결하여 끌고 다니면서 청소하는 캐니스터 타입(canister type), 본체와 손잡이 및 밀대가 하나로 이루어진 업라이트 타입(upright type), 업소용이나 산업용으로 많이 쓰이는 실린더 타입(cylinder type), 충전식 배터리로 작동하는 핸디 타입(handy type), 핸디 타입의 파워와 크기를 늘려서 집 전체를 청소하는 스틱 타입(stick type) 등이 있다.
일 실시 예에 따르면, 디스플레이 장치(130)는 안경처럼 머리에 착용되면 대형 영상을 표시하는 영상 표시 장치이며, 가상 현실(Virtual Reality) 디스플레이 장치이거나, 또는 증강 현실(Augmented Reality) 디스플레이 장치를 포함할 수 있다. 또는, 디스플레이 장치(130)는 가상 현실과 증강 현실을 함께 제공하는 장치일 수 있다. 이러한 디스플레이 장치(130)는 주로 가상 현실(Virtual Reality) 및/또는 증강 현실(Augmented Reality)의 구현을 위해 사용될 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)는 제1 청소기(110) 및 제2 청소기(120)와 통신할 수 있다. 상기 디스플레이 장치(130)는 외관에 터치 패널, 버튼, 휠 키, 및 터치 패드 등 중에 적어도 하나가 배치될 수 있다.
일 실시 예에 따르면, 상기 제1 청소기(110)는 카메라(211), 센서(212a), 발광부(212b), 메모리(213), 통신부(214), 구동부(215), 모터(216), 흡입부(217), 측정부(217a), 이물질 저장부(218), 및 프로세서(219)를 포함할 수 있다.
일 실시 예에 따르면, 상기 제2 청소기(120)는 통신부(221), 발광부(222), 메모리(223), 센서(224), 모터(225), 물걸레 모듈(226), 흡입부(227), 먼지량 측정부(227a), 이물질 저장부(228), 및 프로세서(229)를 포함할 수 있다.
일 실시 예에 따르면, 상기 디스플레이 장치(130)는 카메라(231), 표시부(232), 메모리(233), 통신부(234), 및 프로세서(235)를 포함할 수 있다.
도 2에 도시된 청소를 위한 게임을 제공하는 시스템(100)에서 각 장치의 구성은 일 실시 예에 따른 것이고, 각 장치의 구성 요소들이 도 2에 도시된 실시 예에 한정되는 것은 아니며, 필요에 따라 일부 구성 요소가 부가, 변경 또는 삭제될 수 있다.
본 개시에 따른 시스템(100)은 청소에 게임을 매칭시킴으로써, 사용자(140)는 청소를 하면서 게임을 할 수 있다.
이하에서는, 제1 청소기(110), 제2 청소기(120), 및 디스플레이 장치(130)의 각 구성 요소에 대해 설명한다. 본 개시에 따른 청소기는 제1 청소기(110) 또는 제2 청소기(120)이거나, 또는 제1 청소기(110)와 제2 청소기(120) 모두를 지칭할 수 있다.
1. 제1 청소기(110)
일 실시 예에 따르면, 상기 제1 청소기(110)의 카메라(211)는 제1 청소기(110)의 일 측에 배치될 수 있다. 상기 카메라(211)는 적어도 하나의 카메라를 포함할 수 있으며, 상기 청소기(110)의 전방, 후방 또는 측방을 향하도록 배치되어 청소 구역에서의 적어도 하나의 이미지를 획득할 수 있다.
그리고, 상기 카메라(211)는 제1 청소기(110)의 이동에 기반하여 홈 내의 바닥, 궤적 정보, 미 청소 영역, 청소가 미흡한 영역, 수분이 존재하는 영역, 먼지가 존재하는 영역, 이물질이 존재하는 영역 등 청소에 대한 다양한 청소 정보를 획득할 수 있다.
예를 들면, 상기 카메라(211)는 RGB(Red Green Blue) 카메라, 비젼 카메라, OCR(Optical character Reader) 등 다양한 이미지 센서를 포함할 수 있다. 그리고, 상기 카메라(211)는 획득된 이미지를 프로세서(219)로 전달할 수 있다.
일 실시 예에 따르면, 상기 센서(212a)는 청소에 관련한 다양한 정보(예: 청소 중, 청소 상태, 홈 내의 바닥, 궤적 정보, 미 청소 영역, 청소가 미흡한 영역, 수분이 존재하는 영역, 먼지가 존재하는 영역, 이물질이 존재하는 영역 등)를 획득할 수 있는 다양한 센서를 포함할 수 있다. 본 개시는 이러한 센서의 종류를 제한하지 않는다.
또한, 상기 센서(212a)는 청소기의 동작 및 상태와 관련된 데이터를 센싱하고, 홈 내의 바닥의 오염에 관한 청소 정보를 센싱하는 적어도 하나의 센서를 포함할 수 있다. 예를 들면, 상기 센서(212a)는 추락 방지 센서, 적외선 센서, 초음파 센서, 움직임 감지 센서(예: 자이로 센서(Gyro Sensor), 휠 센서(Wheel Sensor), 가속도 센서(Acceleration Sensor) 등), 위치 감지 센서(Position Sensitive Device, PSD), 및 수분 감지 센서를 포함할 수 있다. 상기 센서(212a)는 센싱된 결과를 프로세서(219)로 전달할 수 있다.
일 실시 예에 따르면, 상기 발광부(212b)는 적어도 하나의 발광 소자를 포함할 수 있다. 예를 들면, 발광부(212b)는 배터리(미도시)의 상태, 제1 청소기(110)의 진행 방향, 이물질 저장부(218)의 이물질 저장 정도 등 제1 청소기(110)의 동작에 관한 다양한 정보를 표시하는 적어도 하나의 발광 소자를 포함할 수 있다.
또는, 상기 발광부(212b)는 흡입부(217)의 내부에 배치되어 먼지량을 측정하도록 광을 출력하는 적어도 하나의 발광 소자를 포함할 수 있다.
일 실시 예에 따르면, 상기 제1 청소기(110)의 메모리(213)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 예를 들면, 상기 메모리(213)는 카메라(211), 센서(212a), 발광부(212b), 통신부(214), 구동부(215), 모터(216), 흡입부(217), 측정부(217a), 및 이물질 저장부(218)에서 획득되거나 처리된 정보 신호 또는 데이터를 저장할 수 있다. 상기 메모리(213)는 다른 청소기(예: 제2 청소기(120)) 및 다른 장치(예: 디스플레이 장치(130))와 연동하여 동작하도록 하는 제어 로직 또는 명령어들을 저장하고 있다.
또한, 상기 메모리(213)는 다른 청소기와 연동되어 동작되도록 지도 데이터, 청소 데이터, 청소 정보를 저장할 수 있다. 또한, 상기 메모리(213)는 이러한 저장된 지도 데이터, 청소 데이터, 청소 정보를 통신부(214)를 통해 적어도 하나의 다른 청소기 또는 디스플레이 장치(130)로 전송하는 명령어들을 저장하고 있다.
일 실시 예에 따르면, 상기 메모리(213)는 홈 내의 바닥에 대한 지도 데이터, 청소기(110)의 이동에 따른 궤적에 기반한 청소 정보, 다른 청소기로부터 수신되는 청소 데이터, 청소 정보를 저장할 수 있다. 또한, 상기 메모리(213)는 청소에 관련한 다양한 정보를 저장할 수 있을 뿐만 아니라, 본 개시에서 기술한 동작을 수행할 수 있는 어플리케이션(예: ThinQ 어플리케이션), 명령어들, 또는 프로그램을 저장할 수 있다.
일 실시 예에 따르면, 상기 제1 청소기(110)의 통신부(214)는 적어도 하나의 다른 청소기(예: 제2 청소기(120)) 또는 디스플레이 장치(130)와 적어도 하나의 신호, 정보, 데이터를 송수신할 수 있는 적어도 하나의 회로를 포함할 수 있다.
또한, 상기 통신부(214)는 근거리 통신(예: 블루투스(Bluetooth), NFC(Near Field Communication), 또는 비콘(Beacon))에 기반하여 홈 내의 적어도 하나의 다른 청소기 또는 디스플레이 장치(130)와 통신할 수 있으며, 이를 통해 지도 데이터 또는 청소 데이터를 전송할 수 있다. 상기 통신부(214)는 청소기들이 서로 연동하여 동작되도록 하는 어플리케이션을 휴대 단말(미도시), 또는 서버(예: LG ThinQ 서버)로부터 수신할 수 있다.
일 실시 예에 따르면, 상기 제1 청소기(110)의 구동부(215)는 청소기(110)를 이동시키기 위한 적어도 하나의 구동 바퀴를 포함할 수 있다. 또한, 상기 구동부(215)는 구동 바퀴에 연결되어 구동 바퀴를 회전시키는 구동 모터를 포함할 수 있다.
예를 들면, 청소기(110)는 청소기의 종류에 따라 청소기 본체의 좌, 우 측에 두 개의 구동 바퀴들이 포함되거나, 또는 네 개의 구동 바퀴들이 포함될 수 있다. 각각의 구동 바퀴는 모터에 의해 회전될 수 있다.
일 실시 예에 따르면, 상기 제1 청소기(110)의 모터(216)는 흡입부(217)를 통해 먼지 또는 이물질을 흡입할 수 있도록 동작한다.
일 실시 예에 따르면, 상기 제1 청소기(110)의 흡입부(217)는 제1 청소기(110)의 이동에 기반하여 바닥의 먼지 또는 이물질을 흡입하도록 제1 청소기의 외관에 형성될 수 있다. 그리고, 흡입부(217)는 흡입구(미도시)를 통해 흡입된 먼지 또는 이물질을 필터링하는 필터 부재를 포함할 수 있다.
일 실시 예에 따르면, 상기 제1 청소기(110)의 측정부(217a)는 흡입부(217)를 통해 흡입되는 먼지량 또는 이물질의 정도를 측정할 수 있다. 예를 들면, 측정부(217a)는 단위 시간 당 흡입되는 먼지량을 측정하여 현재 청소중인 위치에서의 먼지량의 정도를 식별할 수 있다.
이를 위해, 측정부(217a)는 도 9의 구조로 형성될 수 있으며, 측정부(217a)에 대한 설명은 도 9에서 기술한다.
일 실시 예에 따르면, 상기 제1 청소기(110)의 이물질 저장부(218)는 흡입부(217)를 통해 흡입된 먼지 또는 이물질을 저장하도록 형성된다.
또한, 상기 제1 청소기(110)는 상술한 구성 요소들 이외에 음성 신호를 출력하는 스피커, 및 청소기에서 처리되는 다양한 정보를 표시하는 표시부를 포함할 수 있다. 예를 들면, 상기 표시부는 정보를 출력할 수 있을 뿐만 아니라, 사용자로부터 터치 또는 호버링에 의한 명령을 수신할 수 있는 터치 스크린을 포함할 수 있다.
일 실시 예에 따르면, 상기 제1 청소기(110)의 프로세서(219)는 인공지능 알고리즘이 내장될 수 있다. 이러한 인공지능에 대한 알고리즘은 프로세서(219)에 의해 구현 또는 구동될 수 있다. 인공지능은 인간의 뇌 신경망을 모방한 프로그램으로서 다양한 데이터를 스스로 분석, 인지, 추론, 판단하는 딥러닝 알고리즘을 지원할 수 있다.
이를 통해, 상기 프로세서(219)는 다른 장치들(예: 제2 청소기(120), 및 디스플레이 장치(130))과 서로 연동하여 동작되도록 청소기를 인공지능으로 제어할 수 있다. 또한, 상기 프로세서(219)는 서버(미도시) 또는 사용자의 휴대 단말(미도시)로부터 청소기들을 연동하여 동작시키는 프로그램을 획득할 수 있다.
이와 같이, 다른 장치들(예: 제2 청소기(120), 및 디스플레이 장치(130))과 서로 연동하여 동작하도록, 상기 프로세서(219)는 청소기의 구성 요소들(예: 카메라(211), 센서(212a), 발광부(212b), 메모리(213), 통신부(214), 구동부(215), 모터(216), 흡입부(217), 측정부(217a), 및 이물질 저장부(218))을 전반적으로 제어할 수 있다.
일 실시 예에 따르면, 상기 제1 청소기(110)의 프로세서(219)는 청소 중에 청소 구역 내의 다양한 위치에서 먼지량, 및 수분량 중 적어도 일부를 카메라(211) 또는 센서(212a)를 통해 식별할 수 있다. 상기 제1 청소기(110)의 프로세서(219)는 먼지량, 및 수분량 중 적어도 일부에 기반한 청소 데이터를 생성할 수 있다. 상기 생성된 청소 데이터는 청소 구역의 각 위치에 대한 먼지량의 정도, 먼지 종류, 수분 종류, 또는 수분량의 정도 등에 대한 정보를 포함할 수 있다. 또한, 청소 데이터는 제1 청소기(110)의 진입이 불가하여 청소를 수행하지 못한 구역에 대한 정보 중 적어도 일부를 포함할 수 있다.
예를 들면, 청소 데이터는 먼지량, 및/또는 수분량이 많거나, 또는 적음을 나타내는 정도에 대한 정보를 포함할 수 있다.
이와 같이, 상기 제1 청소기(110)의 프로세서(219)는 청소를 위해 스스로 이동하면서 위치를 식별할 수 있고, 식별된 위치에서의 청소 정보를 획득할 수 있다.
일 실시 예에 따르면, 상기 제1 청소기(110)의 프로세서(219)는 먼지량, 및 수분량 중 적어도 일부를 카메라(211) 또는 센서(212a)를 통해 식별하고, 이러한 식별된 먼지량 및 수분량에 대한 정보, 및 진입이 불가하여 청소를 수행하지 못한 구역에 대한 정보 중 적어도 일부를 포함한 청소 데이터를 생성할 수 있다.
일 실시 예에 따르면, 상기 제1 청소기(110)의 프로세서(219)는 청소 궤적에 기반하여 지도 데이터를 생성하고, 상기 생성된 지도 데이터를 통신부(214)를 통해 제2 청소기(120)로 전송할 수 있다. 예를 들면, 상기 지도 데이터는 상기 제1 청소기(110)의 진입이 불가하여 청소를 수행하지 못한 구역 또는 위치에 대한 정보를 포함할 수 있다.
일 실시 예에 따르면, 상기 제1 청소기(110)의 프로세서(219)는 청소 중에 카메라(211) 또는 센서(212a)를 통해 청소 구역에 존재하는 적어도 하나의 사물을 식별하고, 상기 식별된 적어도 하나의 사물에 해당되는 모델링 데이터를 생성 또는 결정할 수 있다. 상기 프로세서(219)는 이동 궤적에 따라 청소 구역에 대한 지도 데이터를 생성할 수 있다. 그리고, 상기 프로세서(219)는 이동하면서 적어도 하나의 사물(예: 냉장고, TV, 침대, 소파 등)에 대한 이미지를 카메라(211)를 통해 획득하고, 획득된 사물의 형상이 청소 데이터에 나타나도록 하는 사물에 대한 모델링 과정을 수행할 수 있다.
그리고, 상기 프로세서(219)는 사물에 대한 모델링 데이터를 사물이 원래 위치한 위치 그대로 청소 데이터 상에 반영한다. 모델링 데이터는 실제 사물에 대해 용도, 형상, 크기, 색깔 등이 동일하거나 또는 유사하여 사용자로 하여금 직관적으로 식별 가능하도록 결정된다. 그리고, 상기 프로세서(219)는 청소 구역에 대한 적어도 하나의 사물의 모델링 데이터를 결정하여 청소 데이터의 해당 위치에 반영한다.
이와 같이, 상기 프로세서(219)는 적어도 하나의 사물에 대한 모델링 데이터가 결정되면, 상기 결정된 모델링 데이터를 지도 데이터 상의 해당 위치에 추가하여 청소 데이터를 생성하고, 생성된 청소 데이터를 제2 청소기(120)(예: 통신부(221))로 전송할 수 있다.
2. 제2 청소기(120)
일 실시 예에 따르면, 상기 제2 청소기(120)의 통신부(221)는 적어도 하나의 다른 청소기(예: 제1 청소기(110)) 또는 디스플레이 장치(130)와 적어도 하나의 신호, 정보, 데이터를 송수신할 수 있는 적어도 하나의 회로를 포함할 수 있다.
또한, 상기 통신부(221)는 근거리 통신(예: 블루투스(Bluetooth), NFC(Near Field Communication), 또는 비콘(Beacon))에 기반하여 홈 내의 적어도 하나의 다른 청소기(예: 제1 청소기(110)) 또는 디스플레이 장치(130)와 통신할 수 있으며, 이를 통해 제1 청소기(110)로부터 지도 데이터를 수신할 수 있다.
또한, 상기 통신부(214)는 디스플레이 장치(130)와 통신 채널이 연결된 상태에서 실시간으로 신호 또는 데이터를 송수신할 수 있다. 예를 들면, 상기 통신부(214)는 프로세서(229)의 제어 하에, 제2 청소기(120)(예: 샤프트의 헤드)의 현재 위치에 대한 정보를 실시간으로 디스플레이 장치(130)로 전송할 수 있다.
일 실시 예에 따르면, 상기 제2 청소기(120)의 발광부(222)는 적어도 하나의 발광 소자를 포함할 수 있다. 이러한 발광부(222)는 발광 소자의 온/오프를 통해 사용자를 미 청소 영역, 및 청소가 미흡한 영역 중 적어도 하나의 위치로 안내할 수 있다.
일 실시 예에 따르면, 상기 제2 청소기(120)의 메모리(223)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 예를 들면, 상기 메모리(223)는 통신부(221), 발광부(222), 센서(224), 모터(225), 물걸레 모듈(226), 흡입부(227), 먼지량 측정부(227a), 이물질 저장부(228), 및 프로세서(229)에서 획득되거나 처리된 정보 신호 또는 데이터를 저장할 수 있다. 상기 메모리(223)는 다른 청소기(예: 제1 청소기(110)) 및 다른 장치(예: 디스플레이 장치(130))와 연동하여 동작하도록 하는 제어 로직 또는 명령어들을 저장하고 있다.
또한, 상기 메모리(223)는 통신부(221)를 통해 적어도 하나의 다른 청소기 또는 디스플레이 장치(130)로부터 수신된 지도 데이터, 청소 데이터, 청소 정보를 저장할 수 있다.
일 실시 예에 따르면, 상기 메모리(223)는 제2 청소기(120)가 현재 청소 구역 내에서 어디에 위치하는지에 대한 위치 정보를 저장할 수 있다.
일 실시 예에 따르면, 상기 제2 청소기(120)의 센서(224)는 청소에 관련한 다양한 정보(예: 청소 중, 청소 상태 등)를 획득할 수 있는 다양한 센서를 포함할 수 있다. 또한, 상기 센서(224)는 청소기의 동작 및 상태와 관련된 데이터를 센싱하고, 홈 내의 바닥의 오염에 관한 데이터를 센싱하는 적어도 하나의 센서를 포함할 수 있다. 예를 들면, 센서(224)는 적외선 센서, 초음파 센서, 움직임 감지 센서(예: 자이로 센서(Gyro Sensor), 휠 센서(Wheel Sensor), 가속도 센서(Acceleration Sensor) 등), 위치 감지 센서(Position Sensitive Device, PSD), 및 수분 감지 센서를 포함할 수 있다. 또한, 상기 센서(224)는 측정부(227a) 내부에 배치되어 흡입부(227)를 통해 흡입되는 먼지량을 측정할 수 있고, 측정된 결과를 프로세서(229)로 전달할 수 있다.
일 실시 예에 따르면, 상기 제2 청소기(120)의 모터(225)는 흡입부(227)를 통해 먼지 또는 이물질이 흡입되도록 동작할 수 있다.
일 실시 예에 따르면, 상기 제2 청소기(120)의 물걸레 모듈(226)은 제2 청소기(120)의 샤프트와 탈부착이 가능하며, 바닥의 수분 또는 물기를 흡수할 수 있는 재질(예: 천 등)의 걸레와 탈부착이 가능하다. 물걸레 모듈(226)은 걸레로 수분을 공급하는 수통이 형성될 수 있다.
또한, 물걸레 모듈은 두 개의 회전판들 각각에 걸레가 장착되고, 회전하면서 바닥의 수분을 제거하거나, 또는 이물질을 제거할 수 있다.
일 실시 예에 따르면, 상기 제2 청소기(120)의 흡입부(227)는 물걸레 모듈(226)을 포함하는 헤드와 다른 헤드로서, 바닥의 먼지 또는 이물질을 흡입하는 흡입구(미도시)가 형성되어 있다. 상기 흡입부(227)는 모터(225)의 동작에 기반하여 바닥의 이물질 또는 먼지를 흡입할 수 있다.
일 실시 예에 따르면, 상기 제2 청소기(120)의 먼지량 측정부(227a)는 흡입부(227)의 흡입구를 통해 흡입되는 먼지량의 정도를 식별할 수 있다. 예를 들면, 먼지량 측정부(227a)는 흡입부(227)의 흡입구의 내측 일 면에 배치된 발광 소자를 발광시키고, 흡입부(227)의 흡입구의 내측 타 면에 배치된 센서에서 감지되는 광량을 분석하여 흡입구를 통해 흡입되는 먼지량의 정도를 식별할 수 있다.
일 실시 예에 따르면, 상기 제2 청소기(120)의 이물질 저장부(228)는 흡입부(227)를 통해 흡입된 먼지 또는 이물질을 저장할 수 있다.
일 실시 예에 따르면, 상기 제2 청소기(120)의 프로세서(229)는 다른 장치들(예: 제1 청소기(110), 및 디스플레이 장치(130))과 서로 연동하여 동작되도록 청소기를 제어할 수 있다. 또한, 상기 프로세서(229)는 서버(미도시) 또는 사용자의 휴대 단말(미도시)로부터 청소기들을 연동하여 동작시키는 프로그램을 획득할 수 있다.
이와 같이, 다른 장치들(예: 제1 청소기(110), 및 디스플레이 장치(130))과 서로 연동하여 동작하도록, 상기 프로세서(229)는 청소기의 구성 요소들(예: 통신부(221), 발광부(222), 메모리(223), 센서(224), 모터(225), 물걸레 모듈(226), 흡입부(227), 먼지량 측정부(227a), 및 이물질 저장부(228))을 전반적으로 제어할 수 있다.
일 실시 예에 따르면, 상기 제2 청소기(120)의 프로세서(229)는 청소 중인 제2 청소기(120)의 위치를 포함하는 정보를 통신부(221)를 통해 디스플레이 장치(130)로 전송할 수 있다.
일 실시 예에 따르면, 상기 제2 청소기(120)의 프로세서(229)는 제1 청소기(110)로부터 수신된 지도 데이터 상에서 제2 청소기(120)의 위치를 식별하고, 상기 제2 청소기(120)의 헤드가 먼지 청소 헤드인지, 또는 물걸레 청소 헤드인지를 식별할 수 있다. 프로세서(229)는 센서(224)를 통해 샤프트에 장착된 헤드가 먼지 청소를 위한 헤드인지, 또는 물걸레 청소를 위한 헤드인지를 식별할 수 있다.
그리고, 프로세서(229)는 상기 식별된 제2 청소기(120)의 위치, 및 상기 제2 청소기(120)의 헤드에 대한 식별자를 포함한 정보를 생성한 후, 디스플레이 장치(130)로 전송할 수 있다.
일 실시 예에 따르면, 상기 제2 청소기(120)의 프로세서(229)는 청소 중인 동안에, 제2 청소기(120)의 배관(즉, 샤프트 내부에서 먼지가 통과하는 배관)을 통과하는 먼지의 진행 방향에 수직 방향(예: 배관의 일 면에서 타 면 방향)으로 발광부(222)를 제어하여 광원(예: 제1 광원)을 조사할 수 있다.
또한, 상기 제2 청소기(120)의 프로세서(229)는 조사된 광원(예: 제1 광원)에 기반하여, 먼지를 통과한 광원(예: 제2 광원)을 수신할 수 있다. 그리고, 프로세서(229)는 제1 광원의 세기와 제2 광원의 세기를 비교하여 배관(즉, 샤프트 내부에서 먼지가 통과하는 배관)을 통과하는 먼지량을 측정할 수 있다. 이에 대한 구체적인 설명은 도 8 및 도 9에서 후술한다.
일 실시 예에 따르면, 상기 제2 청소기(120)의 프로세서(229)는 청소 데이터 상의 객체(예: 게임상의 괴물 아이콘)가 존재하는 위치에 대한 청소가 완료되는지 식별할 수 있다. 상기 프로세서(229)는 객체가 존재하는 위치에 대한 청소가 완료되면, 청소 데이터 상에서 객체가 제거되는데, 이러한 객체를 제거하는 과정을 나타내는 시각 효과가 표시됨에 기반하여, 객체를 청소 데이터 상에서 제거할 수 있다.
3. 디스플레이 장치(130)
일 실시 예에 따르면, 상기 디스플레이 장치(130)의 카메라(231)는 디스플레이 장치(130)의 전면에 배치되어, 착용자의 전방을 촬영한 이미지를 획득할 수 있다. 그리고, 상기 카메라(231)는 획득된 이미지를 프로세서(2350)로 전달할 수 있다.
일 실시 예에 따르면, 상기 디스플레이 장치(130)의 표시부(232)는 청소 데이터를 표시할 수 있다. 상기 표시부(232)는 프로세서(235)의 제어 하에, 먼지량 및 수분량 중 적어도 일부에 기반하여 생성된 적어도 하나의 객체가 반영된 청소 데이터를 표시할 수 있다.
예를 들면, 상기 청소 데이터는 청소 구역에 대한 실체 데이터를 가상 현실 또는 증강 현실로 변환한 것으로서, 먼지량 및 수분량 중 적어도 일부에 기반하여 생성된 객체(예: 게임 내의 괴물 아이콘)가 포함된다.
예를 들면, 표시부(232)는 프로세서(235)의 제어 하에, 먼지 또는 수분이 많은 곳에는 큰 괴물 형상의 아이콘을 청소 데이터 상의 해당 위치에 표시하고, 적은 곳에는 작은 크기의 아이콘을 청소 데이터 상의 해당 위치에 표시한다.
이와 같이, 상기 표시부(232)는 프로세서(235)에 의해 처리되거나 생성되는 데이터를 표시할 수 있다.
일 실시 예에 따르면, 상기 디스플레이 장치(130)의 메모리(233)는 청소기(예: 제1 청소기(110), 및 제2 청소기(120))와 연동하여 동작하도록 하는 제어 로직 또는 명령어들을 저장하고 있다.
또한, 상기 메모리(233)는 통신부(234)를 통해 수신되는 지도 데이터, 청소 데이터, 청소 정보를 저장하고 있다. 또한, 상기 메모리(233)는 청소에 관련한 다양한 정보를 저장할 수 있을 뿐만 아니라, 본 개시에서 기술한 동작을 수행할 수 있는 명령어들, 또는 프로그램을 저장할 수 있다.
일 실시 예에 따르면, 상기 디스플레이 장치(130)의 통신부(234)는 청소기(예: 제1 청소기(110), 및 제2 청소기(120))와 적어도 하나의 신호, 정보, 데이터를 송수신할 수 있는 적어도 하나의 회로를 포함할 수 있다.
또한, 상기 통신부(234)는 근거리 통신(예: 블루투스(Bluetooth), NFC(Near Field Communication), 또는 비콘(Beacon))에 기반하여 홈 내의 적어도 하나의 청소기와 통신할 수 있으며, 이를 통해 지도 데이터 또는 청소 데이터를 수신할 수 있다.
일 실시 예에 따르면, 상기 디스플레이 장치(130)의 프로세서(235)는 디스플레이 장치(130)의 구성 요소들(예: 카메라(231), 표시부(232), 메모리(233), 통신부(234))을 전반적으로 제어할 수 있다.
일 실시 예에 따르면, 상기 디스플레이 장치(130)의 프로세서(235)는 청소기(예: 제1 청소기(110))로부터 수신된 청소 데이터에 포함된 적어도 하나의 위치의 먼지량 및 수분량 중 적어도 일부를 식별할 수 있다. 예를 들면, 상기 프로세서(235)는 청소 데이터를 분석하여 어느 위치에 먼지가 존재하는지, 또는 어느 위치에 수분이 존재하는지를 식별할 수 있다.
일 실시 예에 따르면, 상기 프로세서(235)는 청소 데이터에 포함된 적어도 하나의 위치에서의 먼지량의 정도를 각각 식별하고, 상기 식별된 먼지량의 정도에 해당되는 객체를 결정할 수 있다. 상기 프로세서(235)는 상기 결정된 객체를 청소 데이터 상의 해당 위치에 반영하고, 상기 결정된 객체가 반영된 청소 데이터를 생성할 수 있다.
일 실시 예에 따르면, 상기 프로세서(235)는 청소 데이터의 분석에 기반하여 먼지량 및 수분량 중 적어도 일부에 대응되는 객체(예: 청소 게임의 몬스터 아이콘)를 생성하고, 상기 생성된 객체를 청소 데이터 상의 해당 위치에 반영할 수 있다. 예를 들면, 상기 프로세서(235)는 먼지량이나 또는 수분량이 많을 경우 큰 크기의 객체를 생성하여 청소 데이터에 반영하고, 먼지량이나 또는 수분량이 적을 경우 작은 크기의 객체를 생성하여 청소 데이터에 반영할 수 있다.
일 실시 예에 따르면, 상기 프로세서(235)는 샤프트에 장착된 헤드가 먼지를 청소하는 헤드인지, 또는 물걸레 청소하는 헤드인지에 대한 정보를 제2 청소기(120)로부터 통신부(234)를 통해 획득할 수 있다.
그리고, 상기 프로세서(235)는 제2 청소기(120)의 헤드가 먼지 청소 헤드인 경우, 먼지량(또는 이물질 종류)에 따라 객체의 크기를 결정할 수 있다. 또한, 상기 프로세서(235)는 제2 청소기(120)의 헤드가 물걸레 청소 헤드인 경우, 바닥에 존재하는 물의 양(또는 종류)에 따라 객체의 크기를 결정할 수 있다.
예를 들면, 상기 프로세서(235)는 먼지의 종류에 따라 다른 종류의 몬스터(monster)에 해당되는 아이콘을 생성할 수 있거나, 또는 수분의 종류에 따라 다른 종류의 몬스터에 해당되는 아이콘을 생성할 수도 있다. 본 개시는 이러한 몬스터의 크기 또는 종류를 제안하지 않는다.
일 실시 예에 따르면, 상기 프로세서(235)는 적어도 하나의 객체가 반영된 청소 데이터를 표시부(232)를 통해 표시할 수 있다. 예를 들면, 상기 프로세서(235)는 카메라(231)를 통해 획득되는 이미지에 기반하여 사용자가 현재 어디에 위치하는지 및 어느 방향을 바라보고 있는지를 식별할 수 있다. 그리고, 사용자의 위치 및 방향이 식별되면, 식별된 위치 및 방향에 대응되도록 청소 데이터를 표시부(232) 상에 표시할 수 있다.
일 실시 예에 따르면, 상기 프로세서(235)는 식별된 위치 및 방향에 실시간으로 대응되도록 청소 데이터에 상기 객체를 포함하여 실시간으로 표시부(232)를 통해 표시할 수 있다.
일 실시 예에 따르면, 상기 프로세서(235)는 청소기(120)(예: 제2 청소기)로부터 청소기(120)(예: 제2 청소기)의 위치에 대한 정보를 수신하고, 수신된 정보를 분석하여 청소 구역에서 청소가 진행중인 청소기(120)(예: 제2 청소기)의 위치를 식별할 수 있다. 그리고, 상기 프로세서(235)는 상기 식별된 위치에서의 청소가 완료되는 경우, 상기 식별된 위치에 대응되는 객체를 제거하고, 상기 객체가 제거되는 것을 나타내는 비주얼 효과(예: 터짐 효과 등)를 표시할 수 있다.
일 실시 예에 따르면, 상기 프로세서(235)는 청소 데이터 상에서 객체의 제거에 따른 점수를 표시부(232)를 통해 표시할 수 있다. 이러한 점수는 객체의 크기가 클수록 크거나, 또는 객체의 종류에 따라 다를 수 있다.
이러한 디스플레이 장치(130)는 가상 현실(Virtual Reality) 디스플레이 장치이거나, 또는 증강 현실(Augmented Reality) 디스플레이 장치일 수 있다.
예를 들면, 디스플레이 장치(130)가 가상 현실 디스플레이 장치인 경우, 상기 프로세서(235)는 청소 구역에 대해 적어도 하나의 사물을 실시간으로 트래킹하고, 트래킹된 적어도 하나의 사물에 렌더링이 가능한지 식별할 수 있다. 그리고, 상기 프로세서(235)는 렌더링이 가능한 것으로 식별되면, 적어도 하나의 사물의 가로, 세로, 및 높이에 대한 트래킹 정보를 가상 객체 정보로 입력하여 실시간으로 렌더링하고, 상기 실시간의 렌더링에 기반하여 청소 데이터를 생성 및 저장할 수 있다.
예를 들면, 디스플레이 장치(130)가 증강 현실 디스플레이 장치인 경우, 상기 프로세서(235)는 렌더링이 가능하지 않는 것으로 식별되면, 적어도 하나의 사물에 대한 뎁스 정보를 획득하고, 상기 획득된 뎁스 정보에 기반하여 적어도 하나의 사물과의 거리를 식별할 수 있다. 그리고, 상기 프로세서(235)는 상기 식별된 거리에 기반하여 가상 객체를 출력할 수 있다.
이와 같이, 사용자는 디스플레이 장치(130)(예: HMD)를 머리에 착용함으로써, 실제 공간을 가상 현실 또는 증강 현실로 전환한 청소 데이터를 볼 수 있을 뿐만 아니라, 먼지량 또는 수분량에 기반하여 생성되는 객체를 제2 청소기(120)(예: 로봇 청소기)를 이용하여 제거하는 게임을 수행할 수 있다.
도 3은 본 개시의 일 실시 예에 따른 청소를 위한 게임을 제공하는 시스템의 과정을 나타낸 순서도이다.
이하, 도 3을 참조하여, 본 개시의 일 실시 예에 따른 청소를 위한 게임을 제공하는 시스템의 과정을 상세히 설명하면 다음과 같다.
일 실시 예에 따르면, 제1 청소기(110)는 청소 중인지 식별할 수 있다(S310). 제1 청소기(110)(예: 로봇 청소기)는 기 지정된 스케줄 또는 사용자의 명령에 기반하여 홈 내의 바닥을 이동하면서, 바닥에 존재하는 먼지 또는 이물질을 제거하는 청소를 시작할 수 있다. 그리고, 상기 제1 청소기(110)(예: 로봇 청소기)는 구동부(도 2의 215)의 동작 여부 또는 센서(도 2의 212a)를 통해 제1 청소기(110)가 현재 청소 중인지, 또는 청소 중이 아닌지를 식별할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)는 청소 궤적에 기반하여 지도 데이터를 생성할 수 있다(S312). 제1 청소기(110)는 청소 중 이동에 기반한 청소 궤적 및 청소 정보를 저장할 수 있다. 제1 청소기(110)는 바닥을 이동하면서 바닥에 대한 청소 궤적의 저장에 기반하여, 지도 데이터를 생성할 수 있다. 예를 들면, 제1 청소기 (110)는 청소 구역을 돌아다니면서 청소 궤적을 실시간으로 저장하고, 저장된 청소 궤적을 이용하여 지도 데이터를 생성할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)는 청소가 완료된 영역, 청소가 미흡한 영역, 청소하지 못한 영역, 및 바닥에 수분이 존재하는 영역에 대한 위치 정보를 지도 데이터에 포함할 수 있다. 그리고, 제1 청소기 (110)는 생성된 지도 데이터를 저장할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)는 생성된 지도 데이터를 제2 청소기(120)로 전송할 수 있다(S314). 제1 청소기(110)는 청소가 완료된 후, 청소 궤적에 대한 지도 데이터를 제2 청소기(120)로 전송할 수 있다. 또는, 제1 청소기(110)는 청소 중에, 청소 궤적에 대한 지도 데이터를 실시간으로 제2 청소기(120)로 전송할 수도 있다. 또는, 제1 청소기(110)는 각각의 청소 구역(예: 거실, 안방, 작은방 등)에서의 청소가 완료되면, 각 청소 구역의 청소 궤적에 대한 지도 데이터를 제2 청소기(120)로 전송할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)는 청소 구역에서의 먼지량을 식별할 수 있다(S316). 제1 청소기(110)는 청소 중에 청소 구역에서 먼지가 존재하는 지역에 대한 위치 정보(예: 좌표 정보)를 저장할 수 있다. 제1 청소기(110)(예: 로봇 청소기)는 홈 내의 바닥을 청소하는 중에, 바닥에 존재하는 먼지량을 흡입부(도 2의 측정부(217a))를 통해 식별할 수 있다. 예를 들면, 상기 측정부(217a)는 제1 청소기의 흡입부(217)의 관 내에 배치되어 통과하는 먼지량을 측정할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)는 식별된 먼지량을 추가한 청소 데이터를 생성할 수 있다(S318). 제1 청소기(110)는 청소 중에 측정한 먼지량에 대한 정보, 먼지 종류, 수분량, 수분 종류에 대한 정보를 포함하는 청소 데이터를 생성할 수 있다. 예를 들면, 상기 청소 데이터는 청소 궤적에 대한 정보, 각 위치에서의 먼지량(및/또는 수분량)을 포함할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)는 생성된 청소 데이터를 디스플레이 장치(130)로 전송할 수 있다(S320). 제1 청소기(110)는 기 설정된 동작 로직에 기반한 청소가 마무리되는 경우, 청소가 완료된 것으로 식별할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)는 청소 중에 청소 정보(예: 청소가 완료된 영역, 각 위치에서의 먼지량, 각 위치에서의 수분량, 청소가 미흡한 영역, 청소하지 못한 영역, 및 바닥에 수분이 존재하는 위치에 대한 위치 정보)가 추가된 청소 데이터를 메모리(도 2의 213)에 저장할 수 있다. 또한, 제1 청소기(110)는 청소 데이터를 디스플레이 장치(130)로 전송할 수 있다.
일 실시 예에 따르면, 제2 청소기(120)는 청소 중인지 식별할 수 있다(S322). 제2 청소기(120)(예: 진공 청소기)는 사용자의 이동 방향에 기반하여 이동하면서, 바닥에 존재하는 먼지 또는 이물질을 제거하는 청소를 시작할 수 있다. 그리고, 제2 청소기(120)(예: 진공 청소기)는 모터부(도 2의 225)의 동작 여부 또는 센서(224)의 감지에 따라 제2 청소기(120)가 현재 청소 중인지, 또는 청소 중이 아닌지를 식별할 수 있다.
일 실시 예에 따르면, 제2 청소기(120)는 지도 데이터 상에서 제2 청소기의 위치를 식별할 수 있다(S324). 제2 청소기(120)는 청소 중에 청소 구역 상에서 자신(예: 제2 청소기)의 위치를 실시간으로 식별할 수 있다. 그리고, 제2 청소기(120)는 제1 청소기(110)로부터 수신된 지도 데이터 상에서 자신(예: 제2 청소기)의 위치를 실시간으로 식별할 수 있다.
일 실시 예에 따르면, 제2 청소기(120)는 식별된 위치에 대한 정보를 디스플레이 장치로 전송할 수 있다(S326). 제2 청소기(120)는 청소 중에 청소 구역 상에서 자신의 식별된 위치에 대한 정보를 디스플레이 장치(130)로 전송할 수 있다. 제2 청소기(120)는 제1 청소기(110)로부터 수신된 지도 데이터 상에서 자신의 식별된 위치에 대한 정보를 디스플레이 장치(130)로 전송할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)는 먼지량에 따른 객체를 생성할 수 있다(S328). 디스플레이 장치(130)는 제1 청소기(110)로부터 수신된 청소 데이터의 각 위치에서의 먼지량에 대한 정도를 분석하여, 먼지량에 대한 객체를 생성할 수 있다. 디스플레이 장치(130)는 제2 청소기(120)로부터 현재 청소 모드가 먼지를 청소하는 모드인지, 또는 물걸레를 청소하는 모드인지를 나타내는 정보를 수신할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)는 제2 청소기(120)의 헤드가 먼지 청소 헤드인지, 또는 물걸레 청소 헤드인지에 따라, 다른 종류의 객체를 생성할 수 있고, 바닥에 존재하는 먼지의 양(또는 종류), 또는 물의 양(또는 종류)에 따라 객체의 크기를 서로 다르게 결정할 수 있다.
예를 들면, 디스플레이 장치(130)는 먼지의 종류에 따라 다른 종류의 몬스터에 해당되는 아이콘을 생성할 수 있거나, 또는 수분의 종류에 따라 다른 종류의 몬스터에 해당되는 아이콘을 생성할 수도 있다.
일 실시 예에 따르면, 디스플레이 장치(130)는 생성된 객체를 청소 데이터에 반영하여 표시할 수 있다(S330). 디스플레이 장치(130)는 먼지량의 정도에 기반하여 생성된 객체를 청소 데이터에 추가할 수 있다. 디스플레이 장치(130)는 청소 데이터의 분석에 기반하여 먼지량 및 수분량 중 적어도 일부에 대응되는 객체(예: 청소 게임의 몬스터 아이콘)를 생성하고, 생성된 객체를 청소 데이터 상의 해당 위치에 반영할 수 있다.
예를 들면, 디스플레이 장치(130)는 먼지량이나 또는 수분량이 많을 경우 큰 크기의 객체를 생성하여 청소 데이터에 반영하고, 먼지량이나 또는 수분량이 적을 경우 작은 크기의 객체를 생성하여 청소 데이터에 반영할 수 있다. 이러한 청소 데이터는 사용자가 디스플레이 장치(130)(예: HMD)를 머리에 착용할 경우, 디스플레이 장치(130)는 청소 데이터를 사용자가 볼 수 있도록 표시할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)는 객체가 위치한 영역이 청소되었는지를 식별할 수 있다(S332). 디스플레이 장치(130)는 제2 청소기의 위치를 식별하여, 객체가 위치한 영역이 청소되었는지를 판단할 수 있다. 예를 들면, 디스플레이 장치(130)는 제2 청소기(120)로부터 헤드에 대한 위치를 나타내는 정보를 수신하고, 해당 위치에서 헤드가 움직이는 경우, 객체가 위치한 영역이 청소되었다고 판단할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)는 해당 객체를 청소 데이터 상에서 제거할 수 있다(S334). 디스플레이 장치(130)는 객체가 위치한 영역이 청소된 것으로 판단되면, 해당 위치에 존재하는 객체를 청소 데이터 상에서 제거할 수 있다. 디스플레이 장치(130)는 객체가 위치한 영역이 청소된 것으로 판단되면, 해당 위치에 존재하는 객체가 제거되는 비주얼 효과를 표시할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)는 객체가 존재하는 위치에 대한 청소가 완료되면, 청소 데이터 상에서 객체를 제거하는 과정을 나타내는 시각 효과를 표시부(232)에 표시할 수 있다. 디스플레이 장치(130)는 청소가 완료되는 경우, 위치에 대응되는 객체가 제거되는 것을 나타내는 비주얼 효과(예: 터짐 효과, 사라지는 효과 등)를 표시부(232)에 표시할 수 있다.
도 4는 본 개시의 일 실시 예에 따른 청소기가 지도 데이터를 생성하여 전송하는 과정을 나타낸 순서도이다. 도 5는 본 개시의 일 실시 예에 따른 홈 내의 지도 데이터의 예시도이다. 도 6은 본 개시의 일 실시 예에 따른 지도 데이터에 청소기의 궤적을 표시한 예시도이다. 도 7은 본 개시의 일 실시 예에 따른 지도 데이터에 청소 정보를 표시한 예시도이다.
이하, 도 4 내지 도 7을 참조하여, 본 개시의 일 실시 예에 따른 청소기(예: 로봇 청소기)가 지도 데이터를 생성하여 적어도 하나의 다른 청소기(예: 진공 청소기 또는 물 걸레 청소기)로 전송하는 과정을 상세히 설명하면 다음과 같다.
예를 들면, 도 4 내지 도 7에서의 청소기는 제1 청소기(110) 이거나, 또는 제2 청소기(120)일 수 있다. 또는, 도 4 내지 도 7에서의 청소기는 제1 청소기(110)와 제2 청소기(120)를 포함하는 것으로 해석될 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 현재 청소 중인지 식별할 수 있다(S410). 제1 청소기(110)(예: 프로세서(219))는 기 지정된 스케줄 또는 사용자의 명령에 기반하여 홈 내의 바닥을 청소할 수 있다. 제1 청소기(110)(예: 프로세서(219))는 구동부(215)의 동작 감지 또는 센서(212a)의 측정에 기반하여 제1 청소기(110)가 바닥을 현재 청소하고 있는지를 식별할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 제1 청소기(110)의 이동에 기반한 궤적 및 궤적에 따른 청소 정보를 저장할 수 있다(S412). 제1 청소기(110)(예: 프로세서(219))는 홈 내의 바닥을 이동하면서 바닥에 대한 지도 데이터를 생성할 수 있다. 그리고, 제1 청소기(110)(예: 프로세서(219))는 상기 생성된 지도 데이터 상에 이동에 따른 궤적과, 상기 궤적에 따른 청소 정보를 획득할 수 있다. 예를 들면, 제1 청소기(110)(예: 프로세서(219))는 바닥을 이동하여 청소하면서, 청소 궤적, 청소가 미흡한 영역, 청소하지 못한 영역, 및 바닥에 수분이 존재하는 위치에 대한 위치 정보를 포함하는 청소 정보를 획득한 후, 메모리(213)에 저장할 수 있다.
도 5를 참조하면, 본 개시의 일 실시 예에 따른 지도 데이터(510)는 홈 내의 평면도일 수 있다. 이러한 지도 데이터(510)는 안방, 작은방, 거실 등 바닥에서 청소기(예: 로봇 청소기(110))가 이동 가능한 영역(511)을 포함할 수 있다. 예를 들면, 바닥에 수납장, 소파 등 가구 등이 배치되는 경우, 상기 청소기(예: 로봇 청소기(110))는 가구가 배치된 영역으로 진입이 불가하다. 따라서, 상기 지도 데이터(510)는 청소기(예: 로봇 청소기(110))가 이동 가능한 영역을 나타낸다.
도 6을 참조하면, 청소기(예: 로봇 청소기(110))가 홈 내의 바닥을 청소하기 위해 이동하는데, 상기 지도 데이터(510)는 이러한 청소기(예: 로봇 청소기(110))의 이동에 따른 궤적(611)을 표시할 수 있다. 이러한 지도 데이터(510) 상의 궤적을 통해, 상기 청소기(예: 로봇 청소기(110)) 또는 다른 청소기(예: 진공 청소기 또는 물걸레 청소기)는 청소가 미흡한 영역 또는 청소하지 못한 영역을 식별할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 청소가 완료되는지 식별할 수 있다(S414). 제1 청소기(110)(예: 프로세서(219))는 도킹부(미도시)에 도킹이 되거나, 또는 기 설정된 동작 로직에 기반한 청소가 마무리되는 경우, 청소가 완료된 것으로 식별할 수 있다. 또는, 상기 제1 청소기(110)(예: 프로세서(219))는 청소기(110)가 바닥 청소를 위해 홈 내의 바닥의 모든 영역으로 이동한 경우, 청소가 완료된 것으로 식별할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 지도 데이터를 생성할 수 있다(S416). 제1 청소기(110)(예: 프로세서(219))는 바닥 청소를 위해 바닥을 이동하는 중에 지도 데이터를 생성 및 업데이트를 수행할 수 있다. 예를 들면, 제1 청소기(110)(예: 프로세서(219))는 상기 과정(S412)에서 생성된 지도 데이터 또는 메모리(213)로부터 획득한 지도 데이터에 바닥을 청소하면서 획득한 청소 정보를 실시간으로 추가할 수 있다.
도 7을 참조하면, 제1 청소기(110)(예: 프로세서(219))는 지도 데이터(510) 상에 청소 정보를 표시할 수 있다. 제1 청소기(110)(예: 프로세서(219))는 상기 지도 데이터(510)와 실제로 제1 청소기(110)가 이동한 궤적을 대조하여 청소가 미흡한 영역, 및 청소하지 못한 영역 중 적어도 하나를 식별할 수 있다. 또는, 제1 청소기(110)(예: 프로세서(219))는 지도 데이터(510)에 기반하여, 수분이 감지된 영역을 식별할 수 있다.
예를 들면, 상기 지도 데이터(510)에서 제1 영역(711)은 청소가 미흡한 영역, 및 청소하지 못한 영역 중 적어도 하나를 나타내고, 제2 영역(712)은 바닥에 수분이 감지된 영역을 나타낼 수 있다.
이와 같이, 제1 청소기(110)(예: 프로세서(219))는 지도 데이터(510) 상에 청소 정보(예: 청소가 미흡한 영역, 청소하지 못한 영역, 및 수분이 감지된 영역 중 적어도 하나)를 추가하여 지도 데이터를 생성할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 지도 데이터를 적어도 하나의 다른 청소기로 전송할 수 있다(S418). 제1 청소기(110)(예: 프로세서(219))는 지도 데이터에 기반한 청소에 따른 다양한 청소 정보(예: 청소가 미흡한 영역, 청소하지 못한 영역, 및 바닥에 수분이 존재하는 위치에 대한 위치 정보)가 추가된 지도 데이터를 적어도 하나의 다른 청소기(예: 제2 청소기(120))로 전송할 수 있다.
도 8은 본 개시의 일 실시 예에 따른 청소기가 먼지량을 추정하여 청소 데이터를 생성하는 과정을 나타낸 순서도이다. 도 9는 본 개시의 일 실시 예에 따른 먼지량을 측정하는 예시도이다.
이하, 도 8 및 9를 참조하여, 본 개시의 일 실시 예에 따른 청소기가 먼지량을 추정하여 청소 데이터를 생성하는 과정을 상세히 설명하면 다음과 같다. 예를 들면, 도 8 및 도 9에서의 청소기는 제1 청소기(110) 이거나, 또는 제2 청소기(120)일 수 있다. 또는, 도 8 및 도 9에서의 청소기는 제1 청소기(110)와 제2 청소기(120)를 포함하는 것으로 해석될 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 기 지정된 스케줄 또는 사용자의 명령에 기반하여 홈 내의 바닥을 이동하면서, 바닥에 존재하는 먼지 또는 이물질을 제거하는 청소를 시작할 수 있다(S810). 제1 청소기(110)(예: 프로세서(219))는 구동부(도 2의 215)의 동작 여부 또는 센서(도 2의 212a)를 통해 제1 청소기(110)가 현재 청소 중인지, 또는 청소 중이 아닌지를 식별할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 발광 소자를 통해 먼지가 통과하는 수직 방향으로 광원을 조사할 수 있다(S812). 제1 청소기(110)(예: 프로세서(219))는 샤프트 내부의 관의 일 측에 배치된 발광부(예: 발광 소자)를 통해 먼지가 통과하는 방향과 수직 방향으로 광원을 출력할 수 있다. 그리고, 제1 청소기(110)(예: 프로세서(219))는 출력된 광원의 양과 먼지를 통과한 후, 샤프트 내부의 관의 타 측에 배치된 수광부를 통해 입사되는 광원의 양의 크기를 비교할 수 있다. 이러한 비교를 통해 제1 청소기(110)(예: 프로세서(219))는 샤프트 내부의 관을 통해 흡입되는 먼지량의 정도를 식별할 수 있다.
도 9를 참조하면, 제1 청소기(110)의 샤프트(910)의 내부에는 발광부(920) 및 수광부(930)가 배치되어 있다. 이러한 발광부(920) 및 수광부(930)는 측정부(217a)에 포함될 수 있다. 제1 청소기(110)(예: 프로세서(219))는 먼지 또는 이물질을 흡입하도록 제1 청소기(110)를 동작시킬 수 있다.
일 실시 예에 따르면, 프로세서(219)는 제1 청소기(110)가 동작되면, 발광부(920)에 포함된 발광 소자(921)를 통해 광원을 일정한 세기로 출력할 수 있다. 발광 소자(921)를 통해 출력되는 빛은 먼지와 이물질(940)을 통과하여 수광부(930)의 센서(931)로 입사된다. 예를 들면, 먼지 또는 이물질(940)이 일 방향(예: -z 방향)으로 흡입되고, 발광 소자(921)를 통해 광원이 일정한 세기로 출력되고 있는 상태에서, 수광부(930)의 센서(931)로 입사되는 빛의 양은 먼지와 이물질(940)의 양에 따라 다를 수 있다. 발광 소자(921)를 통해 출력되는 빛의 일부는 먼지와 이물질(940)에 의해 산란되어 센서(931)로 입사되지 못할 수 있다. 프로세서(219)는 광원의 출력량 대비 입사량의 비율을 통해 흡입되는 먼지량의 정도를 판단할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 조사된 광원의 양과 먼지를 통과한 광원의 양을 비교할 수 있다(S814). 프로세서(219)는 발광부(920)의 발광 소자(921)로부터 출력된 광원 세기 대비 먼지를 통과하여 수광부(930)의 센서(931)를 통해 입사한 광원 세기의 비율을 계산할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 먼지량을 추정할 수 있다(S816). 프로세서(219)는 발광 소자(921)로부터 출력된 광원 세기 대비 먼지를 통과하여 수광부(930)의 센서(931)를 통해 입사한 광원 세기의 비율을 계산하여 먼지량 또는 먼지량의 정도를 추정 또는 측정할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 추정된 먼지량에 관한 정보를 추가하여 청소 데이터를 생성할 수 있다(S818). 프로세서(219)는 먼지량이 추정되면, 제1 청소기(110)의 헤드의 위치를 식별하여 제1 청소기(110)가 청소 구역에서 현재 어디에 위치하는지를 판단할 수 있다. 그리고, 프로세서(219)는 지도 데이터에 추정된 먼지량에 대한 정보를 추가하여 청소 데이터를 생성할 수 있다. 프로세서(219)는 먼지량이 측정된 위치(예: 헤드의 위치)에 먼지량에 대한 정보를 추가하여 청소 데이터를 생성할 수 있다. 이러한 청소 데이터는 청소 구역 내의 각 지점에서의 먼지량의 정도뿐만 아니라, 이물질의 존재 여부에 대한 정보 및 이물질의 종류에 대한 정보를 포함할 수 있다. 또한, 청소 데이터는 청소 구역 내에서 수분이 존재하는 위치에 대한 정보를 포함할 수 있다.
일 실시 예에 따르면, 프로세서(219)는 청소 궤적, 청소가 완료된 영역, 청소가 미흡한 영역, 청소하지 못한 영역, 및 바닥에 수분이 존재하는 위치 등에 대한 위치 정보를 포함하는 청소 데이터를 생성할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 생성된 청소 데이터를 디스플레이 장치로 전송할 수 있다(S820). 프로세서(219)는 청소 데이터를 통신부(214)를 통해 디스플레이 장치(130)로 전송할 수 있다. 프로세서(219)는 지도 데이터에 기반한 청소에 따른 다양한 청소 정보(예: 먼지량의 정도, 이물질의 유무, 이물질의 종류, 청소가 미흡한 영역, 청소하지 못한 영역, 및 바닥에 수분이 존재하는 위치에 대한 위치 정보)가 추가된 청소 데이터를 디스플레이 장치(130)로 전송할 수 있다.
도 10은 본 개시의 일 실시 예에 따른 청소기가 청소 구역 내의 사물에 대한 모델링 데이터를 반영하여 청소 데이터를 생성하는 과정을 나타낸 순서도이다. 도 11은 본 개시의 일 실시 예에 따른 청소 구역의 이미지를 나타낸 예시도이다. 도 12는 본 개시의 일 실시 예에 따른 청소 구역에 증강 현실에 기반한 객체를 포함하여 생성한 청소 데이터를 나타낸 예시도이다. 도 13은 본 개시의 일 실시 예에 따른 청소 구역에 가상 현실에 기반한 객체를 포함하여 생성한 청소 데이터를 나타낸 예시도이다.
이하, 도 10 내지 도 13을 참조하여, 본 개시의 일 실시 예에 따른 청소기가 청소 구역 내의 사물에 대한 모델링 데이터를 반영하여 청소 데이터를 생성하는 과정을 상세히 설명하면 다음과 같다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 청소 중인지를 식별할 수 있다(S1010). 프로세서(219)는 기 지정된 스케줄 또는 사용자의 명령에 기반하여 홈 내의 바닥을 이동하면서, 바닥에 존재하는 먼지 또는 이물질을 제거하는 청소를 시작할 수 있다. 프로세서(219)는 구동부(도 2의 215)의 동작 여부 또는 센서(도 2의 212a)를 통해 제1 청소기(110)가 현재 청소 중인지, 또는 청소 중이 아닌지를 식별할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 카메라를 통해 청소 구역에 존재하는 적어도 하나의 사물을 식별할 수 있다(S1012). 프로세서(219)는 청소 중에 카메라(211)를 통해 청소 구역 내에 존재하는 적어도 하나의 사물에 대한 이미지를 획득할 수 있다. 그리고, 프로세서(219)는 획득된 이미지를 분석하여 이미지 내의 사물의 크기, 종류를 식별할 수 있다.
도 11을 참조하면, 제1 청소기(110)(예: 로봇 청소기)가 청소를 위해 이동하면서 적어도 하나의 이미지(1100)를 획득할 수 있다. 이러한 이미지(1100)는 이동 중에 주기적으로 획득되거나, 또는 사물이 식별되면 카메라(211)를 통해 획득될 수 있다.
예를 들면, 이미지(1100)는 TV(1110), 책장(1120), 화분(1130), 로봇 청소기 거치대(1140), 및 소파(1150)를 포함할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 식별된 사물에 해당되는 모델링 데이터를 결정할 수 있다(S1014). 프로세서(219)는 식별된 사물에 해당되는 모델링 데이터를 결정하거나, 또는 식별된 사물과 같은 종류의 다른 사물에 해당되는 모델링 데이터를 결정할 수 있다. 예를 들면, 식별된 사물이 55인치 TV인 경우, 프로세서(219)는 청소 데이터에 포함될 55인치 TV에 해당되는 모델링 데이터를 결정할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 결정된 모델링 데이터를 지도 데이터 상의 해당 위치에 추가하여 청소 데이터를 생성할 수 있다(S1016). 프로세서(219)는 사물에 해당되는 모델링 데이터를 해당 사물이 존재하는 청소 데이터 상의 위치에 배치하여 청소 데이터를 생성할 수 있다. 이와 같이, 프로세서(219)는 실제 청소 구역에 기반한 청소 데이터를 생성할 수 있다.
일 실시 예에 따르면, 청소 데이터는 청소 구역 내의 각 사물에 대한 모델링 데이터뿐만 아니라, 이물질의 존재 여부에 대한 정보 및 이물질의 종류에 대한 정보를 포함할 수 있다. 또한, 청소 데이터는 청소 구역 내에서 수분이 존재하는 위치에 대한 정보를 포함할 수 있다. 프로세서(219)는 청소 궤적, 청소가 완료된 영역, 청소가 미흡한 영역, 청소하지 못한 영역, 및 바닥에 수분이 존재하는 위치 등에 대한 위치 정보를 포함하는 청소 데이터를 생성할 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 카메라(211)를 통해 획득된 이미지(1100)에 증강 현실을 반영한 청소 데이터를 생성할 수 있다. 또한, 제1 청소기(110)(예: 프로세서(219))는 카메라(211)를 통해 획득된 이미지(1100)에 가상 현실을 반영한 청소 데이터를 생성할 수 있다.
도 12를 참조하면, 제1 청소기(110)(예: 프로세서(219))는 먼지량, 먼지 종류, 수분량, 및 수분 종류 중 적어도 일부에 기반에 따른 객체를 카메라(211)를 통해 획득된 이미지(1100) 상에 증강 현실을 통해 반영한 청소 데이터(1200)를 생성할 수 있다.
예를 들면, 카메라(211)를 통해 획득된 이미지(1100)에는 TV(1110), 책장(1120), 화분(1130), 로봇 청소기 거치대(1140), 및 소파(1150)가 포함할 수 있다. 그리고, 제1 청소기(110)(예: 프로세서(219))는 이동하면서 측정 또는 분석한 먼지량, 먼지 종류, 수분량, 및 수분 종류 중 적어도 일부에 기반에 따른 객체를 생성한 후, 상기 이미지(1100) 상에 증강 현실을 통해 청소 데이터(1200)를 생성할 수 있다.
일 실시 예에 따르면, 상기 청소 데이터(1200)에 포함되는 객체는 먼지의 종류 또는 이물질의 종류에 따라 서로 다를 수 있다. 예를 들면, 상기 청소 데이터(1200)에는 이물질에 해당되는 객체(1211), 및 먼지에 해당되는 객체(1212)가 포함될 수 있다. 이러한 객체들(1211, 1212)의 크기 또는 종류는 이물질의 크기 또는 먼지량에 따라 조절될 수 있다.
일 실시 예에 따르면, 상기 청소 데이터(1200)에 포함되는 객체는 수분의 종류에 따라 서로 다를 수 있다. 예를 들면, 수분이 물과 같이 청소가 용이한 액체인 경우, 물에 해당되는 객체(1211)가 청소 데이터(1200)에 포함되고, 수분이 점성도가 높은 액체인 경우, 물에 해당되는 객체(1214)가 청소 데이터(1200)에 포함될 수 있다. 이러한 객체들(1213, 1214)의 크기 또는 종류는 액체의 종류에 따라 조절될 수 있다.
도 13을 참조하면, 제1 청소기(110)(예: 프로세서(219))는 카메라(211)를 통해 획득된 이미지(1100) 내의 사물을 모델링하고, 모델링된 데이터를 포함하는 청소 데이터(1300)에 먼지량, 먼지 종류, 수분량, 및 수분 종류 중 적어도 일부에 기반에 따른 객체를 반영할 수 있다.
예를 들면, 도 11과 같이, 카메라(211)를 통해 획득된 이미지(1100)에는 TV(1110), 이미지(1100)는 책장(1120), 화분(1130), 로봇 청소기 거치대(1140), 및 소파(1150)가 포함할 수 있다. 그리고, 제1 청소기(110)(예: 프로세서(219))는 TV(1110), 책장(1120), 화분(1130), 및 소파(1150) 각각을 모델링하여 생성된 모델링 데이터(1310, 1320, 1330, 1350)를 포함한 청소 데이터(1300)를 생성할 수 있다. 상기 청소 데이터(1300)는 이동하면서 측정 또는 분석한 먼지량, 먼지 종류, 수분량, 및 수분 종류 중 적어도 일부에 기반에 따른 객체가 포함될 수 있다.
일 실시 예에 따르면, 상기 청소 데이터(1300)에 포함되는 객체는 먼지의 종류 또는 이물질의 종류에 따라 서로 다를 수 있다. 예를 들면, 상기 청소 데이터(1300)에는 이물질에 해당되는 객체(1311), 및 먼지에 해당되는 객체(1312)가 포함될 수 있다. 이러한 객체들(1311, 1312)의 크기 또는 종류는 이물질의 크기 또는 먼지량에 따라 조절될 수 있다.
일 실시 예에 따르면, 상기 청소 데이터(1300)에 포함되는 객체는 수분의 종류에 따라 서로 다를 수 있다. 예를 들면, 수분이 물과 같이 청소가 용이한 액체인 경우, 물에 해당되는 객체(1211)가 청소 데이터(1300)에 포함되고, 수분이 점성도가 높은 액체인 경우, 물에 해당되는 객체(1214)가 청소 데이터(1300)에 포함될 수 있다. 이러한 객체들(1213, 1214)의 크기 또는 종류는 액체의 종류에 따라 조절될 수 있다.
일 실시 예에 따르면, 제1 청소기(110)(예: 프로세서(219))는 생성된 청소 데이터를 디스플레이 장치로 전송할 수 있다(S1018). 프로세서(219)는 청소 데이터를 통신부(214)를 통해 디스플레이 장치(130)로 전송할 수 있다. 프로세서(219)는 사물 인식에 기반하여 생성된 적어도 하나의 모델링 데이터가 포함된 청소 데이터를 디스플레이 장치(130)로 전송할 수 있다. 예를 들면, 상기 청소 데이터는 청소에 따른 다양한 청소 정보(예: 먼지량의 정도, 이물질의 유무, 이물질의 종류, 청소가 미흡한 영역, 청소하지 못한 영역, 및 바닥에 수분이 존재하는 위치에 대한 위치 정보)를 포함할 수 있다.
도 14는 본 개시의 일 실시 예에 따른 청소기가 위치를 식별하는 과정을 나타낸 순서도이다. 도 15는 본 개시의 일 실시 예에 따른 청소기를 나타낸 예시도이다. 도 16의 (a)는 본 개시의 일 실시 예에 따른 물걸레 기능을 갖춘 청소기를 나타낸 예시도이다. 도 16의 (b)는 본 개시의 일 실시 예에 따른 먼지 청소 기능을 갖춘 청소기를 나타낸 예시도이다. 도 17의 (a)는 본 개시의 일 실시 예에 따른 청소기의 샤프트의 길이를 축소한 상태를 나타낸 예시도이다. 도 17의 (b)는 본 개시의 일 실시 예에 따른 청소기의 샤프트의 길이를 확장한 상태를 나타낸 예시도이다.
이하, 도 14 내지 도 17의 (b)를 참조하여, 본 개시의 일 실시 예에 따른 청소기가 위치를 식별하는 과정을 상세히 설명하면 다음과 같다.
일 실시 예에 따르면, 제2 청소기(120)(예: 프로세서(229))는 헤드가 장착되는지를 식별할 수 있다(S1410). 프로세서(229)는 제2 청소기(120)(예: 진공 청소기)의 샤프트에 먼지 청소를 위한 헤드가 장착되는지 또는 물걸레 청소를 위한 헤드가 장착되는지를 식별할 수 있다. 예를 들면, 프로세서(229)는 샤프트에 배치된 센서를 통해 헤드가 장착되는지 또는 헤드가 탈착되는지를 식별할 수 있다.
도 15를 참조하면, 본 개시의 일 실시 예에 따른 진공 청소기(120)는 수동 진공 청소기일 수 있다. 상기 진공 청소기(120)는 헤드(1510), 샤프트(1520), 및 본체(1530)로 구성될 수 있다.
일 실시 예에 따르면, 상기 헤드(1510)는 공기의 압력차에 의해 바닥의 먼지를 흡입하는 기능을 수행하며, 솔 모듈(1511)을 포함한다. 그리고, 헤드(1510)는 샤프트(1520)를 통해 본체(1530)와 연결된다. 또는, 헤드(1510)는 본체(1530)와 직접 연결될 수도 있다.
일 실시 예에 따르면, 상기 헤드(1510)는 샤프트(1520)와 탈부착이 가능하며, 본체(1530)의 제어하에 솔 모듈(1511)을 회전시킬 수 있다.
일 실시 예에 따르면, 상기 샤프트(1520)는 본체(1530)와 탈부착이 가능하며, 또한, 헤드(1510)와 탈부착이 가능하다.
또한, 상기 샤프트(1520)는 먼지 청소를 위한 헤드(1510) 이외에 수분을 제거하는 물 걸레 청소를 위한 헤드와 장착될 수 있다.
일 실시 예에 따르면, 제2 청소기(120)(예: 프로세서(229))는 먼지 청소인지 또는 물걸레 청소인지를 식별할 수 있다(S1412). 프로세서(229)는 샤프트에 배치된 센서(예: 마그네틱 센서)와 헤드에 배치된 센서(예: 마그네틱 센서)를 이용하여 샤프트에 먼지 청소를 위한 헤드가 장착되는지 또는 물걸레 청소를 위한 헤드가 장착되는지를 식별할 수 있다.
예를 들면, 프로세서(229)는 샤프트에 배치된 센서(예: 마그네틱 센서)와 헤드에 배치된 센서(예: 마그네틱 센서) 간의 자기력 세기(또는 세기의 변화)를 통해, 샤프트에 먼지 청소를 위한 헤드가 장착되는지 또는 물걸레 청소를 위한 헤드가 장착되는지를 식별할 수 있다.
도 16의 (a)를 참조하면, 먼지 청소를 하는 진공 청소기(120)의 샤프트(1520)에는 헤드(1510)의 장착을 감지하는 제1 센서(1610)가 배치될 수 있다. 그리고, 먼지 청소를 위한 헤드(1510)에는 제1 센서(1610)와 대응되는 위치에 제2 센서(1620)가 배치될 수 있다.
일 실시 예에 따르면, 진공 청소기(120)의 프로세서(229)는 제1 센서(1610) 및 제2 센서(1620)를 통해 먼지 청소를 위한 헤드(1510)가 장착됨을 판단할 수 있다.
도 16의 (b)를 참조하면, 물 걸레 청소를 하는 진공 청소기(120)의 샤프트(1520)에는 헤드(1601)의 장착을 감지하는 제1 센서(1610)가 배치될 수 있다. 그리고, 물 걸레 청소를 위한 헤드(1601)에는 제1 센서(1610)와 대응되는 위치에 제3 센서(1630)가 배치될 수 있다.
일 실시 예에 따르면, 진공 청소기(120)의 프로세서(229)는 제1 센서(1610) 및 제3 센서(1630)를 통해 물 걸레 청소를 위한 헤드(1601)가 장착됨을 판단할 수 있다.
도 17의 (a) 및 (b)를 참조하면, 물 걸레 청소(또는 먼지 청소)를 하는 진공 청소기(120)의 샤프트(1520)에는 본체(1530)의 장착을 감지하는 제4 센서(1710)가 배치될 수 있다. 그리고, 진공 청소기(120)의 본체(1530)에는 제4 센서(1710)와 대응되는 위치에 제5 센서(1720)가 배치될 수 있다.
일 실시 예에 따르면, 진공 청소기(120)의 프로세서(229)는 제4 센서(1710) 및 제5 센서(1720)를 통해 샤프트(1520)가 본체(1530)에 장착됨을 판단할 수 있다.
그리고, 본체(1530)에는 진공 청소기(120)의 위치를 감지하는 센서(1730)가 배치될 수 있다.
일 실시 예에 따르면, 진공 청소기(120)의 샤프트(1520)는 길이가 조절될 수 있다. 도 17의 (a)와 같이, 샤프트(1520)의 길이는 축소될 수 있거나, 또는, 도 17의 (b)와 같이, 샤프트(1520)의 길이는 확대될 수 있다.
일 실시 예에 따르면, 제2 청소기(120)(예: 프로세서(229))는 지도 데이터 상에서 청소기의 위치를 식별할 수 있다(S1414). 프로세서(229)는 제1 청소기(110)로부터 수신된 지도 데이터 상에서 제2 청소기(120)의 헤드(1510)의 위치를 식별할 수 있다. 예를 들면, 프로세서(229)는 청소 구역 내에서 제2 청소기(120)의 헤드(1510)의 위치를 실시간으로 판단하고, 판단된 위치가 제1 청소기(110)가 전송한 지도 데이터 상에서 어디에 위치하는지를 판단할 수 있다.
일 실시 예에 따르면, 제2 청소기(120)(예: 프로세서(229))는 식별된 위치에 대한 지도 데이터의 좌표 정보를 식별할 수 있다(S1416). 프로세서(229)는 지도 데이터 상에서 제2 청소기(120)의 헤드(1510)의 위치가 어디인지를 실시간으로 판단할 수 있다. 또는, 프로세서(229)는 지도 데이터 상에서 제2 청소기(120)의 헤드(1510)의 위치가 어디인지를 주기적(예: 1초) 판단할 수 있다.
일 실시 예에 따르면, 제2 청소기(120)(예: 프로세서(229))는 청소 종류에 대한 정보 및 좌표 정보를 디스플레이 장치로 전송할 수 있다(S1418). 프로세서(229)는 상기 과정(S1412)에서 식별된 먼지 청소 또는 물걸레 청소에 대한 정보 및 제2 청소기가 위치한 좌표 정보를 통신부(221)를 통해 디스플레이 장치(130)로 전송할 수 있다.
예를 들면, 프로세서(229)는 헤드의 장착에 기반하여, 장착된 헤드가 먼지 청소를 위한 헤드인지 또는 물걸레 청소를 위한 헤드인지를 식별한 후, 식별된 헤드의 종류에 따른 식별자, 및 제2 청소기(120)의 좌표 정보를 통신부(221)를 통해 디스플레이 장치(130)로 전송할 수 있다.
도 18은 본 개시의 일 실시 예에 따른 디스플레이 장치가 청소를 위한 게임을 제공하는 과정을 나타낸 순서도이다. 도 19는 본 개시의 일 실시 예에 따른 디스플레이 장치를 머리에 착용한 사용자가 청소를 하는 상태를 나타낸 예시도이다. 도 20은 본 개시의 일 실시 예에 따른 디스플레이 장치가 먼지 청소에 따른 청소 데이터를 표시한 예시도이다. 도 21은 본 개시의 일 실시 예에 따른 디스플레이 장치가 물걸레 청소에 따른 청소 데이터를 표시한 예시도이다. 도 22는 본 개시의 일 실시 예에 따른 디스플레이 장치가 청소에 의해 제거된 객체에 대한 점수 화면을 표시한 예시도이다.
이하, 도 18 내지 도 22를 참조하여, 본 개시의 일 실시 예에 따른 디스플레이 장치가 청소를 위한 게임을 제공하는 과정을 상세히 설명하면 다음과 같다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 제1 청소기(110)로부터 청소 데이터가 통신부(234)를 통해 수신되는지 식별할 수 있다(S1810). 디스플레이 장치(130)는 제1 청소기(110)로부터 청소 데이터를 수신하는데, 이러한 청소 데이터는 제1 청소기(110)가 청소 중에 청소 정보(예: 청소가 완료된 영역, 각 위치에서의 먼지량, 각 위치에서의 수분량, 청소가 미흡한 영역, 청소하지 못한 영역, 및 바닥에 수분이 존재하는 위치에 대한 위치 정보)를 포함할 수 있다.
또한, 상기 청소 데이터는 청소 궤적에 대한 정보, 및 청소 구역에 존재하는 적어도 하나의 사물에 대한 모델링 데이터를 포함할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 제2 청소기(120)로부터 정보가 통신부(234)를 통해 수신되는지 식별할 수 있다(S1812). 디스플레이 장치(130)는 청소 중에 청소 구역 상에서 제2 청소기(120)(예: 헤드)의 위치에 대한 정보를 제2 청소기(120)로부터 수신할 수 있다. 디스플레이 장치(130)는 제2 청소기(120)로부터 헤드에 대한 정보(예: 물걸레 청소용 헤드인지 또는 먼지 청소용 헤드인지에 대한 정보)를 수신할 수 있다.
예를 들면, 디스플레이 장치(130)는 제2 청소기(120)로부터 현재 위치에 대한 정보 및 헤드에 대한 정보를 통신부(234)를 통해 수신할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 청소 데이터에 제2 청소기(120)의 위치를 매핑시킬 수 있다(S1814). 디스플레이 장치(130)(예: 프로세서(235))는 제1 청소기(110)로부터 수신된 청소 데이터에 제2 청소기(120)의 위치를 매핑시킬 수 있다.
이와 같이, 청소 데이터에 제2 청소기(120)의 위치를 매핑시킴으로써, 디스플레이 장치(130)(예: 프로세서(235))는 제2 청소기(120)의 위치를 실시간으로 파악할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 먼지량에 따른 객체를 생성할 수 있다(S1816). 디스플레이 장치(130)(예: 프로세서(235))는 제1 청소기(110)로부터 수신된 청소 데이터에 포함된 청소 구역에서의 각 지점에 대한 먼지량, 이물질 크기, 및/또는 수분량을 식별할 수 있다. 그리고, 디스플레이 장치(130)(예: 프로세서(235))는 식별된 먼지량, 이물질 크기, 및 수분량 중 적어도 일부에 기반하여 객체의 종류 및 크기를 결정하거나, 생성할 수 있다.
예를 들면, 디스플레이 장치(130)(예: 프로세서(235))는 식별된 먼지량, 또는 수분량에 따라 객체의 종류를 다르게 결정할 수 있거나, 이물질의 크기에 따라 객체의 크기를 다르게 결정할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 제2 청소기(120)로부터 현재 청소 모드가 먼지를 청소하는 모드인지, 또는 물걸레를 청소하는 모드인지를 나타내는 정보를 수신할 수 있다. 디스플레이 장치(130)는 제2 청소기(120)의 헤드가 먼지 청소 헤드인지, 또는 물걸레 청소 헤드인지에 따라, 다른 종류의 객체를 생성할 수 있고, 바닥에 존재하는 먼지의 양(또는 종류), 또는 물의 양(또는 종류)에 따라 객체의 크기를 서로 다르게 결정할 수 있다.
도 19를 참조하면, 사용자(140)는 디스플레이 장치(130)(예: HMD)를 머리에 착용한 상태에서 제2 청소기(120)를 이용하여 청소 구역을 청소할 수 있다.
사용자(140)는 제2 청소기(120)의 헤드(121)를 이동시키며 청소를 할 수 있다. 그리고, 제2 청소기(120)는 센서(122)를 통해 청소 위치를 실시간으로 추적하여 디스플레이 장치(130)로 전송할 수 있다. 또는, 디스플레이 장치(130)는 센서(122)로부터 제2 청소기(120)의 위치를 실시간으로 수신할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)는 현재 표시하고 있는 영상을 다른 장치(예: TV(1910))로 전송하고, 다른 장치(예: TV(1910))는 디스플레이 장치(130)로부터 수신된 영상(1920)을 표시할 수 있다. 상기 영상(1920)는 제2 청소기(120)의 헤드(121) 및 객체(1921)를 포함할 수 있으며, 증강 현실에 기반한 청소 데이터이거나, 또는 가상 현실에 기반한 청소 데이터일 수 있다.
일 실시 예에 따르면, 증강 현실에 기반한 청소 데이터, 또는 가상 현실에 기반한 청소 데이터는 제1 청소기(110)에 의해 생성된 후, 디스플레이 장치(130)로 전송될 수 있다.
예를 들면, 디스플레이 장치(130)는 특정 위치에서의 청소가 완료되는 경우, 상기 특정 위치에 대응되는 객체를 제거하고, 상기 객체가 제거되는 것을 나타내는 비주얼 효과(예: 터짐 효과)(1922)를 표시할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 생성된 객체를 청소 데이터에 반영할 수 있다(S1818). 디스플레이 장치(130)(예: 프로세서(235))는 생성된 객체를 청소 데이터 상의 해당 지점에 반영할 수 있다.
디스플레이 장치(130)(예: 프로세서(235))는 먼지량의 정도에 기반하여 생성된 객체를 청소 데이터에 추가할 수 있다. 디스플레이 장치(130)(예: 프로세서(235))는 청소 데이터의 분석에 기반하여 먼지량 및 수분량 중 적어도 일부에 대응되는 객체(예: 청소 게임의 몬스터 아이콘)를 생성하고, 생성된 객체를 청소 데이터 상의 해당 위치에 반영할 수 있다.
예를 들면, 디스플레이 장치(130)는 먼지량이나 또는 수분량이 많을 경우 큰 크기의 객체를 생성하여 청소 데이터에 반영하고, 먼지량이나 또는 수분량이 적을 경우 작은 크기의 객체를 생성하여 청소 데이터에 반영할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 반영된 청소 데이터를 표시부(232)에 표시할 수 있다(S1820). 디스플레이 장치(130)(예: 프로세서(235))는 사용자가 디스플레이 장치(130)(예: HMD)를 머리에 착용할 경우, 청소 데이터를 사용자가 볼 수 있도록 표시부(232)를 통해 표시할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 객체가 위치한 영역이 청소되었는지를 식별할 수 있다(S1822). 디스플레이 장치(130)(예: 프로세서(235))는 제2 청소기의 위치를 식별하여, 객체가 위치한 영역이 청소되었는지를 판단할 수 있다.
예를 들면, 디스플레이 장치(130)(예: 프로세서(235))는 제2 청소기(120)로부터 헤드에 대한 위치를 나타내는 정보를 수신하고, 해당 위치에서 헤드가 움직이는 경우, 객체가 위치한 영역이 청소되었다고 판단할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 해당 객체를 제거하고, 점수를 계산하여 표시할 수 있다(S1824). 디스플레이 장치(130)(예: 프로세서(235))는 객체가 위치한 영역이 청소된 것으로 판단되면, 해당 위치에 존재하는 객체를 청소 데이터 상에서 제거할 수 있다. 그리고, 디스플레이 장치(130)(예: 프로세서(235))는 객체가 위치한 영역이 청소된 것으로 판단되면, 해당 위치에 존재하는 객체가 제거되는 비주얼 효과(visual effect)(예: 서서히 사라짐, 폭발하여 사라짐 등등)를 표시할 수 있다.
또한, 디스플레이 장치(130)(예: 프로세서(235))는 객체가 존재하는 위치에 대한 청소가 완료되면, 청소 데이터 상에서 객체를 제거하는 과정을 나타내는 시각 효과를 표시부(232)에 표시할 수 있다.
도 20을 참조하면, 사용자(140)가 디스플레이 장치(130)를 머리에 착용한 상태에서 바닥 청소를 하는 경우, 디스플레이 장치(130)는 먼지량에 기반한 객체를 반영한 청소 데이터(2000)를 표시부(232)를 통해 표시할 수 있다.
예를 들면, 청소 데이터(2000)는 먼지의 종류 또는 먼지량에 기반하여 생성된 객체(2010, 2020, 2021)를 포함할 수 있다. 디스플레이 장치(130)(예: 프로세서(235))는 청소 구역에서 식별된 먼지량 또는 먼지 종류에 기반하여 생성된 객체를 해당 위치에 포함시켜 청소 데이터(2000)를 표시부(232)에 표시할 수 있다.
그리고, 헤드(121)가 객체(2021)가 존재하는 위치로 이동하는 것으로 감지되면, 디스플레이 장치(130)(예: 프로세서(235))는 해당 객체(2021)를 청소 데이터(2000) 상에서 제거할 수 있다.
예를 들면, 디스플레이 장치(130)(예: 프로세서(235))는 헤드(121)가 객체(2021)가 존재하는 위치에서의 청소가 완료되는 경우, 객체(2021)를 제거하고, 상기 객체(2021)가 제거되는 것을 나타내는 비주얼 효과(예: 터짐 효과 등)를 표시할 수 있다.
도 21을 참조하면, 사용자(140)가 디스플레이 장치(130)를 머리에 착용한 상태에서 바닥 청소를 하는 경우, 디스플레이 장치(130)는 수분량에 기반한 객체를 반영한 청소 데이터(2100)를 표시부(232)를 통해 표시할 수 있다.
예를 들면, 청소 데이터(2100)는 수분의 종류 또는 수분량에 기반하여 생성된 객체(2110)를 포함할 수 있다. 디스플레이 장치(130)(예: 프로세서(235))는 청소 구역에서 식별된 수분량 또는 수분 종류에 기반하여 생성된 객체를 해당 위치에 포함시켜 청소 데이터(2100)를 표시부(232)에 표시할 수 있다.
그리고, 디스플레이 장치(130)(예: 프로세서(235))는 청소에 기반하여 객체가 제거되면, 객체가 제거되는 것을 나타내는 비주얼 효과(2120)(예: 터짐 효과 등)를 표시할 수 있다.
도 22를 참조하면, 본 개시의 일 실시 예에 따른 디스플레이 장치(130)는 청소에 의해 제거된 객체에 대한 점수 화면(2210)을 표시부(232)에 표시할 수 있다.
예를 들면, 상기 점수 화면(2210)은 청소가 완료되었음을 나타내는 정보(2220), 제1 객체의 제거 수량에 다른 점수(2221), 제2 객체의 제거 수량에 다른 점수(2222), 제3 객체의 제거 수량에 다른 점수(2223), 및 전체 점수(2224)를 포함할 수 있다.
예를 들면, 디스플레이 장치(130)(예: 프로세서(235))는 청소 중에 제거된 객체의 종류 및 개수를 식별할 수 있다. 그리고, 디스플레이 장치(130)(예: 프로세서(235))는 객체에 할당된 점수에 제거된 객체의 개수를 곱하여 각각의 객체에 대한 점수를 계산할 수 있다.
예를 들면, 디스플레이 장치(130)(예: 프로세서(235))는 청소가 완료되는 것으로 식별되면, 이러한 각각의 객체에 대한 점수를 계산하고, 각각의 객체에 대한 점수 및 전체 점수를 포함하는 화면(2210)을 표시부(232)에 표시할 수 있다.
도 23은 본 개시의 일 실시 예에 따른 디스플레이 장치를 이용하여 청소 데이터를 생성하는 과정을 나타낸 순서도이다. 도 24는 본 개시의 일 실시 예에 따른 디스플레이 장치를 통해 획득한 이미지를 나타낸 예시도이다. 도 25는 본 개시의 일 실시 예에 따른 이미지 내의 사물을 모델링한 모델링 데이터를 나타낸 예시도이다. 도 26은 본 개시의 일 실시 예에 따른 청소 데이터에서 하나의 객체에 대한 모델링 데이터를 선택하는 상태를 나타낸 예시도이다. 도 27은 본 개시의 일 실시 예에 따른 선택된 모델링 데이터에 대체 가능한 다른 모델링 데이터를 표시한 예시도이다.
이하, 도 23 내지 도 27을 참조하여, 본 개시의 일 실시 예에 따른 디스플레이 장치를 이용하여 청소 데이터를 생성하는 과정을 상세히 설명하면 다음과 같다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 카메라(231)를 통해 주변 이미지가 획득되는지를 식별할 수 있다(S2310). 디스플레이 장치(130)(예: 프로세서(235))는 카메라(231)를 동작시켜 청소 구역에 대한 적어도 하나의 이미지를 획득할 수 있다.
도 24를 참조하면, 디스플레이 장치(130)(예: 프로세서(235))는 카메라(231)를 통해서 적어도 하나의 이미지(2400)를 획득할 수 있다. 이러한 이미지(2400)는 디스플레이 장치(130)를 착용한 사용자가 이동 중에 디스플레이 장치(130)의 전면에 배치된 카메라(231)를 통해서 획득될 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 카메라(231)를 통해 획득되는 복수의 이미지들을 연결하여 하나의 이미지(예: 파노라마 이미지)를 생성할 수 있다.
예를 들면, 카메라(231)를 파노라마 모드를 적용하여 청소 구역을 촬영하는 경우, 디스플레이 장치(130)(예: 프로세서(235))는 획득되는 복수의 이미지들을 연결하여 디스플레이 장치(130)를 중심으로 360o의 이미지를 획득할 수 있다.
도 24는 이러한 획득된 이미지의 일부를 나타낸 이미지(2400)이다. 예를 들면, 이미지(2400)는 TV(2410), 책장(2420), 화분(2430), 로봇 청소기 거치대(2440), 및 소파(2450)를 포함할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 획득된 이미지를 분석하여 사물을 검출하고, 모델링 데이터를 생성할 수 있다(S2312). 디스플레이 장치(130)(예: 프로세서(235))는 획득된 이미지 내의 사물의 크기, 종류를 식별할 수 있다. 디스플레이 장치(130)(예: 프로세서(235))는 카메라(231)를 통해 획득한 이미지의 픽셀 값의 차이를 통해서 사물에 해당되는 영역을 검출하고, 검출된 영역의 분석을 통해서 사물의 종류 및 크기를 식별할 수 있다. 또는, 프로세서(235)는 픽셀 값의 차이에 기반한 사물의 영역 검출 이외에 다양한 방법으로 이미지 내의 객체를 식별할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 이미지 내에서 식별된 사물에 해당되는 모델링 데이터를 결정하거나, 또는 식별된 사물과 같은 종류의 다른 사물에 해당되는 모델링 데이터를 결정할 수 있다. 예를 들면, 식별된 사물이 55인치 TV인 경우, 프로세서(219)는 청소 데이터에 포함될 55인치 TV에 해당되는 모델링 데이터를 결정할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 획득된 이미지 내의 적어도 하나의 객체에 대한 모델링 데이터를 포함하는 청소 데이터(2500)를 생성하고, 생성된 청소 데이터(2500)를 표시할 수 있다.
예를 들면, 디스플레이 장치(130)(예: 프로세서(235))는 도 24의 사물(예: TV(2410), 책장(2420), 화분(2430), 로봇 청소기 거치대(2440), 및 소파(2450))을 식별할 수 있다.
도 25를 참조하면, 디스플레이 장치(130)(예: 프로세서(235))는 도 24의 사물을 분석하여 생성된 모델링 데이터(예: TV(2510), 책장(2520), 화분(2530), 로봇 청소기 거치대(2540), 및 소파(2550))를 포함한 청소 데이터(2500)를 생성할 수 있다. 그리고, 디스플레이 장치(130)(예: 프로세서(235))는 생성된 청소 데이터(2500)를 표시부(232)를 통해 표시할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 생성된 모델링 데이터를 다른 모델링 데이터로 교체가능한지 판단할 수 있다(S2314). 디스플레이 장치(130)(예: 프로세서(235))는 생성된 모델링 데이터를 다른 모델링 데이터로 교체하는 입력을 감지할 수 있다.
예를 들면, 프로세서(235)는 청소 데이터(2500)를 표시하고 있는 상태에서, 청소 데이터(2500)에 포함된 모델링 데이터를 다른 모델링 데이터로 교체하기 위한 입력을 수신할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 검출된 사물의 종류 및 크기에 기반한 모델링 데이터가 생성 불가이거나, 또는 메모리(233)에 존재하지 않는 경우, 다른 모델링 데이터로 교체 가능한지 판단할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 대체 가능한 적어도 하나의 모델링 데이터를 표시할 수 있다(S2316). 프로세서(235)는 검출된 사물의 종류 및 크기에 기반하여 대체 가능한 적어도 하나의 모델링 데이터를 표시할 수 있다. 또한, 프로세서(235)는 복수의 모델링 데이터들 중 선택된 모델링 데이터를 청소 데이터(2500) 상에 표시할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 표시된 모델링 데이터가 선택되는지 판단할 수 있다(S2318). 프로세서(235)는 검출된 사물의 종류 및 크기에 기반하여 대체 가능한 적어도 하나의 모델링 데이터가 표시부(232)에 표시된 상태에서, 어느 하나의 모델링 데이터가 선택되는지 식별할 수 있다.
도 26 및 도 27을 참조하면, 사물에 대한 모델링 데이터(예: TV(2510), 책장(2520), 화분(2530), 로봇 청소기 거치대(2540), 및 소파(2550))를 포함한 청소 데이터(2500)가 생성되어 표시부(232)에 표시된 상태에서, 디스플레이 장치(130)(예: 프로세서(235))는 모델링 데이터의 교체 또는 모델링 데이터의 설정 변경을 위한 입력(2610)을 수신할 수 있다.
예를 들면, 프로세서(235)는 화분(2430)의 모델링 데이터(2530) 상의 입력(2610)이 감지되면, 화분(2430)에 관련된 복수의 모델링 데이터들(2711)을 포함하는 화면(2710)을 청소 데이터(2500) 상에 표시할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 모델링 데이터를 지도 데이터 상의 해당 위치에 추가하여 청소 데이터를 생성할 수 있다(S2320). 프로세서(235)는 표시부(232)에 표시된 적어도 하나의 모델링 데이터에서 임의 모델링 데이터가 선택되면, 선택된 임의 모델링 데이터를 해당 객체가 존재하는 청소 데이터 상의 위치에 추가하여 청소 데이터를 생성할 수 있다.
일 실시 예에 따르면, 디스플레이 장치(130)(예: 프로세서(235))는 생성된 청소 데이터를 저장할 수 있다(S2322). 프로세서(235)는 생성된 청소 데이터를 메모리(233)에 저장할 수 있다. 예를 들면, 상기 청소 데이터는 청소 구역에 존재하는 적어도 하나의 사물을 모델링하여 생성된 모델링 데이터를 해당 사물이 존재하는 위치에 포함시킨 것이다.
이를 통해, 사용자는 디스플레이 장치(130)를 착용함으로써, 실제 청소 구역과 동일 또는 유사한 가상 공간을 체험할 수 있고, 실제로 청소를 하면서 가상공간에서의 게임을 즐길 수 있다.
이상에서 상술한 각각의 순서도에서의 각 단계는 도시된 순서에 무관하게 동작될 수 있거나, 또는 동시에 수행될 수 있다. 또한, 본 개시의 적어도 하나의 구성 요소와, 상기 적어도 하나의 구성 요소에서 수행되는 적어도 하나의 동작은 하드웨어 및/또는 소프트웨어로 구현 가능할 수 있다.
이상과 같이 본 개시에 대해서 예시한 도면을 참조로 하여 설명하였으나, 본 명세서에 개시된 실시 예와 도면에 의해 본 개시가 한정되는 것은 아니며, 본 개시의 기술사상의 범위 내에서 통상의 기술자에 의해 다양한 변형이 이루어질 수 있음은 자명하다. 아울러 앞서 본 개시의 실시 예를 설명하면서 본 개시의 구성에 따른 작용 효과를 명시적으로 기재하여 설명하지 않았을 지라도, 해당 구성에 의해 예측 가능한 효과 또한 인정되어야 함은 당연하다.
110: 제1 청소기 120: 제2 청소기
130: 디스플레이 장치

Claims (21)

  1. 청소를 위한 게임을 제공하는 시스템에 있어서,
    청소 중에 식별되는 먼지량, 및 수분량 중 적어도 일부에 기반한 청소 데이터를 생성하여 디스플레이 장치로 전송하는 청소기; 및
    상기 청소 데이터에 포함된 적어도 하나의 위치의 먼지량 및 수분량 중 적어도 일부에 대응되는 적어도 하나의 객체를 생성하고, 상기 생성된 적어도 하나의 객체를 상기 청소 데이터 상의 해당 위치에 반영하여 표시하는 디스플레이 장치를 포함하는 시스템.
  2. 제1 항에 있어서,
    상기 청소기는,
    청소 중에 위치를 식별하고,
    청소 구역에서의 먼지량 및 수분량 중 적어도 일부를 식별하고,
    상기 식별된 위치 및 상기 식별된 위치에서의 먼지량 및 수분량 중 적어도 일부의 정도를 반영하여 상기 청소 데이터를 생성하는 시스템.
  3. 제1 항에 있어서,
    상기 디스플레이 장치는,
    청소 구역에서 청소가 진행중인 위치를 식별하고,
    상기 식별된 위치에서의 청소가 완료되는 경우, 상기 식별된 위치에 대응되는 객체가 제거되는 것을 나타내는 비주얼 효과를 표시하는 시스템.
  4. 청소를 위한 게임을 제공하는 시스템에 있어서,
    청소 중에 식별되는 먼지량에 기반한 청소 데이터를 생성하여 디스플레이 장치로 전송하는 제1 청소기;
    청소 중인 제2 청소기의 위치를 포함하는 정보를 상기 디스플레이 장치로 전송하는 상기 제2 청소기; 및
    상기 청소 데이터에 포함된 적어도 하나의 위치의 먼지량에 대응되는 적어도 하나의 객체를 생성하고, 상기 생성된 적어도 하나의 객체를 상기 청소 데이터 상의 해당 위치에 반영하여 표시하고, 객체가 위치한 영역이 청소되면 해당 객체가 상기 청소 데이터 상에서 제거하는 디스플레이 장치를 포함하는 시스템.
  5. 제4 항에 있어서,
    상기 제1 청소기는,
    청소 궤적에 기반하여 지도 데이터를 생성하고,
    상기 생성된 지도 데이터를 상기 제2 청소기로 전송하는 시스템.
  6. 제4 항에 있어서,
    상기 제1 청소기는,
    청소 중에 카메라를 통해 청소 구역에 존재하는 적어도 하나의 사물을 식별하고,
    상기 식별된 적어도 하나의 사물에 해당되는 모델링 데이터를 결정하고,
    상기 결정된 모델링 데이터를 지도 데이터 상의 해당 위치에 추가하여 상기 청소 데이터를 생성하는 시스템.
  7. 제4 항에 있어서,
    상기 제1 청소기는,
    자율 주행에 따른 청소 중에 청소 구역에서의 먼지량을 식별하고,
    상기 식별된 먼지량의 정도를 반영하여 상기 청소 데이터를 생성하는 시스템.
  8. 제4 항에 있어서,
    상기 제2 청소기는,
    상기 제1 청소기로부터 수신된 지도 데이터 상에서 상기 제2 청소기의 위치를 식별하고,
    상기 제2 청소기의 헤드가 먼지 청소 헤드인지, 또는 물걸레 청소 헤드인지를 식별하고,
    상기 식별된 제2 청소기의 위치, 및 상기 제2 청소기의 헤드에 대한 식별자를 포함하여 상기 정보를 생성하는 시스템.
  9. 제4 항에 있어서,
    상기 제2 청소기는,
    청소 중인 동안에, 상기 제2 청소기의 배관을 통과하는 먼지의 진행 방향에 수직 방향으로 제1 광원을 조사하고,
    상기 조사된 제1 광원에 기반하여, 상기 먼지를 통과한 제2 광원을 수신하고,
    상기 제1 광원의 세기와 상기 제2 광원의 세기를 비교하여 상기 먼지량을 측정하는 시스템.
  10. 제4 항에 있어서,
    상기 디스플레이 장치는,
    상기 청소 데이터에 포함된 적어도 하나의 위치의 먼지량의 정도를 각각 식별하고,
    상기 식별된 먼지량의 정도에 해당되는 객체를 결정하고,
    상기 결정된 객체를 상기 청소 데이터 상의 해당 위치에 반영하고,
    상기 결정된 객체가 반영된 청소 데이터를 표시하는 시스템.
  11. 제4 항에 있어서,
    상기 제2 청소기는,
    상기 청소 데이터 상의 객체가 존재하는 위치에 대한 청소가 완료되는지 식별하고,
    상기 객체가 존재하는 위치에 대한 청소가 완료되면, 상기 청소 데이터 상에서 상기 객체가 제거되는 과정을 나타내는 시각 효과의 표시와 함께, 상기 객체를 상기 청소 데이터 상에서 제거하는 시스템.
  12. 제4 항에 있어서,
    상기 디스플레이 장치는,
    상기 제2 청소기의 헤드가 먼지 청소 헤드인 경우, 상기 먼지량에 따라 상기 객체의 크기를 결정하고,
    상기 제2 청소기의 헤드가 물걸레 청소 헤드인 경우, 바닥에 존재하는 물의 양에 따라 상기 객체의 크기를 결정하는 시스템.
  13. 제12 항에 있어서,
    상기 디스플레이 장치는,
    상기 제2 청소기의 헤드가 먼지 청소 헤드인지, 또는 물걸레 청소 헤드인지에 따라 서로 다른 객체를 표시하는 시스템.
  14. 제4 항에 있어서,
    상기 디스플레이 장치는,
    상기 청소 데이터 상에서 상기 해당 객체가 제거되는 것을 나타내는 비주얼 효과를 표시하는 시스템.
  15. 제4 항에 있어서,
    상기 디스플레이 장치는,
    상기 청소 데이터 상에서 객체의 제거에 따른 점수를 표시하는 시스템.
  16. 제4 항에 있어서,
    상기 디스플레이 장치는,
    가상 현실(Virtual Reality) 디스플레이 장치 및 증강 현실(Augmented Reality) 디스플레이 장치를 포함하는 시스템.
  17. 제16 항에 있어서,
    상기 디스플레이 장치가 상기 가상 현실 디스플레이 장치인 경우,
    상기 디스플레이 장치는,
    청소 구역에 대해 적어도 하나의 사물을 실시간으로 트래킹하고,
    상기 트래킹된 적어도 하나의 사물에 렌더링이 가능한지 식별하고,
    상기 렌더링이 가능한 것으로 식별되면, 상기 적어도 하나의 사물의 가로, 세로, 및 높이에 대한 트래킹 정보를 가상 객체 정보로 입력하여 실시간으로 렌더링하고,
    상기 실시간의 렌더링에 기반하여 청소 데이터를 생성 및 저장하는 시스템.
  18. 제17 항에 있어서,
    상기 디스플레이 장치가 상기 증강 현실 디스플레이 장치인 경우,
    상기 디스플레이 장치는,
    상기 렌더링이 가능하지 않는 것으로 식별되면, 적어도 하나의 사물에 대한 뎁스 정보를 획득하고,
    상기 획득된 뎁스 정보에 기반하여 상기 적어도 하나의 사물과의 거리를 식별하고,
    상기 식별된 거리에 기반하여 가상 객체를 출력하는 시스템.
  19. 청소를 위한 게임을 제공하는 명령어들을 포함하는 프로그램을 저장하는 컴퓨터 판독 가능 저장 매체에 있어서,
    청소기가, 청소 중에 식별되는 먼지량, 및 수분량 중 적어도 일부에 기반한 청소 데이터를 생성하여 디스플레이 장치로 전송하는 명령어들; 및
    상기 디스플레이 장치가, 상기 청소 데이터에 포함된 적어도 하나의 위치의 먼지량 및 수분량 중 적어도 일부에 대응되는 적어도 하나의 객체를 생성하고, 상기 생성된 적어도 하나의 객체를 상기 청소 데이터 상의 해당 위치에 반영하여 표시하는 명령어들을 포함하는 컴퓨터 판독 가능 저장 매체.
  20. 청소를 위한 게임을 제공하는 시스템의 방법에 있어서,
    청소기가, 청소 중에 식별되는 먼지량, 및 수분량 중 적어도 일부에 기반한 청소 데이터를 생성하여 디스플레이 장치로 전송하는 과정; 및
    상기 디스플레이 장치가, 상기 청소 데이터에 포함된 적어도 하나의 위치의 먼지량 및 수분량 중 적어도 일부에 대응되는 적어도 하나의 객체를 생성하고, 상기 생성된 적어도 하나의 객체를 상기 청소 데이터 상의 해당 위치에 반영하여 표시하는 과정을 포함하는 방법.
  21. 청소를 위한 게임을 제공하는 시스템의 방법에 있어서,
    제1 청소기가, 청소 중에 식별되는 먼지량에 기반한 청소 데이터를 생성하여 디스플레이 장치로 전송하는 과정;
    제2 청쇠가, 청소 중인 제2 청소기의 위치를 포함하는 정보를 상기 디스플레이 장치로 전송하는 과정; 및
    상기 디스플레이 장치가, 상기 청소 데이터에 포함된 적어도 하나의 위치의 먼지량에 대응되는 적어도 하나의 객체를 생성하고, 상기 생성된 적어도 하나의 객체를 상기 청소 데이터 상의 해당 위치에 반영하여 표시하고, 객체가 위치한 영역이 청소되면 해당 객체가 상기 청소 데이터 상에서 제거하는 과정을 포함하는 방법.
KR1020220077298A 2022-06-24 2022-06-24 청소를 위한 게임을 제공하는 시스템 및 방법과 이를 위한 저장 매체 KR20240001343A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220077298A KR20240001343A (ko) 2022-06-24 2022-06-24 청소를 위한 게임을 제공하는 시스템 및 방법과 이를 위한 저장 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220077298A KR20240001343A (ko) 2022-06-24 2022-06-24 청소를 위한 게임을 제공하는 시스템 및 방법과 이를 위한 저장 매체

Publications (1)

Publication Number Publication Date
KR20240001343A true KR20240001343A (ko) 2024-01-03

Family

ID=89539090

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220077298A KR20240001343A (ko) 2022-06-24 2022-06-24 청소를 위한 게임을 제공하는 시스템 및 방법과 이를 위한 저장 매체

Country Status (1)

Country Link
KR (1) KR20240001343A (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100208963B1 (ko) 1996-08-07 1999-07-15 유기범 국설 전전자 교환기의 rasm구조
KR102017953B1 (ko) 2017-11-23 2019-09-03 고창윤 증강현실을 이용한 청소 방법 및 그 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100208963B1 (ko) 1996-08-07 1999-07-15 유기범 국설 전전자 교환기의 rasm구조
KR102017953B1 (ko) 2017-11-23 2019-09-03 고창윤 증강현실을 이용한 청소 방법 및 그 장치

Similar Documents

Publication Publication Date Title
US11687092B2 (en) Techniques for bounding cleaning operations of a robotic surface cleaning device within a region of interest
US10265858B2 (en) Auto-cleaning system, cleaning robot and method of controlling the cleaning robot
CN208837835U (zh) 自主移动机器人
ES2745771T3 (es) Dispositivo para registrar trabajos de limpieza efectuados
KR102320204B1 (ko) 로봇 청소기 및 이를 포함하는 로봇 청소기 시스템
WO2020140271A1 (zh) 移动机器人的控制方法、装置、移动机器人及存储介质
WO2019114219A1 (zh) 移动机器人及其控制方法和控制系统
JP6831210B2 (ja) 電気掃除機
JPWO2019097626A1 (ja) 自走式掃除機
KR20180082264A (ko) 이동 로봇 및 그 제어방법
KR20180048705A (ko) 로봇 청소 장치의 시스템
CN106264384A (zh) 表面清洁的支持
ES2896071T3 (es) Implemento de tratamiento de suelos y sistema que comprende un implemento de tratamiento de suelos y un terminal externo
JP2020010888A (ja) 電気掃除機
JP7346912B2 (ja) 掃除支援装置、掃除支援システム、電気掃除機、及び掃除支援方法
KR20240001343A (ko) 청소를 위한 게임을 제공하는 시스템 및 방법과 이를 위한 저장 매체
JP2016185182A (ja) 電気掃除機およびその情報表示方法
JP7030007B2 (ja) 自律型電気掃除機
CN111515946B (zh) 一种人体辅助机器人的控制方法及装置
KR20220058528A (ko) 로봇 청소기 및 제어방법
KR20200142865A (ko) 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
KR20120078916A (ko) 로봇 청소기
JP7281716B2 (ja) 物体画像表示装置、物体画像表示システム、および物体画像表示プログラム
TW201639515A (zh) 自走式清掃吸塵過濾裝置
WO2022137796A1 (ja) 走行用地図作成装置、自律走行型ロボット、自律走行型ロボットの走行制御システム、自律走行型ロボットの走行制御方法、及び、プログラム