KR102619900B1 - Cleaning robot system and controlling method thereof - Google Patents

Cleaning robot system and controlling method thereof Download PDF

Info

Publication number
KR102619900B1
KR102619900B1 KR1020210129035A KR20210129035A KR102619900B1 KR 102619900 B1 KR102619900 B1 KR 102619900B1 KR 1020210129035 A KR1020210129035 A KR 1020210129035A KR 20210129035 A KR20210129035 A KR 20210129035A KR 102619900 B1 KR102619900 B1 KR 102619900B1
Authority
KR
South Korea
Prior art keywords
image
server
cleaning robot
movement path
cleaning
Prior art date
Application number
KR1020210129035A
Other languages
Korean (ko)
Other versions
KR20220071885A (en
Inventor
김지수
Original Assignee
주식회사 더브라이트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 더브라이트 filed Critical 주식회사 더브라이트
Publication of KR20220071885A publication Critical patent/KR20220071885A/en
Application granted granted Critical
Publication of KR102619900B1 publication Critical patent/KR102619900B1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Electric Vacuum Cleaner (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

일 실시예에 따른, 청소용 로봇; 상기 청소용 로봇을 제어하는 서버;를 포함하는 청소용 로봇 시스템의 제어방법은. 도면 정보에 기초하여 상기 서버가 상기 청소용 로봇의 제1 이동 경로를 생성하고, 상기 청소용 로봇으로 상기 제1 이동 경로를 전송하는 단계; 상기 제1 이동 경로에 기초하여 상기 청소용 로봇이 청소를 수행하고, 상기 제1 이동 경로를 주행하는 단계; 상기 청소용 로봇이 상기 덕트 내부를 촬영한 제1 이미지를 상기 서버로 전송하는 단계; 상기 서버는 상기 서버가 상기 도면 정보 및 상기 제1 이미지를 매칭시키고, 상기 청소용 로봇의 위치를 파악하는 단계; 상기 청소용 로봇의 위치에 기초하여 상기 서버는, 상기 이동 경로를 되돌아가는 제2 이동 경로를 생성하고, 상기 제2 이동 경로를 상기 청소용 로봇으로 전송하는 단계; 상기 청소용 로봇은 상기 제2 이동 경로에 기초하여, 상기 덕트 내부를 촬영한 제2 이미지를 상기 서버로 전송하고, 상기 제2 이동 경로를 주행하는 단계; 및 상기 서버는 상기 제1 이미지 및 상기 제2 이미지를 인공 신경망에 입력하고, 상기 인공 신경망을 통해 청결도를 평가하는 단계;를 포함한다.According to one embodiment, a cleaning robot; A control method of a cleaning robot system including a server that controls the cleaning robot. The server generating a first movement path of the cleaning robot based on drawing information and transmitting the first movement path to the cleaning robot; The cleaning robot performs cleaning based on the first movement path and travels the first movement path; transmitting a first image captured by the cleaning robot of the inside of the duct to the server; The server matching the drawing information and the first image and determining the location of the cleaning robot; Based on the position of the cleaning robot, the server generates a second movement path that returns to the movement path, and transmitting the second movement path to the cleaning robot; The cleaning robot transmits a second image captured inside the duct to the server based on the second movement path and travels the second movement path; and the server inputting the first image and the second image into an artificial neural network and evaluating cleanliness through the artificial neural network.

Description

청소용 로봇 시스템 및 그 제어 방법{CLEANING ROBOT SYSTEM AND CONTROLLING METHOD THEREOF}Cleaning robot system and its control method {CLEANING ROBOT SYSTEM AND CONTROLLING METHOD THEREOF}

본 실시예는 인공지능을 기반으로 청소용 로봇의 덕트 청소 결과를 판단하는 청소용 로봇 시스템 및 그 제어 방법에 관한 것이다.This embodiment relates to a cleaning robot system and its control method that determines the duct cleaning results of the cleaning robot based on artificial intelligence.

대한민국 등록특허공보 KR 10-1190093 B1은 청소 효율이 향상된 덕트 청소용 원격 제어 로봇을 개시한다. 구체적으로, 선행문헌은 원격으로 운전 제어되어 덕트 내부에서 이동하는 카트와; 상기 카트의 전방으로 고압의 에어를 분사하도록 상기 카트의 전방에 설치된 고압에어 분사노즐과; 상기 카트의 전방에 위치하여 상기 덕트의 내벽의 이물질을 떼어내도록 회전하는 청소솔이 구비된 청소 유닛을; 포함하여 구성되어, 덕트 청소용 원격 제어 로봇이 전진하면서 고압에어 분사노즐에 의해 먼저 고압의 에어를 전방 바닥면을 향하여 불어내어, 청소할 영역의 덕트의 내벽에 쌓인 먼지 뭉치 등을 1차적으로 보다 전방으로 이동시킨 후, 그 다음에 청소 유닛의 청소솔을 회전시키면서 2차적으로 덕트의 내벽을 기계적 힘으로 청소하는 덕트 청소용 원격 제어 로봇을 개시한다.Republic of Korea Patent Publication KR 10-1190093 B1 discloses a remote control robot for duct cleaning with improved cleaning efficiency. Specifically, the prior literature includes a cart that is remotely operated and controlled to move within a duct; a high-pressure air injection nozzle installed in front of the cart to spray high-pressure air toward the front of the cart; a cleaning unit located in front of the cart and equipped with a cleaning brush that rotates to remove foreign substances from the inner wall of the duct; As the remote control robot for duct cleaning moves forward, high-pressure air is first blown toward the front floor by the high-pressure air injection nozzle, and dust clumps accumulated on the inner wall of the duct in the area to be cleaned are primarily moved forward. After moving, a remote control robot for duct cleaning is started that rotates the cleaning brush of the cleaning unit and secondarily cleans the inner wall of the duct with mechanical force.

또한, 대한민국 등록특허공보 KR 10-1072908 B1은 청소 상태를 용이하게 확인할 수 있는 원격제어 로봇청소 시스템을 개시한다. 구체적으로, 선행문헌은 덕트 내부에 운전 제어되어 원격으로 이동하는 카트와, 상기 카트에 대하여 회전 가능하게 장착된 링크에 결합되어 상기 덕트의 내면(內面)을 청소하는 청소 유닛과, 상기 카트가 진행하는 전방을 촬영하는 전방 카메라와, 상기 카트가 지나온 후방을 촬영하는 후방 카메라를 구비한 청소용 로봇과; 상기 카트의 이동과 상기 링크의 회전을 원격 제어하는 제어유닛과; 상기 전방 카메라로 촬영되는 전방 이미지와, 상기 후방 카메라로 촬영되는 후방 이미지를 2개 이상의 분할 화면에 동시에 표시하는 디스플레이 유닛과; 상기 디스플레이 유닛에 표시되는 이미지들을 저장하는 저장 유닛을 포함하여 구성되어, 전방 카메라로 촬영된 청소 이전의 상태와 후방 카메라로 촬영된 청소 이후의 상태를 청소용 로봇을 조종하는 작업자가 디스플레이 유닛을 통해 확인하면서 덕트 청소를 진행하므로, 청소 도중에 제대로 닦이지 않은 덕트 내부를 청소할 수 있을 뿐 아니라, 저장 유닛에 의하여 청소용 로봇의 전,후방 카메라가 각각 촬영한 영상을 기록 매체에 저장하여 둠으로써, 청소용 로봇을 조종하는 작업자가 아니더라도 누구든지 덕트 청소가 완료된 상태에서도 마치 실시간으로 청소하고 있는 것처럼 덕트 전체에 걸쳐 청소 상태를 확인할 수 있도록 하는 원격 제어 로봇청소 시스템을 개시한다.Additionally, Republic of Korea Patent Publication KR 10-1072908 B1 discloses a remote control robot cleaning system that can easily check the cleaning status. Specifically, the prior literature includes a cart that is controlled and moves remotely inside a duct, a cleaning unit that is coupled to a link rotatably mounted on the cart to clean the inner surface of the duct, and the cart is A cleaning robot equipped with a front camera that photographs the front as it moves and a rear camera that photographs the rear that the cart has passed; a control unit that remotely controls movement of the cart and rotation of the link; a display unit that simultaneously displays a front image captured by the front camera and a rear image captured by the rear camera on two or more split screens; It is configured to include a storage unit that stores images displayed on the display unit, so that the worker controlling the cleaning robot can check the state before cleaning captured by the front camera and the state after cleaning photographed by the rear camera through the display unit. Since the duct cleaning is carried out while cleaning, not only can the inside of the duct that was not properly cleaned during cleaning be cleaned, but the storage unit stores the images taken by the cleaning robot's front and rear cameras on a recording medium, allowing the cleaning robot to be controlled. We are launching a remote control robot cleaning system that allows anyone, even if not the operator, to check the cleaning status of the entire duct as if it were being cleaned in real time even when the duct cleaning is completed.

하지만, 이러한 선행문헌은 로봇의 청소 동작에 관한 제어 또는 청소 상태를 실시간으로 확인해주는 단순한 영상을 제공하는 것일 뿐, 청소용 로봇이 수행한 덕트를 다시 이동하면서, 청소 결과를 검토하는 기술을 개시하고 있지 않는다.However, these prior documents only provide simple images to control the robot's cleaning operation or check the cleaning status in real time, and do not disclose a technology for reviewing the cleaning results while moving the duct performed by the cleaning robot again. No.

대한민국 등록특허공보 KR 10-1190093 B1Republic of Korea Patent Publication KR 10-1190093 B1 대한민국 등록특허공보 KR 10-1072908 B1Republic of Korea Patent Publication KR 10-1072908 B1

본 발명은 상술한 바와 같은 문제점을 해결하기 위한 것으로, 덕트 내부를 청소한 후 다시 덕트 내부를 이동하면서 덕트 상태를 촬영한 이미지를 비교하고, 청결도를 평가하는 청소용 로봇 시스템 및 그 제어 방법을 제공하고자 한다.The present invention is intended to solve the problems described above, and aims to provide a cleaning robot system and a control method thereof that compare images taken of the duct state while moving inside the duct after cleaning the inside of the duct, and evaluate the cleanliness. do.

또한, 실시예들은 덕트 내부 구역을 식별하는 태그를 활용함으로써, 청소용 로봇이 촬영하는 이미지를 명확하게 비교할 수 있고, 청결도를 평가하는 정확성을 높일 수 있다.Additionally, embodiments utilize tags that identify the inner area of the duct, so that images taken by cleaning robots can be clearly compared and the accuracy of evaluating cleanliness can be increased.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른, 청소용 로봇; 상기 청소용 로봇을 제어하는 서버;를 포함하는 청소용 로봇 시스템의 제어방법은. 도면 정보에 기초하여 상기 서버가 상기 청소용 로봇의 제1 이동 경로를 생성하고, 상기 청소용 로봇으로 상기 제1 이동 경로를 전송하는 단계; 상기 제1 이동 경로에 기초하여 상기 청소용 로봇이 청소를 수행하고, 상기 제1 이동 경로를 주행하는 단계; 상기 청소용 로봇이 상기 덕트 내부를 촬영한 제1 이미지를 상기 서버로 전송하는 단계; 상기 서버는 상기 서버가 상기 도면 정보 및 상기 제1 이미지를 매칭시키고, 상기 청소용 로봇의 위치를 파악하는 단계; 상기 청소용 로봇의 위치에 기초하여 상기 서버는, 상기 이동 경로를 되돌아가는 제2 이동 경로를 생성하고, 상기 제2 이동 경로를 상기 청소용 로봇으로 전송하는 단계; 상기 청소용 로봇은 상기 제2 이동 경로에 기초하여, 상기 덕트 내부를 촬영한 제2 이미지를 상기 서버로 전송하고, 상기 제2 이동 경로를 주행하는 단계; 및 상기 서버는 상기 제1 이미지 및 상기 제2 이미지를 인공 신경망에 입력하고, 상기 인공 신경망을 통해 청결도를 평가하는 단계;를 포함한다.A cleaning robot according to an embodiment of the present invention to solve the above problems; A control method of a cleaning robot system including a server that controls the cleaning robot. The server generating a first movement path of the cleaning robot based on drawing information and transmitting the first movement path to the cleaning robot; The cleaning robot performs cleaning based on the first movement path and travels the first movement path; transmitting a first image captured by the cleaning robot of the inside of the duct to the server; The server matching the drawing information and the first image and determining the location of the cleaning robot; Based on the position of the cleaning robot, the server generates a second movement path that returns to the movement path, and transmitting the second movement path to the cleaning robot; The cleaning robot transmits a second image captured inside the duct to the server based on the second movement path and travels the second movement path; and the server inputting the first image and the second image into an artificial neural network and evaluating cleanliness through the artificial neural network.

상기 제1 이동 경로 및 상기 제2 이동 경로를 주행하는 단계;는, 상기 청소용 로봇은, 상기 덕트 내 마련된 태그 정보를 인식하는 단계; 상기 태그 정보에 기초하여 상기 제1 이미지 또는 상기 제2 이미지를 촬영하는 단계;를 포함할 수 있다.Driving along the first movement path and the second movement path; recognizing, by the cleaning robot, tag information provided in the duct; It may include photographing the first image or the second image based on the tag information.

상기 청결도를 평가하는 단계;는, 상기 태그 정보에 기초하여 상기 제1 이미지 또는 상기 제2 이미지를 서로 매칭하여 비교하는 단계; 픽셀의 광도에 기초하여 상기 제1 이미지에서 관심 영역을 설정하는 단계; 상기 제2 이미지의 해당 관심 영역에서 상기 제2 이미지의 픽셀 광도를 산출하는 단계; 이미지별 각 관심 영역의 픽셀 광도 간의 차이를 미리 설정된 기준값과 비교하는 단계; 및 상기 비교 결과, 상기 제1 이미지 또는 상기 제2 이미지 중 적어도 하나를 상기 인공 신경망에 입력하고, 상기 인공 신경망의 출력값에 기초하여 상기 청결도를 평가하는 단계;를 포함할 수 있다.The step of evaluating the cleanliness includes matching and comparing the first image or the second image with each other based on the tag information; setting a region of interest in the first image based on pixel luminance; calculating pixel luminance of the second image in a corresponding region of interest of the second image; Comparing the difference between the pixel luminance of each region of interest in each image with a preset reference value; And, as a result of the comparison, inputting at least one of the first image or the second image into the artificial neural network, and evaluating the cleanliness based on the output value of the artificial neural network.

상기 제1 이동 경로 및 상기 제2 이동 경로를 주행하는 단계;는, 상기 청소용 로봇은 센서 그룹을 통해 측정한 상기 덕트의 환경 정보를 획득하고, 상기 서버로 상기 환경 정보를 전송하는 단계;를 포함하고, 상기 청결도를 평가하는 단계;는, 상기 태그 정보에 기초하여 상기 제1 이미지와 상기 제2 이미지를 서로 매칭하여 비교하는 단계; 상기 서버가 상기 환경 정보 및 상기 인공 신경망을 통해 제1 이미지의 오염 물질을 인식하는 단계; 상기 서버가 상기 제1 이미지의 픽셀 정보에 기초하여 상기 오염 물질의 라벨링을 수행하는 단계; 및 상기 서버는 매칭된 상기 제2 이미지의 픽셀 정보에 기초하여 상기 오염 물질의 크기 및 제거 여부를 판단하는 단계;를 포함할 수 있다.Driving the first movement path and the second movement path; includes the cleaning robot acquiring environmental information of the duct measured through a sensor group and transmitting the environmental information to the server. and evaluating the cleanliness; matching and comparing the first image and the second image based on the tag information; the server recognizing contaminants in the first image through the environmental information and the artificial neural network; the server performing labeling of the contaminant based on pixel information of the first image; and determining, by the server, the size of the contaminant and whether to remove it based on pixel information of the matched second image.

상기 제1 이동 경로를 주행하는 단계;는, 제1 이미지에 기초하여 상기 서버가 추가 청소 필요 영역을 판단하는 단계; 상기 추가 청소 필요 영역에 기초하여, 상기 서버가 청소 제어 명령을 생성하고, 상기 청소 제어 명령을 상기 청소용 로봇으로 전송하는 단계; 상기 제어 명령에 기초하여, 상기 청소용 로봇이 미리 정의된 청소 동작을 수행하는 단계;를 포함할 수 있다.Driving the first movement path; determining, by the server, an area that needs additional cleaning based on the first image; Based on the area requiring additional cleaning, the server generates a cleaning control command and transmits the cleaning control command to the cleaning robot; It may include performing, by the cleaning robot, a predefined cleaning operation based on the control command.

개시된 다른 실시예에 따라, 도면 정보에 기초하여 상기 청소용 로봇의 이동 경로를 생성하고, 상기 청소용 로봇의 제어 명령을 생성하고, 인공 신경망을 학습시키는 서버; 카메라, 이동부 및 청소부를 포함하는 청소용 로봇; 및 상기 카메라가 촬영한 이미지를 표시하는 사용자 단말;를 포함하고, 상기 청소용 로봇은, 상기 서버가 생성한 청소용 로봇의 제1 이동 경로에 기초하여 덕트 내부를 주행하고, 상기 덕트 내부를 촬영한 제1 이미지를 상기 서버로 전송하고, 상기 서버가 생성한 제2 이동 경로에 기초하여 상기 덕트 내부를 다시 주행하고, 상기 제2 이동 경로에서 촬영한 제2 이미지를 상기 서버로 전송하고, 상기 서버는, 제1 이미지 및 상기 제2 이미지를 인공 신경망에 입력하고, 상기 인공 신경망을 통해 청결도를 평가하고, 상시 사용자 단말은, 상기 제1 이미지, 상기 제2 이미지 또는 상기 청결도를 표시한다.According to another disclosed embodiment, a server that generates a movement path of the cleaning robot based on drawing information, generates a control command of the cleaning robot, and trains an artificial neural network; A cleaning robot including a camera, a moving part, and a cleaning part; and a user terminal that displays the image captured by the camera, wherein the cleaning robot travels inside the duct based on the first movement path of the cleaning robot generated by the server, and a second device that photographs the inside of the duct is provided. 1 Transmit an image to the server, drive again inside the duct based on the second movement path generated by the server, and transmit the second image taken on the second movement path to the server, and the server , the first image and the second image are input into an artificial neural network, cleanliness is evaluated through the artificial neural network, and the user terminal always displays the first image, the second image, or the cleanliness.

본 발명에 의하면, 청소용 로봇 시스템 및 그 제어 방법은 덕트 내부를 청소한 후 다시 덕트 내부를 이동하면서 덕트 상태를 촬영한 이미지를 비교하고, 청결도를 평가할 수 있다. According to the present invention, the cleaning robot system and its control method can compare images taken of the duct state while moving inside the duct again after cleaning the inside of the duct, and evaluate cleanliness.

또한, 본 발명에 의하면, 청소용 로봇 시스템 및 그 제어 방법은 덕트 내부 구역을 식별하는 태그를 활용함으로써, 청소용 로봇이 촬영하는 이미지를 명확하게 비교할 수 있고, 청결도를 평가하는 정확성을 높일 수 있다.In addition, according to the present invention, the cleaning robot system and its control method can clearly compare images taken by the cleaning robot and increase the accuracy of evaluating cleanliness by utilizing a tag that identifies the inner area of the duct.

본 발명의 효과들은 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 일 실시예에 따른 청소용 로봇 시스템의 구성을 설명하기 위한 도면이다.
도 2는 청소용 로봇 시스템에서 수행하는 서버의 동작을 설명하기 위한 순서도이다.
도 3은 청소용 로봇 시스템에서 청소용 로봇의 동작을 설명하기 위한 순서도이다.
도 4는 일 실시예에 따라 제1 이미지 및 제2 이미지를 대비하여 청결도를 평가하는 방법을 설명하기 위한 도면이다.
도 5는 청결도를 평가하는 일 실시예에 대한 순서도이다.
도 6은 환경 정보를 통해 청결도를 판단하는 실시예에 대한 순서도이다.
도 7은 일 실시예에 따른 인공 신경망의 학습을 설명하기 위한 순서도이다.
도 8은 일 실시예에 따른 장치의 구성의 예시도이다.
1 is a diagram for explaining the configuration of a cleaning robot system according to an embodiment.
Figure 2 is a flow chart to explain the operation of the server performed in the cleaning robot system.
Figure 3 is a flowchart for explaining the operation of the cleaning robot in the cleaning robot system.
FIG. 4 is a diagram illustrating a method of evaluating cleanliness by comparing a first image and a second image according to an embodiment.
Figure 5 is a flow chart for one embodiment of evaluating cleanliness.
Figure 6 is a flow chart for an embodiment of determining cleanliness through environmental information.
Figure 7 is a flowchart for explaining learning of an artificial neural network according to an embodiment.
Figure 8 is an exemplary diagram of the configuration of a device according to an embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms. The present embodiments only serve to ensure that the disclosure of the present invention is complete and that common knowledge in the technical field to which the present invention pertains is not limited. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are the same as those commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. It has meaning. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless clearly defined in the embodiments of the present invention, have an ideal or excessively formal meaning. It is not interpreted as

본 발명의 실시예를 설명하기 위한 도면에 개시된 형상, 크기, 비율, 각도, 개수 등은 예시적인 것이므로 본 발명이 도시된 사항에 한정되는 것은 아니다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서 상에서 언급된 '포함한다', '갖는다', '이루어진다' 등이 사용되는 경우 '~만'이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별히 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함한다.The shapes, sizes, proportions, angles, numbers, etc. disclosed in the drawings for explaining embodiments of the present invention are illustrative, and the present invention is not limited to the matters shown. Additionally, in describing the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. When 'includes', 'has', 'consists of', etc. mentioned in this specification are used, other parts may be added unless 'only' is used. When a component is expressed in the singular, the plural is included unless specifically stated otherwise.

구성 요소를 해석함에 있어서, 별도의 명시적 기재가 없더라도 오차 범위를 포함하는 것으로 해석한다.When interpreting a component, it is interpreted to include the margin of error even if there is no separate explicit description.

위치 관계에 대한 설명일 경우, 예를 들어, '~상에', '~상부에', '~하부에', '~옆에' 등으로 두 부분의 위치 관계가 설명되는 경우, '바로' 또는 '직접'이 사용되지 않는 이상 두 부분 사이에 하나 이상의 다른 부분이 위치할 수도 있다.In the case of a description of a positional relationship, for example, if the positional relationship of two parts is described as 'on top', 'on the top', 'on the bottom', 'next to', etc., 'immediately' Alternatively, there may be one or more other parts placed between the two parts, unless 'directly' is used.

소자(elements) 또는 층이 다른 소자 또는 층"위(on)"로 지칭되는 것은 다른 소자 바로 위에 또는 중간에 다른 층 또는 다른 소자를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.When an element or layer is referred to as “on” another element or layer, it includes instances where the element or layer is directly on top of or intervening with another element. Like reference numerals refer to like elements throughout the specification.

도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 도시된 것이며, 본 발명이 도시된 구성의 크기 및 두께에 반드시 한정되는 것은 아니다.The size and thickness of each component shown in the drawings are shown for convenience of explanation, and the present invention is not necessarily limited to the size and thickness of the components shown.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다. Each feature of the various embodiments of the present invention can be partially or fully combined or combined with each other, and as can be fully understood by those skilled in the art, various technical interconnections and operations are possible, and each embodiment may be implemented independently of each other. It may be possible to conduct them together due to a related relationship.

이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the operating principle and embodiments of the present invention will be described with reference to the attached drawings.

도 1은 일 실시예에 따른 청소용 로봇 시스템의 구성을 설명하기 위한 도면이다.1 is a diagram for explaining the configuration of a cleaning robot system according to an embodiment.

일 실시예에 따른 청소용 로봇 시스템은 청소용 로봇(1), 청소용 로봇을 제어하는 서버(100) 및 사용자 단말(110)을 포함할 수 있다. 청소용 로봇 시스템은 청소용 로봇(1)을 제어함으로써, 덕트 및 파이프 내부 청소가 정밀하고 안전하게 이루어지도록 기능할 수 있다. A cleaning robot system according to an embodiment may include a cleaning robot 1, a server 100 that controls the cleaning robot, and a user terminal 110. The cleaning robot system can function to precisely and safely clean the inside of ducts and pipes by controlling the cleaning robot (1).

먼저, 서버(100)는 청소용 로봇(1)을 관리하는 사용자 또는 단체가 보유한 자체 서버일 수 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 서버(100)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능, 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 서버(100)는 추론 기능을 수행하는 적어도 하나 이상의 인공 신경망을 구비할 수 있다. 서버(100)는 사용자 단말(110) 사용자를 위한 웹 페이지 또는 어플리케이션과 연동될 수 있다. 서버(100)는 청소용 로봇(1)의 통신부(40) 및 사용자 단말(110)과 유무선으로 통신하도록 구성될 수 있다.First, the server 100 may be an own server owned by a user or organization that manages the cleaning robot 1, may be a cloud server, or may be a p2p (peer-to-peer) set of distributed nodes. there is. The server 100 may be configured to perform all or part of the calculation function, storage/reference function, input/output function, and control function of a typical computer. The server 100 may be equipped with at least one artificial neural network that performs an inference function. The server 100 may be linked with a web page or application for the user of the user terminal 110. The server 100 may be configured to communicate wired or wirelessly with the communication unit 40 of the cleaning robot 1 and the user terminal 110.

서버(100)는 청소 대상이 되는 덕트 또는 파이프의 도면 정보를 획득할 수 있다. 서버(100)는 도면 정보를 기초로, 청소용 로봇(1)의 이동 경로를 연산하고, 청소용 로봇으로 이동 경로를 전송할 수 있다. 이를 통해, 청소용 로봇(1)은 청소 동선을 파악할 수 있다. 청소용 로봇(1)은 덕트 또는 파이프 내부를 자동으로 주행하면서 청소를 진행할 수 있다. The server 100 may obtain drawing information of the duct or pipe to be cleaned. The server 100 may calculate the movement path of the cleaning robot 1 based on the drawing information and transmit the movement path to the cleaning robot. Through this, the cleaning robot 1 can determine the cleaning movement line. The cleaning robot 1 can clean while automatically traveling inside a duct or pipe.

서버(100)는 청소 전, 청소용 로봇(1)이 덕트 내부를 주행하는 이동 경로(이하 제1 이동 경로)를 통해 덕트 내부를 촬영하도록 제어할 수 있다. 청소용 로봇(1)이 촬영한 이미지(이하 제1 이미지)는 서버(100)로 전송된다. 청소용 로봇(1)이 제1 이동 경로를 완주한 후, 서버(100)는 청소용 로봇(1)이 제1 이동 경로를 되돌아가는 이동 경로(이하 제2 이동 경로)를 주행하도록 제어한다. 서버(100)는 청소용 로봇(1)이 제2 이동 경로를 통해 주행하면서, 전송하는 이미지(이하 제2 이미지) 및 제1 이미지를 비교함으로써, 덕트 또는 파이프 내 청결도를 판단할 수 있다. 이에 관한 구체적인 설명은 이하의 다른 도면을 통해 후술한다.The server 100 may control the cleaning robot 1 to photograph the inside of the duct through a movement path (hereinafter referred to as a first movement path) along which the cleaning robot 1 travels inside the duct before cleaning. The image captured by the cleaning robot 1 (hereinafter referred to as the first image) is transmitted to the server 100. After the cleaning robot 1 completes the first movement path, the server 100 controls the cleaning robot 1 to travel on a movement path (hereinafter referred to as a second movement path) that returns to the first movement path. The server 100 may determine the cleanliness within the duct or pipe by comparing the image (hereinafter referred to as the second image) transmitted by the cleaning robot 1 while traveling through the second movement path and the first image. A detailed description of this will be provided later through other drawings below.

사용자 단말(110)은 데스크탑 컴퓨터, 노트북, 태블릿, 스마트폰 등일 수 있다. 또는, 사용자 단말(110)은 청소용 로봇(1)을 조종하기 위한 전문적인 컴퓨터 장치일 수 있다. 사용자 단말(110)은 청소용 로봇(1)을 관리하는 사용자 내지 단체가 운영하는 웹 페이지에 접속할 수 있다. 사용자 단말(110)은 청소용 로봇(1)을 관리하는 사용자 내지 단체가 개발·배포한 어플리케이션이 설치될 수 있다. 사용자 단말(110)은 웹 페이지 또는 어플리케이션을 통해 서버(100)와 유무선으로 통신할 수 있다. 웹 페이지 또는 어플리케이션은 청소용 로봇(1)을 통해 획득한 덕트 내부의 상황을 표시할 수 있다. 웹 페이지 또는 어플리케이션은 청소용 로봇(1)을 제어하는 제어 명령 입력 UI(User Interface)를 표시할 수 있다.The user terminal 110 may be a desktop computer, laptop, tablet, smartphone, etc. Alternatively, the user terminal 110 may be a professional computer device for controlling the cleaning robot 1. The user terminal 110 can access a web page operated by a user or organization that manages the cleaning robot 1. The user terminal 110 may be installed with an application developed and distributed by a user or organization that manages the cleaning robot 1. The user terminal 110 can communicate with the server 100 wired or wirelessly through a web page or application. A web page or application can display the situation inside the duct obtained through the cleaning robot (1). A web page or application may display a control command input UI (User Interface) for controlling the cleaning robot 1.

청소용 로봇(1)은 덕트 및 파이프 내부를 청소하기 위한 기능 및 구성을 가질 수 있다. 구체적으로, 청소용 로봇(1)은 덕트 내부에서 청소용 로봇을 이동시키는 이동부(10), 덕트 내부를 청소하도록 기능하는 청소부(21, 22), 덕트 내부를 촬영하는 카메라(31), 덕트 내부의 환경을 측정하고, 태그 정보를 수집하는 리더기 등을 포함하는 센서 그룹(32) 및 전술한 서버(10) 또는 사용자 단말(110)과 데이터를 송수신하는 통신부(40)를 포함할 수 있다.The cleaning robot 1 may have functions and configurations for cleaning the inside of ducts and pipes. Specifically, the cleaning robot 1 includes a moving part 10 that moves the cleaning robot inside the duct, cleaning parts 21 and 22 that function to clean the inside of the duct, a camera 31 that photographs the inside of the duct, and a camera 31 that takes pictures of the inside of the duct. It may include a sensor group 32 including a reader that measures the environment and collects tag information, and a communication unit 40 that transmits and receives data with the aforementioned server 10 or user terminal 110.

구체적으로 이동부(10)는 청소용 로봇(1)에 동력을 제공하고, 주행을 수행할 수 있도록 한다. 이동부(10)는 복수의 무한궤도와 궤도 모터로 구성될 수 있다. Specifically, the moving unit 10 provides power to the cleaning robot 1 and allows it to travel. The moving unit 10 may be composed of a plurality of crawler tracks and orbital motors.

청소용 로봇(1)은 덕트 및 파이프 내부에서 미묘한 거리 오차가 있는 경우, 이동부(10)의 궤도 모터에 설치된 복수의 압력 센서(11)를 통해, 일정 압력 이상·이하를 파악하여 이동·회전 구간을 보정할 수 있다. 구체적으로, 각각의 압력 센서(11)는 청소용 로봇(1)이 덕트 또는 파이프와 접촉하는 면적의 압력을 측정할 수 있다. 청소용 로봇(1)가 덕트 또는 파이프의 엘보(elbow) 구간에서 회전 이동을 할 때, 복수의 압력 센서(11)는 접촉면적 별 압력을 획득할 수 있다. 청소용 로봇(1)은 접촉면적 별 압력을 서버(100)로 전송할 수 있다. 서버(100)는 접촉면적별 압력의 차이를 기초로, 덕트 또는 파이프의 엘보 구간에서 청소용 로봇(1)의 제1 이동 경로를 보정할 수 있다. 이를 통해, 청소용 로봇(1)은 덕트 또는 파이프의 한쪽에 쓸리거나 부딪히지 않으면서 회전·꺽임 구간을 통과할 수 있다.If there is a subtle distance error inside the duct or pipe, the cleaning robot (1) detects whether the pressure is above or below a certain pressure through the plurality of pressure sensors (11) installed on the orbital motor of the moving part (10) and moves and rotates the section. can be corrected. Specifically, each pressure sensor 11 can measure the pressure of an area where the cleaning robot 1 contacts the duct or pipe. When the cleaning robot 1 rotates in the elbow section of a duct or pipe, the plurality of pressure sensors 11 may acquire pressure for each contact area. The cleaning robot 1 can transmit pressure for each contact area to the server 100. The server 100 may correct the first movement path of the cleaning robot 1 in the elbow section of the duct or pipe based on the difference in pressure for each contact area. Through this, the cleaning robot 1 can pass through the rotating/bending section without being swept or collided with one side of the duct or pipe.

한편, 이동부(10)는 반드시 전술한 구성에 제한되는 것이 아니며, 다양한 이동 수단을 더 포함할 수 있다.Meanwhile, the moving unit 10 is not necessarily limited to the above-described configuration and may further include various moving means.

청소부(21, 22)는 브러시(21) 및 블라스터(22)를 포함할 수 있다. 브러시(21)는 덕트 내부를 닦아내는 기능을 수행할 수 있다. 블라스터(22)는 덕트 내부로 물 및 세제를 발사(블라스팅)할 수 있다. 블라스터(22)에서 발사하는 물은 온수일 수 있다. 블라스터(22)에서 블라스팅하는 물을 통해, 청소용 로봇(1)은 덕트 내부를 청소에 적합한 온도 환경으로 만들 수 있다.The cleaning units 21 and 22 may include a brush 21 and a blaster 22. The brush 21 may perform the function of wiping the inside of the duct. The blaster 22 can fire (blast) water and detergent into the duct. The water fired from the blaster 22 may be hot water. By blasting water from the blaster 22, the cleaning robot 1 can create a temperature environment suitable for cleaning inside the duct.

카메라(31)는 덕트 내부를 촬영한다. 촬영된 제1 이미지 및 제2 이미지는, 서버(100)로 전송될 수 있다. 구체적으로 제1 이미지는 청소 전 덕트 내부를 촬영한 결과물이므로, 오염물질, 해충, 기름기, 유분 등 다양한 영상이 포함될 수 있다. 서버(100)는 제1 이미지의 각각의 픽셀의 광도를 기초로, 세척의 유무를 판별하고, 미비 시 1회 이상의 블라스팅을 수행하는 제어 명령을 청소용 로봇(1)으로 전송할 수 있다. 또한, 서버(100)는 청소용 로봇(1)이 제2 이동 경로를 통해 주행하면서 촬영한 덕트 내부의 이미지(제2 이미지) 및 제1 이미지를 비교하여, 청결도를 평가한다. 일 예로, 서버(100)는 제1 이미지의 픽셀 광도에 기초하여 관심 영역을 설정하고, 제2 이미지에서 관심 영역 내의 픽셀 광도를 산출할 수 있다. 서버(100)는 산출된 픽셀 광도에 기초하여 청소용 로봇(1)의 청소 정도, 즉 청결도를 평가할 수 있다. 이미지를 통해 청결도를 평가하는 다양한 방법은 이하의 다른 도면을 통해 후술한다.The camera 31 photographs the inside of the duct. The captured first and second images may be transmitted to the server 100. Specifically, the first image is the result of taking pictures of the inside of the duct before cleaning, so it may include various images such as contaminants, pests, grease, oil, etc. The server 100 may determine the presence or absence of cleaning based on the luminosity of each pixel of the first image, and may transmit a control command to the cleaning robot 1 to perform one or more blasting if insufficient. Additionally, the server 100 evaluates cleanliness by comparing the image (second image) and the first image of the inside of the duct taken while the cleaning robot 1 travels along the second movement path. As an example, the server 100 may set a region of interest based on the pixel luminance of the first image and calculate the luminance of pixels within the region of interest in the second image. The server 100 may evaluate the degree of cleaning, that is, cleanliness, of the cleaning robot 1 based on the calculated pixel luminance. Various methods of evaluating cleanliness through images are described later through other drawings below.

서버(100)는 카메라(31)를 통해 촬영된 제1 이미지를 기초로, 영상에 덧입힐 증강현실 레이어를 생성할 수도 있다. 서버(100)는 사용자 단말(110)로 실제 이미지 및 증강현실 레이어를 전송할 수 있다. 사용자 단말(110) 사용자는 증강현실 레이어가 덧입힌 덕트 내부 이미지를 확인함으로써, 덕트 내부 환경을 보다 빠르고 직관적으로 파악할 수 있다. The server 100 may create an augmented reality layer to be added to the image based on the first image captured through the camera 31. The server 100 may transmit the actual image and augmented reality layer to the user terminal 110. The user of the user terminal 110 can more quickly and intuitively understand the environment inside the duct by checking the image inside the duct overlaid with the augmented reality layer.

청소용 로봇(1)의 센서 그룹(32)은 덕트 내부의 물리적/화학적 상태를 측정할 수 있다. 센서 그룹(32)은 복수의 센서들로 구성될 수 있다. 센서 그룹(32)은 온도 센서, 미세먼지 센서, 특정 화학물질을 감지하는 센서, 태그 정보를 수집하는 리더기 등을 포함할 수 있다. 서버(100)는 센거 그룹(32)이 측정한 검출값에 기초하여 제1 이미지에서 독성 물질, 해충과 같은 오염 물질 (이하 환경 정보)를 판단한다. 서버(100)는 제1 이미지 및 제2 이미지에서 오염 물질의 제거여부를 판단함으로써, 청결도를 판단한다.The sensor group 32 of the cleaning robot 1 can measure the physical/chemical condition inside the duct. The sensor group 32 may be composed of a plurality of sensors. The sensor group 32 may include a temperature sensor, a fine dust sensor, a sensor that detects a specific chemical substance, and a reader that collects tag information. The server 100 determines pollutants such as toxic substances and pests (hereinafter referred to as environmental information) in the first image based on the detection value measured by the sensor group 32. The server 100 determines cleanliness by determining whether contaminants are removed from the first image and the second image.

서버(100)는 센서 그룹(32)을 통해 측정된 환경 정보를 기초로, 영상에 덧입힐 반투명 레이어를 생성할 수 있다. 사용자 단말(110) 사용자는 반투명 레이어가 덧입힌 영상을 확인함으로써, 덕트 내부 환경을 보다 빠르고 직관적으로 파악할 수 있다.The server 100 may create a translucent layer to be added to the image based on environmental information measured through the sensor group 32. The user of the user terminal 110 can more quickly and intuitively understand the internal environment of the duct by checking the image overlaid with a translucent layer.

청소용 로봇(1)과 서버(100)는 통신부(40)를 통해 유무선으로 통신할 수 있다. 구체적으로 통신부(40)는 카메라(31)이 촬영한 이미지 및 센서 그룹(32)의 측정값을 서버(100) 또는 사용자 단말(110)로 전송할 수 있다. 사용자는 통신부(40)를 통해 송신된 이미지에 기초하여 덕트 내부의 영상을 보면서, 특정 영역의 세척 강도를 강제로 조정할 수 있다. 예를 들어, 사용자는 촬영된 제1 이미지를 통해 청소용 로봇(1)이 세척 미완 구역에 진입하는 것을 판단할 수 있다. 세척 미완 구역이 블라스팅 반경에 들어올 경우, 사용자는 속도를 낮추거나 멈춘 후 해당 구역 추가 블라스팅을 지시하는 강제 제어 명령을 입력할 수 있다. 사용자 단말(110)은 제어 명령을 청소용 로봇(1)으로 전송하고, 통신부(40)는 수신된 제어 명령을 기초로 동작을 수행할 수 있다.The cleaning robot 1 and the server 100 can communicate wired or wirelessly through the communication unit 40. Specifically, the communication unit 40 may transmit the image captured by the camera 31 and the measured value of the sensor group 32 to the server 100 or the user terminal 110. The user can forcibly adjust the cleaning intensity of a specific area while viewing the image inside the duct based on the image transmitted through the communication unit 40. For example, the user may determine that the cleaning robot 1 enters the uncleaned area through the captured first image. If an uncleaned area enters the blasting radius, the user can slow down or stop and then enter a force control command to direct additional blasting of that area. The user terminal 110 transmits a control command to the cleaning robot 1, and the communication unit 40 can perform operations based on the received control command.

서버(100) 또한, 사용자 단말(110)의 제어 명령을 획득할 수 있다. 서버(100)는 사용자 단말(110)의 입력한 제어 명령에 기초하여 제1 이동 경로를 수정하고, 수정된 제1 이동 경로를 청소용 로봇(1)으로 전송할 수도 있다.The server 100 may also obtain a control command of the user terminal 110. The server 100 may modify the first movement path based on the control command input from the user terminal 110 and transmit the modified first movement path to the cleaning robot 1.

통신부(40)는 서버(100) 또는 사용자 단말(110)과 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있으며, 전술한 예시 이외에도 다양한 데이터를 외부와 교환할 수 있다.The communication unit 40 may include one or more components that enable communication with the server 100 or the user terminal 110. For example, it may include at least one of a short-range communication module, a wired communication module, and a wireless communication module, and in addition to the examples described above, various data can be exchanged with the outside.

한편, 청소용 로봇(1)은 전술한 구성 이외에도 다양한 구성을 더 포함할 수 있다.Meanwhile, the cleaning robot 1 may further include various configurations in addition to the configuration described above.

도 2는 청소용 로봇 시스템에서 수행하는 서버의 동작을 설명하기 위한 순서도이다.Figure 2 is a flow chart to explain the operation of the server performed in the cleaning robot system.

도 2를 참조하면, 서버(100)는 덕트의 도면 정보에 기초하여 제1 이동 경로를 생성한다(200).Referring to FIG. 2, the server 100 creates a first movement path based on duct drawing information (200).

구체적으로, 서버(100)는 미리 데이터베이스화된 덕트 도면 라이브러리로부터 도면 정보를 획득할 수 있다. 서버(100)는 덕트 청소를 의뢰하는 사용자 내지 단체가 보유한 도면 파일을 외부 네트워크로부터 수신할 수도 있다. Specifically, the server 100 may obtain drawing information from a duct drawing library that has been previously databased. The server 100 may receive a drawing file held by a user or organization requesting duct cleaning from an external network.

도면 정보를 수신하면, 서버(100)는 도면 정보를 기초로, 직진 구간에서 청소용 로봇(1)이 직진할 거리를 연산하고, 엘보(elbow) 구간 등 회전 구간에서 청소용 로봇(1)이 회전 시작 지점 지점, 회전 반경, 회전 종료 지점 등을 연산할 수 있다. 서버(100)는 엘보 구간의 기하구조에 따라 청소용 로봇(1)이 점진적으로 회전하도록 연산할 수 있고, 연속적으로 회전하도록 연산할 수도 있다. 이렇게 연산한 결과에 기초하여 서버(100)는 청소용 로봇(1)이 덕트 내부를 주행하는 제1 이동 경로를 생성한다.Upon receiving the drawing information, the server 100 calculates the distance that the cleaning robot 1 will go straight in the straight section based on the drawing information, and the cleaning robot 1 starts rotating in the rotation section such as the elbow section. You can calculate the starting point, radius of rotation, end point of rotation, etc. The server 100 may calculate the cleaning robot 1 to rotate gradually or continuously depending on the geometry of the elbow section. Based on the results of this calculation, the server 100 creates a first movement path along which the cleaning robot 1 travels inside the duct.

서버(100)는 덕트 내부의 도면 정보 뿐만 아니라 사용자의 입력 명령으로부터 청소의 시작 지점을 수신하여 제1 이동 경로를 생성할 수도 있다. 사용자의 입력 명령은 사용자 단말(110)로부터 수신된다. 또한, 서버(100)는 도면 정보에 기초하여 생성한 제1 이동 경로를 사용자 단말(110)로 송신하고, 사용자로부터 제1 이동 경로의 변경 여부를 요청할 수도 있다.The server 100 may generate a first movement path by receiving a cleaning start point from a user's input command as well as drawing information on the inside of the duct. The user's input command is received from the user terminal 110. Additionally, the server 100 may transmit the first movement path generated based on the drawing information to the user terminal 110 and request whether to change the first movement path from the user.

서버(100)는 압력 센서의 검출값에 기초한 접촉면적 별 압력을 수집한다(210).The server 100 collects pressure for each contact area based on the detection value of the pressure sensor (210).

구체적으로 서버(100)는 제1 이동 경로를 청소용 로봇(1)으로 전송하고, 청소용 로봇(1)은 수신한 제1 이동 경로에 기초하여 주행을 시작한다. 주행 도중, 청소용 로봇(1)은 접촉면적 별 압력을 수집한다. 각각의 압력 센서(11)는 청소용 로봇(1)이 덕트와 접촉하는 면적의 압력을 측정할 수 있다. 각각의 압력 센서(11)는 청소용 로봇(1)이 덕트와 접촉하는 청소용 로봇(1) 표면 상의 서로 다른 위치에 위치할 수 있다. 각각의 압력 센서(11)는 청소용 로봇(1)과 덕트의 접촉면적 별 압력을 측정할 수 있다. 직진 구간에서, 복수 개의 압력 센서(11)를 통해 측정한 각각의 압력값은 미리 정의된 범위 미만의 차이만 날 수 있다. 엘보 구간에서, 복수 개의 압력 센서(11)를 통해 측정한 각각의 압력값은 미리 정의된 범위 이상의 차이가 날 수 있다. 청소용 로봇(1)는 서버(100)로 복수의 압력 센서(11)를 통해 측정된 접촉면적 별 압력을 전송할 수 있다.Specifically, the server 100 transmits the first movement path to the cleaning robot 1, and the cleaning robot 1 starts traveling based on the received first movement path. While driving, the cleaning robot (1) collects pressure for each contact area. Each pressure sensor 11 can measure the pressure of the area where the cleaning robot 1 contacts the duct. Each pressure sensor 11 may be located at a different location on the surface of the cleaning robot 1 where the cleaning robot 1 contacts the duct. Each pressure sensor 11 can measure the pressure for each contact area between the cleaning robot 1 and the duct. In a straight section, the pressure values measured through the plurality of pressure sensors 11 may differ only by less than a predefined range. In the elbow section, each pressure value measured through the plurality of pressure sensors 11 may differ by more than a predefined range. The cleaning robot 1 may transmit the pressure for each contact area measured through the plurality of pressure sensors 11 to the server 100.

서버(100)는 압력 차이에 기초하여 회전 구간에서 제1 이동 경로를 수정하고(220), 수정된 제1 이동 경로를 청소용 로봇에 전송한다(230).The server 100 modifies the first movement path in the rotation section based on the pressure difference (220) and transmits the modified first movement path to the cleaning robot (230).

예를 들어, 도면 정보를 기초로, 청소용 로봇(1)은 1m 앞에서 좌측으로 회전을 시작하라는 제1 이동 경로를 서버(100)로부터 미리 받은 상태일 수 있다. 이때, 청소용 로봇(1)이 97cm를 전진한 시점에서 우측에 위치한 압력 센서의 접촉면적 별 압력이 좌측에 위치한 압력 센서의 접촉면적 별 압력보다 미리 정의된 범위 이상으로 줄어들 수 있다. 이 경우, 청소용 로봇(1)은 1m 앞에서 좌측으로 회전해야 하지만, 실제로는 97cm 앞에서 전진하는 것이 맞는 상황일 수 있다. 만약 청소용 로봇(1)이 1m 앞까지 가서 좌측으로 회전하면, 청소용 로봇(1)의 우측부가 덕트에 부딪히거나 쓸릴 수 있다. 덕트와의 잦은 쓸림·부딪힘은 청소용 로봇(1)의 수명을 줄이는 원인이 되거나, 청소용 로봇(1)의 고장 원인이 될 수 있다. 이러한 문제를 해결하기 위해서 서버(100)는 청소용 로봇(1)로부터 실시간으로 획득하는 접촉면적 별 압력의 차이를 연산할 수 있다. 서버(100)는 접촉면적 별 압력 차이가 미리 정의된 범위 이상으로 차이가 나기 시작할 경우, 미리 정의된 회전 구간에서 이동 경로를 보정하는 제어 명령을 청소용 로봇(1)으로 전송할 수 있다. 미리 정의된 회전 구간은 덕트의 엘보 구간일 수 있다.For example, based on the drawing information, the cleaning robot 1 may have previously received a first movement path from the server 100 to start turning to the left 1 m ahead. At this time, when the cleaning robot 1 has advanced 97 cm, the pressure per contact area of the pressure sensor located on the right may be reduced to a predefined range or more than the pressure per contact area of the pressure sensor located on the left. In this case, the cleaning robot 1 should turn to the left in front of 1 m, but in reality, it may be correct to move forward 97 cm in front. If the cleaning robot (1) goes 1m ahead and turns to the left, the right side of the cleaning robot (1) may hit or be swept by the duct. Frequent rubbing or collision with the duct may reduce the lifespan of the cleaning robot (1) or cause a breakdown of the cleaning robot (1). To solve this problem, the server 100 can calculate the difference in pressure for each contact area obtained in real time from the cleaning robot 1. When the pressure difference for each contact area begins to differ beyond a predefined range, the server 100 may transmit a control command to correct the movement path in the predefined rotation section to the cleaning robot 1. The predefined rotation section may be an elbow section of the duct.

서버(100)는 청소용 로봇(1)으로부터 태그 정보와 제1 이미지를 수집한다(240).The server 100 collects tag information and the first image from the cleaning robot 1 (240).

구체적으로 태그 정보는, 덕트 내부에 미리 마련된 RFID(Radio Frequency IDentification) 태그로부터 청소용 로봇(1)에 마련된 센서 그룹(32)에 마련된 리더기를 통해 수집할 수 있다. 여기서 RFID태그는 IC 칩을 포함하고, 리더기는 IC 칩의 식별 코드나 정보를 리딩하는 안테나 및 그 밖에 패키징으로 구성될 수 있다. RFID 태그는 덕트 내부에 미리 설정된 거리마다 마련되거나 회전 지점 등에 마련될 수 있다. 청소용 로봇(1)은 태그 정보를 읽으면, 카메라(31)를 통해 덕트 내부를 촬영한다. 청소용 로봇(1)은 촬영된 제1 이미지 및 리딩한 태그 정보를 통신부(40)를 통해 서버(100) 또는 사용자 단말(110)로 전송할 수 있다.Specifically, tag information can be collected from an RFID (Radio Frequency IDentification) tag previously provided inside the duct through a reader provided in the sensor group 32 provided in the cleaning robot 1. Here, the RFID tag includes an IC chip, and the reader may be composed of an antenna that reads the identification code or information of the IC chip and other packaging. RFID tags can be provided at preset distances inside the duct or at rotation points. When the cleaning robot 1 reads the tag information, it photographs the inside of the duct through the camera 31. The cleaning robot 1 may transmit the captured first image and the read tag information to the server 100 or the user terminal 110 through the communication unit 40.

서버(100)는 청소용 로봇의 현재 위치를 파악한다(250).The server 100 determines the current location of the cleaning robot (250).

구체적으로 도면 정보에는 IC칩이 설치된 위치가 포함될 수 있으며, 서버(100)는 수신된 태그 정보 또는 청소용 로봇(1)이 전송하는 GPS 신호에 기초하여 청소용 로봇(1)이 덕트 내 위치하는 위치 정보를 파악할 수 있다.Specifically, the drawing information may include the location where the IC chip is installed, and the server 100 provides location information where the cleaning robot 1 is located in the duct based on the received tag information or the GPS signal transmitted by the cleaning robot 1. can be figured out.

서버(100)는 수정된 제1 이동 경로, 현재 위치 및 도면 정보를 통해 제2 이동 경로를 생성한다(260).The server 100 creates a second movement path using the modified first movement path, current location, and drawing information (260).

예를 들어, 서버(100)는 전송하는 태그 정보 및 위치 정보로부터 현재 청소용 로봇(1)이 덕트 내부를 완주한 것으로 판단할 수 있다. 만약 청소용 로봇(1)이 제1 이동 경로를 완주한 경우, 서버(100)는 태그 정보, 수정한 제1 이동 경로 및 도면 정보에 기초하여 덕트 내부를 다시 이동하는 제2 이동 경로를 생성한다. 즉, 제2 이동 경로는 다시 압력 센서(11)에 의해서 이동 경로를 수정할 필요 없이, 수정된 제1 이동 경로에 기초하여 청소용 로봇(1)이 덕트에 부딪히지 않을 이동 경로가 될 수 있다.For example, the server 100 may determine that the cleaning robot 1 has currently completed the inside of the duct based on the transmitted tag information and location information. If the cleaning robot 1 completes the first movement path, the server 100 creates a second movement path that moves inside the duct again based on the tag information, the modified first movement path, and the drawing information. That is, the second movement path may be a movement path in which the cleaning robot 1 will not collide with the duct based on the modified first movement path, without the need to modify the movement path by the pressure sensor 11 again.

서버(100)는 청소용 로봇(1)으로부터 태그 정보와 제2 이미지를 다시 수집한다(270).The server 100 again collects tag information and the second image from the cleaning robot 1 (270).

전술한 바와 같이, 태그 정보는 덕트 내부에 마련되어 있다. 청소용 로봇(1)은 제2 이동 경로에 기초하여 덕트를 되돌아가면서, 카메라(32)를 통해 덕트 내부를 다시 촬영한다. 카메라(32)가 촬영한 이미지, 즉 제2 이미지는 서버(100)로 전송된다.As described above, tag information is provided inside the duct. The cleaning robot 1 moves back through the duct based on the second movement path and takes pictures of the inside of the duct again through the camera 32. The image captured by the camera 32, that is, the second image, is transmitted to the server 100.

서버(100)는 제1 이미지 및 제2 이미지를 매칭한다(280).The server 100 matches the first image and the second image (280).

각 이미지의 매칭은, 청소용 로봇(1)이 전송하는 태그 정보가 일치하는 구역을 기준으로 매칭된다. 태그 정보로부터 명확하게 매칭되지 않는 이미지가 있다면, 서버(100)는 청소용 로봇(1)의 위치 정보 등을 참조하여 매칭을 수행한다. Each image is matched based on the area where the tag information transmitted by the cleaning robot 1 matches. If there is an image that does not clearly match from the tag information, the server 100 performs matching by referring to the location information of the cleaning robot 1, etc.

서버(100)는 인공 신경망을 통해 청결도를 평가한다(290).The server 100 evaluates cleanliness through an artificial neural network (290).

청결도는, 다양한 방법을 통해서 평가될 수 있다. 구체적으로 서버(100)는 매칭된 제1 이미지 및 제2 이미지를 비교함으로써, 청결도를 평가한다. 만약 청소 전 촬영한 제1 이미지의 픽셀의 광도가 어둡다면, 서버(100)는 덕트 내부에 먼지 등이 가득한 것으로 평가할 수 있다. 매칭된 제2 이미지에서 동일한 구역의 픽셀 광도가 밝아진 경우, 서버(100)는 밝아진 정도에 기초하여 청결도가 높은 것으로 평가한다. 만약 제1 이미지 및 센서 그룹(32)이 검출한 환경 정보에 비해서 제2 이미지 및 센서 그룹(32)이 검출한 환경 정보가 변경된 경우, 서버(100)는 그 변경된 정도에 기초하여 청결도가 높아진 것으로 판단할 수 있다.Cleanliness can be evaluated through various methods. Specifically, the server 100 evaluates cleanliness by comparing the matched first image and the second image. If the luminance of the pixel of the first image taken before cleaning is dark, the server 100 may evaluate that the inside of the duct is full of dust. If the pixel brightness of the same area in the matched second image becomes brighter, the server 100 evaluates the cleanliness as high based on the brightening degree. If the environmental information detected by the second image and sensor group 32 is changed compared to the environmental information detected by the first image and sensor group 32, the server 100 determines that the cleanliness has increased based on the degree of change. You can judge.

한편, 서버(100)는 곤충, 오염물질, 독성물질, 먼지의 쌓임 정도가 다양한 청결도의 평가 요소를 종합적으로 고려하기 위해서 인공 신경망을 사용할 수 있다. 인공 신경망은, 제1 이미지 및 제2 이미지를 인식하기 위한 CNN(Convolution Neural Network) 또는/및 RNN(Recurrent Neural Network)으로 마련될 수 있다. 구체적으로 인공 신경망은 멀티-레이어 퍼셉트론(multi-layer perceptron)으로 구성될 수 있으며, 퍼셉트론은 입력값에 가중치(weight)를 곱하고, 바이어스(bias)와 더한 후, 변형된 입력값을 전달함수(transfer function 또는 activation function)으로 구성될 수 있다. 즉, 퍼셉트론은 전달함수의 역치값을 만족하는 변형된 입력값만을 출력값으로 출력한다. 인공 신경망은 입력되는 제1 이미지 및 제2 이미지를 비교하여 청결도를 평가하도록 학습되고, 필요에 따라 환경 정보가 부가되어 다양한 상황에 대한 청결도가 학습될 수 있다. 이렇게 학습된 인공 신경망은 서버(100)에 미리 저장되고, 서버(100)는 매칭된 제1 이미지, 제2 이미지 및 환경 정보에 기초하여 청결도를 평가한다. 인공 신경망에 대한 구체적인 설명은 도 7 등에서 후술한다.Meanwhile, the server 100 may use an artificial neural network to comprehensively consider evaluation factors of cleanliness with various levels of accumulation of insects, contaminants, toxic substances, and dust. The artificial neural network may be prepared as a Convolution Neural Network (CNN) or/and a Recurrent Neural Network (RNN) for recognizing the first image and the second image. Specifically, the artificial neural network may be composed of a multi-layer perceptron. The perceptron multiplies the input value by a weight, adds it with a bias, and then transfers the transformed input value. It can be composed of a function or activation function). In other words, the perceptron outputs only the transformed input value that satisfies the threshold value of the transfer function as an output value. The artificial neural network is trained to evaluate cleanliness by comparing the input first image and the second image, and if necessary, environmental information can be added to learn cleanliness for various situations. The artificial neural network learned in this way is stored in advance in the server 100, and the server 100 evaluates cleanliness based on the matched first image, second image, and environmental information. A detailed description of the artificial neural network will be described later in FIG. 7, etc.

도 3은 청소용 로봇 시스템에서 청소용 로봇의 동작을 설명하기 위한 순서도이다. 도 2에서 설명한 사항 중, 중복되는 설명은 생략되거나 간략하게 설명한다.Figure 3 is a flowchart for explaining the operation of the cleaning robot in the cleaning robot system. Among the matters described in FIG. 2, overlapping descriptions will be omitted or briefly explained.

도 3을 참조하면, 청소용 로봇(1)은 서버(100)로부터 제1 이동 경로를 수신한다(300).Referring to FIG. 3, the cleaning robot 1 receives a first movement path from the server 100 (300).

도 2에서 전술한 바와 같이, 제1 이동 경로는 서버(100)에서부터 덕트 내부의 도면 정보 및 사용자 단말(110)을 통한 입력 명령을 기초로 생성될 수 있다.As described above in FIG. 2, the first movement path may be generated from the server 100 based on drawing information inside the duct and an input command through the user terminal 110.

서버(100)로부터 제1 이동 경로가 수신되면, 청소용 로봇(1)은 제1 이동 경로를 주행한다(310).When the first movement path is received from the server 100, the cleaning robot 1 travels the first movement path (310).

청소용 로봇(1)은 통신부(40)를 통해서 제1 이동 경로를 수신하고, 제1 이동 경로에 기초하여 이동부(10)를 동작시킨다.The cleaning robot 1 receives the first movement path through the communication unit 40 and operates the movement unit 10 based on the first movement path.

청소용 로봇(1)은 센서 그룹을 통해 환경 정보 또는 압력을 수집하고(311), 카메라(31)를 통해 제1 이미지를 촬영하고(312), 태그 정보를 인식한다(313).The cleaning robot 1 collects environmental information or pressure through a sensor group (311), captures a first image through a camera 31 (312), and recognizes tag information (313).

전술한 각 동작은 모두 제1 이동 경로를 주행하면서 청소용 로봇(1)이 수행하는 동작으로, 3가지 동작이 동시에 수행되거나, 시간 순서대로 수행될 수 있다.Each of the above-described operations is an operation performed by the cleaning robot 1 while traveling along the first movement path, and the three operations may be performed simultaneously or in chronological order.

청소용 로봇(1)은 수집된 정보, 제1 이미지 및 위치 정보를 서버로 전송한다(320).The cleaning robot 1 transmits the collected information, first image, and location information to the server (320).

수집된 정보, 제1 이미지 및 위치 정보는 전기적 신호로 변경되고, 통신부(40)를 통해 서버(100)로 전송된다. 특히, 청소용 로봇(1)은 서버(100)가 다수의 정보를 식별할 수 있도록, 제1 이미지가 촬영된 시간, 태그 정보가 수집된 시간 및 위치 정보를 결합하여 서버(100)로 송신할 수 있다.The collected information, first image, and location information are converted into electrical signals and transmitted to the server 100 through the communication unit 40. In particular, the cleaning robot 1 can combine the time when the first image was captured, the time when tag information was collected, and location information and transmit it to the server 100 so that the server 100 can identify a plurality of information. there is.

청소용 로봇(1)은 수정된 제1 이동 경로에 기초하여 계속 덕트 내부를 주행한다(330).The cleaning robot 1 continues to travel inside the duct based on the modified first movement path (330).

서버(100)는 청소용 로봇(1)의 압력 센서(11)를 통해 수집한 검출값에 기초하여 접촉면적 별 압력을 서버(100)로 전송한다. 서버(100)는 접촉면적 별 압력의 차이를 기초로, 덕트 또는 파이프의 엘보 구간에서 청소용 로봇(1)의 이동 경로를 보정할 수 있으며, 이러한 보정된 제1 이동 경로를 서버(100)로부터 수신한다.The server 100 transmits the pressure for each contact area to the server 100 based on the detection value collected through the pressure sensor 11 of the cleaning robot 1. The server 100 can correct the movement path of the cleaning robot 1 in the elbow section of the duct or pipe based on the difference in pressure for each contact area, and receives this corrected first movement path from the server 100. do.

청소용 로봇(1)은 제1 이동 경로의 주행을 완료하였는지 여부를 판단한다(340).The cleaning robot 1 determines whether it has completed traveling the first movement path (340).

구체적으로 제1 이동 경로의 주행을 완료하였는지 여부는, 수신된 제1 이동 경로에 따라 이동부(10)의 동작을 완료하였는지 여부로 판단할 수 있다. 다른 예로, 서버(100) 또는 사용자 단말(110)로부터 현재 위치로부터 이동을 중단하는 제어 명령를 수신하는 경우, 청소용 로봇(1)은 제1 이동 경로를 완료한 것으로 판단할 수 있다.Specifically, whether driving of the first movement path has been completed can be determined by whether the operation of the moving unit 10 has been completed according to the received first movement path. As another example, when receiving a control command to stop movement from the current location from the server 100 or the user terminal 110, the cleaning robot 1 may determine that the first movement path has been completed.

만약 청소용 로봇(1)이 제1 이동 경로의 주행을 완료하지 않으면(340의 아니오), 청소용 로봇(1)은 제1 이동 경로를 계속 주행하면서, 청소 동작 및 311, 312 및 313 단계의 동작을 수행한다.If the cleaning robot 1 does not complete traveling the first movement path (No in 340), the cleaning robot 1 continues traveling the first movement path and performs the cleaning operation and the operations of steps 311, 312, and 313. Perform.

만약 청소용 로봇(1)이 제1 이동 경로의 주행을 완료하면(340의 예), 청소용 로봇(1)은 대기한 후, 서버(100)로부터 제2 이동 경로를 수신한다(350).If the cleaning robot 1 completes traveling the first movement path (example in 340), the cleaning robot 1 waits and then receives the second movement path from the server 100 (350).

제2 이동 경로는 덕트 내부를 되돌아가는 이동 경로이다. 제2 이동 경로는 청소용 로봇(1)이 전송한 태그 정보, 센스 그룹(32)을 통해 수정한 제1 이동 경로 및 도면 정보에 기초하여 생성된다.The second movement path is a movement path that goes back inside the duct. The second movement path is created based on the tag information transmitted by the cleaning robot 1, the first movement path modified through the sense group 32, and drawing information.

청소용 로봇(1)은 제2 이동 경로를 주행하면서(360), 제2 이미지를 촬영하고(361), 태그 정보를 인식(362)한다.The cleaning robot 1 travels a second movement path (360), captures a second image (361), and recognizes tag information (362).

구체적으로 청소용 로봇(1)은 제1 이동 경로에서의 주행과 마찬가지로, 제2 이동 경로에 기초하여 이동부(10)를 동작하고, 카메라(31)를 통해 덕트 내부를 촬영한다. 촬영된 제2 이미지는 청소용 로봇(1)에 임시적으로 저장된다. 또한, 청소용 로봇(1)은 센서 그룹(32)을 통해 태그 정보를 수집한다. 덕트 내부에 RFID 태그가 마련된 경우, 제2 이동 경로 상에도 태그 정보를 다시 리딩할 수 있다. Specifically, the cleaning robot 1 operates the moving unit 10 based on the second moving path, similar to driving on the first moving path, and photographs the inside of the duct through the camera 31. The captured second image is temporarily stored in the cleaning robot 1. Additionally, the cleaning robot 1 collects tag information through the sensor group 32. If an RFID tag is provided inside the duct, tag information can be read again on the second movement path.

청소용 로봇(1)은 수집된 정보, 제2 이미지 및 위치 정보를 서버로 전송한다(370).The cleaning robot 1 transmits the collected information, second image, and location information to the server (370).

서버(100)은 수집된 정보에 기초하여 덕트 내부의 청결도를 평가할 수 있다. 이에 관한 구체적인 설명은 이하의 다른 도면을 통해 후술한다.The server 100 may evaluate the cleanliness inside the duct based on the collected information. A detailed description of this will be provided later through other drawings below.

청소용 로봇(1)은 제2 이동 경로의 주행을 완료하였는지 여부를 판단한다(380).The cleaning robot 1 determines whether it has completed traveling the second movement path (380).

구체적으로, 제2 이동 경로의 주행을 완료하였는지 여부는, 제2 이동 경로에 따라 이동부(10)의 동작을 완료하였는지 여부로 판단할 수 있다. 또는 서버(100) 또는 사용자 단말(110)로부터 현재 위치로부터 이동을 중단하는 제어 명령를 수신하는 경우, 청소용 로봇(1)은 제2 이동 경로를 완료한 것으로 판단할 수 있다.Specifically, whether the driving of the second movement path has been completed can be determined by whether the operation of the moving unit 10 has been completed according to the second movement path. Alternatively, when receiving a control command to stop movement from the current location from the server 100 or the user terminal 110, the cleaning robot 1 may determine that the second movement path has been completed.

만약 청소용 로봇(1)이 제2 이동 경로의 주행을 완료하지 않으면(380의 아니오), 청소용 로봇(1)은 제2 이동 경로를 계속 주행하면서, 청소 동작 및 361, 및 362 단계의 동작을 수행한다.If the cleaning robot 1 does not complete traveling the second movement path (No in 380), the cleaning robot 1 continues traveling the second movement path and performs the cleaning operation and the operations of steps 361 and 362. do.

만약 청소용 로봇(1)이 제2 이동 경로의 주행을 완료하면(380의 예), 청소용 로봇(1)은 동작을 중단하고, 대기한다.If the cleaning robot 1 completes traveling the second movement path (example 380), the cleaning robot 1 stops operating and waits.

도 4는 일 실시예에 따라 제1 이미지 및 제2 이미지를 대비하여 청결도를 평가하는 방법을 설명하기 위한 도면이다.FIG. 4 is a diagram illustrating a method of evaluating cleanliness by comparing a first image and a second image according to an embodiment.

도 4를 참조하면, 제1 이미지(60)는 청소용 로봇(1)이 제1 이동 경로를 주행하면서, 덕트 내부를 촬영한 청소 전 영상의 일 예일 수 있다. 구체적으로 제1 이미지(60)의 천장, 왼쪽 면, 및 바닥 면에 먼지가 쌓여있을 수 있으며, 오염 물질(52)이 촬영될 수 있다.Referring to FIG. 4 , the first image 60 may be an example of a pre-cleaning image taken of the inside of a duct while the cleaning robot 1 travels the first movement path. Specifically, dust may accumulate on the ceiling, left side, and floor of the first image 60, and contaminants 52 may be captured.

청소용 로봇(1)은 센서 그룹(32)에 포함된 리더기를 통해 덕트 내부에 마련된 RFID 태그(33)를 리딩할 수 있으며, 태그 정보를 수집한다. 또한, 청소용 로봇(1)은 센서 그룹(32)을 통해 덕트 내부에 마련된 오염 물질(52)에 대한 환경 정보로부터 검출할 수 있다.The cleaning robot 1 can read the RFID tag 33 provided inside the duct through the reader included in the sensor group 32 and collect tag information. Additionally, the cleaning robot 1 can detect pollutants 52 provided inside the duct from environmental information through the sensor group 32.

청소용 로봇(1)은 도 4와 같은 실시예에서 제1 이미지(60), 환경 정보 및 태그 정보를 서버(100)로 전송할 수 있다.The cleaning robot 1 may transmit the first image 60, environmental information, and tag information to the server 100 in the embodiment shown in FIG. 4.

제2 이미지(61)는 청소용 로봇(1)이 제2 이동 경로에 기초하여 덕트 내부를 주행하는 도중, 제1 이미지를 촬영한 위치와 근접한 위치에서 청소용 로봇(1)이 촬영한 영상이다.The second image 61 is an image captured by the cleaning robot 1 at a position close to the position where the first image was captured while the cleaning robot 1 was traveling inside the duct based on the second movement path.

청소부(21, 22)를 통해 청소용 로봇(1)이 청소를 수행하였으므로, 제2 이미지(61)는 먼지가 제거되고, 제1 이미지에서 오염 물질(52)이 있었던 관심 영역(51)에 오염 물질이 제거된 것을 포함할 수 있다.Since the cleaning robot 1 has performed cleaning through the cleaners 21 and 22, the second image 61 shows the dust removed and the contaminants in the area of interest 51 where the contaminants 52 were in the first image. This may include what has been removed.

청소용 로봇(1)은 센서 그룹(32)에 포함된 리더기를 통해 덕트 내부에 마련된 RFID 태그(33)를 리딩할 수 있으며, 태그 정보를 수집한다. 또한, 청소용 로봇(1)은 센서 그룹(32)을 통해 덕트 내부에 마련된 오염 물질(52)의 존재 여부를 다시 검출할 수 있으며, 검출 결과를 서버(100)로 전송할 수 있다.The cleaning robot 1 can read the RFID tag 33 provided inside the duct through the reader included in the sensor group 32 and collect tag information. Additionally, the cleaning robot 1 can again detect the presence of contaminants 52 provided inside the duct through the sensor group 32 and transmit the detection result to the server 100.

서버(100)는 태그 정보, 환경 정보, 제2 이미지(61)를 청소용 로봇(1)으로부터 수신하고, 태그 정보에 기초하여 제1 이미지(60) 및 제2 이미지(61)를 매칭시킨다. 매칭이 진행된 후, 서버(100)는 환경 정보, 제1 이미지(60) 및 제2 이미지(61)에 기초하여 청결도를 평가할 수 있다. 청결도를 평가하는 구체적인 방법은 이하의 다른 도면을 통해 후술한다.The server 100 receives tag information, environment information, and the second image 61 from the cleaning robot 1, and matches the first image 60 and the second image 61 based on the tag information. After matching is performed, the server 100 may evaluate cleanliness based on environmental information, the first image 60, and the second image 61. A specific method for evaluating cleanliness will be described later through other drawings below.

도 5는 청결도를 평가하는 일 실시예에 대한 순서도이다.Figure 5 is a flow chart for one embodiment of evaluating cleanliness.

도 5를 참조하면, 서버(100)는 태그 정보에 기초하여 제1 이미지 및 제2 이미지를 매칭한다(400).Referring to FIG. 5, the server 100 matches the first image and the second image based on tag information (400).

제1 이미지(60) 및 제2 이미지(61)는 청소용 로봇(1)이 전송한 이미지이다. 서버(100)는 태그 정보에 기초하여 이미지를 서로 매칭시킨다. 다만, 제1 이동 경로에서 청소용 로봇(1)이 촬영하는 제1 이미지(60)와 제2 이동 경로에서 청소용 로봇(1)이 촬영하는 제2 이미지(61)는 도 4와 같이, 좌우가 서로 뒤집힌 형태일 수 있으며, 청소부(21, 22)의 동작에 의해서 오염 물질이 제거된 서로 다른 이미지일 수 있다. 서버(1)는 태그 정보를 통해 덕트 내부의 청소용 로봇(1)의 위치를 인식하고, GPS 신호와 같은 위치 정보를 통해 제1 이미지(60) 또는 제2 이미지(61)를 보정하여 각 이미지를 서로 매칭시킨다.The first image 60 and the second image 61 are images transmitted by the cleaning robot 1. The server 100 matches images to each other based on tag information. However, the first image 60 captured by the cleaning robot 1 on the first movement path and the second image 61 captured by the cleaning robot 1 on the second movement path are left and right opposite each other, as shown in FIG. 4. It may be in an inverted form, and may be a different image in which contaminants are removed by the operation of the cleaners 21 and 22. The server 1 recognizes the location of the cleaning robot 1 inside the duct through tag information, and corrects the first image 60 or the second image 61 through location information such as a GPS signal to create each image. Match each other.

서버(100)는 픽셀의 광도에 기초하여 제1 이미지에서 관심 영역을 설정한다(410).The server 100 sets a region of interest in the first image based on the luminance of the pixel (410).

도 4에서 도시된 바와 같이, 관심 영역(51)은 미리 설정된 기준 내에 포함된 광도 값이 서로 밀집한 제1 이미지(60)의 일 영역에서 생성될 수 있다. 여기서 미리 설정된 기준은 덕트 내부에서 먼지가 쌓여진 정도에 따라 다양할 수 있으며, 관심 영역의 크기 및 모양엔 제한이 없다.As shown in FIG. 4 , the region of interest 51 may be created in an area of the first image 60 where luminance values included within a preset standard are crowded together. Here, the preset standard can vary depending on the degree of dust accumulation inside the duct, and there is no limit to the size and shape of the area of interest.

서버(100)는 제2 이미지의 관심 영역에서 픽셀의 광도를 산출한다(420).The server 100 calculates the luminance of a pixel in the region of interest of the second image (420).

제2 이미지(61)는 이미 청소가 수행된 이후에 청소용 로봇(1)이 촬영한 영상이다. 따라서 제2 이미지(61)에서 각 픽셀의 광도 값은 제1 이미지(60)의 광도 값과 상이할 수 있다. 서버(100)는 410단계와 달리, 매칭된 제1 이미지(60)의 관심 영역(51)의 위치 좌표에 기초하여 제2 이미지(61)에서 관심 영역(52)을 생성한다. 관심 영역(51, 52)의 모양은 도 4와 같이, 제1 이미지에서 생성된 동일한 모양의 관심 영역이 생성될 수 있다. 서버(100)는 제2 이미지에서 생성된 관심 영역(52)에서의 픽셀 광도를 산출한다.The second image 61 is an image captured by the cleaning robot 1 after cleaning has already been performed. Accordingly, the luminance value of each pixel in the second image 61 may be different from the luminance value of the first image 60. Unlike step 410, the server 100 generates the region of interest 52 in the second image 61 based on the location coordinates of the region of interest 51 in the matched first image 60. The shapes of the regions of interest 51 and 52 may be the same as those created in the first image, as shown in FIG. 4 . The server 100 calculates pixel luminance in the region of interest 52 created in the second image.

서버(100)는 이미지별 각 관심영역(51, 52)의 픽셀 광도 간의 차이와 기준값을 비교한다(430).The server 100 compares the difference between the pixel brightness of each region of interest 51 and 52 for each image with a reference value (430).

구체적으로 서버(100)는 이미지별 각 관심영역(51, 52)의 픽셀 광도 간의 차이를 기준값과 비교한다. 여기서 기준값은 다양할 수 있으며, 덕트 내부의 환경에 따라 다양하게 변경될 수 있다. 사용자 단말(110)을 통해서 기준값이 변경될 수도 있다.Specifically, the server 100 compares the difference between the pixel luminance of each interest region 51 and 52 for each image with a reference value. Here, the standard value may vary and may change in various ways depending on the environment inside the duct. The reference value may be changed through the user terminal 110.

한편, 반드시 광도 값을 구분하는 기준이 관심 영역에 제한되는 것은 아니다. 서버(1)는 관심 영역을 생성하지 않고, 제1 이미지(60) 및 제2 이미지(61)의 전체의 광도 값을 산출함으로써, 청결도를 평가할 수도 있다.Meanwhile, the standard for classifying luminance values is not necessarily limited to the region of interest. The server 1 may evaluate cleanliness by calculating the overall luminance value of the first image 60 and the second image 61 without creating a region of interest.

서버(100)는 비교 결과를 인공 신경망에 입력하고(440), 서버(100)는 인공 신경망이 출력하는 출력값을 기초로 덕트 내부의 청결도를 평가한다(450).The server 100 inputs the comparison result into the artificial neural network (440), and the server 100 evaluates the cleanliness inside the duct based on the output value output by the artificial neural network (450).

도 4와 같은 단순한 덕트 내부의 이미지를 비교할 때도, 매우 다양한 영역에 관심 영역이 생성될 수 있으며, 광도 값은 매우 다양하게 비교될 수 있다. 서버(100)는 다양한 위치 및 모양으로 생성될 관심 영역에서, 다양하게 수행될 수 있는 픽셀 광도 값을 단순히 비교하는 것이 아니라, 인공 신경망을 이용하여 비교함으로써, 청결도 평가의 정확성을 향상시킬 수도 있다. Even when comparing images inside a simple duct as shown in FIG. 4, regions of interest can be created in very different areas, and luminance values can be compared in very different ways. The server 100 may improve the accuracy of cleanliness evaluation by not simply comparing pixel luminance values, which can be performed in various ways, in areas of interest to be created in various positions and shapes, but by comparing them using an artificial neural network.

도 6은 환경 정보를 통해 청결도를 판단하는 실시예에 대한 순서도이다.Figure 6 is a flow chart for an embodiment of determining cleanliness through environmental information.

서버(100)는 환경 정보 및 인공 신경망을 통해 제1 이미지의 오염 물질을 인식한다(500).The server 100 recognizes pollutants in the first image through environmental information and an artificial neural network (500).

환경 정보는 청소용 로봇(1)의 센서 그룹(32)을 통해 수집하는 다양한 검출값이다. 도 1에서 전술한 바와 같이, 센서 그룹(32)은 온도 센서, 미세먼지 센서, 특정 화학물질을 감지하는 센서 등을 포함할 수 있으며, 서버(100)는 각각의 센서가 검출하는 검출값을 종합하여 환경 정보를 생성할 수 있다.Environmental information is various detection values collected through the sensor group 32 of the cleaning robot 1. As described above in FIG. 1, the sensor group 32 may include a temperature sensor, a fine dust sensor, a sensor that detects a specific chemical substance, etc., and the server 100 synthesizes the detection values detected by each sensor. Thus, environmental information can be generated.

서버(100)는 오염 물질을 인식할 수 있다(510). The server 100 may recognize contaminants (510).

서버(100)는 생성한 환경 정보를 통해서 오염 물질을 인식할 수 있다. 예를 들어, 서버(100)는 특정 화학물질 센서를 통해 덕트 내부에 오염 물질을 감지할 수 있다. 다른 예로, 유독 액체로 인해 덕트 내부에 독성 화학물질이 퍼진 상황일 수 있다. 청소용 로봇(1)의 특정 화학물질을 감지하는 센서는 독성 화학물질을 검출할 수 있다. 서버(100)는 덕트 내부에 독성 화학물질이 미리 정의된 농도 이상인 상황을 판단할 수도 있다.The server 100 can recognize pollutants through the generated environmental information. For example, the server 100 may detect contaminants inside the duct through a specific chemical sensor. As another example, there may be a situation where toxic chemicals have spread inside the duct due to a toxic liquid. A sensor that detects specific chemicals in the cleaning robot (1) can detect toxic chemicals. The server 100 may determine a situation where the concentration of toxic chemicals inside the duct is higher than a predefined concentration.

서버(100)는 제1 이미지에서 오염 물질의 라벨링을 수행한다(520).The server 100 performs labeling of contaminants in the first image (520).

구체적으로 서버(100)는 제1 이미지에서 인공 신경망을 통해 오염 물질을 구별할 수 있다. 인공 신경망은 물체 인식 알고리즘을 학습하거나, CNN 또는 RNN을 통해 제1 이미지로부터 오염 물질을 인식할 수 있다. 서버(100)가 제1 이미지를 통해 오염 물질을 먼저 인식하면, 서버(100)는 환경 정보로부터 오염 물질이 독극 물질, 곤충 등 청소 방해 물질인지 여부를 구체적으로 구분할 수 있다. 즉, 서버(100)는 제1 이미지에서 오염 물질을 인식하고, 환경 정보를 통해 수집된 오염 물질의 종류를 제1 이미지에 라벨링한다.Specifically, the server 100 may distinguish pollutants in the first image through an artificial neural network. The artificial neural network can learn an object recognition algorithm or recognize contaminants from the first image through CNN or RNN. If the server 100 first recognizes a contaminant through the first image, the server 100 can specifically distinguish from environmental information whether the contaminant is a substance that interferes with cleaning, such as a poisonous substance or an insect. That is, the server 100 recognizes pollutants in the first image and labels the first image with the type of pollutant collected through environmental information.

서버(100)는 제2 이미지에서 오염 물질의 크기 또는 제거 여부를 판단한다(530).The server 100 determines the size of the contaminant or whether to remove it from the second image (530).

서버(100)는 매칭이 이뤄진 제1 이미지와 제2 이미지를 비교한다. 구체적으로 서버(100)는 인공 신경망을 이용하여 제2 이미지에서 오염 물질을 먼저 인식한다. 만약 제2 이미지에서 인식된 오염 물질이 없다면, 서버(100)는 청결도를 높게 평가한다. 만약 제2 이미지에서 오염 물질이 인식되면, 서버(100)는 제2 이미지의 오염 물질이 무엇인지 여부를 환경 정보를 통해 인식한다. 제2 이미지에서 인식된 오염 물질이 제1 이미지에서 라벨링된 오염 물질과 동일하면, 서버(100)는 청결도를 낮게 평가한다. 제2 이미지에서 인식된 오염 물질이 제1 이미지에서 라벨링된 오염 물질과 상이하면, 서버(100)는 환경 정보에 기초하여 청소 이외의 다른 원인에 의한 것인지 여부를 판단하고, 청결도 판단 결과를 사용자 단말(110)에 전송한다.The server 100 compares the matched first image and the second image. Specifically, the server 100 first recognizes contaminants in the second image using an artificial neural network. If there are no contaminants recognized in the second image, the server 100 evaluates the cleanliness as high. If a contaminant is recognized in the second image, the server 100 recognizes the contaminant in the second image through environmental information. If the contaminant recognized in the second image is the same as the contaminant labeled in the first image, the server 100 evaluates the cleanliness as low. If the contaminant recognized in the second image is different from the contaminant labeled in the first image, the server 100 determines whether it is due to a cause other than cleaning based on the environmental information and sends the cleanliness determination result to the user terminal. Send to (110).

도 7은 일 실시예에 따른 인공 신경망의 학습을 설명하기 위한 순서도이다.Figure 7 is a flowchart for explaining learning of an artificial neural network according to an embodiment.

인공 신경망은 서버(100)에 포함되는 구성일 수 있으며, 서버(100) 또는 별도의 학습 장치를 통해서 학습될 수 있다.The artificial neural network may be included in the server 100 and may be learned through the server 100 or a separate learning device.

인공 신경망은 제1 이미지와 제2 이미지를 비교하여 청결도를 평가하는 제1 인공 신경망과, 제1 이미지 및 환경 정보에 기초하여 오염 물질을 인식하는 제2 인공 신경망을 모두 포함할 수 있다. The artificial neural network may include both a first artificial neural network that evaluates cleanliness by comparing the first image and the second image, and a second artificial neural network that recognizes contaminants based on the first image and environmental information.

일 실시예에 따른 학습 장치는 트레이닝 데이터(training data)와 레이블(label)을 획득할 수 있다(600).The learning device according to one embodiment may acquire training data and a label (600).

제 1 인공 신경망 학습을 위해, 학습 장치는 덕트 내부의 실제 이미지를 트레이닝 데이터(training data)로 획득할 수 있다. 또한, 학습 장치는 전문가가 실제로 청소한 덕트 내부의 청결도에 대한 결과를 각각의 트레이닝 데이터에 대응하는 레이블(label)로 획득할 수 있다.For learning the first artificial neural network, the learning device can acquire actual images inside the duct as training data. Additionally, the learning device can obtain results regarding the cleanliness inside the duct actually cleaned by the expert as labels corresponding to each training data.

제 2 인공 신경망 학습을 위해, 학습 장치는 온도, 미세먼지, 화학 센서를 통해 측정한 덕트 내부의 환경 정보를 트레이닝 데이터(training data)로 획득할 수 있다. 또한, 학습 장치는 전문가가 실제로 점검한 덕트 내부의 오염 물질의 인식 결과를 각각의 트레이닝 데이터에 대응하는 레이블(label)로 획득할 수 있다.For learning the second artificial neural network, the learning device can acquire environmental information inside the duct measured through temperature, fine dust, and chemical sensors as training data. Additionally, the learning device can obtain recognition results of contaminants inside the duct actually inspected by an expert as labels corresponding to each training data.

학습 장치는 트레이닝 데이터로부터 인공 신경망의 입력을 생성할 수 있다(610).The learning device may generate input for an artificial neural network from training data (610).

학습 장치는 트레이닝 데이터를 인공 신경망의 입력으로 그대로 사용하거나, 불필요한 정보를 제거하는 등의 기 알려진 처리를 거친 후 인공 신경망의 입력을 생성할 수 있다.The learning device can use the training data as is as an input to the artificial neural network or generate the input of the artificial neural network after undergoing known processing such as removing unnecessary information.

학습 장치는 입력을 인공 신경망에 적용할 수 있다(620). The learning device may apply the input to an artificial neural network (620).

서버에 포함된 인공 신경망은 지도 학습(supervised learning)에 따라 학습되는 인공 신경망일 수 있다. 인공 신경망은 지도 학습을 통해 학습시키기에 적합한 컨볼루션 신경망(convolutional neural network, CNN) 또는 리커런트 신경망(recurrent neural network, RNN) 구조일 수 있다.The artificial neural network included in the server may be an artificial neural network learned according to supervised learning. The artificial neural network may be a convolutional neural network (CNN) or recurrent neural network (RNN) structure suitable for learning through supervised learning.

학습 장치는 인공 신경망으로부터 출력을 획득할 수 있다(630).The learning device may obtain output from the artificial neural network (630).

제 1 인공 신경망의 출력은, 제1 이미지에 비해 제2 이미지의 변화를 판단하여 얼마나 청결도를 높이 수행했는지 여부에 대한 추론일 수 있다. 구체적으로, 제 1 인공 신경망은 먼지가 쌓인 덕트 내부의 픽셀의 광도 변화, 청소를 했을 때 흩어지면 위험한 유독 액체 등의 변화, 물이나 공기의 흐름을 막는 고착화된 덕트 내부의 청소 변화, 쥐나 바퀴벌레, 기타 곤충 등 생명체가 있는 경우 청소 내부의 변화, 등의 패턴을 학습하고, 학습 결과를 기초로 제1 이미지 및 제2 이미지의 변화를 추론하여 청결도를 출력할 수 있다.The output of the first artificial neural network may be an inference about how high the level of cleanliness was achieved by determining the change in the second image compared to the first image. Specifically, the first artificial neural network is a change in the brightness of pixels inside a duct where dust has accumulated, a change in toxic liquid that is dangerous if it scatters during cleaning, a change in cleaning inside a stuck duct that blocks the flow of water or air, rats, cockroaches, etc. If there are living creatures such as insects, patterns such as changes in the cleaning interior can be learned, and the cleanliness level can be output by inferring changes in the first and second images based on the learning results.

제 2 인공 신경망의 출력은, 오염 물질을 인식하는 것 자체에 대한 추론일 수 있다. 구체적으로, 제 2 인공 신경망은 오염 물질의 다양한 종류에 따른 제1 이미지의 차이, 환경 정보와 매칭되는 오염 물질이 제1 이미지에서 인식되는지 여부 등의 패턴을 학습하고, 학습 결과를 기초로 제1 이미지 내에서 오염 물질을 추론하여 출력할 수 있다.The output of the second artificial neural network may be an inference about recognizing the pollutant itself. Specifically, the second artificial neural network learns patterns such as differences in the first image according to various types of pollutants and whether pollutants matching environmental information are recognized in the first image, and based on the learning results, Contaminants can be inferred from the image and output.

이후, 학습 장치는 출력과 레이블을 비교할 수 있다(640). 추론에 해당하는 인공 신경망의 출력과 정답에 해당하는 레이블을 비교하는 과정은 손실함수(loss function)를 계산하여 이루어질 수 있다. 손실함수는 종래 알려진 평균 제곱 오차(mean squared error, MSE), 교차 엔트로피 오차(cross entropy error, CEE) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 인공 신경망의 출력과 레이블 간의 편차, 오차 내지는 차이를 측정할 수 있다면, 다양한 인공 신경망 모델들에서 이용되는 손실함수들이 이용될 수 있다.Afterwards, the learning device can compare the output and the label (640). The process of comparing the output of the artificial neural network corresponding to inference and the label corresponding to the correct answer can be accomplished by calculating a loss function. As a loss function, conventionally known mean squared error (MSE), cross entropy error (CEE), etc. may be used. However, it is not limited to this, and loss functions used in various artificial neural network models can be used as long as the deviation, error, or difference between the output of the artificial neural network and the label can be measured.

학습 장치는 비교값을 기초로 인공 신경망을 최적화할 수 있다(650). The learning device can optimize the artificial neural network based on the comparison value (650).

학습 장치 비교값이 점점 작아지도록 인공 신경망의 노드(node)들의 웨이트(weight)를 갱신함으로써, 추론에 해당하는 인공 신경망의 출력과 정답에 해당하는 레이블을 점점 일치시킬 수 있고, 이를 통해 인공 신경망은 정답에 가까운 추론을 출력하도록 최적화될 수 있다. 구체적으로, 학습 장치는 비교값에 해당하는 손실함수가 최소값의 추정치에 가까워지도록 인공 신경망의 웨이트(weight)를 재설정하는 과정을 반복함으로써 인공 신경망을 최적화할 수 있다. 인공 신경망의 최적화를 위해 기 알려진 역전파(backpropagation) 알고리즘, 확률론적 경사하강법(stochastic gradient descent) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 다양한 신경망 모델들에서 이용되는 웨이트의 최적화 알고리즘이 이용될 수 있다.By updating the weight of the nodes of the artificial neural network so that the learning device comparison value becomes smaller, the output of the artificial neural network corresponding to inference and the label corresponding to the correct answer can be gradually matched, and through this, the artificial neural network can It can be optimized to output inferences that are close to the correct answer. Specifically, the learning device can optimize the artificial neural network by repeating the process of resetting the weight of the artificial neural network so that the loss function corresponding to the comparison value is closer to the estimate of the minimum value. To optimize the artificial neural network, known backpropagation algorithms, stochastic gradient descent, etc. can be used. However, it is not limited to this, and weight optimization algorithms used in various neural network models can be used.

학습 장치는 이와 같은 과정을 반복함으로써 인공 신경망을 학습시킬 수 있다.A learning device can learn an artificial neural network by repeating this process.

이를 통해, 학습 장치는 인공 신경망을 최적화시키고, 제2 인공 신경망이 매칭된 제1 이미지에서 오염 물질을 정확하게 인식할 수 있도록 하고, 제1 인공 신경망이 매칭된 제1 이미지 및 제2 이미지를 통해 정확성 높은 청결도를 평가할 수 있도록 한다.Through this, the learning device optimizes the artificial neural network, enables the second artificial neural network to accurately recognize contaminants in the matched first image, and allows the first artificial neural network to accurately recognize pollutants through the matched first image and second image. Enables evaluation of high cleanliness.

도 8은 일 실시예에 따른 장치의 구성의 예시도이다.Figure 8 is an exemplary diagram of the configuration of a device according to an embodiment.

일 실시예에 따른 장치(701)는 프로세서(702) 및 메모리(703)를 포함한다. 프로세서(702)는 도 1 내지 도7을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 7을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 구체적으로, 장치(701)는 청소용 로봇(1), 서버(100), 사용자 단말(110), 또는 인공 신경망 학습 장치 등일 수 있다.Device 701 according to one embodiment includes a processor 702 and memory 703. The processor 702 may include at least one device described above with reference to FIGS. 1 to 7 or may perform at least one method described above with reference to FIGS. 1 to 7 . Specifically, the device 701 may be a cleaning robot 1, a server 100, a user terminal 110, or an artificial neural network learning device.

메모리(703)는 전술된 방법들과 관련된 정보를 저장하거나 전술된 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(703)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The memory 703 may store information related to the above-described methods or store a program in which the above-described methods are implemented. Memory 703 may be volatile memory or non-volatile memory.

프로세서(702)는 프로그램을 실행하고, 장치(701)를 제어할 수 있다. 프로세서(702)에 의하여 실행되는 프로그램의 코드는 메모리(703)에 저장될 수 있다. 장치(701)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The processor 702 can execute programs and control the device 701. The code of the program executed by the processor 702 may be stored in the memory 703. The device 701 is connected to an external device (eg, a personal computer or a network) through an input/output device (not shown) and can exchange data through wired or wireless communication.

장치(701)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(703)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(702)는 메모리(703)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 장치(701)와 학습된 인공 신경망을 이용하는 장치(701)는 동일할 수도 있고 개별적일 수도 있다.Device 701 may be used to train an artificial neural network or use a trained artificial neural network. Memory 703 may include an artificial neural network that is being trained or has been trained. The processor 702 may learn or execute the artificial neural network algorithm stored in the memory 703. The device 701 for training an artificial neural network and the device 701 for using the learned artificial neural network may be the same or may be separate.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). It may be implemented using one or more general-purpose or special-purpose computers, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may perform an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Computer-readable media may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. A hardware device may be configured to operate as one or more software modules to perform the operations of an embodiment, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and various modifications may be made without departing from the technical spirit of the present invention. . Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.

1: 청소용 로봇 10: 이동부
11: 압력 센서 21, 22: 청소부
32: 센서 그룹 40: 통신부
100: 서버 110: 사용자 단말
1: Cleaning robot 10: Moving part
11: pressure sensor 21, 22: cleaner
32: Sensor group 40: Communication department
100: server 110: user terminal

Claims (6)

청소용 로봇; 상기 청소용 로봇을 제어하는 서버;를 포함하는 청소용 로봇 시스템의 제어방법에 있어서,
상기 서버가 도면 정보에 기초하여 상기 청소용 로봇의 제1 이동 경로를 생성하고, 상기 청소용 로봇으로 상기 제1 이동 경로를 전송하는 단계;
상기 청소용 로봇이 상기 제1 이동 경로에 기초하여 청소를 수행하고, 상기 제1 이동 경로를 주행하는 단계;
상기 청소용 로봇이 덕트 내부를 촬영한 제1 이미지를 상기 서버로 전송하는 단계;
상기 서버가 상기 도면 정보와 상기 제1 이미지에 기초하여, 상기 청소용 로봇의 위치를 파악하는 단계;
상기 서버가 상기 청소용 로봇의 위치에 기초하여 상기 이동 경로를 되돌아가는 제2 이동 경로를 생성하고, 상기 제2 이동 경로를 상기 청소용 로봇으로 전송하는 단계;
상기 청소용 로봇이 상기 제2 이동 경로에 기초하여, 상기 덕트 내부를 촬영한 제2 이미지를 상기 서버로 전송하고, 상기 제2 이동 경로를 주행하는 단계; 및
상기 서버가 상기 제1 이미지 및 상기 제2 이미지를 인공 신경망에 입력하고, 상기 인공 신경망을 통해 청결도를 평가하는 단계;를 포함하고,
상기 제1 이동 경로 및 상기 제2 이동 경로를 주행하는 단계;는,
상기 청소용 로봇이 상기 덕트 내 마련된 태그 정보를 인식하는 단계; 및
상기 청소용 로봇이 상기 태그 정보에 기초하여 상기 제1 이미지와 상기 제2 이미지를 촬영하는 단계;를 포함하며,
상기 청결도를 평가하는 단계;는,
상기 서버가 상기 태그 정보에 기초하여 상기 제1 이미지와 상기 제2 이미지를 서로 매칭하여 비교하는 단계;
상기 서버가 상기 제1 이미지의 픽셀 광도에 기초하여, 상기 제1 이미지에서 관심 영역을 설정하는 단계;
상기 서버가 상기 제2 이미지의 해당 관심 영역에서 상기 제2 이미지의 픽셀 광도를 산출하는 단계;
상기 서버가 이미지별 각 관심영역의 픽셀 광도 간의 차이를 미리 설정된 기준값과 비교하는 단계; 및
상기 서버가 상기 비교 결과, 상기 제1 이미지와 상기 제2 이미지를 상기 인공 신경망에 입력하고, 상기 인공 신경망의 출력값에 기초하여 상기 청결도를 평가하는 단계;를 포함하는 청소용 로봇 시스템의 제어방법.
cleaning robot; In a control method of a cleaning robot system including a server that controls the cleaning robot,
The server generating a first movement path of the cleaning robot based on drawing information and transmitting the first movement path to the cleaning robot;
The cleaning robot performs cleaning based on the first movement path and travels the first movement path;
transmitting a first image captured by the cleaning robot of the inside of the duct to the server;
The server determining the location of the cleaning robot based on the drawing information and the first image;
The server generating a second movement path that returns to the movement path based on the position of the cleaning robot, and transmitting the second movement path to the cleaning robot;
transmitting, by the cleaning robot, a second image of the inside of the duct to the server based on the second movement path, and traveling the second movement path; and
Comprising: the server inputting the first image and the second image into an artificial neural network, and evaluating cleanliness through the artificial neural network,
Driving the first movement path and the second movement path;
Recognizing tag information provided in the duct by the cleaning robot; and
A step of the cleaning robot photographing the first image and the second image based on the tag information,
The step of evaluating the cleanliness;
The server matching and comparing the first image and the second image based on the tag information;
setting, by the server, a region of interest in the first image based on pixel luminance of the first image;
the server calculating pixel luminance of the second image in a corresponding region of interest of the second image;
Comparing, by the server, the difference between pixel brightness of each region of interest in each image with a preset reference value; and
The server inputs the first image and the second image as a result of the comparison into the artificial neural network, and evaluating the cleanliness based on the output value of the artificial neural network.
삭제delete 삭제delete 제1항에 있어서,
상기 제1 이동 경로 및 상기 제2 이동 경로를 주행하는 단계;는,
상기 청소용 로봇은 센서 그룹을 통해 측정한 상기 덕트의 환경 정보를 획득하고, 상기 서버로 상기 환경 정보를 전송하는 단계;를 더 포함하고,
상기 청결도를 평가하는 단계;는,
상기 서버가 상기 태그 정보에 기초하여 상기 제1 이미지와 상기 제2 이미지를 서로 매칭하여 비교하는 단계;
상기 서버가 상기 환경 정보 및 상기 인공 신경망을 통해 제1 이미지의 오염 물질을 인식하는 단계;
상기 서버가 상기 제1 이미지의 픽셀 정보에 기초하여 상기 오염 물질의 라벨링을 수행하는 단계; 및
상기 서버가 상기 제2 이미지의 픽셀 정보에 기초하여 상기 오염 물질의 크기 및 제거 여부를 판단하는 단계;를 포함하는 청소용 로봇 시스템의 제어방법.
According to paragraph 1,
Driving the first movement path and the second movement path;
The cleaning robot further includes obtaining environmental information of the duct measured through a sensor group and transmitting the environmental information to the server,
The step of evaluating the cleanliness;
The server matching and comparing the first image and the second image based on the tag information;
the server recognizing contaminants in the first image through the environmental information and the artificial neural network;
the server performing labeling of the contaminant based on pixel information of the first image; and
A method of controlling a cleaning robot system comprising: the server determining the size of the contaminant and whether to remove it based on pixel information of the second image.
제1항에 있어서,
상기 제1 이동 경로를 주행하는 단계;는,
상기 서버가 상기 제1 이미지에 기초하여 추가 청소 필요 영역을 판단하는 단계;
상기 서버가 상기 추가 청소 필요 영역에 기초하여, 청소 제어 명령을 생성하고, 상기 청소 제어 명령을 상기 청소용 로봇으로 전송하는 단계;
상기 청소용 로봇이 상기 제어 명령에 기초하여, 미리 정의된 청소 동작을 수행하는 단계;를 포함하는 로봇 시스템의 제어방법.
According to paragraph 1,
Driving the first movement path;
The server determining an area requiring additional cleaning based on the first image;
The server generating a cleaning control command based on the area requiring additional cleaning, and transmitting the cleaning control command to the cleaning robot;
A method of controlling a robot system comprising: allowing the cleaning robot to perform a predefined cleaning operation based on the control command.
삭제delete
KR1020210129035A 2020-11-24 2021-09-29 Cleaning robot system and controlling method thereof KR102619900B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200158452 2020-11-24
KR1020200158452 2020-11-24

Publications (2)

Publication Number Publication Date
KR20220071885A KR20220071885A (en) 2022-05-31
KR102619900B1 true KR102619900B1 (en) 2024-01-04

Family

ID=81786766

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210129035A KR102619900B1 (en) 2020-11-24 2021-09-29 Cleaning robot system and controlling method thereof

Country Status (1)

Country Link
KR (1) KR102619900B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023231021A1 (en) * 2022-06-02 2023-12-07 深圳市正浩创新科技股份有限公司 Target object collection method and device, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006005666A (en) 2004-06-17 2006-01-05 Shin Nippon Air Technol Co Ltd Camera imaging monitor system for duct cleaning robot and duct cleaning method using the same
KR101190093B1 (en) 2010-01-28 2012-10-11 박병욱 Remote controlled robot with improved cleaning efficiency for cleaning the interior of duct
KR102153672B1 (en) * 2020-05-19 2020-09-09 주식회사 더브라이트 Method, apparatus, and system of controlling duct cleaning robot

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101072908B1 (en) * 2009-06-18 2011-10-17 박병욱 Remote controlled robot cleaning system for easily verifying cleaned conditionof duct
KR20160058594A (en) * 2014-11-17 2016-05-25 삼성전자주식회사 Robot cleaner, terminal apparatus and method for controlling thereof
KR102348041B1 (en) * 2017-03-28 2022-01-05 엘지전자 주식회사 Control method of robot system including a plurality of moving robots

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006005666A (en) 2004-06-17 2006-01-05 Shin Nippon Air Technol Co Ltd Camera imaging monitor system for duct cleaning robot and duct cleaning method using the same
KR101190093B1 (en) 2010-01-28 2012-10-11 박병욱 Remote controlled robot with improved cleaning efficiency for cleaning the interior of duct
KR102153672B1 (en) * 2020-05-19 2020-09-09 주식회사 더브라이트 Method, apparatus, and system of controlling duct cleaning robot

Also Published As

Publication number Publication date
KR20220071885A (en) 2022-05-31

Similar Documents

Publication Publication Date Title
Chaplot et al. Learning to explore using active neural slam
Chen et al. Learning exploration policies for navigation
US10852729B2 (en) Moving robot and control method thereof
JP7356567B2 (en) Mobile robot and its control method
EP3319016B1 (en) Control systems using deep reinforcement learning
US11561549B2 (en) Method of controlling mobile robot
Motai et al. Human tracking from a mobile agent: optical flow and Kalman filter arbitration
KR102629036B1 (en) Robot and the controlling method thereof
KR102619900B1 (en) Cleaning robot system and controlling method thereof
KR102153672B1 (en) Method, apparatus, and system of controlling duct cleaning robot
Shim et al. Remote robotic system for 3D measurement of concrete damage in tunnel with ground vehicle and manipulator
US11726489B1 (en) Robotic cleaner
KR20180023303A (en) Moving robot and control method thereof
US20220410391A1 (en) Sensor-based construction of complex scenes for autonomous machines
KR102023699B1 (en) Method for recognition of location and setting route by cord recognition of unmanned movility, and operation system
Regier et al. Classifying obstacles and exploiting class information for humanoid navigation through cluttered environments
KR20230151736A (en) Method and system for selecting movement routs of mobile robot performing multiple tasks based on deep reinforcement learning
KR102619903B1 (en) Service system of duct cleaning and providing service of cleaning service
Wildermann et al. Self-organizing computer vision for robust object tracking in smart cameras
Rodriguez-Tirado et al. A pipeline framework for robot maze navigation using computer vision, path planning and communication protocols
Chang et al. Development of a Fuzzy Logic Controller for Autonomous Navigation of Building Inspection Robots in Unknown Environments
NL2019877B1 (en) Obstacle detection using horizon-based learning
Rennekamp et al. Distributed sensing and prediction of obstacle motions for mobile robot motion planning
Gaurav Goal-predictive robotic teleoperation using predictive filtering and goal change modeling
Liu et al. Sim-to-Real Deep Reinforcement Learning with Manipulators for Pick-and-Place

Legal Events

Date Code Title Description
A302 Request for accelerated examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right