KR20210066091A - A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof - Google Patents

A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof Download PDF

Info

Publication number
KR20210066091A
KR20210066091A KR1020190154718A KR20190154718A KR20210066091A KR 20210066091 A KR20210066091 A KR 20210066091A KR 1020190154718 A KR1020190154718 A KR 1020190154718A KR 20190154718 A KR20190154718 A KR 20190154718A KR 20210066091 A KR20210066091 A KR 20210066091A
Authority
KR
South Korea
Prior art keywords
unit
map
lidar
housing
information
Prior art date
Application number
KR1020190154718A
Other languages
Korean (ko)
Other versions
KR102307877B1 (en
Inventor
진경찬
이상욱
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020190154718A priority Critical patent/KR102307877B1/en
Publication of KR20210066091A publication Critical patent/KR20210066091A/en
Application granted granted Critical
Publication of KR102307877B1 publication Critical patent/KR102307877B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Abstract

The present invention provides a robot cleaner using a LiDAR unit and an image capturing unit to implement a cleaning map close to a real map and a simultaneous localization and map-building (SLAM)-map generation method thereof. According to the present invention, the robot cleaner comprises: a housing unit forming an inner space, having one side part made of a light-transmitting material, and having a plurality of moving wheels formed therein to rotate while moving; a LiDAR unit disposed inside the housing unit adjacent to eth one side part of the housing unit and generating a SLAM map for a front area viewed through the one side part among external environments; an image capturing unit disposed inside the housing unit adjacent to the inner surface of the housing unit to capture an image for the rear area opposite to the front area and generate feature information about the image; an information correction unit using the SLAM map and the feature information to estimate the location of the housing unit and correct the SLAM map; a positioning unit using the image to estimate the current position and receiving final position information on the final position of the housing unit corrected by the information correction unit; a mapping unit receiving a cleaning map acquired by correcting the SLAM map in the information correcting unit; and a control unit controlling of the LiDAR unit, the image capturing unit, and the information correction unit.

Description

라이다부 및 영상촬영부를 이용한 로봇청소기 및 이의 슬램맵 생성방법{A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof}A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof}

본 발명은 라이다부 및 영상촬영부를 이용한 로봇청소기 및 이의 슬램맵 생성방법에 관한 것으로, 보다 상세하게는 라이다부에서 생성된 슬램맵과 영상촬영부에서 생성된 특징정보를 기반으로 슬램맵을 보정하여 실제에 가까운 청소맵을 구현하는 라이다부 및 영상촬영부를 이용한 로봇청소기 및 이의 슬램맵 생성방법에 관한 것이다.The present invention relates to a robot cleaner using a lidar unit and an image capturing unit and a slam map generation method thereof, and more particularly, by correcting the slam map based on the slam map generated by the lidar unit and the characteristic information generated by the image capturing unit. A robot cleaner using a lidar unit and an image capturing unit that implements a cleaning map close to reality, and a slam map generation method thereof.

일반적으로 로봇은 산업용으로 개발되어 공장자동화의 일환으로 반복적인 작업을 수행하는데 사용되어 왔다. 최근에는 산업용 로봇뿐만 아니라 다양한 형태의 로봇이 등장하고 있으며, 특히 가정이나 사무실에서 스스로 이동하면서 인간의 일을 대신 수행하는 인간친화적인 로봇이 실용화되고 있다. 이에 해당하는 대표적인 예로서 청소 로봇, 보안 로봇, 안내 로봇, 서비스 로봇 등을 들 수 있다.In general, robots have been developed for industrial use and have been used to perform repetitive tasks as part of factory automation. Recently, not only industrial robots but also various types of robots have appeared, and in particular, human-friendly robots that perform human tasks while moving on their own in homes or offices are being put to practical use. Representative examples corresponding to this include a cleaning robot, a security robot, a guide robot, a service robot, and the like.

이중 청소 로봇 등의 이동 로봇은 SLAM(Simultaneous Localization And Map-Building)기술을 이용하여 현재시간 동안 자신의 위치를 계측 및 측정하면서 동시에 외부환경의 지도를 작성한다. 이를 위한 청소 로봇은 라이다센서를 적용하는 것이 일반적인데, 이러한 라이다센서는 360° 방향으로 외부환경을 쉽게 센싱하도록 청소 로봇의 하우징의 외부에 장착되었다.Mobile robots such as double cleaning robots use SLAM (Simultaneous Localization And Map-Building) technology to measure and measure their location during the current time and create a map of the external environment at the same time. For this purpose, it is common to apply a lidar sensor to the cleaning robot. This lidar sensor is mounted on the outside of the housing of the cleaning robot to easily sense the external environment in a 360° direction.

그러나, 상기한 외장형 라이다센서를 장착한 청소 로봇은 라이다센서와 하우징 사이로 이물질이 빈번하게 누적되어서 기계성능을 저하시킬 뿐만 아니라 외형상으로도 외부로 돌출되어 있어 심미감을 주지 못하는 문제점이 있었다.However, the cleaning robot equipped with the above-described external lidar sensor has a problem in that foreign substances are frequently accumulated between the lidar sensor and the housing, thereby reducing the mechanical performance and protruding outwardly in appearance, thereby failing to give an aesthetic feeling.

이를 해소하기 위해 내장형 라이다센서를 장착한 청소 로봇들도 존재하지만, 이러한 내장형 라이다센서가 장착된 청소 로봇은 라이다센서가 내부에 위치함에 따라 전방영역을 센싱하는 각도가 한정적이기 때문에 청소맵을 맵핑하거나 현재위치를 추정함에 있어서 실제와 차이가 많이 생기는 문제점이 있었다.To solve this problem, there are cleaning robots equipped with a built-in lidar sensor, but the cleaning robot equipped with such a built-in lidar sensor has a limited angle sensing the front area as the lidar sensor is located inside the cleaning map. There was a problem in that there was a lot of difference from reality in mapping or estimating the current location.

(특허문헌 1) 등록특허공보 제10-0791384호(2007.12.27.)(Patent Document 1) Registered Patent Publication No. 10-0791384 (2007.12.27.)

(특허문헌 2) 등록특허공보 제10-1575597호(2015.12.02.)(Patent Document 2) Registered Patent Publication No. 10-1575597 (2015.12.02.)

상기와 같은 문제를 해결하기 위한 본 발명의 목적은 120°씩 회전하는 하우징부에 의해 라이더부에서 각각 제1 전방영역, 제2 전방영역 및 제3 전방영역에 대한 제1 슬램맵, 제2 슬램맵 및 제3 슬램맵을 생성하고 영상촬영부에서 획득한 특징정보를 이용하여 제1 슬램맵, 제2 슬램맵 및 제3 슬램맵 사이에 중첩되거나 이격된 부분을 보정하여 실제에 가까운 청소맵을 구현하는 라이다부 및 영상촬영부를 이용한 로봇청소기 및 이의 슬램맵 생성방법을 제공하는 것이다.An object of the present invention for solving the above problems is the first slam map, the second slam for the first front area, the second front area, and the third front area, respectively, in the rider part by the housing part that rotates by 120 degrees. Create a map and a third slam map, and use the feature information obtained from the image capturing unit to correct the overlapping or spaced parts between the first slam map, the second slam map, and the third slam map to create a cleaning map close to the real one It is to provide a robot cleaner using a lidar unit and an image capturing unit to implement and a method for generating a slam map thereof.

본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved by the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. There will be.

상기와 같은 목적을 달성하기 위한 본 발명의 구성은 내부공간을 형성하고 일측부가 투광성 재질로 형성되며 다수의 이동바퀴가 형성되어 이동하면서 회전 가능한 회전체인 하우징부; 상기 하우징부의 일측부와 인접한 상기 하우징부의 내부에 위치하여 회전 가능하고 외부환경 중 상기 일측부를 통하여 보여지는 전방영역에 대한 슬램맵을 생성하는 라이다부; 상기 하우징부의 내측면과 인접한 상기 하우징부의 내부에 위치하여 상기 전방영역과 대향하는 후방영역에 대한 영상을 촬영하며 상기 영상에 대한 특징정보를 생성하는 영상촬영부; 상기 슬램맵 및 상기 특징정보를 이용하여 상기 하우징부의 위치를 추정하고 상기 슬램맵을 보정하는 정보보정부; 상기 영상을 이용하여 현재위치를 추정하고 상기 정보보정부에서 보정된 상기 하우징부의 최종위치에 대한 최종위치정보를 수신하는 위치확인부; 상기 정보보정부에서 상기 슬램맵을 보정한 청소맵을 수신하는 맵핑부; 및 상기 라이다부, 상기 영상촬영부 및 상기 정보보정부의 동작을 제어하는 제어부;를 포함하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기를 제공한다.The configuration of the present invention for achieving the above object is a housing portion that forms an inner space, one side is formed of a light-transmitting material, and a plurality of moving wheels are formed and are rotatable while moving; a lidar unit located inside the housing unit adjacent to one side of the housing unit, rotatable and generating a slam map for a front area viewed through the side unit in an external environment; an image capturing unit located inside the housing unit adjacent to the inner surface of the housing unit to capture an image of a rear area opposite to the front area and to generate characteristic information about the image; an information correction unit for estimating a position of the housing unit using the slam map and the characteristic information and correcting the slam map; a positioning unit estimating a current position using the image and receiving final position information on the final position of the housing unit corrected by the information correction unit; a mapping unit for receiving a cleaning map obtained by correcting the slam map from the information correction unit; and a control unit for controlling the operations of the lidar unit, the image capturing unit, and the information correcting unit; provides a robot cleaner using a lidar unit and an image capturing unit, comprising: a.

본 발명의 실시예에 있어서, 상기 영상촬영부는, 상기 하우징부의 중심을 기준으로 상기 라이더부에서 120° 회전된 곳에 위치하는 제1 카메라; 및 상기 하우징부의 중심을 기준으로 상기 제1 카메라에서 120° 회전된 곳에 위치하는 제2 카메라;를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the image capturing unit, a first camera located at a location rotated by 120° in the lidar unit with respect to the center of the housing unit; and a second camera positioned at a location rotated by 120° from the first camera with respect to the center of the housing part.

본 발명의 실시예에 있어서, 상기 전방영역은 제1 전방영역, 제2 전방영역 및 제3 전방영역을 포함하고, 상기 슬램맵은 상기 제1 전방영역에 대한 제1 슬램맵, 상기 제2 전방영역에 대한 제2 슬램맵 및 상기 제3 전방영역에 대한 제3 슬램맵을 포함하며, 상기 하우징부의 위치표시가 요구될 경우, 상기 제어부는 상기 하우징부가 120°씩 회전하도록 상기 이동바퀴를 제어하고, 상기 라이다부가 상기 하우징부의 회전에 따라 상기 제1 내지 3 슬램맵을 생성하도록 제어하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the front area includes a first front area, a second front area, and a third front area, and the slam map includes a first slam map for the first front area and the second front area. a second slam map for the region and a third slam map for the third front region, wherein when the position of the housing part is requested, the control unit controls the moving wheel to rotate the housing part by 120°, , the lidar unit may be characterized in that it controls to generate the first to third slam maps according to the rotation of the housing unit.

본 발명의 실시예에 있어서, 상기 정보보정부는 상기 제1 내지 3 슬림맵을 합하는 연산을 통하여 상기 전체슬림맵을 생성하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the information correction unit may generate the entire slim map through an operation of summing the first to third slim maps.

본 발명의 실시예에 있어서, 상기 전체슬림맵에서 상기 제1 슬램맵과 상기 제2 슬램맵, 상기 제2 슬램맵과 상기 제3 슬램맵, 상기 제1 슬램맵과 상기 제3 슬램맵 사이에 이격되는 이격구간 또는 중첩되는 중첩구간이 형성될 경우, 상기 영상촬영부는 PCA(Principal Component Analysis)에 기반한 특징선택 및 특징추출 알고리즘으로 상기 특징정보를 생성하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, between the first slam map and the second slam map, the second slam map and the third slam map, and the first slam map and the third slam map in the entire slim map When a spaced apart section or an overlapping overlapping section is formed, the image capturing unit may generate the feature information using a feature selection and feature extraction algorithm based on PCA (Principal Component Analysis).

본 발명의 실시예에 있어서, 상기 특징정보는 상기 제1 전방영역에 대한 제1 특징정보, 상기 제2 전방영역에 대한 제2 특징정보 및 상기 제3 전방영역에 대한 제3 특징정보를 포함하는 특징의 기하학적 위치에 대한 정보이고, 상기 정보보정부는 제1 내지 3 특징정보를 일치시켜 상기 청소맵을 생성하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the feature information includes first feature information on the first front region, second feature information on the second front region, and third feature information on the third front region It is information about the geometrical position of the feature, and the information correction unit may generate the cleaning map by matching the first to third feature information.

본 발명의 실시예에 있어서, 상기 정보보정부는 상기 영상에서 상기 외부환경 중 고정되어 있는 대상물의 이미지를 기준으로 청소구역 마크를 생성하여 상기 전체슬림맵으로부터 상기 최종위치를 추정하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the information correction unit may be characterized in that the final position is estimated from the entire slim map by generating a cleaning area mark based on the image of the fixed object in the external environment in the image. have.

본 발명의 실시예에 있어서, 상기 라이다부는 상기 하우징부의 일측부를 통하여 외부환경으로 레이저 파장의 광을 조사 및 상기 외부환경으로부터 반사되는 반사광을 수신하여 상기 하우징부의 위치정보 및 맵핑정보를 생성하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the lidar unit irradiates light of a laser wavelength to an external environment through one side of the housing unit and receives reflected light reflected from the external environment to generate location information and mapping information of the housing unit can be characterized.

또한, 상기와 같은 목적을 달성하기 위한 본 발명의 구성은 전술한 바에 따른 로봇청소기의 슬램맵 생성방법에 있어서, (a) 상기 라이다부를 이용하여 상기 전방영역의 적어도 일부에 대한 슬램맵을 생성하는 단계; (b) 위치표시가 요구될 경우, 상기 하우징부가 회전하면서 상기 슬림맵을 생성하는 단계; 및 (c) 상기 영상촬영부를 이용하여 상기 슬램맵을 보정하여 완성하는 단계;를 포함하는 것을 특징으로 하는 로봇청소기의 슬램맵 생성방법을 제공한다.In addition, in the configuration of the present invention for achieving the above object, in the method for generating a slam map of a robot cleaner according to the above-mentioned bar, (a) generating a slam map for at least a part of the front area using the lidar unit to do; (b) generating the slim map while the housing unit rotates when a position indication is requested; and (c) correcting and completing the slam map using the image capturing unit.

본 발명의 실시예에 있어서, 상기 (a) 단계는, (a1) 상기 라이다부가 상기 제어부에 의해 회전하는 단계; 및 (a2) 상기 라이다부가 상기 슬램맵을 생성하는 단계;를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the step (a) comprises: (a1) rotating the lidar unit by the control unit; and (a2) generating the slam map by the lidar unit.

본 발명의 실시예에 있어서, 상기 (b) 단계는, (b1) 상기 하우징부가 상기 제어부에 의해 120° 회전하는 단계; (b2) 상기 로봇청소기의 하우징부가 회전하였는지 여부를 판단하는 단계; (b3) 상기 위치확인부에서 상기 현재위치를 추정하는 단계; (b4) 상기 현재위치가 정확한 것인지 여부를 판단하는 단계; 및 (b5) 상기 (c) 단계를 수행하는 단계;를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the step (b) comprises: (b1) rotating the housing part by 120° by the control unit; (b2) determining whether the housing part of the robot cleaner is rotated; (b3) estimating the current location in the location check unit; (b4) determining whether the current location is correct; and (b5) performing step (c).

본 발명의 실시예에 있어서, 상기 (b) 단계는, 상기 (b2) 단계 이후, (b6) 상기 하우징부가 미회전 시 상기 (a1) 단계로 복귀하는 단계;를 더 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the step (b) may further include, after the step (b2), (b6) returning to the step (a1) when the housing part is not rotated. have.

본 발명의 실시예에 있어서, 상기 (b) 단계는, 상기 (b4) 단계 이후, (b7) 상기 현재위치가 부정확할 경우, 상기 (a1) 단계로 복귀하는 단계;를 더 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the step (b) further comprises, after the step (b4), (b7) returning to the step (a1) when the current location is incorrect. can do.

본 발명의 실시예에 있어서, 상기 (c) 단계는, (c1) 상기 하우징부가 상기 제어부에 의해 이동하는 단계; (c2) 상기 영상촬영부가 상기 영상을 촬영 및 획득하는 단계; (c3) 상기 정보보정부가 상기 영상에서 상기 외부환경 중 고정되어 있는 대상물의 이미지를 기준으로 청소구역 마크를 생성하여 상기 슬림맵으로부터 상기 최종위치를 추정하는 단계; (c4) 상기 라이다부가 상기 슬램맵을 생성하는 단계; 및 (c5) 상기 정보보정부가 상기 슬램맵을 보정한 청소맵을 완성하는 단계;를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the step (c) comprises: (c1) moving the housing unit by the control unit; (c2) capturing and acquiring the image by the image capturing unit; (c3) estimating the final position from the slim map by generating, by the information correction unit, a cleaning area mark based on an image of an object fixed in the external environment in the image; (c4) generating the slam map by the lidar unit; and (c5) completing, by the information correction unit, a cleaning map in which the slam map is corrected.

상기와 같은 구성에 따르는 본 발명의 효과는, 120°씩 회전하는 하우징부에 의해 라이더부에서 각각 제1 전방영역, 제2 전방영역 및 제3 전방영역에 대한 제1 슬램맵, 제2 슬램맵 및 제3 슬램맵을 생성하고 영상촬영부에서 획득한 특징정보를 이용하여 제1 슬램맵, 제2 슬램맵 및 제3 슬램맵 사이에 중첩되거나 이격된 부분을 보정하여 실제에 가까운 청소맵을 구현할 수 있다.The effect of the present invention according to the above configuration is, the first slam map, the second slam map for the first front area, the second front area and the third front area in the rider part by the housing part rotated by 120 degrees, respectively and a third slam map is generated and a cleaning map close to reality is implemented by correcting overlapping or spaced portions between the first slam map, the second slam map, and the third slam map using the feature information obtained from the image capturing unit. can

또한, 상기와 같은 구성에 따르는 본 발명의 효과는, 라이다부 및 영상촬영부에서 획득한 슬램맵 및 특징정보로부터 청소맵을 맴핑하기 위한 위상적인 오차를 줄여 실제와 근사한 근사치로 청소맵을 구현할 수 있다.In addition, the effect of the present invention according to the configuration as described above is to reduce the phase error for mapping the cleaning map from the slam map and feature information obtained from the lidar unit and the image capturing unit to realize the cleaning map in an approximate approximation to the real one. have.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.It should be understood that the effects of the present invention are not limited to the above-described effects, and include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.

도 1은 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기를 나타낸 블록도이다.
도 2는 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기의 하우징부, 라이다부 및 영상촬영부를 나타낸 평면도이다.
도 3은 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기가 이동하면서 회전하여 제1 내지 제3 전방영역을 촬영하는 것을 나타낸 평면도이다.
도 4의 (a), (b), (c)는 도 3의 영상촬영부에서 제1 내지 제3 전방영역을 촬영한 영상에서 추출한 특징정보의 기하학적 위치를 나타낸 도면이다.
도 5는 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기의 제1 내지 3 전방영역의 중첩 또는 이격에 따른 보정을 설명하기 위한 평면도이다.
도 6은 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기의 슬램맵 생성방법을 나타낸 순서도이다.
도 7은 도 6의 각 단계별 세부단계를 나타낸 순서도이다.
1 is a block diagram illustrating a robot cleaner using a lidar unit and an image capturing unit according to an embodiment of the present invention.
2 is a plan view showing a housing unit, a lidar unit, and an image capturing unit of a robot cleaner using a lidar unit and an image capturing unit according to an embodiment of the present invention.
3 is a plan view illustrating that the robot cleaner using the lidar unit and the image capturing unit according to an embodiment of the present invention rotates while moving to photograph the first to third front regions.
4 (a), (b), and (c) are diagrams illustrating geometric positions of feature information extracted from images obtained by photographing the first to third front regions by the image capturing unit of FIG. 3 .
5 is a plan view for explaining correction according to overlapping or spacing of the first to third front areas of the robot cleaner using the lidar unit and the image capturing unit according to an embodiment of the present invention.
6 is a flowchart illustrating a method of generating a slam map of a robot cleaner using a lidar unit and an image capturing unit according to an embodiment of the present invention.
7 is a flowchart illustrating detailed steps of each step of FIG. 6 .

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention may be embodied in several different forms, and thus is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is said to be “connected (connected, contacted, coupled)” with another part, it is not only “directly connected” but also “indirectly connected” with another member interposed therebetween. "Including cases where In addition, when a part "includes" a certain component, this means that other components may be further provided without excluding other components unless otherwise stated.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or a combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

1. 라이다부 및 영상촬영부를 이용한 로봇청소기1. Robot cleaner using lidar unit and video recording unit

도 1은 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기를 나타낸 블록도이다. 도 2는 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기의 하우징부, 라이다부 및 영상촬영부를 나타낸 평면도이다. 도 3은 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기가 이동하면서 회전하여 제1 내지 제3 전방영역을 촬영하는 것을 나타낸 평면도이다. 도 4의 (a), (b), (c)는 도 3의 영상촬영부에서 제1 내지 제3 전방영역을 촬영한 영상에서 추출한 특징정보의 기하학적 위치를 나타낸 도면이다. 도 5는 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기의 제1 내지 3 전방영역의 중첩 또는 이격에 따른 보정을 설명하기 위한 평면도이다.1 is a block diagram illustrating a robot cleaner using a lidar unit and an image capturing unit according to an embodiment of the present invention. 2 is a plan view showing a housing unit, a lidar unit, and an image capturing unit of a robot cleaner using a lidar unit and an image capturing unit according to an embodiment of the present invention. 3 is a plan view illustrating that the robot cleaner using the lidar unit and the image capturing unit according to an embodiment of the present invention rotates while moving to photograph the first to third front regions. 4 (a), (b), and (c) are diagrams illustrating geometric positions of feature information extracted from images obtained by photographing the first to third front regions by the image capturing unit of FIG. 3 . 5 is a plan view for explaining correction according to overlapping or spacing of the first to third front areas of the robot cleaner using the lidar unit and the image capturing unit according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기(100)는 하우징부(110), 라이다부(120), 영상촬영부(130), 정보보정부(140), 위치확인부(150), 맵핑부(160) 및 제어부(170)를 포함한다.Referring to FIG. 1 , a robot cleaner 100 using a lidar unit and an image capturing unit according to an embodiment of the present invention includes a housing unit 110 , a lidar unit 120 , an image capturing unit 130 , and an information correction unit ( 140 ), a positioning unit 150 , a mapping unit 160 , and a control unit 170 .

도 1을 참조하면, 하우징부(110)는 내부공간을 형성함에 따라 라이다부(120), 영상촬영부(130), 정보보정부(140), 위치확인부(150), 맵핑부(160) 및 제어부(170)를 수용할 수 있다.Referring to FIG. 1 , as the housing unit 110 forms an internal space, the lidar unit 120 , the image capturing unit 130 , the information correcting unit 140 , the positioning unit 150 , and the mapping unit 160 . and the control unit 170 may be accommodated.

또한, 하우징부(110)의 일측부(도 2의 상부)는 투광성 재질로 형성됨에 따라 라이다부(120)에서 조사되는 레이저 파장의 광이 일측부를 통과하여 대상물에 도달하게 된다. 또한, 하우징부(110)의 일측부는 대상물로부터 반사되는 반사광을 통과시킬 수 있다.In addition, as the one side portion (the upper part of FIG. 2 ) of the housing unit 110 is formed of a translucent material, the laser wavelength light irradiated from the lidar unit 120 passes through the one side portion to reach the object. In addition, one side of the housing 110 may pass reflected light reflected from the object.

아울러, 하우징부(110)는 하부에 다수의 이동바퀴가 형성됨에 따라 이동하면서 회전 가능하다. 특히, 하우징부(110)는 제자리에서 회전할 수 없기 때문에 도 3에 도시된 바와 같이 이동방향으로 이동하면서 회전하게 된다. 여기서, 하우징부(110)는 일반적으로 로봇청소기에서 널리 사용되는 회전체일 수 있다.In addition, the housing 110 is rotatable while moving as a plurality of moving wheels are formed in the lower portion. In particular, since the housing 110 cannot rotate in place, it rotates while moving in the moving direction as shown in FIG. 3 . Here, the housing 110 may be a rotating body widely used in a general robot cleaner.

라이다부(120)는 하우징부(110)의 일측부와 인접한 하우징부(110)의 내부에 위치하여 회전 가능하고, 외부환경 중 하우징부(110)의 일측부를 통하여 보여지는 전방영역(S1, S2, S3)에 대한 슬램맵을 생성한다. 여기서, 전방영역은 도 3에 도시된 제1 전방영역(S1), 제2 전방영역(S2) 및 제3 전방영역(S3)을 포함한다. 구체적으로 제1 전방영역(S1), 제2 전방영역(S2) 및 제3 전방영역(S3)은 외부환경 중 라이다(120)가 센싱하는 전체영역인 전방영역(S1, S2, S3)에서 하우징부(110)가 120° 각도로 회전하였을 때마다 센싱되는 영역을 의미한다.The lidar unit 120 is positioned inside the housing unit 110 adjacent to one side of the housing unit 110 and is rotatable, and the front regions S1 and S2 seen through one side of the housing unit 110 in the external environment. , S3) to generate a slam map. Here, the front region includes the first front region S1 , the second front region S2 , and the third front region S3 shown in FIG. 3 . Specifically, the first front area S1, the second front area S2, and the third front area S3 are the front areas S1, S2, and S3 that are the entire area sensed by the lidar 120 in the external environment. It means an area sensed whenever the housing part 110 rotates at an angle of 120°.

즉, 라이다부(120)는 하우징부(110)의 내부에 위치함에 따라 구조적인 문제로 인하여 120°의 각도 내에서만 전방을 센싱하므로 360°의 모든 영역을 센싱하기 위해서 하우징부(110)가 120° 각도로 회전하는 것이다.That is, since the lidar unit 120 senses the front only within an angle of 120° due to a structural problem as it is located inside the housing unit 110, the housing unit 110 has 120 to sense all areas of 360°. It rotates at an angle of °.

또한, 슬램맵은 제1 전방영역(S1)에 대한 제1 슬램맵, 제2 전방영역(S2)에 대한 제2 슬램맵 및 제3 전방영역에 대한 제3 슬램맵을 포함한다.In addition, the slam map includes a first slam map for the first front region S1, a second slam map for the second front region S2, and a third slam map for the third front region.

라이다부(120)는 하우징부(110)의 일측부를 통하여 외부환경으로 레이저 파장의 광을 조사 및 외부환경으로부터 반사되는 반사광을 수신하여 하우징부(110)의 위치정보 및 맵핑정보를 생성한다. 이를 위한 라이다부(120)는 레이저 파장의 광을 조사하는 레이저 송출부 및 레이저 파장의 광이 대상물에 도달한 후 반사되는 반사광을 수신하는 레이저 수신부를 포함할 수 있다.The lidar unit 120 generates position information and mapping information of the housing unit 110 by irradiating light of a laser wavelength to the external environment through one side of the housing unit 110 and receiving reflected light reflected from the external environment. For this purpose, the lidar unit 120 may include a laser transmitter for irradiating light of a laser wavelength and a laser receiver for receiving reflected light reflected after the light of the laser wavelength reaches an object.

또한, 라이다부(120)는 레이저 송출부 및 레이저 수신부가 장착되어 회전하는 회전판 및 회전판의 중심을 관통하고 하우징부(110)의 상면 및 하면에 고정되는 회전축을 더 포함할 수 있다.In addition, the lidar unit 120 may further include a rotating plate on which the laser transmitting unit and the laser receiving unit are mounted, and a rotating shaft passing through the center of the rotating plate and fixed to the upper and lower surfaces of the housing unit 110 .

여기서, 위치정보는 하우징부(110)의 현재위치를 추정할 수 있는 위치에 관한 정보이고, 맵핑정보는 슬램맵을 구현하기 위한 정보일 수 있다.Here, the location information may be information on a location at which the current location of the housing unit 110 can be estimated, and the mapping information may be information for implementing a slam map.

영상촬영부(130)는 하우징부(110)의 내측면과 인접한 하우징부(110)의 내부에 위치하여 전방영역(S1, S2, S3)과 대향하는 후방영역에 대한 영상을 촬영하며 영상에 대한 특징정보를 생성한다. 여기서, 특징정보는 제1 전방영역(S1)에 대한 제1 특징정보, 제2 전방영역(S2)에 대한 제2 특징정보 및 제3 전방영역(S3)에 대한 제3 특징정보를 포함하는 특징의 기하학적 위치에 대한 정보이다. 이와 관련하여 도 4의 (a)에는 제1 특징정보의 기하학적 위치정보, 도 4의 (b)에는 제2 특징정보의 기하학적 위치정보, 도 4의 (c)에는 제3 특징정보의 기하학적 위치정보가 도시되어 있다. The image capturing unit 130 is located inside the housing unit 110 adjacent to the inner surface of the housing unit 110 to capture an image for the rear region opposite to the front regions S1, S2, and S3, and Generate feature information. Here, the characteristic information includes first characteristic information on the first front region S1, second characteristic information on the second front region S2, and third characteristic information on the third front region S3. information about the geometrical position of In this regard, in FIG. 4 (a), geometric position information of the first characteristic information, in FIG. 4 (b), geometric position information of the second characteristic information, and in FIG. 4 (c), geometric position information of the third characteristic information is shown.

도 4의 (a), (b), (c)에 도시된 제1 특징정보, 제2 특징정보 및 제3 특징정보의 기하학적 위치를 일치시키게 되면, 도 4의 (d)에 도시된 바와 같이 하나의 온전한 영역이 형성된다.When the geometric positions of the first characteristic information, the second characteristic information, and the third characteristic information shown in (a), (b) and (c) of FIG. 4 are matched, as shown in FIG. 4(d), One complete area is formed.

상기한 원리를 이용하여 생성된 특징정보는 정보보정부(140)로 전송되어 제1 슬림맵, 제2 슬림맵 및 제3 슬림맵 사이에 중첩 또는 이격된 부분을 보간하여 보정함으로써 청소맵을 완성시킨다. 이러한 과정에 따라 본 발명은 측정 오류 없이 하우징부의 최종위치 및 최종슬림맵인 청소맵을 생성할 수 있다.The feature information generated using the above principle is transmitted to the information correction unit 140, and the cleaning map is completed by interpolating and correcting the overlapping or spaced portions between the first slim map, the second slim map, and the third slim map. make it According to this process, the present invention can generate a cleaning map that is the final position and the final slim map of the housing unit without measurement error.

상기한 특징정보는 아래와 같은 상황에 추출되어 적용될 수 있다.The above characteristic information may be extracted and applied to the following situations.

전체슬림맵에서 제1 슬램맵과 제2 슬램맵, 제2 슬램맵과 제3 슬램맵, 제1 슬램맵과 제3 슬램맵 사이에 이격되는 이격구간 또는 중첩되는 중첩구간이 형성될 경우, 영상촬영부(130)는 PCA(Principal Component Analysis)에 기반한 특징선택 및 특징추출 알고리즘으로 특징정보를 생성한다. 이와 같이 생성된 특징정보는 정보보정부(140)로 수신되어 제1 슬램맵, 제2 슬램맵 및 제3 슬램맵 사이에서 중첩되거나 이격된 부분을 보간하여 보정하여 청소맵을 완성될 수 있도록 도움을 준다. 이러한 영상촬영부(130)는 제1 카메라(131) 및 제2 카메라(132)를 포함한다.When a spaced apart or overlapping overlapping section is formed between the first slam map and the second slam map, the second slam map and the third slam map, and the first slam map and the third slam map in the entire slim map The photographing unit 130 generates characteristic information using a characteristic selection and characteristic extraction algorithm based on PCA (Principal Component Analysis). The characteristic information generated in this way is received by the information correction unit 140 and interpolates and corrects overlapped or spaced portions between the first slam map, the second slam map, and the third slam map to help complete the cleaning map. gives The image capturing unit 130 includes a first camera 131 and a second camera 132 .

도 2에 도시된 바와 같이 제1 카메라(131)는 하우징부(110)의 중심을 기준으로 라이더부(120)에서 120° 회전된 곳에 위치한다.As shown in FIG. 2 , the first camera 131 is positioned at a location rotated by 120° in the lidar unit 120 with respect to the center of the housing unit 110 .

도 2에 도시된 바와 같이 제2 카메라(132)는 하우징부(110)의 중심을 기준으로 제1 카메라(131)에서 120° 회전된 곳에 위치한다.As shown in FIG. 2 , the second camera 132 is positioned at a location rotated by 120° from the first camera 131 with respect to the center of the housing 110 .

즉, 제1 카메라(131), 제2 카메라(132) 및 라이다부(120)는 하우징부(110)의 중심을 기준으로 120°의 각도로 회전된 곳에 위치하고, 하우징부(110)의 중심으로부터 방사상으로 위치한다.That is, the first camera 131 , the second camera 132 , and the lidar unit 120 are positioned at a position rotated at an angle of 120° with respect to the center of the housing unit 110 , and from the center of the housing unit 110 . located radially.

정보보정부(140)는 슬램맵 및 특징정보를 이용하여 하우징부(110)의 위치를 추정하고 슬램맵을 보정한다. 구체적으로 정보보정부(140)는 제1 내지 3 슬림맵을 합하는 연산을 통하여 전체슬림맵을 생성한다.The information correction unit 140 estimates the position of the housing unit 110 using the slam map and the characteristic information and corrects the slam map. Specifically, the information correction unit 140 generates the entire slim map through an operation of summing the first to third slim maps.

구체적으로 도 4의 (a), (b), (c), (d)를 참조하면, 정보보정부(140)는 제1 내지 3 특징정보를 일치시켜 슬램맵을 보정한 청소맵을 생성하여 완성시킨다.Specifically, referring to (a), (b), (c), and (d) of FIG. 4 , the information correction unit 140 generates a cleaning map in which the slam map is corrected by matching the first to third characteristic information. complete it

추가적으로 정보보정부(140)는 영상에서 외부환경 중 고정되어 있는 대상물의 이미지를 기준으로 청소구역 마크를 생성하여 전체슬림맵으로부터 최종위치를 추정한다.Additionally, the information correction unit 140 estimates the final position from the entire slim map by generating a cleaning area mark based on an image of an object fixed in the external environment in the image.

위치확인부(150)는 영상을 이용하여 현재위치를 추정하고 정보보정부에서 보정된 하우징부(110)의 최종위치에 대한 최종위치정보를 수신한다. 또한, 위치확인부(150)는 최종위치정보를 디스플레이부(미도시) 또는 사용자 단말기(미도시)로 전송할 수 있으며, 이에 따라 사용자는 디스플레이부 또는 사용자 단말기를 통하여 출력되는 최종위치정보를 확인할 수도 있다.The positioning unit 150 estimates the current position using the image and receives final position information on the final position of the housing unit 110 corrected by the information correction unit. In addition, the location check unit 150 may transmit the final location information to the display unit (not shown) or the user terminal (not shown), and accordingly, the user may check the final location information output through the display unit or the user terminal. have.

또한, 위치확인부(150)는 최종위치정보를 라이다부(120)로 전송하여 반영시킴에 따라 측정 오류를 최소화시킨다.In addition, the positioning unit 150 transmits and reflects the final position information to the lidar unit 120 to minimize measurement errors.

맵핑부(160)는 정보보정부(140)에서 청소맵을 수신한다. 또한, 맵핑부(160)는 청소맵을 디스플레이부 또는 또는 사용자 단말기(미도시)로 전송할 수 있으며, 이에 따라 사용자는 디스플레이부 또는 사용자 단말기를 통하여 출력되는 최종위치정보를 확인할 수도 있다.The mapping unit 160 receives the cleaning map from the information correcting unit 140 . In addition, the mapping unit 160 may transmit the cleaning map to the display unit or a user terminal (not shown), and accordingly, the user may check the final location information output through the display unit or the user terminal.

또한, 맵핑부(160)는 청소맵을 라이다부(120)로 전송하여 반영시 킴에 따라 측정 오류를 최소화시킨다.In addition, the mapping unit 160 transmits the cleaning map to the lidar unit 120 and reflects it, thereby minimizing measurement errors.

제어부(170)는 라이다부(120), 영상촬영부(130) 및 정보보정부(140)의 동작을 제어한다.The control unit 170 controls operations of the lidar unit 120 , the image capturing unit 130 , and the information correcting unit 140 .

구체적으로 하우징부(110)의 위치표시가 요구될 경우, 제어부(170)는 하우징부(110)가 120°씩 회전하도록 이동바퀴를 제어하고, 라이다부(120)가 하우징부(110)의 회전에 따라 제1 내지 3 슬램맵을 생성하도록 제어한다.Specifically, when the position display of the housing unit 110 is requested, the control unit 170 controls the moving wheel so that the housing unit 110 rotates by 120°, and the lidar unit 120 rotates the housing unit 110 . control to generate the first to third slam maps according to the

2. 라이다부 및 영상촬영부를 이용한 로봇청소기의 슬램맵 생성방법2. How to create a slam map of a robot cleaner using a lidar unit and an image capturing unit

도 6은 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기의 슬램맵 생성방법을 나타낸 순서도이다. 도 7은 도 6의 각 단계별 세부단계를 나타낸 순서도이다.6 is a flowchart illustrating a method of generating a slam map of a robot cleaner using a lidar unit and an image capturing unit according to an embodiment of the present invention. 7 is a flowchart illustrating detailed steps of each step of FIG. 6 .

도 6을 참조하면, 본 발명의 일 실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기의 슬램맵 생성방법은 (a) 라이다부(120)를 이용하여 전방영역(S1, S2, S3)의 적어도 일부에 대한 슬램맵을 생성하는 단계(S100), (b) 위치표시가 요구될 경우, 하우징부(110)가 회전하면서 슬림맵을 생성하는 단계(S200) 및 (c) 영상촬영부(130)를 이용하여 슬램맵을 보정하여 완성하는 단계(S300)를 포함한다.Referring to FIG. 6 , in the method for generating a slam map of a robot cleaner using a lidar unit and an image capturing unit according to an embodiment of the present invention, (a) the front regions S1, S2, and S3 using the lidar unit 120 are Generating a slam map for at least a part (S100), (b) generating a slim map while the housing unit 110 rotates when a position indication is requested (S200) and (c) image capturing unit 130 ) to correct and complete the slam map (S300).

도 7을 참조하면, 상기 (a) 단계는, (a1) 라이다부(120)가 제어부(170)에 의해 회전하는 단계(S110) 및 (a2) 라이다부(120)가 슬램맵을 생성하는 단계(S120)를 포함한다.Referring to FIG. 7 , in step (a), (a1) the lidar unit 120 is rotated by the control unit 170 (S110) and (a2) the lidar unit 120 generates a slam map. (S120).

상기 (b) 단계는, (b1) 하우징부(110)가 제어부(170)에 의해 120° 회전하는 단계(S210), (b2) 로봇청소기(100)의 하우징부(110)가 회전하였는지 여부를 판단하는 단계(S220), (b3) 위치확인부(150)에서 현재위치를 추정하는 단계(S230), (b4) 현재위치가 정확한 것인지 여부를 판단하는 단계(S240) 및 (b5) 상기 (c) 단계를 수행하는 단계를 포함한다.The step (b) includes (b1) the step of rotating the housing 110 by 120° by the control unit 170 (S210), and (b2) whether the housing 110 of the robot cleaner 100 is rotated. Determining (S220), (b3) estimating the current location in the positioning unit 150 (S230), (b4) determining whether the current location is accurate (S240) and (b5) above (c) ) to perform the steps.

또한, 상기 (b) 단계는, 상기 (b2) 단계 이후, (b6) 하우징부(110)가 미회전 시 상기 (a1) 단계로 복귀하는 단계를 더 포함한다. 상기한 프로세스에 따라 라이다부(120)는 하우징부(110)가 360°를 회전할 때까지 전방영역(S1, S2, S3)을 센싱하게 된다.In addition, the step (b) further includes, after the step (b2), (b6) returning to the step (a1) when the housing part 110 is not rotated. According to the above process, the lidar unit 120 senses the front regions S1, S2, and S3 until the housing unit 110 rotates 360°.

한편, 상기 (b) 단계는, 상기 (b4) 단계 이후, (b7) 현재위치가 부정확할 경우, 상기 (a1) 단계로 복귀하는 단계를 더 포함할 수 있다.Meanwhile, step (b) may further include, after step (b4), (b7) returning to step (a1) when the current location is incorrect.

상기 (c) 단계는, (c1) 하우징부(110)가 제어부(170)에 의해 이동하는 단계(S310), (c2) 영상촬영부(130)가 영상을 촬영 및 획득하는 단계(S320), (c3) 정보보정부(140)가 영상에서 외부환경 중 고정되어 있는 대상물의 이미지를 기준으로 청소구역 마크를 생성하여 슬램맵으로부터 하우징부(110)의 최종위치를 추정하는 단계(S330), (c4) 라이다부(120)가 슬램맵을 생성하는 단계(S340) 및 (c5) 정보보정부(140)가 슬램맵을 보정한 청소맵을 완성하는 단계(S350)를 포함한다.The step (c) is, (c1) the housing unit 110 is moved by the control unit 170 (S310), (c2) the image capturing unit 130 takes and acquires an image (S320), (c3) the step of estimating the final position of the housing unit 110 from the slam map by generating the cleaning area mark based on the image of the object fixed in the external environment by the information correction unit 140 in the image (S330), ( c4) the lidar unit 120 generates a slam map (S340) and (c5) the information correction unit 140 completes the cleaning map corrected for the slam map (S350).

상기한 바에 따른 본 발명은 로봇청소기의 내부에 위치하는 내장형 라이다부가 적용될 때에도 정확한 청소영역을 획득할 수 있다.According to the present invention as described above, it is possible to obtain an accurate cleaning area even when the built-in lidar unit located inside the robot cleaner is applied.

또한, 본 발명은 라이다부 및 영상촬영부에서 획득한 슬램맵 및 특징정보로부터 청소맵을 맴핑하기 위한 위상적인 오차를 줄여 실제와 근사한 근사치로 청소맵을 구현할 수 있다.In addition, the present invention can implement a cleaning map to an approximate approximation to the real by reducing the phase error for mapping the cleaning map from the slam map and feature information obtained from the lidar unit and the image capturing unit.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention.

100: 로봇청소기
110: 하우징부
120: 라이다부
130: 영상촬영부
131: 제1 카메라
132: 제2 카메라
140: 정보보정부
150: 위치확인부
160: 맵핑부
170: 제어부
100: robot vacuum cleaner
110: housing unit
120: Riderbu
130: video recording unit
131: first camera
132: second camera
140: information correction department
150: positioning unit
160: mapping unit
170: control unit

Claims (13)

내부공간을 형성하고 일측부가 투광성 재질로 형성되며 다수의 이동바퀴가 형성되어 이동하면서 회전 가능한 회전체인 하우징부;
상기 하우징부의 일측부와 인접한 상기 하우징부의 내부에 위치하여 회전 가능하고 외부환경 중 상기 일측부를 통하여 보여지는 전방영역에 대한 슬램맵을 생성하는 라이다부;
상기 하우징부의 내측면과 인접한 상기 하우징부의 내부에 위치하여 상기 전방영역과 대향하는 후방영역에 대한 영상을 촬영하며 상기 영상에 대한 특징정보를 생성하는 영상촬영부;
상기 슬램맵 및 상기 특징정보를 이용하여 상기 하우징부의 위치를 추정하고 상기 슬램맵을 보정하는 정보보정부;
상기 영상을 이용하여 현재위치를 추정하고 상기 정보보정부에서 보정된 상기 하우징부의 최종위치에 대한 최종위치정보를 수신하는 위치확인부;
상기 정보보정부에서 상기 슬램맵을 보정한 청소맵을 수신하는 맵핑부; 및
상기 라이다부, 상기 영상촬영부 및 상기 정보보정부의 동작을 제어하는 제어부;를 포함하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
a housing part that forms an inner space, one side part is formed of a light-transmitting material, and a plurality of moving wheels are formed and are rotatable while moving;
a lidar unit located inside the housing unit adjacent to one side of the housing unit, rotatable and generating a slam map for a front area viewed through the side unit in an external environment;
an image capturing unit located inside the housing unit adjacent to the inner surface of the housing unit to capture an image of a rear area opposite to the front area and to generate characteristic information about the image;
an information correction unit for estimating a position of the housing unit using the slam map and the characteristic information and correcting the slam map;
a positioning unit estimating a current position using the image and receiving final position information on the final position of the housing unit corrected by the information correction unit;
a mapping unit for receiving a cleaning map obtained by correcting the slam map from the information correcting unit; and
A robot cleaner using a lidar unit and an image capturing unit, comprising: a control unit for controlling the operations of the lidar unit, the image capturing unit, and the information correcting unit.
제1 항에 있어서,
상기 영상촬영부는,
상기 하우징부의 중심을 기준으로 상기 라이더부에서 120° 회전된 곳에 위치하는 제1 카메라; 및
상기 하우징부의 중심을 기준으로 상기 제1 카메라에서 120° 회전된 곳에 위치하는 제2 카메라;를 포함하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
According to claim 1,
The video recording unit,
a first camera positioned at a position rotated by 120° in the lidar part with respect to the center of the housing part; and
A robot cleaner using a lidar unit and an image capturing unit, comprising a; a second camera positioned at a position rotated by 120° from the first camera with respect to the center of the housing unit.
제1 항에 있어서,
상기 전방영역은 제1 전방영역, 제2 전방영역 및 제3 전방영역을 포함하고,
상기 슬램맵은 상기 제1 전방영역에 대한 제1 슬램맵, 상기 제2 전방영역에 대한 제2 슬램맵 및 상기 제3 전방영역에 대한 제3 슬램맵을 포함하며,
상기 하우징부의 위치표시가 요구될 경우,
상기 제어부는 상기 하우징부가 120°씩 회전하도록 상기 이동바퀴를 제어하고, 상기 라이다부가 상기 하우징부의 회전에 따라 상기 제1 내지 3 슬램맵을 생성하도록 제어하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
According to claim 1,
The front area includes a first front area, a second front area and a third front area,
The slam map includes a first slam map for the first front area, a second slam map for the second front area, and a third slam map for the third front area,
When the position indication of the housing part is requested,
The control unit controls the moving wheel to rotate the housing unit by 120°, and controls the lidar unit to generate the first to third slam maps according to the rotation of the housing unit. Robot vacuum cleaner used.
제3 항에 있어서,
상기 정보보정부는 상기 제1 내지 3 슬림맵을 합하는 연산을 통하여 상기 전체슬림맵을 생성하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
4. The method of claim 3,
The information correcting unit is a robot cleaner using a lidar unit and an image capturing unit, characterized in that generating the entire slim map through the operation of summing the first to third slim maps.
제4 항에 있어서,
상기 전체슬림맵에서 상기 제1 슬램맵과 상기 제2 슬램맵, 상기 제2 슬램맵과 상기 제3 슬램맵, 상기 제1 슬램맵과 상기 제3 슬램맵 사이에 이격되는 이격구간 또는 중첩되는 중첩구간이 형성될 경우,
상기 영상촬영부는 PCA(Principal Component Analysis)에 기반한 특징선택 및 특징추출 알고리즘으로 상기 특징정보를 생성하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
5. The method of claim 4,
In the entire slim map, a spaced apart interval or overlapping overlapping between the first slam map and the second slam map, the second slam map and the third slam map, and the first slam map and the third slam map When a section is formed,
The image capturing unit is a robot cleaner using a lidar unit and an image capturing unit, characterized in that it generates the feature information using a feature selection and feature extraction algorithm based on PCA (Principal Component Analysis).
제5 항에 있어서,
상기 특징정보는 상기 제1 전방영역에 대한 제1 특징정보, 상기 제2 전방영역에 대한 제2 특징정보 및 상기 제3 전방영역에 대한 제3 특징정보를 포함하는 특징의 기하학적 위치에 대한 정보이고,
상기 정보보정부는 제1 내지 3 특징정보를 일치시켜 상기 청소맵을 생성하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
6. The method of claim 5,
The characteristic information is information on a geometric position of a feature including first characteristic information for the first front region, second characteristic information for the second front region, and third characteristic information for the third front region, and ,
The information correction unit is a robot cleaner using a lidar unit and an image capturing unit, characterized in that by matching the first to third characteristic information to generate the cleaning map.
제4 항에 있어서,
상기 정보보정부는 상기 영상에서 상기 외부환경 중 고정되어 있는 대상물의 이미지를 기준으로 청소구역 마크를 생성하여 상기 전체슬림맵으로부터 상기 최종위치를 추정하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
5. The method of claim 4,
The information correction unit generates a cleaning area mark based on an image of an object fixed in the external environment in the image and estimates the final position from the overall slim map. A robot cleaner using a lidar unit and an image capturing unit .
제1 항에 있어서,
상기 라이다부는 상기 하우징부의 일측부를 통하여 외부환경으로 레이저 파장의 광을 조사 및 상기 외부환경으로부터 반사되는 반사광을 수신하여 상기 하우징부의 위치정보 및 맵핑정보를 생성하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
According to claim 1,
The lidar unit irradiates laser wavelength light to an external environment through one side of the housing unit and receives reflected light reflected from the external environment to generate location information and mapping information of the housing unit. Robot vacuum cleaner using wealth.
제 1 항에 따른 로봇청소기의 슬램맵 생성방법에 있어서,
(a) 상기 라이다부를 이용하여 상기 전방영역의 적어도 일부에 대한 슬램맵을 생성하는 단계;
(b) 위치표시가 요구될 경우, 상기 하우징부가 회전하면서 상기 슬림맵을 생성하는 단계; 및
(c) 상기 영상촬영부를 이용하여 상기 슬램맵을 보정하여 완성하는 단계;를 포함하는 것을 특징으로 하는 로봇청소기의 슬램맵 생성방법.
In the method for generating a slam map of the robot cleaner according to claim 1,
(a) generating a slam map for at least a portion of the front area using the lidar unit;
(b) generating the slim map while the housing unit rotates when a position indication is requested; and
(c) correcting and completing the slam map using the image capturing unit;
제9 항에 있어서,
상기 (a) 단계는,
(a1) 상기 라이다부가 상기 제어부에 의해 회전하는 단계; 및
(a2) 상기 라이다부가 상기 슬램맵을 생성하는 단계;를 포함하는 것을 특징으로 하는 로봇청소기의 슬램맵 생성방법.
10. The method of claim 9,
The step (a) is,
(a1) rotating the lidar unit by the control unit; and
(a2) generating the slam map by the lidar unit;
제10 항에 있어서,
상기 (b) 단계는,
(b1) 상기 하우징부가 상기 제어부에 의해 120° 회전하는 단계;
(b2) 상기 로봇청소기의 하우징부가 회전하였는지 여부를 판단하는 단계;
(b3) 상기 위치확인부에서 상기 현재위치를 추정하는 단계;
(b4) 상기 현재위치가 정확한 것인지 여부를 판단하는 단계; 및
(b5) 상기 (c) 단계를 수행하는 단계;를 포함하는 것을 특징으로 하는 로봇청소기의 슬램맵 생성방법.
11. The method of claim 10,
Step (b) is,
(b1) rotating the housing by 120° by the control unit;
(b2) determining whether the housing part of the robot cleaner is rotated;
(b3) estimating the current location in the location check unit;
(b4) determining whether the current location is correct; and
(b5) performing the step (c);
제11 항에 있어서,
상기 (b) 단계는,
상기 (b2) 단계 이후,
(b6) 상기 하우징부가 미회전 시 상기 (a1) 단계로 복귀하는 단계;를 더 포함하는 것을 특징으로 하는 로봇청소기의 슬램맵 생성방법.
12. The method of claim 11,
Step (b) is,
After step (b2),
(b6) returning to the step (a1) when the housing unit does not rotate.
제9 항에 있어서,
상기 (c) 단계는,
(c1) 상기 하우징부가 상기 제어부에 의해 이동하는 단계;
(c2) 상기 영상촬영부가 상기 영상을 촬영 및 획득하는 단계;
(c3) 상기 정보보정부가 상기 영상에서 상기 외부환경 중 고정되어 있는 대상물의 이미지를 기준으로 청소구역 마크를 생성하여 상기 슬림맵으로부터 상기 최종위치를 추정하는 단계;
(c4) 상기 라이다부가 상기 슬램맵을 생성하는 단계; 및
(c5) 상기 정보보정부가 상기 슬램맵을 보정한 청소맵을 완성하는 단계;를 포함하는 것을 특징으로 하는 로봇청소기의 슬램맵 생성방법.
10. The method of claim 9,
The step (c) is,
(c1) moving the housing unit by the control unit;
(c2) capturing and acquiring the image by the image capturing unit;
(c3) estimating the final position from the slim map by generating, by the information correction unit, a cleaning area mark based on an image of an object fixed in the external environment in the image;
(c4) generating the slam map by the lidar unit; and
(c5) completing, by the information correction unit, a cleaning map obtained by correcting the slam map;
KR1020190154718A 2019-11-27 2019-11-27 A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof KR102307877B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190154718A KR102307877B1 (en) 2019-11-27 2019-11-27 A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190154718A KR102307877B1 (en) 2019-11-27 2019-11-27 A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof

Publications (2)

Publication Number Publication Date
KR20210066091A true KR20210066091A (en) 2021-06-07
KR102307877B1 KR102307877B1 (en) 2021-10-06

Family

ID=76374161

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190154718A KR102307877B1 (en) 2019-11-27 2019-11-27 A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof

Country Status (1)

Country Link
KR (1) KR102307877B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102372806B1 (en) * 2021-08-18 2022-03-10 김정하 Robot cleaner
KR102559300B1 (en) * 2022-12-28 2023-07-25 주식회사 클로봇 An unmanned vehicle and method for controlling docking of the unmanned vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150065972A (en) * 2013-11-28 2015-06-16 삼성전자주식회사 Robot cleaner and method for controlling the same
KR20180039439A (en) * 2016-10-10 2018-04-18 엘지전자 주식회사 Guidance robot for airport and method thereof
KR20190131402A (en) * 2018-05-16 2019-11-26 주식회사 유진로봇 Moving Object and Hybrid Sensor with Camera and Lidar

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150065972A (en) * 2013-11-28 2015-06-16 삼성전자주식회사 Robot cleaner and method for controlling the same
KR20180039439A (en) * 2016-10-10 2018-04-18 엘지전자 주식회사 Guidance robot for airport and method thereof
KR20190131402A (en) * 2018-05-16 2019-11-26 주식회사 유진로봇 Moving Object and Hybrid Sensor with Camera and Lidar

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102372806B1 (en) * 2021-08-18 2022-03-10 김정하 Robot cleaner
KR102559300B1 (en) * 2022-12-28 2023-07-25 주식회사 클로봇 An unmanned vehicle and method for controlling docking of the unmanned vehicle

Also Published As

Publication number Publication date
KR102307877B1 (en) 2021-10-06

Similar Documents

Publication Publication Date Title
CN110573833B (en) Imaging device and monitoring device
Teichman et al. Unsupervised Intrinsic Calibration of Depth Sensors via SLAM.
JP4984650B2 (en) Mobile device and self-position estimation method of mobile device
KR102307877B1 (en) A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof
US11022692B2 (en) Triangulation scanner having flat geometry and projecting uncoded spots
US7507948B2 (en) Method of detecting object using structured light and robot using the same
JP6061616B2 (en) Measuring apparatus, control method therefor, and program
Chen et al. Active sensor planning for multiview vision tasks
CN111337018B (en) Positioning method and device, intelligent robot and computer readable storage medium
JP6080969B2 (en) Method and apparatus for determining the posture of an object
US20180343381A1 (en) Distance image acquisition apparatus and application thereof
US20180210070A1 (en) Active Brightness-Based Strategy for Invalidating Pixels in Time-of-Flight Depth-Sensing
WO2010000818A2 (en) Calibration
US11640673B2 (en) Method and system for measuring an object by means of stereoscopy
JP4660387B2 (en) Apparatus and method for correcting position information of moving body, computer-readable recording medium storing computer program for controlling the apparatus
TWI387775B (en) Positioning system and method thereof
KR20220060500A (en) Failure detection method, apparatus, electronic device, storage medium and computer program
Hillemann et al. UCalMiCeL–Unified intrinsic and extrinsic calibration of a multi-camera-system and a laserscanner
JP2009222568A (en) Method, device, and computer program of generating three-dimensional shape data
KR20100081881A (en) Data matching device and method, and robot using these
JPWO2005100910A1 (en) Three-dimensional shape measuring method and apparatus
US20230386085A1 (en) Calibrating system for colorizing point-clouds
Zeisl et al. Structure-based auto-calibration of RGB-D sensors
KR101222009B1 (en) System and method for lens distortion compensation of camera based on projector and epipolar geometry
JP6908206B1 (en) Shape measuring device, shape measuring system, shape measuring method and shape measuring program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant