KR20210066091A - A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof - Google Patents
A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof Download PDFInfo
- Publication number
- KR20210066091A KR20210066091A KR1020190154718A KR20190154718A KR20210066091A KR 20210066091 A KR20210066091 A KR 20210066091A KR 1020190154718 A KR1020190154718 A KR 1020190154718A KR 20190154718 A KR20190154718 A KR 20190154718A KR 20210066091 A KR20210066091 A KR 20210066091A
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- map
- lidar
- housing
- information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000004140 cleaning Methods 0.000 claims abstract description 38
- 238000012937 correction Methods 0.000 claims abstract description 30
- 238000013507 mapping Methods 0.000 claims abstract description 16
- 238000000513 principal component analysis Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 3
- 230000004807 localization Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2836—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
- A47L9/2852—Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2805—Parameters or conditions being sensed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/0085—Cleaning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
Abstract
Description
본 발명은 라이다부 및 영상촬영부를 이용한 로봇청소기 및 이의 슬램맵 생성방법에 관한 것으로, 보다 상세하게는 라이다부에서 생성된 슬램맵과 영상촬영부에서 생성된 특징정보를 기반으로 슬램맵을 보정하여 실제에 가까운 청소맵을 구현하는 라이다부 및 영상촬영부를 이용한 로봇청소기 및 이의 슬램맵 생성방법에 관한 것이다.The present invention relates to a robot cleaner using a lidar unit and an image capturing unit and a slam map generation method thereof, and more particularly, by correcting the slam map based on the slam map generated by the lidar unit and the characteristic information generated by the image capturing unit. A robot cleaner using a lidar unit and an image capturing unit that implements a cleaning map close to reality, and a slam map generation method thereof.
일반적으로 로봇은 산업용으로 개발되어 공장자동화의 일환으로 반복적인 작업을 수행하는데 사용되어 왔다. 최근에는 산업용 로봇뿐만 아니라 다양한 형태의 로봇이 등장하고 있으며, 특히 가정이나 사무실에서 스스로 이동하면서 인간의 일을 대신 수행하는 인간친화적인 로봇이 실용화되고 있다. 이에 해당하는 대표적인 예로서 청소 로봇, 보안 로봇, 안내 로봇, 서비스 로봇 등을 들 수 있다.In general, robots have been developed for industrial use and have been used to perform repetitive tasks as part of factory automation. Recently, not only industrial robots but also various types of robots have appeared, and in particular, human-friendly robots that perform human tasks while moving on their own in homes or offices are being put to practical use. Representative examples corresponding to this include a cleaning robot, a security robot, a guide robot, a service robot, and the like.
이중 청소 로봇 등의 이동 로봇은 SLAM(Simultaneous Localization And Map-Building)기술을 이용하여 현재시간 동안 자신의 위치를 계측 및 측정하면서 동시에 외부환경의 지도를 작성한다. 이를 위한 청소 로봇은 라이다센서를 적용하는 것이 일반적인데, 이러한 라이다센서는 360° 방향으로 외부환경을 쉽게 센싱하도록 청소 로봇의 하우징의 외부에 장착되었다.Mobile robots such as double cleaning robots use SLAM (Simultaneous Localization And Map-Building) technology to measure and measure their location during the current time and create a map of the external environment at the same time. For this purpose, it is common to apply a lidar sensor to the cleaning robot. This lidar sensor is mounted on the outside of the housing of the cleaning robot to easily sense the external environment in a 360° direction.
그러나, 상기한 외장형 라이다센서를 장착한 청소 로봇은 라이다센서와 하우징 사이로 이물질이 빈번하게 누적되어서 기계성능을 저하시킬 뿐만 아니라 외형상으로도 외부로 돌출되어 있어 심미감을 주지 못하는 문제점이 있었다.However, the cleaning robot equipped with the above-described external lidar sensor has a problem in that foreign substances are frequently accumulated between the lidar sensor and the housing, thereby reducing the mechanical performance and protruding outwardly in appearance, thereby failing to give an aesthetic feeling.
이를 해소하기 위해 내장형 라이다센서를 장착한 청소 로봇들도 존재하지만, 이러한 내장형 라이다센서가 장착된 청소 로봇은 라이다센서가 내부에 위치함에 따라 전방영역을 센싱하는 각도가 한정적이기 때문에 청소맵을 맵핑하거나 현재위치를 추정함에 있어서 실제와 차이가 많이 생기는 문제점이 있었다.To solve this problem, there are cleaning robots equipped with a built-in lidar sensor, but the cleaning robot equipped with such a built-in lidar sensor has a limited angle sensing the front area as the lidar sensor is located inside the cleaning map. There was a problem in that there was a lot of difference from reality in mapping or estimating the current location.
(특허문헌 1) 등록특허공보 제10-0791384호(2007.12.27.)(Patent Document 1) Registered Patent Publication No. 10-0791384 (2007.12.27.)
(특허문헌 2) 등록특허공보 제10-1575597호(2015.12.02.)(Patent Document 2) Registered Patent Publication No. 10-1575597 (2015.12.02.)
상기와 같은 문제를 해결하기 위한 본 발명의 목적은 120°씩 회전하는 하우징부에 의해 라이더부에서 각각 제1 전방영역, 제2 전방영역 및 제3 전방영역에 대한 제1 슬램맵, 제2 슬램맵 및 제3 슬램맵을 생성하고 영상촬영부에서 획득한 특징정보를 이용하여 제1 슬램맵, 제2 슬램맵 및 제3 슬램맵 사이에 중첩되거나 이격된 부분을 보정하여 실제에 가까운 청소맵을 구현하는 라이다부 및 영상촬영부를 이용한 로봇청소기 및 이의 슬램맵 생성방법을 제공하는 것이다.An object of the present invention for solving the above problems is the first slam map, the second slam for the first front area, the second front area, and the third front area, respectively, in the rider part by the housing part that rotates by 120 degrees. Create a map and a third slam map, and use the feature information obtained from the image capturing unit to correct the overlapping or spaced parts between the first slam map, the second slam map, and the third slam map to create a cleaning map close to the real one It is to provide a robot cleaner using a lidar unit and an image capturing unit to implement and a method for generating a slam map thereof.
본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved by the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. There will be.
상기와 같은 목적을 달성하기 위한 본 발명의 구성은 내부공간을 형성하고 일측부가 투광성 재질로 형성되며 다수의 이동바퀴가 형성되어 이동하면서 회전 가능한 회전체인 하우징부; 상기 하우징부의 일측부와 인접한 상기 하우징부의 내부에 위치하여 회전 가능하고 외부환경 중 상기 일측부를 통하여 보여지는 전방영역에 대한 슬램맵을 생성하는 라이다부; 상기 하우징부의 내측면과 인접한 상기 하우징부의 내부에 위치하여 상기 전방영역과 대향하는 후방영역에 대한 영상을 촬영하며 상기 영상에 대한 특징정보를 생성하는 영상촬영부; 상기 슬램맵 및 상기 특징정보를 이용하여 상기 하우징부의 위치를 추정하고 상기 슬램맵을 보정하는 정보보정부; 상기 영상을 이용하여 현재위치를 추정하고 상기 정보보정부에서 보정된 상기 하우징부의 최종위치에 대한 최종위치정보를 수신하는 위치확인부; 상기 정보보정부에서 상기 슬램맵을 보정한 청소맵을 수신하는 맵핑부; 및 상기 라이다부, 상기 영상촬영부 및 상기 정보보정부의 동작을 제어하는 제어부;를 포함하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기를 제공한다.The configuration of the present invention for achieving the above object is a housing portion that forms an inner space, one side is formed of a light-transmitting material, and a plurality of moving wheels are formed and are rotatable while moving; a lidar unit located inside the housing unit adjacent to one side of the housing unit, rotatable and generating a slam map for a front area viewed through the side unit in an external environment; an image capturing unit located inside the housing unit adjacent to the inner surface of the housing unit to capture an image of a rear area opposite to the front area and to generate characteristic information about the image; an information correction unit for estimating a position of the housing unit using the slam map and the characteristic information and correcting the slam map; a positioning unit estimating a current position using the image and receiving final position information on the final position of the housing unit corrected by the information correction unit; a mapping unit for receiving a cleaning map obtained by correcting the slam map from the information correction unit; and a control unit for controlling the operations of the lidar unit, the image capturing unit, and the information correcting unit; provides a robot cleaner using a lidar unit and an image capturing unit, comprising: a.
본 발명의 실시예에 있어서, 상기 영상촬영부는, 상기 하우징부의 중심을 기준으로 상기 라이더부에서 120° 회전된 곳에 위치하는 제1 카메라; 및 상기 하우징부의 중심을 기준으로 상기 제1 카메라에서 120° 회전된 곳에 위치하는 제2 카메라;를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the image capturing unit, a first camera located at a location rotated by 120° in the lidar unit with respect to the center of the housing unit; and a second camera positioned at a location rotated by 120° from the first camera with respect to the center of the housing part.
본 발명의 실시예에 있어서, 상기 전방영역은 제1 전방영역, 제2 전방영역 및 제3 전방영역을 포함하고, 상기 슬램맵은 상기 제1 전방영역에 대한 제1 슬램맵, 상기 제2 전방영역에 대한 제2 슬램맵 및 상기 제3 전방영역에 대한 제3 슬램맵을 포함하며, 상기 하우징부의 위치표시가 요구될 경우, 상기 제어부는 상기 하우징부가 120°씩 회전하도록 상기 이동바퀴를 제어하고, 상기 라이다부가 상기 하우징부의 회전에 따라 상기 제1 내지 3 슬램맵을 생성하도록 제어하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the front area includes a first front area, a second front area, and a third front area, and the slam map includes a first slam map for the first front area and the second front area. a second slam map for the region and a third slam map for the third front region, wherein when the position of the housing part is requested, the control unit controls the moving wheel to rotate the housing part by 120°, , the lidar unit may be characterized in that it controls to generate the first to third slam maps according to the rotation of the housing unit.
본 발명의 실시예에 있어서, 상기 정보보정부는 상기 제1 내지 3 슬림맵을 합하는 연산을 통하여 상기 전체슬림맵을 생성하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the information correction unit may generate the entire slim map through an operation of summing the first to third slim maps.
본 발명의 실시예에 있어서, 상기 전체슬림맵에서 상기 제1 슬램맵과 상기 제2 슬램맵, 상기 제2 슬램맵과 상기 제3 슬램맵, 상기 제1 슬램맵과 상기 제3 슬램맵 사이에 이격되는 이격구간 또는 중첩되는 중첩구간이 형성될 경우, 상기 영상촬영부는 PCA(Principal Component Analysis)에 기반한 특징선택 및 특징추출 알고리즘으로 상기 특징정보를 생성하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, between the first slam map and the second slam map, the second slam map and the third slam map, and the first slam map and the third slam map in the entire slim map When a spaced apart section or an overlapping overlapping section is formed, the image capturing unit may generate the feature information using a feature selection and feature extraction algorithm based on PCA (Principal Component Analysis).
본 발명의 실시예에 있어서, 상기 특징정보는 상기 제1 전방영역에 대한 제1 특징정보, 상기 제2 전방영역에 대한 제2 특징정보 및 상기 제3 전방영역에 대한 제3 특징정보를 포함하는 특징의 기하학적 위치에 대한 정보이고, 상기 정보보정부는 제1 내지 3 특징정보를 일치시켜 상기 청소맵을 생성하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the feature information includes first feature information on the first front region, second feature information on the second front region, and third feature information on the third front region It is information about the geometrical position of the feature, and the information correction unit may generate the cleaning map by matching the first to third feature information.
본 발명의 실시예에 있어서, 상기 정보보정부는 상기 영상에서 상기 외부환경 중 고정되어 있는 대상물의 이미지를 기준으로 청소구역 마크를 생성하여 상기 전체슬림맵으로부터 상기 최종위치를 추정하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the information correction unit may be characterized in that the final position is estimated from the entire slim map by generating a cleaning area mark based on the image of the fixed object in the external environment in the image. have.
본 발명의 실시예에 있어서, 상기 라이다부는 상기 하우징부의 일측부를 통하여 외부환경으로 레이저 파장의 광을 조사 및 상기 외부환경으로부터 반사되는 반사광을 수신하여 상기 하우징부의 위치정보 및 맵핑정보를 생성하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the lidar unit irradiates light of a laser wavelength to an external environment through one side of the housing unit and receives reflected light reflected from the external environment to generate location information and mapping information of the housing unit can be characterized.
또한, 상기와 같은 목적을 달성하기 위한 본 발명의 구성은 전술한 바에 따른 로봇청소기의 슬램맵 생성방법에 있어서, (a) 상기 라이다부를 이용하여 상기 전방영역의 적어도 일부에 대한 슬램맵을 생성하는 단계; (b) 위치표시가 요구될 경우, 상기 하우징부가 회전하면서 상기 슬림맵을 생성하는 단계; 및 (c) 상기 영상촬영부를 이용하여 상기 슬램맵을 보정하여 완성하는 단계;를 포함하는 것을 특징으로 하는 로봇청소기의 슬램맵 생성방법을 제공한다.In addition, in the configuration of the present invention for achieving the above object, in the method for generating a slam map of a robot cleaner according to the above-mentioned bar, (a) generating a slam map for at least a part of the front area using the lidar unit to do; (b) generating the slim map while the housing unit rotates when a position indication is requested; and (c) correcting and completing the slam map using the image capturing unit.
본 발명의 실시예에 있어서, 상기 (a) 단계는, (a1) 상기 라이다부가 상기 제어부에 의해 회전하는 단계; 및 (a2) 상기 라이다부가 상기 슬램맵을 생성하는 단계;를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the step (a) comprises: (a1) rotating the lidar unit by the control unit; and (a2) generating the slam map by the lidar unit.
본 발명의 실시예에 있어서, 상기 (b) 단계는, (b1) 상기 하우징부가 상기 제어부에 의해 120° 회전하는 단계; (b2) 상기 로봇청소기의 하우징부가 회전하였는지 여부를 판단하는 단계; (b3) 상기 위치확인부에서 상기 현재위치를 추정하는 단계; (b4) 상기 현재위치가 정확한 것인지 여부를 판단하는 단계; 및 (b5) 상기 (c) 단계를 수행하는 단계;를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the step (b) comprises: (b1) rotating the housing part by 120° by the control unit; (b2) determining whether the housing part of the robot cleaner is rotated; (b3) estimating the current location in the location check unit; (b4) determining whether the current location is correct; and (b5) performing step (c).
본 발명의 실시예에 있어서, 상기 (b) 단계는, 상기 (b2) 단계 이후, (b6) 상기 하우징부가 미회전 시 상기 (a1) 단계로 복귀하는 단계;를 더 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the step (b) may further include, after the step (b2), (b6) returning to the step (a1) when the housing part is not rotated. have.
본 발명의 실시예에 있어서, 상기 (b) 단계는, 상기 (b4) 단계 이후, (b7) 상기 현재위치가 부정확할 경우, 상기 (a1) 단계로 복귀하는 단계;를 더 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the step (b) further comprises, after the step (b4), (b7) returning to the step (a1) when the current location is incorrect. can do.
본 발명의 실시예에 있어서, 상기 (c) 단계는, (c1) 상기 하우징부가 상기 제어부에 의해 이동하는 단계; (c2) 상기 영상촬영부가 상기 영상을 촬영 및 획득하는 단계; (c3) 상기 정보보정부가 상기 영상에서 상기 외부환경 중 고정되어 있는 대상물의 이미지를 기준으로 청소구역 마크를 생성하여 상기 슬림맵으로부터 상기 최종위치를 추정하는 단계; (c4) 상기 라이다부가 상기 슬램맵을 생성하는 단계; 및 (c5) 상기 정보보정부가 상기 슬램맵을 보정한 청소맵을 완성하는 단계;를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the step (c) comprises: (c1) moving the housing unit by the control unit; (c2) capturing and acquiring the image by the image capturing unit; (c3) estimating the final position from the slim map by generating, by the information correction unit, a cleaning area mark based on an image of an object fixed in the external environment in the image; (c4) generating the slam map by the lidar unit; and (c5) completing, by the information correction unit, a cleaning map in which the slam map is corrected.
상기와 같은 구성에 따르는 본 발명의 효과는, 120°씩 회전하는 하우징부에 의해 라이더부에서 각각 제1 전방영역, 제2 전방영역 및 제3 전방영역에 대한 제1 슬램맵, 제2 슬램맵 및 제3 슬램맵을 생성하고 영상촬영부에서 획득한 특징정보를 이용하여 제1 슬램맵, 제2 슬램맵 및 제3 슬램맵 사이에 중첩되거나 이격된 부분을 보정하여 실제에 가까운 청소맵을 구현할 수 있다.The effect of the present invention according to the above configuration is, the first slam map, the second slam map for the first front area, the second front area and the third front area in the rider part by the housing part rotated by 120 degrees, respectively and a third slam map is generated and a cleaning map close to reality is implemented by correcting overlapping or spaced portions between the first slam map, the second slam map, and the third slam map using the feature information obtained from the image capturing unit. can
또한, 상기와 같은 구성에 따르는 본 발명의 효과는, 라이다부 및 영상촬영부에서 획득한 슬램맵 및 특징정보로부터 청소맵을 맴핑하기 위한 위상적인 오차를 줄여 실제와 근사한 근사치로 청소맵을 구현할 수 있다.In addition, the effect of the present invention according to the configuration as described above is to reduce the phase error for mapping the cleaning map from the slam map and feature information obtained from the lidar unit and the image capturing unit to realize the cleaning map in an approximate approximation to the real one. have.
본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.It should be understood that the effects of the present invention are not limited to the above-described effects, and include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.
도 1은 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기를 나타낸 블록도이다.
도 2는 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기의 하우징부, 라이다부 및 영상촬영부를 나타낸 평면도이다.
도 3은 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기가 이동하면서 회전하여 제1 내지 제3 전방영역을 촬영하는 것을 나타낸 평면도이다.
도 4의 (a), (b), (c)는 도 3의 영상촬영부에서 제1 내지 제3 전방영역을 촬영한 영상에서 추출한 특징정보의 기하학적 위치를 나타낸 도면이다.
도 5는 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기의 제1 내지 3 전방영역의 중첩 또는 이격에 따른 보정을 설명하기 위한 평면도이다.
도 6은 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기의 슬램맵 생성방법을 나타낸 순서도이다.
도 7은 도 6의 각 단계별 세부단계를 나타낸 순서도이다.1 is a block diagram illustrating a robot cleaner using a lidar unit and an image capturing unit according to an embodiment of the present invention.
2 is a plan view showing a housing unit, a lidar unit, and an image capturing unit of a robot cleaner using a lidar unit and an image capturing unit according to an embodiment of the present invention.
3 is a plan view illustrating that the robot cleaner using the lidar unit and the image capturing unit according to an embodiment of the present invention rotates while moving to photograph the first to third front regions.
4 (a), (b), and (c) are diagrams illustrating geometric positions of feature information extracted from images obtained by photographing the first to third front regions by the image capturing unit of FIG. 3 .
5 is a plan view for explaining correction according to overlapping or spacing of the first to third front areas of the robot cleaner using the lidar unit and the image capturing unit according to an embodiment of the present invention.
6 is a flowchart illustrating a method of generating a slam map of a robot cleaner using a lidar unit and an image capturing unit according to an embodiment of the present invention.
7 is a flowchart illustrating detailed steps of each step of FIG. 6 .
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention may be embodied in several different forms, and thus is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is said to be “connected (connected, contacted, coupled)” with another part, it is not only “directly connected” but also “indirectly connected” with another member interposed therebetween. "Including cases where In addition, when a part "includes" a certain component, this means that other components may be further provided without excluding other components unless otherwise stated.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or a combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
1. 라이다부 및 영상촬영부를 이용한 로봇청소기1. Robot cleaner using lidar unit and video recording unit
도 1은 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기를 나타낸 블록도이다. 도 2는 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기의 하우징부, 라이다부 및 영상촬영부를 나타낸 평면도이다. 도 3은 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기가 이동하면서 회전하여 제1 내지 제3 전방영역을 촬영하는 것을 나타낸 평면도이다. 도 4의 (a), (b), (c)는 도 3의 영상촬영부에서 제1 내지 제3 전방영역을 촬영한 영상에서 추출한 특징정보의 기하학적 위치를 나타낸 도면이다. 도 5는 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기의 제1 내지 3 전방영역의 중첩 또는 이격에 따른 보정을 설명하기 위한 평면도이다.1 is a block diagram illustrating a robot cleaner using a lidar unit and an image capturing unit according to an embodiment of the present invention. 2 is a plan view showing a housing unit, a lidar unit, and an image capturing unit of a robot cleaner using a lidar unit and an image capturing unit according to an embodiment of the present invention. 3 is a plan view illustrating that the robot cleaner using the lidar unit and the image capturing unit according to an embodiment of the present invention rotates while moving to photograph the first to third front regions. 4 (a), (b), and (c) are diagrams illustrating geometric positions of feature information extracted from images obtained by photographing the first to third front regions by the image capturing unit of FIG. 3 . 5 is a plan view for explaining correction according to overlapping or spacing of the first to third front areas of the robot cleaner using the lidar unit and the image capturing unit according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기(100)는 하우징부(110), 라이다부(120), 영상촬영부(130), 정보보정부(140), 위치확인부(150), 맵핑부(160) 및 제어부(170)를 포함한다.Referring to FIG. 1 , a
도 1을 참조하면, 하우징부(110)는 내부공간을 형성함에 따라 라이다부(120), 영상촬영부(130), 정보보정부(140), 위치확인부(150), 맵핑부(160) 및 제어부(170)를 수용할 수 있다.Referring to FIG. 1 , as the
또한, 하우징부(110)의 일측부(도 2의 상부)는 투광성 재질로 형성됨에 따라 라이다부(120)에서 조사되는 레이저 파장의 광이 일측부를 통과하여 대상물에 도달하게 된다. 또한, 하우징부(110)의 일측부는 대상물로부터 반사되는 반사광을 통과시킬 수 있다.In addition, as the one side portion (the upper part of FIG. 2 ) of the
아울러, 하우징부(110)는 하부에 다수의 이동바퀴가 형성됨에 따라 이동하면서 회전 가능하다. 특히, 하우징부(110)는 제자리에서 회전할 수 없기 때문에 도 3에 도시된 바와 같이 이동방향으로 이동하면서 회전하게 된다. 여기서, 하우징부(110)는 일반적으로 로봇청소기에서 널리 사용되는 회전체일 수 있다.In addition, the
라이다부(120)는 하우징부(110)의 일측부와 인접한 하우징부(110)의 내부에 위치하여 회전 가능하고, 외부환경 중 하우징부(110)의 일측부를 통하여 보여지는 전방영역(S1, S2, S3)에 대한 슬램맵을 생성한다. 여기서, 전방영역은 도 3에 도시된 제1 전방영역(S1), 제2 전방영역(S2) 및 제3 전방영역(S3)을 포함한다. 구체적으로 제1 전방영역(S1), 제2 전방영역(S2) 및 제3 전방영역(S3)은 외부환경 중 라이다(120)가 센싱하는 전체영역인 전방영역(S1, S2, S3)에서 하우징부(110)가 120° 각도로 회전하였을 때마다 센싱되는 영역을 의미한다.The
즉, 라이다부(120)는 하우징부(110)의 내부에 위치함에 따라 구조적인 문제로 인하여 120°의 각도 내에서만 전방을 센싱하므로 360°의 모든 영역을 센싱하기 위해서 하우징부(110)가 120° 각도로 회전하는 것이다.That is, since the
또한, 슬램맵은 제1 전방영역(S1)에 대한 제1 슬램맵, 제2 전방영역(S2)에 대한 제2 슬램맵 및 제3 전방영역에 대한 제3 슬램맵을 포함한다.In addition, the slam map includes a first slam map for the first front region S1, a second slam map for the second front region S2, and a third slam map for the third front region.
라이다부(120)는 하우징부(110)의 일측부를 통하여 외부환경으로 레이저 파장의 광을 조사 및 외부환경으로부터 반사되는 반사광을 수신하여 하우징부(110)의 위치정보 및 맵핑정보를 생성한다. 이를 위한 라이다부(120)는 레이저 파장의 광을 조사하는 레이저 송출부 및 레이저 파장의 광이 대상물에 도달한 후 반사되는 반사광을 수신하는 레이저 수신부를 포함할 수 있다.The
또한, 라이다부(120)는 레이저 송출부 및 레이저 수신부가 장착되어 회전하는 회전판 및 회전판의 중심을 관통하고 하우징부(110)의 상면 및 하면에 고정되는 회전축을 더 포함할 수 있다.In addition, the
여기서, 위치정보는 하우징부(110)의 현재위치를 추정할 수 있는 위치에 관한 정보이고, 맵핑정보는 슬램맵을 구현하기 위한 정보일 수 있다.Here, the location information may be information on a location at which the current location of the
영상촬영부(130)는 하우징부(110)의 내측면과 인접한 하우징부(110)의 내부에 위치하여 전방영역(S1, S2, S3)과 대향하는 후방영역에 대한 영상을 촬영하며 영상에 대한 특징정보를 생성한다. 여기서, 특징정보는 제1 전방영역(S1)에 대한 제1 특징정보, 제2 전방영역(S2)에 대한 제2 특징정보 및 제3 전방영역(S3)에 대한 제3 특징정보를 포함하는 특징의 기하학적 위치에 대한 정보이다. 이와 관련하여 도 4의 (a)에는 제1 특징정보의 기하학적 위치정보, 도 4의 (b)에는 제2 특징정보의 기하학적 위치정보, 도 4의 (c)에는 제3 특징정보의 기하학적 위치정보가 도시되어 있다. The
도 4의 (a), (b), (c)에 도시된 제1 특징정보, 제2 특징정보 및 제3 특징정보의 기하학적 위치를 일치시키게 되면, 도 4의 (d)에 도시된 바와 같이 하나의 온전한 영역이 형성된다.When the geometric positions of the first characteristic information, the second characteristic information, and the third characteristic information shown in (a), (b) and (c) of FIG. 4 are matched, as shown in FIG. 4(d), One complete area is formed.
상기한 원리를 이용하여 생성된 특징정보는 정보보정부(140)로 전송되어 제1 슬림맵, 제2 슬림맵 및 제3 슬림맵 사이에 중첩 또는 이격된 부분을 보간하여 보정함으로써 청소맵을 완성시킨다. 이러한 과정에 따라 본 발명은 측정 오류 없이 하우징부의 최종위치 및 최종슬림맵인 청소맵을 생성할 수 있다.The feature information generated using the above principle is transmitted to the
상기한 특징정보는 아래와 같은 상황에 추출되어 적용될 수 있다.The above characteristic information may be extracted and applied to the following situations.
전체슬림맵에서 제1 슬램맵과 제2 슬램맵, 제2 슬램맵과 제3 슬램맵, 제1 슬램맵과 제3 슬램맵 사이에 이격되는 이격구간 또는 중첩되는 중첩구간이 형성될 경우, 영상촬영부(130)는 PCA(Principal Component Analysis)에 기반한 특징선택 및 특징추출 알고리즘으로 특징정보를 생성한다. 이와 같이 생성된 특징정보는 정보보정부(140)로 수신되어 제1 슬램맵, 제2 슬램맵 및 제3 슬램맵 사이에서 중첩되거나 이격된 부분을 보간하여 보정하여 청소맵을 완성될 수 있도록 도움을 준다. 이러한 영상촬영부(130)는 제1 카메라(131) 및 제2 카메라(132)를 포함한다.When a spaced apart or overlapping overlapping section is formed between the first slam map and the second slam map, the second slam map and the third slam map, and the first slam map and the third slam map in the entire slim map The photographing
도 2에 도시된 바와 같이 제1 카메라(131)는 하우징부(110)의 중심을 기준으로 라이더부(120)에서 120° 회전된 곳에 위치한다.As shown in FIG. 2 , the
도 2에 도시된 바와 같이 제2 카메라(132)는 하우징부(110)의 중심을 기준으로 제1 카메라(131)에서 120° 회전된 곳에 위치한다.As shown in FIG. 2 , the
즉, 제1 카메라(131), 제2 카메라(132) 및 라이다부(120)는 하우징부(110)의 중심을 기준으로 120°의 각도로 회전된 곳에 위치하고, 하우징부(110)의 중심으로부터 방사상으로 위치한다.That is, the
정보보정부(140)는 슬램맵 및 특징정보를 이용하여 하우징부(110)의 위치를 추정하고 슬램맵을 보정한다. 구체적으로 정보보정부(140)는 제1 내지 3 슬림맵을 합하는 연산을 통하여 전체슬림맵을 생성한다.The
구체적으로 도 4의 (a), (b), (c), (d)를 참조하면, 정보보정부(140)는 제1 내지 3 특징정보를 일치시켜 슬램맵을 보정한 청소맵을 생성하여 완성시킨다.Specifically, referring to (a), (b), (c), and (d) of FIG. 4 , the
추가적으로 정보보정부(140)는 영상에서 외부환경 중 고정되어 있는 대상물의 이미지를 기준으로 청소구역 마크를 생성하여 전체슬림맵으로부터 최종위치를 추정한다.Additionally, the
위치확인부(150)는 영상을 이용하여 현재위치를 추정하고 정보보정부에서 보정된 하우징부(110)의 최종위치에 대한 최종위치정보를 수신한다. 또한, 위치확인부(150)는 최종위치정보를 디스플레이부(미도시) 또는 사용자 단말기(미도시)로 전송할 수 있으며, 이에 따라 사용자는 디스플레이부 또는 사용자 단말기를 통하여 출력되는 최종위치정보를 확인할 수도 있다.The
또한, 위치확인부(150)는 최종위치정보를 라이다부(120)로 전송하여 반영시킴에 따라 측정 오류를 최소화시킨다.In addition, the
맵핑부(160)는 정보보정부(140)에서 청소맵을 수신한다. 또한, 맵핑부(160)는 청소맵을 디스플레이부 또는 또는 사용자 단말기(미도시)로 전송할 수 있으며, 이에 따라 사용자는 디스플레이부 또는 사용자 단말기를 통하여 출력되는 최종위치정보를 확인할 수도 있다.The
또한, 맵핑부(160)는 청소맵을 라이다부(120)로 전송하여 반영시 킴에 따라 측정 오류를 최소화시킨다.In addition, the
제어부(170)는 라이다부(120), 영상촬영부(130) 및 정보보정부(140)의 동작을 제어한다.The
구체적으로 하우징부(110)의 위치표시가 요구될 경우, 제어부(170)는 하우징부(110)가 120°씩 회전하도록 이동바퀴를 제어하고, 라이다부(120)가 하우징부(110)의 회전에 따라 제1 내지 3 슬램맵을 생성하도록 제어한다.Specifically, when the position display of the
2. 라이다부 및 영상촬영부를 이용한 로봇청소기의 슬램맵 생성방법2. How to create a slam map of a robot cleaner using a lidar unit and an image capturing unit
도 6은 본 발명의 일실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기의 슬램맵 생성방법을 나타낸 순서도이다. 도 7은 도 6의 각 단계별 세부단계를 나타낸 순서도이다.6 is a flowchart illustrating a method of generating a slam map of a robot cleaner using a lidar unit and an image capturing unit according to an embodiment of the present invention. 7 is a flowchart illustrating detailed steps of each step of FIG. 6 .
도 6을 참조하면, 본 발명의 일 실시예에 따른 라이다부 및 영상촬영부를 이용한 로봇청소기의 슬램맵 생성방법은 (a) 라이다부(120)를 이용하여 전방영역(S1, S2, S3)의 적어도 일부에 대한 슬램맵을 생성하는 단계(S100), (b) 위치표시가 요구될 경우, 하우징부(110)가 회전하면서 슬림맵을 생성하는 단계(S200) 및 (c) 영상촬영부(130)를 이용하여 슬램맵을 보정하여 완성하는 단계(S300)를 포함한다.Referring to FIG. 6 , in the method for generating a slam map of a robot cleaner using a lidar unit and an image capturing unit according to an embodiment of the present invention, (a) the front regions S1, S2, and S3 using the
도 7을 참조하면, 상기 (a) 단계는, (a1) 라이다부(120)가 제어부(170)에 의해 회전하는 단계(S110) 및 (a2) 라이다부(120)가 슬램맵을 생성하는 단계(S120)를 포함한다.Referring to FIG. 7 , in step (a), (a1) the
상기 (b) 단계는, (b1) 하우징부(110)가 제어부(170)에 의해 120° 회전하는 단계(S210), (b2) 로봇청소기(100)의 하우징부(110)가 회전하였는지 여부를 판단하는 단계(S220), (b3) 위치확인부(150)에서 현재위치를 추정하는 단계(S230), (b4) 현재위치가 정확한 것인지 여부를 판단하는 단계(S240) 및 (b5) 상기 (c) 단계를 수행하는 단계를 포함한다.The step (b) includes (b1) the step of rotating the
또한, 상기 (b) 단계는, 상기 (b2) 단계 이후, (b6) 하우징부(110)가 미회전 시 상기 (a1) 단계로 복귀하는 단계를 더 포함한다. 상기한 프로세스에 따라 라이다부(120)는 하우징부(110)가 360°를 회전할 때까지 전방영역(S1, S2, S3)을 센싱하게 된다.In addition, the step (b) further includes, after the step (b2), (b6) returning to the step (a1) when the
한편, 상기 (b) 단계는, 상기 (b4) 단계 이후, (b7) 현재위치가 부정확할 경우, 상기 (a1) 단계로 복귀하는 단계를 더 포함할 수 있다.Meanwhile, step (b) may further include, after step (b4), (b7) returning to step (a1) when the current location is incorrect.
상기 (c) 단계는, (c1) 하우징부(110)가 제어부(170)에 의해 이동하는 단계(S310), (c2) 영상촬영부(130)가 영상을 촬영 및 획득하는 단계(S320), (c3) 정보보정부(140)가 영상에서 외부환경 중 고정되어 있는 대상물의 이미지를 기준으로 청소구역 마크를 생성하여 슬램맵으로부터 하우징부(110)의 최종위치를 추정하는 단계(S330), (c4) 라이다부(120)가 슬램맵을 생성하는 단계(S340) 및 (c5) 정보보정부(140)가 슬램맵을 보정한 청소맵을 완성하는 단계(S350)를 포함한다.The step (c) is, (c1) the
상기한 바에 따른 본 발명은 로봇청소기의 내부에 위치하는 내장형 라이다부가 적용될 때에도 정확한 청소영역을 획득할 수 있다.According to the present invention as described above, it is possible to obtain an accurate cleaning area even when the built-in lidar unit located inside the robot cleaner is applied.
또한, 본 발명은 라이다부 및 영상촬영부에서 획득한 슬램맵 및 특징정보로부터 청소맵을 맴핑하기 위한 위상적인 오차를 줄여 실제와 근사한 근사치로 청소맵을 구현할 수 있다.In addition, the present invention can implement a cleaning map to an approximate approximation to the real by reducing the phase error for mapping the cleaning map from the slam map and feature information obtained from the lidar unit and the image capturing unit.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.
본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention.
100: 로봇청소기
110: 하우징부
120: 라이다부
130: 영상촬영부
131: 제1 카메라
132: 제2 카메라
140: 정보보정부
150: 위치확인부
160: 맵핑부
170: 제어부100: robot vacuum cleaner
110: housing unit
120: Riderbu
130: video recording unit
131: first camera
132: second camera
140: information correction department
150: positioning unit
160: mapping unit
170: control unit
Claims (13)
상기 하우징부의 일측부와 인접한 상기 하우징부의 내부에 위치하여 회전 가능하고 외부환경 중 상기 일측부를 통하여 보여지는 전방영역에 대한 슬램맵을 생성하는 라이다부;
상기 하우징부의 내측면과 인접한 상기 하우징부의 내부에 위치하여 상기 전방영역과 대향하는 후방영역에 대한 영상을 촬영하며 상기 영상에 대한 특징정보를 생성하는 영상촬영부;
상기 슬램맵 및 상기 특징정보를 이용하여 상기 하우징부의 위치를 추정하고 상기 슬램맵을 보정하는 정보보정부;
상기 영상을 이용하여 현재위치를 추정하고 상기 정보보정부에서 보정된 상기 하우징부의 최종위치에 대한 최종위치정보를 수신하는 위치확인부;
상기 정보보정부에서 상기 슬램맵을 보정한 청소맵을 수신하는 맵핑부; 및
상기 라이다부, 상기 영상촬영부 및 상기 정보보정부의 동작을 제어하는 제어부;를 포함하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
a housing part that forms an inner space, one side part is formed of a light-transmitting material, and a plurality of moving wheels are formed and are rotatable while moving;
a lidar unit located inside the housing unit adjacent to one side of the housing unit, rotatable and generating a slam map for a front area viewed through the side unit in an external environment;
an image capturing unit located inside the housing unit adjacent to the inner surface of the housing unit to capture an image of a rear area opposite to the front area and to generate characteristic information about the image;
an information correction unit for estimating a position of the housing unit using the slam map and the characteristic information and correcting the slam map;
a positioning unit estimating a current position using the image and receiving final position information on the final position of the housing unit corrected by the information correction unit;
a mapping unit for receiving a cleaning map obtained by correcting the slam map from the information correcting unit; and
A robot cleaner using a lidar unit and an image capturing unit, comprising: a control unit for controlling the operations of the lidar unit, the image capturing unit, and the information correcting unit.
상기 영상촬영부는,
상기 하우징부의 중심을 기준으로 상기 라이더부에서 120° 회전된 곳에 위치하는 제1 카메라; 및
상기 하우징부의 중심을 기준으로 상기 제1 카메라에서 120° 회전된 곳에 위치하는 제2 카메라;를 포함하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
According to claim 1,
The video recording unit,
a first camera positioned at a position rotated by 120° in the lidar part with respect to the center of the housing part; and
A robot cleaner using a lidar unit and an image capturing unit, comprising a; a second camera positioned at a position rotated by 120° from the first camera with respect to the center of the housing unit.
상기 전방영역은 제1 전방영역, 제2 전방영역 및 제3 전방영역을 포함하고,
상기 슬램맵은 상기 제1 전방영역에 대한 제1 슬램맵, 상기 제2 전방영역에 대한 제2 슬램맵 및 상기 제3 전방영역에 대한 제3 슬램맵을 포함하며,
상기 하우징부의 위치표시가 요구될 경우,
상기 제어부는 상기 하우징부가 120°씩 회전하도록 상기 이동바퀴를 제어하고, 상기 라이다부가 상기 하우징부의 회전에 따라 상기 제1 내지 3 슬램맵을 생성하도록 제어하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
According to claim 1,
The front area includes a first front area, a second front area and a third front area,
The slam map includes a first slam map for the first front area, a second slam map for the second front area, and a third slam map for the third front area,
When the position indication of the housing part is requested,
The control unit controls the moving wheel to rotate the housing unit by 120°, and controls the lidar unit to generate the first to third slam maps according to the rotation of the housing unit. Robot vacuum cleaner used.
상기 정보보정부는 상기 제1 내지 3 슬림맵을 합하는 연산을 통하여 상기 전체슬림맵을 생성하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
4. The method of claim 3,
The information correcting unit is a robot cleaner using a lidar unit and an image capturing unit, characterized in that generating the entire slim map through the operation of summing the first to third slim maps.
상기 전체슬림맵에서 상기 제1 슬램맵과 상기 제2 슬램맵, 상기 제2 슬램맵과 상기 제3 슬램맵, 상기 제1 슬램맵과 상기 제3 슬램맵 사이에 이격되는 이격구간 또는 중첩되는 중첩구간이 형성될 경우,
상기 영상촬영부는 PCA(Principal Component Analysis)에 기반한 특징선택 및 특징추출 알고리즘으로 상기 특징정보를 생성하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
5. The method of claim 4,
In the entire slim map, a spaced apart interval or overlapping overlapping between the first slam map and the second slam map, the second slam map and the third slam map, and the first slam map and the third slam map When a section is formed,
The image capturing unit is a robot cleaner using a lidar unit and an image capturing unit, characterized in that it generates the feature information using a feature selection and feature extraction algorithm based on PCA (Principal Component Analysis).
상기 특징정보는 상기 제1 전방영역에 대한 제1 특징정보, 상기 제2 전방영역에 대한 제2 특징정보 및 상기 제3 전방영역에 대한 제3 특징정보를 포함하는 특징의 기하학적 위치에 대한 정보이고,
상기 정보보정부는 제1 내지 3 특징정보를 일치시켜 상기 청소맵을 생성하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
6. The method of claim 5,
The characteristic information is information on a geometric position of a feature including first characteristic information for the first front region, second characteristic information for the second front region, and third characteristic information for the third front region, and ,
The information correction unit is a robot cleaner using a lidar unit and an image capturing unit, characterized in that by matching the first to third characteristic information to generate the cleaning map.
상기 정보보정부는 상기 영상에서 상기 외부환경 중 고정되어 있는 대상물의 이미지를 기준으로 청소구역 마크를 생성하여 상기 전체슬림맵으로부터 상기 최종위치를 추정하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
5. The method of claim 4,
The information correction unit generates a cleaning area mark based on an image of an object fixed in the external environment in the image and estimates the final position from the overall slim map. A robot cleaner using a lidar unit and an image capturing unit .
상기 라이다부는 상기 하우징부의 일측부를 통하여 외부환경으로 레이저 파장의 광을 조사 및 상기 외부환경으로부터 반사되는 반사광을 수신하여 상기 하우징부의 위치정보 및 맵핑정보를 생성하는 것을 특징으로 하는 라이다부 및 영상촬영부를 이용한 로봇청소기.
According to claim 1,
The lidar unit irradiates laser wavelength light to an external environment through one side of the housing unit and receives reflected light reflected from the external environment to generate location information and mapping information of the housing unit. Robot vacuum cleaner using wealth.
(a) 상기 라이다부를 이용하여 상기 전방영역의 적어도 일부에 대한 슬램맵을 생성하는 단계;
(b) 위치표시가 요구될 경우, 상기 하우징부가 회전하면서 상기 슬림맵을 생성하는 단계; 및
(c) 상기 영상촬영부를 이용하여 상기 슬램맵을 보정하여 완성하는 단계;를 포함하는 것을 특징으로 하는 로봇청소기의 슬램맵 생성방법.
In the method for generating a slam map of the robot cleaner according to claim 1,
(a) generating a slam map for at least a portion of the front area using the lidar unit;
(b) generating the slim map while the housing unit rotates when a position indication is requested; and
(c) correcting and completing the slam map using the image capturing unit;
상기 (a) 단계는,
(a1) 상기 라이다부가 상기 제어부에 의해 회전하는 단계; 및
(a2) 상기 라이다부가 상기 슬램맵을 생성하는 단계;를 포함하는 것을 특징으로 하는 로봇청소기의 슬램맵 생성방법.
10. The method of claim 9,
The step (a) is,
(a1) rotating the lidar unit by the control unit; and
(a2) generating the slam map by the lidar unit;
상기 (b) 단계는,
(b1) 상기 하우징부가 상기 제어부에 의해 120° 회전하는 단계;
(b2) 상기 로봇청소기의 하우징부가 회전하였는지 여부를 판단하는 단계;
(b3) 상기 위치확인부에서 상기 현재위치를 추정하는 단계;
(b4) 상기 현재위치가 정확한 것인지 여부를 판단하는 단계; 및
(b5) 상기 (c) 단계를 수행하는 단계;를 포함하는 것을 특징으로 하는 로봇청소기의 슬램맵 생성방법.
11. The method of claim 10,
Step (b) is,
(b1) rotating the housing by 120° by the control unit;
(b2) determining whether the housing part of the robot cleaner is rotated;
(b3) estimating the current location in the location check unit;
(b4) determining whether the current location is correct; and
(b5) performing the step (c);
상기 (b) 단계는,
상기 (b2) 단계 이후,
(b6) 상기 하우징부가 미회전 시 상기 (a1) 단계로 복귀하는 단계;를 더 포함하는 것을 특징으로 하는 로봇청소기의 슬램맵 생성방법.
12. The method of claim 11,
Step (b) is,
After step (b2),
(b6) returning to the step (a1) when the housing unit does not rotate.
상기 (c) 단계는,
(c1) 상기 하우징부가 상기 제어부에 의해 이동하는 단계;
(c2) 상기 영상촬영부가 상기 영상을 촬영 및 획득하는 단계;
(c3) 상기 정보보정부가 상기 영상에서 상기 외부환경 중 고정되어 있는 대상물의 이미지를 기준으로 청소구역 마크를 생성하여 상기 슬림맵으로부터 상기 최종위치를 추정하는 단계;
(c4) 상기 라이다부가 상기 슬램맵을 생성하는 단계; 및
(c5) 상기 정보보정부가 상기 슬램맵을 보정한 청소맵을 완성하는 단계;를 포함하는 것을 특징으로 하는 로봇청소기의 슬램맵 생성방법.10. The method of claim 9,
The step (c) is,
(c1) moving the housing unit by the control unit;
(c2) capturing and acquiring the image by the image capturing unit;
(c3) estimating the final position from the slim map by generating, by the information correction unit, a cleaning area mark based on an image of an object fixed in the external environment in the image;
(c4) generating the slam map by the lidar unit; and
(c5) completing, by the information correction unit, a cleaning map obtained by correcting the slam map;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190154718A KR102307877B1 (en) | 2019-11-27 | 2019-11-27 | A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190154718A KR102307877B1 (en) | 2019-11-27 | 2019-11-27 | A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210066091A true KR20210066091A (en) | 2021-06-07 |
KR102307877B1 KR102307877B1 (en) | 2021-10-06 |
Family
ID=76374161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190154718A KR102307877B1 (en) | 2019-11-27 | 2019-11-27 | A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102307877B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102372806B1 (en) * | 2021-08-18 | 2022-03-10 | 김정하 | Robot cleaner |
KR102559300B1 (en) * | 2022-12-28 | 2023-07-25 | 주식회사 클로봇 | An unmanned vehicle and method for controlling docking of the unmanned vehicle |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150065972A (en) * | 2013-11-28 | 2015-06-16 | 삼성전자주식회사 | Robot cleaner and method for controlling the same |
KR20180039439A (en) * | 2016-10-10 | 2018-04-18 | 엘지전자 주식회사 | Guidance robot for airport and method thereof |
KR20190131402A (en) * | 2018-05-16 | 2019-11-26 | 주식회사 유진로봇 | Moving Object and Hybrid Sensor with Camera and Lidar |
-
2019
- 2019-11-27 KR KR1020190154718A patent/KR102307877B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150065972A (en) * | 2013-11-28 | 2015-06-16 | 삼성전자주식회사 | Robot cleaner and method for controlling the same |
KR20180039439A (en) * | 2016-10-10 | 2018-04-18 | 엘지전자 주식회사 | Guidance robot for airport and method thereof |
KR20190131402A (en) * | 2018-05-16 | 2019-11-26 | 주식회사 유진로봇 | Moving Object and Hybrid Sensor with Camera and Lidar |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102372806B1 (en) * | 2021-08-18 | 2022-03-10 | 김정하 | Robot cleaner |
KR102559300B1 (en) * | 2022-12-28 | 2023-07-25 | 주식회사 클로봇 | An unmanned vehicle and method for controlling docking of the unmanned vehicle |
Also Published As
Publication number | Publication date |
---|---|
KR102307877B1 (en) | 2021-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110573833B (en) | Imaging device and monitoring device | |
Teichman et al. | Unsupervised Intrinsic Calibration of Depth Sensors via SLAM. | |
JP4984650B2 (en) | Mobile device and self-position estimation method of mobile device | |
KR102307877B1 (en) | A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof | |
US11022692B2 (en) | Triangulation scanner having flat geometry and projecting uncoded spots | |
US7507948B2 (en) | Method of detecting object using structured light and robot using the same | |
JP6061616B2 (en) | Measuring apparatus, control method therefor, and program | |
Chen et al. | Active sensor planning for multiview vision tasks | |
CN111337018B (en) | Positioning method and device, intelligent robot and computer readable storage medium | |
JP6080969B2 (en) | Method and apparatus for determining the posture of an object | |
US20180343381A1 (en) | Distance image acquisition apparatus and application thereof | |
US20180210070A1 (en) | Active Brightness-Based Strategy for Invalidating Pixels in Time-of-Flight Depth-Sensing | |
WO2010000818A2 (en) | Calibration | |
US11640673B2 (en) | Method and system for measuring an object by means of stereoscopy | |
JP4660387B2 (en) | Apparatus and method for correcting position information of moving body, computer-readable recording medium storing computer program for controlling the apparatus | |
TWI387775B (en) | Positioning system and method thereof | |
KR20220060500A (en) | Failure detection method, apparatus, electronic device, storage medium and computer program | |
Hillemann et al. | UCalMiCeL–Unified intrinsic and extrinsic calibration of a multi-camera-system and a laserscanner | |
JP2009222568A (en) | Method, device, and computer program of generating three-dimensional shape data | |
KR20100081881A (en) | Data matching device and method, and robot using these | |
JPWO2005100910A1 (en) | Three-dimensional shape measuring method and apparatus | |
US20230386085A1 (en) | Calibrating system for colorizing point-clouds | |
Zeisl et al. | Structure-based auto-calibration of RGB-D sensors | |
KR101222009B1 (en) | System and method for lens distortion compensation of camera based on projector and epipolar geometry | |
JP6908206B1 (en) | Shape measuring device, shape measuring system, shape measuring method and shape measuring program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |