KR102295824B1 - 잔디깎기 로봇의 지도 생성방법 - Google Patents

잔디깎기 로봇의 지도 생성방법 Download PDF

Info

Publication number
KR102295824B1
KR102295824B1 KR1020190161500A KR20190161500A KR102295824B1 KR 102295824 B1 KR102295824 B1 KR 102295824B1 KR 1020190161500 A KR1020190161500 A KR 1020190161500A KR 20190161500 A KR20190161500 A KR 20190161500A KR 102295824 B1 KR102295824 B1 KR 102295824B1
Authority
KR
South Korea
Prior art keywords
map
lawn mower
driving
mower robot
area
Prior art date
Application number
KR1020190161500A
Other languages
English (en)
Other versions
KR20210071383A (ko
Inventor
이재광
주정우
노동기
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020190161500A priority Critical patent/KR102295824B1/ko
Priority to US16/896,610 priority patent/US11672199B2/en
Priority to PCT/KR2020/010334 priority patent/WO2021112369A1/en
Priority to EP20895216.8A priority patent/EP4070168A4/en
Publication of KR20210071383A publication Critical patent/KR20210071383A/ko
Application granted granted Critical
Publication of KR102295824B1 publication Critical patent/KR102295824B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D34/00Mowers; Mowing apparatus of harvesters
    • A01D34/006Control or measuring arrangements
    • A01D34/008Control or measuring arrangements for automated or remotely controlled operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0044Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2201/00Application
    • G05D2201/02Control of position of land vehicles
    • G05D2201/0208Lawn mower

Abstract

본 실시예에 따른 잔디깎기 로봇의 지도 생성방법은 작업대상영역이 촬영된 항공 영상을 이용하여 잔디깎기 로봇이 주행할 수 있는 3차원 영역의 제1 주행영상을 생성하는 제1 영상맵핑단계, 상기 제1 주행영상에서 잔디깎기가 수행될 모잉영역과 상기 모잉영역과 구분되는 장애물 영역으로 구획되고 상기 제1 주행영상이 2차원 영역의 제1 주행지도로 변환되어 표시되는 제1 지도표시단계, 상기 모잉영역 및 상기 장애물 영역이 구분되면 상기 제1 주행지도에 상기 잔디깎기 로봇의 위치를 인식하기 위한 앵커의 개수 및 설치위치를 추천하는 제1 앵커표시단계, 상기 앵커가 상기 설치위치에 설치되었는지 여부를 판단하는 앵커위치판단단계 및 상기 제1 주행지도에서 잔디깎기 로봇의 주행경로를 생성하는 경로생성단계를 포함할 수 있다.
본 실시예에 따르면, 잔디깎기 로봇의 작업효율을 향상시킬 수 있는 지도 생성방법을 제공할 수 있다.

Description

잔디깎기 로봇의 지도 생성방법{Mapping method of Lawn Mower Robot.}
본 발명은 잔디깎기 로봇의 지도 생성방법에 관한 것이다.
로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다. 이러한 로봇 중에서 자력으로 주행이 가능한 것을 이동 로봇이라고 한다. 가정의 야외 환경에서 사용되는 이동 로봇의 대표적인 예는 잔디 깎기 로봇이다.
잔디 깎기 장치(lawn mower)는 가정의 마당이나 운동장 등에 심어진 잔디를 다듬기 위한 장치이다. 이러한 잔디깎기 장치는 가정에서 사용된 가정용과, 넓은 운동장이나 넓은 농장에서 사용되는 트랙터용 등으로 구분되기도 한다.
현대의 바쁜 일상 속에서 잔디 깎기 장치를 사용자가 직접 작동하여 마당의 잔디를 깎기 어려우므로, 잔디를 깎을 외부의 사람을 고용하는 것이 대부분이고, 이에 따른 고용 비용이 발생된다.
따라서, 이러한 추가적인 비용의 발생을 방지하고 사용자의 수고로움을 덜기 위한 자동로봇타입의 잔디 깎기 장치가 개발되고 있다. 이러한 자동로봇타입의 잔디 깎기 장치가 원하는 영역 내에 존재하도록 제어하기 위한 다양한 연구가 수행되고 있다.
자동으로 정원 등의 잔디깎기를 위해서는 잔디깎기가 수행될 영역에 대한 정보가 정확하게 입력되는 것이 중요하다. 잔디깎기가 수행될 작업대상영역에 대한 정보를 받는 방법은 여러가지가 존재할 수 있다.
예를 들어 특허문헌 1(한국공개특허공보 제10-2017-0048815호(2017.05.10))에서는 청소로봇에서 작성한 실내지도와 비행체를 통해 작성된 실내 환경지도를 비교하여 청소로봇의 실내환경지도를 업데이트 하는 방법에 관한 내용을 개시하고 있고, 특허문헌 2(특허문헌 2 : 미국공개특허공보 제US2017/0344024호(2017.11.30))에서는 IMU센서 등을 활용하여 맵을 생성하는 방법에 관한 내용을 개시하고 있다.
특허문헌 1의 경우에는 청소로봇에 관한 것으로서 비행체가 실내를 촬영하므로 잔디깎기 로봇의 주행지도를 설정하는 것과 거리가 멀고, 특허문헌 2의 경우에는 IMU 센서를 활용하는 내용만 개시되어 있어 맵이 평면으로 형성되기 어렵고 평면으로 되더라도 정확도가 떨어지는 문제가 있다.
특허문헌 1 : 한국공개특허공보 제10-2017-0048815호(2017.05.10) 특허문헌 2 : 미국공개특허공보 제US2017/0344024호(2017.11.30)
본 실시예들에 따르면, 잔디깎기 로봇의 경계를 설정할 때 와이어 등을 설치할 필요가 없는 잔디깎기 로봇의 지도생성방법을 제공하고자 한다.
또한, 실시간 업데이트 또는 현재 상태가 잘 반영되어 있는 주행지도를 제공할 수 있는 잔디깎기 로봇의 지도생성방법을 제공하고자 한다.
또한, 장애물 영역을 확실히 구분하여 자동으로 잔디깎기가 수행될 수 있는 잔디깎기 로봇의 지도생성방법을 제공하고자 한다.
또한, 사용자가 주행지도를 수정할 수 있는 잔디깎기 로봇의 지도 생성방법을 제공하고자 한다.
또한, 잔디깎기 로봇의 최적화된 주행이 가능하도록 잔디깎기 로봇의 위치를 파악할 수 있는 잔디깎기 로봇의 지도 생성방법을 제공하고자 한다.
상술한 과제를 해결하기 위한 일례로 드론 등 항공 촬영 영상 분석 기반 1차 주행 지도 생성(경계, 장애물 포함) 및 UI로 사용자가 수정/ 추가 가능하며, 주행 지도를 실제 로봇에서 바로 사용할 수 있는 방법을 제공한다.
또한, 항공 촬영 기기, UI 프로그램, UWB등 위치 인식 가능한 앵커 등을 활용한 잔디로봇의 지도생성방법을 제공한다
또한, 로봇에 장착되어 있는 센서(GPS, 자이로, 가속도, 지자기, Vision 등)를 이용하여 Map의 3D 정보를 Update 할 수 있는 잔디깎기 로봇의 지도 생성방법을 제공한다.
더욱 구체적으로 설명하면, 작업대상영역이 촬영된 항공 영상을 이용하여 잔디깎기 로봇이 주행할 수 있는 3차원 영역의 제1 주행영상을 생성하는 제1 영상맵핑단계, 상기 제1 주행영상에서 잔디깎기가 수행될 모잉영역과 상기 모잉영역과 구분되는 장애물 영역으로 구획되고 상기 제1 주행영상이 2차원 영역의 제1 주행지도로 변환되어 표시되는 제1 지도표시단계, 상기 모잉영역 및 상기 장애물 영역이 구분되면 상기 제1 주행지도에 상기 잔디깎기 로봇의 위치를 인식하기 위한 앵커의 개수 및 설치위치를 추천하는 제1 앵커표시단계, 상기 앵커가 상기 설치위치에 설치되었는지 여부를 판단하는 앵커위치판단단계 및 상기 제1 주행지도에서 잔디깎기 로봇의 주행경로를 생성하는 경로생성단계를 포함하고, 상기 제1 영상맵핑단계는, 상기 작업대상영역이 촬영된 복수 개의 항공 영상을 수집하는 수집단계, 상기 복수 개의 항공 영상을 기초로 특징점을 추출하고 상기 특징점들을 매칭하는 매칭단계 및 보간법을 이용하여 그리드 맵을 생성하는 복원단계를 포함하고 상기 장애물 영역은 잔디가 존재하여도 기 결정된 경사보다 경사가 크게 형성되는 영역을 포함하도록 구분되고, 상기 제1 주행지도는 사용자가 상기 모잉영역과 상기 장애물 영역의 위치 및 크기 중 적어도 하나를 수정할 수 있도록 표시되고, 제1 주행지도는 상기 기 촬영된 항공영상 중 상기 작업대상영역의 상측에서 바라본 영상에 겹쳐져서 표시되고, 상기 제1 앵커표시단계는 상기 모잉영역과 상기 장애물 영역에 기초하여 잔디깎기 로봇의 위치를 인식할 수 있는 상기 앵커의 개수 및 설치위치를 표시하고 상기 앵커위치판단단계는, 상기 앵커의 설치 후에 촬영된 항공 영상을 이용하여 3차원 영역의 제2 주행영상을 생성하는 제2 영상맵핑단계, 상기 제2 주행영상에서 잔디가 존재하는 모잉영역과 상기 모잉영역과 구분되는 장애물 영역으로 구획되고 상기 제2 주행영상이 2차원 영역의 제2 주행지도로 변환되어 표시되는 제2 지도표시단계 및 상기 제1 주행지도와 상기 제2 주행지도가 겹쳐져서 표시되는 제2 앵커위치표시단계를 포함하고, 상기 제2 주행지도에 설치된 상기 앵커의 좌표설정값을 기초로 잔디깎기 로봇이 이용할 수 있는 좌표로 변환되는 제1 좌표변환단계를 포함하고, 상기 경로가 생성된 후 잔디깎기 로봇이 주행하며 잔디깎기 로봇의 롤(Roll), 피치(Pitch) 및 요(Yaw) 정보를 기초로 상기 제1 주행지도를 수정하는 지도업데이트단계를 포함하는 잔디깎기 로봇의 지도 생성 방법을 제공한다.
또한, 작업대상영역이 촬영된 항공 영상을 이용하여 잔디깎기 로봇이 주행할 수 있는 3차원 영역의 제1 주행영상을 맵핑하는 제1 영상맵핑단계, 상기 제1 주행영상에서 잔디깎기가 수행될 모잉영역과 상기 모잉영역과 구분되는 장애물 영역으로 구획되고 상기 주행영상이 2차원 영역의 제1 주행지도로 변환되어 표시되는 제1 지도표시단계, 상기 작업대상영역 내에 설치되는 GPS 센서를 포함하도록 촬영된 항공영상을 이용하여 상기 제1 주행지도에 좌표값이 입력되는 제2 좌표변환단계 및 상기 주행지도에서 잔디깎기 로봇의 주행경로를 생성하는 경로생성단계를 포함하고, 상기 영상맵핑단계는, 상기 작업대상영역이 촬영된 복수 개의 항공 영상을 수집하는 수집단계, 상기 복수 개의 항공 영상을 기초로 특징점을 추출하고 매칭하여 상기 제1 주행영상을 생성하는 매칭단계 및 보간법을 이용하여 그리드 맵을 생성하는 복원단계를 포함하고, 상기 장애물 영역은 잔디가 존재하여도 기 결정된 경사보다 경사가 크게 형성되는 영역을 포함하도록 구분되고 상기 제1 주행지도는 사용자가 상기 모잉영역과 상기 장애물 영역의 위치 및 크기 중 적어도 하나를 수정할 수 있도록 표시되고, GPS 센서는 적어도 3개 이상 사용되고, 상기 경로가 생성된 후 잔디깎기 로봇이 주행하며 잔디깎기 로봇의 롤(Roll), 피치(Pitch) 및 요(Yaw) 정보를 기초로 상기 제1 주행지도를 수정하는 지도업데이트단계를 포함하는 잔디깎기 로봇의 지도 생성 방법을 제공한다.
또한, 작업대상영역이 촬영된 항공 영상을 이용하여 잔디깎기 로봇이 주행할 수 있는 3차원 영역의 제1 주행영상을 맵핑하는 제1 영상맵핑단계, 상기 제1 주행영상에서 잔디깎기가 수행될 모잉영역과 상기 모잉영역과 구분되는 장애물 영역으로 구획되고 상기 주행영상이 2차원 영역의 제1 주행지도로 변환되어 표시되는 제1 지도표시단계, 상기 작업대상영역 내에서 GPS 센서를 포함하는 잔디깎기 로봇을 주행시키는 임의주행단계, 상기 임의주행단계에서 수집된 잔디깎기 로봇의 위치 정보와 상기 임의주행단계가 수행되는 도중 촬영된 항공 영상을 이용하여 상기 제1 주행지도를 잔디깎기 로봇이 이용할 수 있는 좌표로 계산하는 제3 좌표변환단계 및 상기 제1 주행지도에서 잔디깎기 로봇의 주행경로를 생성하는 경로생성단계를 포함하는 잔디깎기 로봇의 지도 생성 방법을 제공한다.
본 실시예들에 따른 잔디깎기 로봇의 지도생성방법은 잔디깎기를 수행하기 위해 와이어 등을 설치할 필요가 없다.
또한, 실시간 업데이트 또는 현재 상태가 잘 반영되어 있는 잔디깎기 로봇의 작업능력을 향상시킬 수 있다.
또한, 사용자가 쉽게 작업대상영역 및 모잉영역을 판단할 수 있다.
또한, 사용자가 주행지도를 수정할 수 있도록 제공되어 편의성이 증대된다.
또한, 잔디깎기 로봇의 최적화된 주행이 가능하도록 잔디깎기 로봇의 위치를 파악할 수 있다.
또한, 경사면 기반 주행 경로를 생성하여 효율적인 작업이 가능한 잔디깎기 로봇의 지도 생성방법을 제공할 수 있다.
또한, 경계 및 장애물을 쉽게 주행지도에 등록할 수 있으며 다양한 형태의 작업대상영역을 정밀하게 맵핑할 수 있는 잔디깎기 로봇의 지도생성방법을 제공할 수 있다.
도 1은 본 실시예에 따른 잔디깎기 로봇의 사시도
도 2는 본 실시예에 따른 잔디깎기 로봇의 단면도
도 3은 본 실시예에 따른 잔디깎기 로봇의 지도생성방법을 나타낸 도면
도 4 내지 도 7은 잔디깎기 로봇의 지도생성방법의 예시를 나타낸 도면
도 8은 다른 실시예에 따른 잔디깎기 로봇의 지도생성방법을 나타낸 도면
도 9는 다른 실시예에 따른 잔디깎기 로봇의 지도생성방법의 예시를 나타낸 도면
도 10은 또 다른 실시예에 따른 잔디깎기 로봇의 지도생성방법을 나타낸 도면
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
도 1은 본 실시예에 따른 잔디깎기 로봇의 사시도이고, 도 2는 본 실시예에 따른 잔디깎기 로봇의 단면도이다.
이하에서는 도 1 및 도 2를 참조하여 잔디깎기 로봇의 구조에 대해 설명한다. 본 실시예에 따른 잔디깎기 로봇의 구조는 발명의 명확한 이해와 설명의 편의를 위해 설명이 생략된 부분이 있을 수 있다. 즉, 도 1 및 도 2는 본 실시예에 대한 설명에 불과하므로 본 명세서에서 설명되지 않은 구성을 배제하는 것은 아니고, 통상의 기술자에게 용이한 수준에서 본 명세서에서 설명된 구성외의 구성요소를 포함할 수 있다.
잔디깎기 로봇은 크게 아우터 커버(10)와 이너바디(20)를 포함할 수 있다.
아우터 커버(10)는 이너바디(20)의 외측을 감싸도록 이루어지며 로봇의 외관을 형성한다. 아우터 커버(10)는 내부에 고속으로 회전하는 블레이드(31)가 장착되므로, 블레이드(31)의 회전에 의한 충격으로부터 보호하기 위해 외부에서 사람의 손이나 발이 내부로 들어가지 않도록 하는 구조물이다. 아우터 커버(10)의 하단부는 안전 규격에 따라 기설정된 높이로 이격되게 배치되어야 한다.
왜냐하면, 아우터 커버(10)의 하단부가 지면으로부터 너무 높게 배치되면 외부에서 사람의 손이나 발이 내부로 들어가 치명적인 상해를 입을 수 있고, 지면으로부터 너부 낮게 배치되면 잔디를 깎을 때 부하가 증가하게 되는 문제점이 있기 때문이다.
아우터 커버(10)는 디스플레이 모듈(미도시)및 입력부(미도시)를 포함할 수 있다. 디스플레이 모듈 및 입력부는 아우터 커버(10)의 외측에 구비될 수 있다. 다만 이에 제한되는 것은 아니고 도 1에 도시된 것처럼 개폐부(11)에 의해 가려질 수 있다.
예를 들어, 개폐부(11)는 아우터 커버(10)에 힌지결합될 수 있다. 따라서 개폐부(11)가 평소에는 디스플레이 모듈 및 입력부를 가리고 있다가 사용시에서 개폐부(11)를 열어 디스플레이 모듈과 입력부를 사용하고 다시 닫을 수 있다.
이로써, 잔디깎기 로봇(1)이 이동할 때 장애물이나 외부 충격에 의해 디스플레이 모듈이나 입력부를 예상치 못하게 눌러 오작동 되는 것을 방지할 수 있다.
아우터 커버(10)는 전방에 장애물과 부딪힐 수 있는 범퍼부(10a)와, 양측면 후방에 구동부(50)을 장착할 수 있도록 일정한 곡면을 형성하는 휀더부(10b)를 포함한다. 범퍼부(10a)는 아우터 커버(10)의 전단부 및 전방 측면부를 둘러싸며 두께가 다른 곳에 비해 더 두껍다. 휀더부(10b)는 구동부(50)의 외측면을 감싸도록 이루어지며 차폭이 다른 곳에 비해 가장 넓은 곳이다.
범퍼부(10a)는 전방면 및 좌우 측면이 서로 연결되어 형성될 수 있다. 범퍼부(10a)의 전방면 및 측면은 라운드지게 연결된다.
아우터 커버(10)의 전방에 센서부(12)가 구비될 수 있다. 센서부(12)는 전방의 장애물을 감지하도록 이루어져, 구동부(50)의 주행속도를 감속시킬 수 있다.
아우터 커버(10)의 상부에 손잡이부(10c)가 구비될 수 있다. 손잡이부(10c)는 양측이 각각 아우터 커버(10)의 측면 전방 상부에서 후방으로 상향 경사지게 형성되고, 후단부가 아우터 커버(10)의 후방 상부로 돌출되며 폐곡면을 이루는 구조로 구성될 수 있다.
예를 들면 손잡이부(10c)는 도면에 도시된 바와 같이 "U"자 형상으로 형성될 수 있다. 이러한 구조의 손잡이부(10c)는 운반 시 사용자의 안전을 위해 손잡이부(10c)를 들었을 때 이너바디(20)의 저면에 위치하는 블레이드(31)가 사용자의 바깥쪽을 향하도록 한다.
다만 이에 제한되는 것은 아니고 손잡이부(10c)의 형태는 다양하게 형성될 수 있다.
아우터 커버(10)는 전후면과 좌우 측면이 이너바디(20)와 전후 좌우로 이격되게 배치되고, 장애물과의 충돌 시 사방으로 이동 가능하도록 이너바디(20)의 상부에 장착되어 장애물로부터의 충격을 흡수할 수 있다.
이너바디(20)는 내부 공간을 형성한다. 잔디깎기 로봇(1)은 주행면에 대해 이너바디(20)를 이동시키는 구동부(50)을 포함한다. 구동부(50)는 전륜부(52)와 후륜부(51)를 포함할 수 있다.
이너바디(20)은 전륜부(52)및 후륜부(51)에 의해 지지된다.
전륜부(52) 및 후륜부(51)는 각각 한 쌍으로 구비될 수 있다. 다만, 이에 제한되는 것은 아니고 잔디깎기 로봇의 크기가 커짐에 따라 하중을 지지하기 위해 3개 또는 그 이상의 휠이 잔디깎기 로봇(1)을 지지할 수 있다.
다만 설명의 편의를 위해 휠이 한쌍으로 구비되는 것을 전제로 설명한다.
후륜부(51)의 양측에 구비되는 휠들 각각은 나머지에 대해 독립적으로 회전할 수 있도록 구비된다. 구체적으로 설명하면 이너바디(20)가 지면에 대해 회전운동 및 전진운동이 가능하도록 각각 독립적으로 회전하도록 구비된다.
예를 들어 후륜부(51)에 구비되어 있는 휠들이 같은 회전속도로 회전하면 잔디깎기 로봇(1)은 직진운동을 할 수 있고, 다른 속도로 회전하는 경우 잔디깎기 로봇은 회전될 수 있다.
후륜부(51)는 전륜부(52)보다 크게 형성될 수 있다. 후륜부(51)에 의해 동력을 전달하게 되므로 전륜부(52)보다 크기가 크게 형성되는 것이 바람직하다. 다만 이에 제한되는 것은 아니고, 전륜부(52)에도 별개의 동력이 부여되어 4륜 구동의 형태로 작동될 수도 있다.
잔디깎기 로봇(1)은 소정의 작업을 수행하는 작업부(30)를 포함한다. 작업부(30)는 블레이드(31), 회전판(32), 모터(34), 동력전달부(35) 및 보호커버(33)를 포함할 수 있다.
블레이드(31)는 잔디 컷팅 품질을 향상시키는데 매우 중요하다. 본 발명에 따른 블레이드(31)는 길이가 길고 폭이 좁으며 두께가 일정한 직사각형의 플레이트 형상으로 형성될 수 있다. 본 발명에 따른 블레이드(31)는 길이방향을 따라 폭이 일정하도록 이루어진다. 블레이드(31)의 폭이 일정하여, 길이방향을 따라 블레이드(31)의 강도가 균일하게 이루어짐으로써 내구성이 향상될 수 있다.
블레이드(31)에 의해 사용자의 손을 다치지 않도록 하기 위해 보호 커버(33)가 형성될 수 있다.
보호커버(33)는 회전판(32)의 원주면의 상측에서 반경방향으로 연장되어 블레이드(31)의 상측까지 연장되어 형성될 수 있다.
회전판(32)은 블레이드(31)를 회전시키기 위해 복수의 블레이드(31)가 장착되는 구성요소이다. 회전판(32)은 이너바디(20)의 저면에 회전가능하게 장착된다. 회전판(32)을 회전시키기 위한 구동모터가 이너바디(20)의 내부에 구비되고, 모터(34)는 회전축(301)을 매개로 회전판(32)의 중심부와 연결되어, 회전판(32)을 회전시킬수 있다.
이너바디(20)의 중앙부에 블레이드(31) 모터(34)를 지지하고 동력전달부(35)가 수용되는 수용부(23)가 형성될 수 있다.
회전판(32)은 이너바디(20)의 진행방향으로 수평면에 대하여 하향 경사지게 배치되는 것이 바람직하다. 회전판(32)에 장착되는 블레이드(31)도 회전판(32)과 평행하게 배치되어 수평면에 대하여 하향 경사지게 된다.
잔디깎기 로봇은 통신모듈(미도시)을 포함할 수 있다. 통신모듈은 후술하는 항공 영상 촬영유닛(미도시) 및 서버(미도시)와 통신할 수 있다. 이에 대한 구체적인 내용은 후술한다.
도 3은 본 일 실시예에 따른 잔디깎기 로봇의 지도 생성방법을 나타낸 도면이다. 이하에서는 도 3, 도 4 내지 도 7을 참조하여 설명한다.
본 명세서에서 작업대상영역이라는 표현은 반드시 잔디깎기 로봇이 잔디깎기를 수행하는 영역만을 지칭하는 것은 아니다. 작업대상영역이란 후술하는 바와 같이, 잔디깎기가 수행될 모잉영역과 잔디깎기가 수행될 수 없는 장애물 영역을 포함하는 영역을 지칭하는 것이다.
예를 들어 설명하면, 가로 및 세로가 4m 인 영역이 있고, 그 내부에 1m2의 넓이를 가지며 잔디깎기가 불가능한 영역이 2개 존재할 때 작업대상 영역은 16m2의 넓이에 해당하는 영역으로 표현될 수 있고, 모잉영역은 14m2에 해당하는 영역으로 표현될 수 있고, 장애물 영역은 2m2에 해당하는 영역으로 표현될 수 있다.
또한, 후술하는 지도생성방법이 수행되기 위해서 잔디깎기 로봇, 항공 영상 촬영유닛이 필요할 수 있다.
또한, 경우에 따라 잔디를 식별하기 위한 데이터베이스가 필요하며, 데이터 베이스가 업데이트되기 위해서 서버의 형태로 구비될 수 있다.
다만, 반드시 데이터 베이스 또는 서버가 잔디깎기 로봇과 별개로 형성되어야 하는 것은 아니고 잔디깎기 로봇과 일체로 형성될 수도 있다.
또한, 항공 영상 촬영 유닛이 촬영한 항공 영상을 통해 3차원 영역의 주행영상으로 복원하고 사용자에게 주행지도를 제공하기 위해 제어부(미도시)가 필요할 수 있다.
제어부는 잔디깎기 로봇에 설치될 수 있다. 따라서, 통신모듈에 의해 수신한 항공 영상들을 통해 3차원 영역의 주행영역으로 변환할 수 있고 이를 상측에서 바라본 항공영상에 오버레이되어 사용자에게 제공될 수 있다.
제어부는 반드시 잔디깎기 로봇에 설치되어야하는 것은 아니며, 잔디깎기 로봇과 별개로 구비될 수 있다. 예를 들면, 제어부는 작업대상영역 이외의 장소에 설치되는 서버 등에 포함되어 하나의 제어장치로 구비될 수 있다.
본 실시예에 따른 잔디깎기 로봇의 지도 생성방법은 제1 영상맵핑단계(S1), 제1 지도표시단계(S2), 제1 앵커표시단계(S3), 앵커위치판단단계(S4) 및 경로생성단계(S6)를 포함할 수 있다.
제1 영상맵핑단계(S1)는 작업대상영역이 촬영된 항공 영상을 이용하여 잔디깎기 로봇이 주행할 수 있는 3차원 영역의 제1 주행영상을 생성하는 단계이다.
작업대상영역이 촬영된 항공 영상은 항공영상촬영유닛에 의해 촬영될 수 있다. 항공 영상 촬영 유닛은 드론, 무인 헬기 또는 무인 비행기(unmanned aerial vehicle) 등 다양한 비행체가 사용될 수 있다.
물론 상술한 예에 제한되는 것은 아니며, 라이다 등 다른 센서 등이 이용되어 항공 영상이 촬영될 수 있다.
항공 영상 촬영 유닛이 비행하며 다양한 각도에서 작업대상영역이 촬영되면 이를 통해 제1 주행영상을 생성할 수 있다. 항공 영상 촬영 유닛을 활용하지 않고 어플리케이션이나 웹에서 제공되는 지도를 사용하는 경우, 업데이트 주기에 따라 현재 상태를 반영하기 힘들어 실질적인 잔디깎기 계획을 수립할 때 불편함이 있을 수 있다.
구체적으로 설명하면, 제1 영상맵핑단계(S1)는 수집단계, 매칭단계, 복원단계를 포함할 수 있다.
수집단계는 상술한 바와 같이 항공 영상 촬영유닛이 촬영한 복수 개의 항공 영상들이 수집되는 단계일 수 있다. 항공 영상은 제어부에 수집될 수 있다. 상술한 바와 같이 제어부는 잔디깎기 로봇 내에 또는 잔디깎기 로봇과 별개로 구비될 수 있다.
복원단계는 수집된 복수 개의 항공 영상을 기초로 특징점을 추출하고 매칭하여 3차원 영역의 제1 주행영상을 생성하는 단계일 수 있다. 항공 영상은 항공 영상 촬영 유닛이 비행하면서 촬영된 영상이므로 제각각 다른 각도에서 작업대상영역을 바라보도록 촬영될 수 있다.
이때 촬영된 복수 개의 항공 영상을 기초로 작업대상영역의 특징점을 추출하여 항공 영상 간의 특징점들을 매칭시킴으로써 3D 지형으로 복원할 수 있다.
복원단계는 특징점들을 매칭시킬 때 보간법을 이용하여 그리드 맵을 생성하는 일 수 있다. 특징점들을 추출하여 매칭시키는 경우 작업대상영역이 명확하게 표현되지 않을 수 있다. 따라서 복원단계를 통해 제1 주행영상이 더욱 작업대상영역과 유사해져 정밀도가 높아질 수 있다.
제1 지도표시단계(S2)는 제1 주행영상에서 잔디깎기가 수행될 모잉영역(도 5의 M)과 모잉영역과 구분되는 장애물 영역(도 5의 O)으로 구획되고 제1 주행영상이 2차원 영역의 제1 주행지도로 변환되어 표시되는 단계일 수 있다.
구체적으로 설명하면, 제1 주행영상은 3차원 영역의 영상이다. 따라서, 사용자가 쉽게 작업대상영역을 파악하기 어려울 수 있다. 따라서 제1 주행영상이 2차원 영역의 제1 주행지도로 변환되어 표시되는 제1 지도표시단계(S2)가 수행될 수 있다.
제1 주행지도로 표시될 때 제1 주행지도에는 모잉영역과 장애물 영역이 표시될 수 있다. 이로써, 사용자가 쉽게 잔디깎기가 수행될 모잉영역과 그렇지 않은 장애물 영역을 구분하여 파악할 수 있다.
작업대상영역 중 모잉영역은 상술한 데이터 베이스에 저장된 잔디정보에 기초하여 구분될 수 있다. 상술한 바와 같이 데이터 베이스는 단순히 잔디에 관한 정보를 저장하는 부분일 수도 있고, 서버의 형태로 구비되어 잔디에 대한 내용이 업데이트되는 부분일 수 있다.
잔디정보는 잔디의 계절에 따른 모양(색을 포함) 및 형태, 잔디의 종류에 따른 모양 및 형태, 잔디가 자라있는 장소에 따른 모양 및 형태를 포함할 수 있다. 잔디정보가 데이터 베이스 또는 서버에 저장될 수 있다.
또한, 저장된 잔디정보를 통해 잔디가 존재하는 영역을 추출할 수 있다. 구체적으로는 잔디가 존재하는 영역의 외곽을 센싱하여 잔디가 존재하는 영역으로 판단할 수 있다.
잔디가 존재하는 영역의 경계가 판단되면, 잔디가 존재하는 영역 내에 잔디깎기가 불가능한 영역이 구분될 수 있다. 잔디깎기가 불가능한 영역은 장애물 영역으로 정의될 수 있다.
즉, 장애물 영역은 잔디가 존재하지 않는 영역 또는 잔디가 존재하더라도 잔디깎기 로봇이 접근하지 못하는 접근 불가 영역일 수 있다.
잔디가 존재하는 영역에서 장애물 영역을 제외하면 모잉영역이 될 수 있다. 즉, 잔지가 존재하는 영역의 경계에 의해 작업대상영역이 정해질 수 있고, 작업대상영역 내에서 장애물 영역 및 모잉영역이 구분될 수 있다.
이하에서는 장애물 영역에 대해 구체적으로 설명한다.
장애물 영역은 상술한 바와 같이 잔디가 존재하지 않는 영역 및 잔디가 존재해도 잔디깎기 로봇이 접근하지 못하는 영역을 포함할 수 있다.
잔디가 존재하지 않는 영역은 나무, 우물 및 구조물 등이 배치되어 잔디깎기가 수행될 필요가 없는 지역일 수 있다.
잔디깎기 로봇이 접근하지 못하는 영역이란, 잔디깎기 로봇의 범퍼부의 높이보다 고도가 높은 영역일 수 있다. 다만, 단순히 범퍼부보다 고도가 높은 영역이라고 잔디깎기 로봇이 접근하지 못하는 것은 아니다. 항상 범퍼부가 기준이 되는 것은 아니고 잔디깎기 로봇의 높이를 기준으로 판단할 수도 있고, 기 설정된 높이의 영역을 기준으로 할 수 있다.
다만, 이하에서는 설명의 편의를 위해 범퍼부를 기준으로 설명한다.
범퍼부보다 고도가 높은 영역이라도 지면에서 잔디깎기 로봇이 이동될 수 있는 기울기를 가지고 연속적으로 고도가 높아지는 영역은 잔디깎기 로봇이 이동되어 잔디깎기를 수행할 수 있다.
따라서, 잔디깎기 로봇이 접근하지 못하는 접근 불가 영역은 잔디깎기 로봇이 더 이상 진행될 수 없을 정도의 기울기를 갖도록 고도가 높아지고 범퍼부보다 고도가 높은 영역일 수 있다. 즉, 기 결정되는 경사보다 큰 경사가 형성되는 영역은 장애물 영역으로 구분될 수 있다.
제1 주행지도는 작업대상영역의 상측에서 촬영된 항공영상에 정합(overlay)되어 사용자에게 제공될 수 있다. 사용자에게 제공되는 방법에는 제한을 두지 않는다.
예를 들면 잔디깎기 로봇에 구비되는 디스플레이부(미도시)를 통해 사용자에게 제공될 수도 있고, 잔디깎기 로봇과 별개로 구비되는 제어장치의 디스플레이부(미도시)에 의해 제공될 수 있다.
단순히 사용자가 작업대상영역, 모잉영역 및 장애물 영역을 쉽게 파악할 수 있도록 시각적으로 제공되는 것뿐만 아니라 사용자가 임의로 상술한 영역들의 경계를 수정할 수 있도록 제공될 수 있다.
따라서, 모잉영역, 장애물 영역 및 작업대상영역 중 적어도 하나가 실제 영역들의 위치가 일치되지 않는 경우, 사용자는 임의로 잘못된 부분들을 수정할 수 있다. 제1 주행지도가 작업대상영역의 상측에서 촬영된 항공 영상에 중첩되도록 표현되어 사용자에게 제공되므로 사용자는 용이하게 잘못된 부분들을 수정할 수 있다.
제1 앵커표시단계(S3)는 모잉영역, 장애물 영역 및 작업대상영역이 구분되면, 제1 주행지도에 잔디깎기 로봇의 위치를 인식하기 위한 앵커의 개수 및 설치 위치를 추천하는 단계일 수 있다.
앵커(A)란 작업대상영역 내의 특정위치에 설치되어 잔디깎기 로봇의 위치를 인식할 수 있도록 구비되는 것일 수 있다.
앵커(A)는 잔디깎기 로봇과 통신할 수 있다. 적어도 3개의 앵커를 통해 삼각측량하는 경우 잔디깎기 로봇의 위치가 도출될 수 있다.
작업대상영역 내의 모잉영역과 장애물 영역이 구분되면, 제1 주행지도에 구분된 모잉영역과 장애물 영역을 고려하여 최적화된 앵커(A)의 개수 및 설치위치가 도출될 수 있다.
앵커(A)의 제품성능에 따라 개수 및 설치위치가 달라질 수 있으며, 앵커(A)의 제품성능에 대한 정보는 지도를 생성하기 전 기 입력될 수 있다.
앵커(A)의 개수 및 설치위치는 해당 영역 내에서 최소한의 앵커(A)를 통해 작업영역 내에서의 잔디깎기 로봇의 위치를 파악할 수 있도록 추천될 수 있다.
앵커위치판단단계(S4)는 앵커(A)가 제1 앵커표시단계(S3)에서 추천된 위치에 설치되었는지 여부를 판단하는 단계일 수 있다.
구체적으로 설명하면, 앵커(A)가 설치된 후 다시 항공 영상 촬영 유닛을 통해 작업대상영역을 재 촬영하여 기 생성된 제1 주행지도에 재촬영된 항공영상을 통해 생성된 제2 주행지도가 정합되어 사용자가 쉽게 파악할 수 있도록 제공될 수 있다.
제2 주행지도는 제1 주행지도와 마찬가지로 재촬영된 항공 영상을 이용하여 3차원 영역의 제2 주행영상을 생성하는 제2 영상맵핑단계, 제2 주행영상에서 잔디가 존재하는 모잉영역과 모잉영역과 구분되는 장애물 영역으로 구획되고 제2 주행영상이 2차원 영역의 제2 주행지도로 변환되어 표시되는 제2 지도표시단계로 생성될 수 있다.
제2 주행지도에서는 앵커는 지면에서 급격히 고도가 상승하는 영역에 해당하므로 장애물 영역으로 구분될 수 있다. 따라서 제2 주행지도에서는 앵커의 설치위치를 파악하기 용이할 수 있다.
제2 주행지도가 제1 주행지도에 겹쳐져서 표시되는 제2 앵커위치표시단계를 통해 제2 주행지도가 제1 주행지도에 오버레이되어 표시되면, 사용자가 제1 주행지도에서 추천된 앵커의 위치와 제2 주행지도에서 나타난 앵커의 설치위치를 비교하여 설치가 제대로 되었는지 여부를 쉽게 파악할 수 있다.
제2 주행지도도 사용자가 수정가능하게 제공될 수 있다. 제2 주행지도가 생성되면, 제2 주행지도에서 잔디깎기 로봇의 경로를 생성하거나에 제2 주행지도의 내용이 제1 주행지도에 반영되어 제1 주행지도에서 잔디깎기 로봇의 경로가 생성될 수 있다. 즉, 반드시 제1 주행지도만 사용되어야 한다거나 제2 주행지도만 사용되어야 하는 것은 아니다.
앵커(A)는 제1 앵커표시단계(S3)에서 추천된 설치위치에 정확히 일치되도록 설치될 필요는 없다. 앵커(A)의 설치위치 추천은 최적화된 장소를 제공하는 것에 지나지 않는다. 따라서, 사용자가 설치상의 문제로 인해 추천된 위치와 다른 장소에 앵커(A)를 설치하거나 추천되는 앵커(A)의 개수보다 더 많은 개수의 앵커(A)를 보유하고 있어 추가적으로 다른 위치에 설치할 수 있다.
앵커위치판단단계(S4)를 통해 앵커(A)가 설치된 위치가 확정되면, 잔디깎기 로봇의 주행경로를 생성하는 경로생성단계(S6)가 수행될 수 있다.
잔디깎기 로봇의 주행경로를 생성하기 위해 제1 주행지도 또는 제2 주행지도 상의 위치를 파악할 수 있도록 잔디깎기 로봇이 이용할 수 있는 좌표값으로 변환되는 제1 좌표변환단계(S5)가 수행될 수 있다.
이때 잔디깎끼 로봇이 이용할 수 있는 좌표값은 앵커(A)가 설치된 위치를 추출된 상태에서 앵커(A)의 좌표 설정값을 입력받아 앵커 위치 기반의 좌표로 변환될 수 있다.
구체적으로 도 7을 예로 들어 설명하면, 앵커(A)의 위치는 특정 위치를 기준으로 좌표축이 설정될 수 있고, 앵커(A)들은 좌표축을 기준으로 어느 위치에 설치되었는지 좌표값을 통해 표현될 수 있다. 앵커(A)들의 좌표값이 설정되면 앵커(A)들 간 또는 앵커(A)와 잔디깎기 로봇의 상대적인 위치가 좌표값으로 표현될 수 있다.
따라서, 사용자가 앵커(A)를 어디에 설치하느냐에 따라 좌표값이 변환될 수 있다. 이로써 지형의 특이성과 관계없이 실질적으로 잔디깎기를 수행할 영역을 선택하여 잔디깎기가 수행될 수 있다.
경로생성단계(S6)에 의해 생성된 잔디깎기 로봇의 주행경로를 따라 잔디깎기 로봇(1)이 실제로 작업대상영역을 주행하며 맵을 업데이트 하는 지도업데이트단계(S7)를 더 포함할 수 있다.
상술한 바와 같이 앵커(A)가 설치된 후 제1 주행지도 또는 제2 주행지도에서 잔디깎기 로봇이 주행될 경로가 생성되면, 잔디깎기 로봇이 실제 작업대상영역을 주행하며 주행지도를 업데이트 할 수 있다.
잔디깎기 로봇에 구비되는 센서부(미도시)를 통해 주행지도가 업데이트될 수 있다.
구체적으로 설명하면, 잔디깎기 로봇은 센서부는 잔디깎기 로봇의 롤(Roll), 피치(Pitch), 요(Yaw) 값을 계산할 수 있다. 따라서, 잔디깎기 로봇은 주행지도 상에 있는 잔디깎기 로봇의 위치와 그 위치에서의 높이값 및 기울기 등과 같은 지형정보를 획득할 수 있다.
잔디깎기 로봇의 주행을 통해 주행지도를 업데이트함으로써 더욱 정밀한 주행지도가 완성될 수 있다.
도 4 내지 도 7은 전술한 실시예에 대한 예시를 나타내는 도면이다.
도 4는 제1 지도표시단계에서 모잉영역과 장애물 영역이 구분되는 모습을 나타낸 모습이고, 도 5는 모잉영역과 장애물 영역이 제1 주행지도에 표시되는 것을 나타내는 도면이고, 도 6은 앵커의 개수 및 설치추천위치가 표시되는 모습을 나타낸 도면이고, 도 7은 앵커가 설치된 위치가 반영된 주행지도를 나타낸 도면이다.
실제 작업대상영역의 상측에서 바라본 항공영상에 주행지도가 정합되어 표시되므로 사용자가 이해하기 쉽게 주행지도가 제공될 수 있다.
도 8은 다른 실시예에 따른 잔디깎기 로봇의 지도 생성방법에 관한 도면이고 도 9는 도 8의 실시예에 대한 예시를 나타낸 도면이다.
도 8에 대해 설명하기에 앞서, 본 발명의 다른 실시예에 따른 잔디깎기 로봇의 지도생성방법과 전술한 실시예에 따른 잔디깎기 로봇의 지도생성방법의 공통되는 부분은 설명을 생략한다.
따라서, 이하에서 설명하는 부분만으로 주행지도 및 경로가 생성되는 것은 아님을 분명히 한다.
도 8을 참조하여 설명하면, 제1 영상맵핑단계(S1)가 완료된 후 제1 지도표시단계(S2)가 수행될 수 있다.
이후 작업대상영역 내에 GPS 센서(G)가 설치될 수 있다. GPS 센서(G)가 설치된 후 GPS 센서(G)가 포함되도록 항공 영상이 재촬영될 수 있다. 항공 영상은 전술한 실시예에서의 항공 영상 촬영 유닛을 통해 촬영될 수 있다.
본 실시예에 따른 지도 생성 방법은 제2 좌표변환단계(S51)를 포함할 수 있다.
GPS 센서(G)는 1개 구비될 수도 있지만, 복수 개 구비되는 것이 바람직하다. 바람직하게는 3개 이상 구비되는 것이 바람직하다. GPS 센서(G)가 복수 개 구비되는 경우 좌표축을 이룰 수 있도록 설치될 수 있다. 좌표축을 이루도록 설치되면 GPS 센서(G)들을 기반으로 좌표축을 설정할 수 있다.
구체적으로 설명하면, 작업대상영역의 특정위치를 원점으로 설정하여 1개를 설치하고, x축의 임의 위치에 1개를 설치하고 y축의 임의 위치에 1개를 설치하여 항공 영상이 촬영될 수 있다. 이때 GPS 센서(G)의 위치와 설치 장소에 대한 값을 기록하여 주행지도와 좌표변환이 수행될 수 있다.
GPS 센서(G)는 항공 영상 및 주행지도에 좌표값이 설정된 이후 제거될 수 있다. GPS 센서(G)가 제거되지 않는 경우 불필요하게 장애물 영역이 증가할 수 있기 때문이다.
도 10은 또 다른 실시예에 따른 잔디깎기 로봇의 지도 생성 방법에 관한 도면이다.
도 8에 대해 설명하기에 앞서, 본 발명의 다른 실시예에 따른 잔디깎기 로봇의 지도생성방법과 전술한 실시예에 따른 잔디깎기 로봇의 지도생성방법의 공통되는 부분은 설명을 생략한다.
도 9에서 설명한 실시예와는 달리 본 실시예에서는 잔디깎기 로봇에 GPS 센서가 구비될 수 있다.
제1 영상맵핑단계(S1) 및 제1 지도표시단계(S2)가 수행된 이후 잔디깎기 로봇을 작업대상영역 내에서 주행시키는 임의주행단계(S41)가 수행될 수 있다.
잔디깎기 로봇은 임의의 경로로 이동해도 무방하다. 잔디깎기 로봇이 동되는 동안 작업대상영역이 항공 영상 촬영 유닛이 재촬영될 수 있다. 항공 영상 촬영 유닛이 복수 개의 항공 영상을 촬영하는 경우 각각의 항공영상에서 작업대상영역 내의 잔디깎기 로봇의 위치는 달라질 수 있다. 이때 잔디깎기 로봇에는 GPS 센서가 구비될 수 있으므로 잔디깎기 로봇의 위치와 주행지도 상의 위치를 파악하여 GPS 센서와 주행지도와의 관계 또는 변환식을 계산할 수 있다.
다시 말하면, 본 실시예에 따른 잔디깎기 로봇의 지도 생성 방법은 임의주행단계(S41)에서 수집된 잔디깎기 로봇의 위치 정보와 임의주행단계가 수행되는 도중 촬영된 항공 영상을 이용하여 주행지도를 잔디깎기 로봇이 이용할 수 있는 좌표로 계산하는 제3 좌표변환단계(S52)를 포함할 수 있다.
이후 주행지도에서 잔디깎기 로봇의 주행경로를 생성하여 잔디깎기가 수행될 수 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
1: 잔디깎기 로봇
10: 아우터 커버 20: 이너 바디 23: 수용부
10a: 범퍼부 10b: 휀더부 10c: 손잡이부 11: 개폐부 12: 센서부
50: 구동부 51: 후륜부 52: 전륜부
30: 작업부
31: 블레이드 32: 회전판 33: 보호커버 34: 모터 35: 동력전달부
35a: 홈 32a : 돌출부

Claims (17)

  1. 작업대상영역이 촬영된 항공 영상을 이용하여 잔디깎기 로봇이 주행할 수 있는 3차원 영역의 제1 주행영상을 생성하는 제1 영상맵핑단계;
    상기 제1 주행영상에서 잔디깎기가 수행될 모잉영역과 상기 모잉영역과 구분되는 장애물 영역으로 구획되고 상기 제1 주행영상이 2차원 영역의 제1 주행지도로 변환되어 표시되는 제1 지도표시단계;
    상기 모잉영역 및 상기 장애물 영역이 구분되면 상기 제1 주행지도에 상기 잔디깎기 로봇의 위치를 인식하기 위한 앵커의 개수 및 설치위치를 추천하는 제1 앵커표시단계;
    상기 앵커가 상기 설치위치에 설치되었는지 여부를 판단하는 앵커위치판단단계;
    상기 제1 주행지도에서 잔디깎기 로봇의 주행경로를 생성하는 경로생성단계; 및
    상기 주행경로가 생성된 후 잔디깎기 로봇이 주행하며 잔디깎기 로봇의 롤(Roll), 피치(Pitch) 및 요(Yaw) 정보를 기초로 상기 제1 주행지도를 수정하는 지도업데이트단계;를 포함하는 잔디깎기 로봇의 지도 생성 방법.
  2. 제1항에 있어서,
    상기 제1 영상맵핑단계는,
    상기 작업대상영역이 촬영된 복수 개의 항공 영상을 수집하는 수집단계;
    상기 복수 개의 항공 영상을 기초로 특징점을 추출하고 상기 특징점들을 매칭하는 매칭단계; 및
    보간법을 이용하여 그리드 맵을 생성하는 복원단계;를 포함하는 잔디깎기 로봇의 지도 생성 방법.
  3. 제2항에 있어서,
    상기 장애물 영역은 잔디가 존재하여도 기 결정된 경사보다 경사가 크게 형성되는 영역을 포함하도록 구분되는 잔디깎기 로봇의 지도 생성 방법.
  4. 제1항에 있어서,
    상기 제1 주행지도는 사용자가 상기 모잉영역과 상기 장애물 영역의 위치 및 크기 중 적어도 하나를 수정할 수 있도록 표시되는 잔디깎기 로봇의 지도 생성 방법.
  5. 제1항에 있어서,
    상기 제1 주행지도는 상기 촬영된 항공영상 중 상기 작업대상영역의 상측에서 바라본 영상에 겹쳐져서 표시되는 잔디깎기 로봇의 지도 생성 방법.
  6. 제1항에 있어서,
    상기 제1 앵커표시단계는 상기 모잉영역과 상기 장애물 영역에 기초하여 잔디깎기 로봇의 위치를 인식할 수 있는 상기 앵커의 개수 및 설치위치를 표시하는 잔디깎기 로봇의 지도 생성 방법.
  7. 제6항에 있어서,
    상기 앵커위치판단단계는,
    상기 앵커의 설치 후에 촬영된 항공 영상을 이용하여 3차원 영역의 제2 주행영상을 생성하는 제2 영상맵핑단계;
    상기 제2 주행영상에서 잔디가 존재하는 모잉영역과 상기 모잉영역과 구분되는 장애물 영역으로 구획되고 상기 제2 주행영상이 2차원 영역의 제2 주행지도로 변환되어 표시되는 제2 지도표시단계; 및
    상기 제1 주행지도와 상기 제2 주행지도가 겹쳐져서 표시되는 제2 앵커위치표시단계;를 포함하는 잔디깎기 로봇의 지도 생성 방법.
  8. 제7항에 있어서,
    상기 제2 주행지도에 설치된 상기 앵커의 좌표설정값을 기초로 잔디깎기 로봇이 이용할 수 있는 좌표로 변환되는 제1 좌표변환단계;를 포함하는 잔디깎기 로봇의 지도 생성 방법.
  9. 제1항에 있어서,
    상기 지도업데이트단계는 잔디깎기 로봇의 센서부가 상기 롤(Roll), 상기 피치(Pitch) 및 상기 요(Yaw) 값을 계산하여 상기 잔디깎기 로봇의 위치, 상기 위치에서의 높이값 및 상기 위치에서의 기울기를 포함하는 지형정보를 획득하여 상기 제1 주행지도를 수정하는 잔디깎기 로봇의 지도 생성 방법.
  10. 작업대상영역이 촬영된 항공 영상을 이용하여 잔디깎기 로봇이 주행할 수 있는 3차원 영역의 제1 주행영상을 맵핑하는 제1 영상맵핑단계;
    상기 제1 주행영상에서 잔디깎기가 수행될 모잉영역과 상기 모잉영역과 구분되는 장애물 영역으로 구획되고 상기 제1 주행영상이 2차원 영역의 제1 주행지도로 변환되어 표시되는 제1 지도표시단계;
    상기 작업대상영역 내에 설치되는 GPS 센서를 포함하도록 촬영된 항공영상을 이용하여 상기 제1 주행지도에 좌표값이 입력되는 제2 좌표변환단계;
    상기 제1 주행지도에서 잔디깎기 로봇의 주행경로를 생성하는 경로생성단계; 및
    상기 주행경로가 생성된 후 잔디깎기 로봇이 주행하며 잔디깎기 로봇의 롤(Roll), 피치(Pitch) 및 요(Yaw) 정보를 기초로 상기 제1 주행지도를 수정하는 지도업데이트단계;를 포함하는 잔디깎기 로봇의 지도 생성 방법.
  11. 제10항에 있어서,
    상기 영상맵핑단계는,
    상기 작업대상영역이 촬영된 복수 개의 항공 영상을 수집하는 수집단계;
    상기 복수 개의 항공 영상을 기초로 특징점을 추출하고 매칭하여 상기 제1 주행영상을 생성하는 매칭단계; 및
    보간법을 이용하여 그리드 맵을 생성하는 복원단계;를 포함하는 잔디깎기 로봇의 지도 생성 방법.
  12. 제11항에 있어서,
    상기 장애물 영역은 잔디가 존재하여도 기 결정된 경사보다 경사가 크게 형성되는 영역을 포함하도록 구분되는 잔디깎기 로봇의 지도 생성 방법.
  13. 제10항에 있어서,
    상기 제1 주행지도는 사용자가 상기 모잉영역과 상기 장애물 영역의 위치 및 크기 중 적어도 하나를 수정할 수 있도록 표시되는 잔디깎기 로봇의 지도 생성 방법.
  14. 제10항에 있어서,
    상기 GPS 센서는 적어도 3개 이상 사용되는 잔디깎기 로봇의 지도 생성 방법.
  15. 제10항에 있어서,
    상기 지도업데이트단계는 잔디깎기 로봇의 센서부가 상기 롤(Roll), 상기 피치(Pitch) 및 상기 요(Yaw) 값을 계산하여 상기 잔디깎기 로봇의 위치, 상기 위치에서의 높이값 및 상기 위치에서의 기울기를 포함하는 지형정보를 획득하여 상기 제1 주행지도를 수정하는 잔디깎기 로봇의 지도 생성 방법.
  16. 작업대상영역이 촬영된 항공 영상을 이용하여 잔디깎기 로봇이 주행할 수 있는 3차원 영역의 제1 주행영상을 맵핑하는 제1 영상맵핑단계;
    상기 제1 주행영상에서 잔디깎기가 수행될 모잉영역과 상기 모잉영역과 구분되는 장애물 영역으로 구획되고 상기 제1 주행영상이 2차원 영역의 제1 주행지도로 변환되어 표시되는 제1 지도표시단계;
    상기 작업대상영역 내에서 GPS 센서를 포함하는 잔디깎기 로봇을 주행시키는 임의주행단계;
    상기 임의주행단계에서 수집된 잔디깎기 로봇의 위치 정보와 상기 임의주행단계가 수행되는 도중 촬영된 항공 영상을 이용하여 상기 제1 주행지도를 잔디깎기 로봇이 이용할 수 있는 좌표로 계산하는 제3 좌표변환단계;
    상기 제1 주행지도에서 잔디깎기 로봇의 주행경로를 생성하는 경로생성단계; 및
    상기 주행경로가 생성된 후 잔디깎기 로봇이 주행하며 잔디깎기 로봇의 롤(Roll), 피치(Pitch) 및 요(Yaw) 정보를 기초로 상기 제1 주행지도를 수정하는 지도업데이트단계;를 포함하는 잔디깎기 로봇의 지도 생성 방법.
  17. 제16항에 있어서,
    상기 지도업데이트단계는 잔디깎기 로봇의 센서부가 상기 롤(Roll), 상기 피치(Pitch) 및 상기 요(Yaw) 값을 계산하여 상기 잔디깎기 로봇의 위치, 상기 위치에서의 높이값 및 상기 위치에서의 기울기를 포함하는 지형정보를 획득하여 상기 제1 주행지도를 수정하는 잔디깎기 로봇의 지도 생성 방법.
KR1020190161500A 2019-12-06 2019-12-06 잔디깎기 로봇의 지도 생성방법 KR102295824B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020190161500A KR102295824B1 (ko) 2019-12-06 2019-12-06 잔디깎기 로봇의 지도 생성방법
US16/896,610 US11672199B2 (en) 2019-12-06 2020-06-09 Mapping method of lawn mower robot
PCT/KR2020/010334 WO2021112369A1 (en) 2019-12-06 2020-08-05 Mapping method of lawn mower robot
EP20895216.8A EP4070168A4 (en) 2019-12-06 2020-08-05 METHOD FOR MAPPING A ROBOT LAWN MOWER

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190161500A KR102295824B1 (ko) 2019-12-06 2019-12-06 잔디깎기 로봇의 지도 생성방법

Publications (2)

Publication Number Publication Date
KR20210071383A KR20210071383A (ko) 2021-06-16
KR102295824B1 true KR102295824B1 (ko) 2021-08-31

Family

ID=76208878

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190161500A KR102295824B1 (ko) 2019-12-06 2019-12-06 잔디깎기 로봇의 지도 생성방법

Country Status (4)

Country Link
US (1) US11672199B2 (ko)
EP (1) EP4070168A4 (ko)
KR (1) KR102295824B1 (ko)
WO (1) WO2021112369A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11937539B2 (en) 2019-08-28 2024-03-26 Samsung Electronics Co., Ltd. Sensor fusion for localization and path planning
US20230113061A1 (en) * 2021-10-12 2023-04-13 Samsung Electronics Co., Ltd. System and method for rf based robot localization
CN114044369B (zh) * 2021-11-05 2023-04-11 江苏昱博自动化设备有限公司 一种基于自适应巡航技术的码垛机械手的控制方法
CN114557197B (zh) * 2022-02-22 2023-10-03 深圳拓邦股份有限公司 刀盘侧置割草机回字型割草方法、存储介质及割草机
CN115039561A (zh) * 2022-06-30 2022-09-13 松灵机器人(深圳)有限公司 割草方法、装置、割草机器人以及存储介质
CN116399330B (zh) * 2023-05-29 2023-08-15 未岚大陆(北京)科技有限公司 地图修改方法、装置、电子设备和存储介质
CN117142156B (zh) * 2023-10-30 2024-02-13 深圳市金环宇电线电缆有限公司 基于自动定位的线缆码垛控制方法、装置、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000283784A (ja) 1999-03-31 2000-10-13 Matsushita Electric Ind Co Ltd 走行位置表示装置
US20050165521A1 (en) 2004-01-27 2005-07-28 Gruhn Steve S. Precision turf treatment
JP2011138502A (ja) 2009-12-17 2011-07-14 Deere & Co 区域分解を用いるエリア・カバレッジ・システムおよび方法
WO2018013538A1 (en) * 2016-07-13 2018-01-18 Discovery Robotics Apparatus and methods for providing a reconfigurable robotic platform
US20180035606A1 (en) * 2016-08-05 2018-02-08 Romello Burdoucci Smart Interactive and Autonomous Robotic Property Maintenance Apparatus, System, and Method
CN208021748U (zh) 2018-01-13 2018-10-30 广东飞翔达科技有限公司 一种自动播撒物料的无人机以及移动控制端

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101570377B1 (ko) 2009-03-31 2015-11-20 엘지전자 주식회사 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법
NL2012485B1 (en) 2014-03-20 2016-01-18 Lely Patent Nv Method and system for navigating an agricultural vehicle on a land area.
KR101580609B1 (ko) * 2014-04-25 2015-12-28 연세대학교 산학협력단 무인항공기 탑재 무인지상차량
SE1451644A1 (sv) 2014-12-23 2016-05-31 Husqvarna Ab Improved map generation by a robotic work tool
US9722640B2 (en) * 2015-01-06 2017-08-01 Discovery Robotics Method and system for determining precise robotic position and orientation using near-simultaneous radio frequency measurements
US20180364045A1 (en) * 2015-01-06 2018-12-20 Discovery Robotics Robotic platform with mapping facility
US11115798B2 (en) * 2015-07-23 2021-09-07 Irobot Corporation Pairing a beacon with a mobile robot
KR102521493B1 (ko) 2015-10-27 2023-04-14 삼성전자주식회사 청소 로봇 및 그 제어방법
US20170127606A1 (en) * 2015-11-10 2017-05-11 Digi-Star, Llc Agricultural Drone for Use in Controlling the Direction of Tillage and Applying Matter to a Field
KR102403504B1 (ko) 2015-11-26 2022-05-31 삼성전자주식회사 이동 로봇 및 그 제어 방법
JP6929190B2 (ja) * 2017-10-18 2021-09-01 株式会社クボタ 自律走行型作業機のための作業領域決定システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000283784A (ja) 1999-03-31 2000-10-13 Matsushita Electric Ind Co Ltd 走行位置表示装置
US20050165521A1 (en) 2004-01-27 2005-07-28 Gruhn Steve S. Precision turf treatment
JP2011138502A (ja) 2009-12-17 2011-07-14 Deere & Co 区域分解を用いるエリア・カバレッジ・システムおよび方法
WO2018013538A1 (en) * 2016-07-13 2018-01-18 Discovery Robotics Apparatus and methods for providing a reconfigurable robotic platform
US20180035606A1 (en) * 2016-08-05 2018-02-08 Romello Burdoucci Smart Interactive and Autonomous Robotic Property Maintenance Apparatus, System, and Method
CN208021748U (zh) 2018-01-13 2018-10-30 广东飞翔达科技有限公司 一种自动播撒物料的无人机以及移动控制端

Also Published As

Publication number Publication date
EP4070168A1 (en) 2022-10-12
WO2021112369A1 (en) 2021-06-10
EP4070168A4 (en) 2023-11-15
US20210168996A1 (en) 2021-06-10
US11672199B2 (en) 2023-06-13
KR20210071383A (ko) 2021-06-16

Similar Documents

Publication Publication Date Title
KR102295824B1 (ko) 잔디깎기 로봇의 지도 생성방법
US11334082B2 (en) Autonomous machine navigation and training using vision system
EP3237983B1 (en) Robotic vehicle grass structure detection
US10444760B2 (en) Robotic vehicle learning site boundary
US10806075B2 (en) Multi-sensor, autonomous robotic vehicle with lawn care function
US9603300B2 (en) Autonomous gardening vehicle with camera
EP3234717B1 (en) Robot vehicle parcel navigation following a minimum workload path.
Johnson et al. Development and implementation of a team of robotic tractors for autonomous peat moss harvesting
WO2016098040A1 (en) Robotic vehicle with automatic camera calibration capability
EP3158409B1 (en) Garden visualization and mapping via robotic vehicle
US20230236604A1 (en) Autonomous machine navigation using reflections from subsurface objects
US20230042867A1 (en) Autonomous electric mower system and related methods
US20230069475A1 (en) Autonomous machine navigation with object detection and 3d point cloud

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant