KR20230050396A - 장애물 탐측 방법, 장치, 자율 보행 로봇 및 기억 매체 - Google Patents

장애물 탐측 방법, 장치, 자율 보행 로봇 및 기억 매체 Download PDF

Info

Publication number
KR20230050396A
KR20230050396A KR1020237008255A KR20237008255A KR20230050396A KR 20230050396 A KR20230050396 A KR 20230050396A KR 1020237008255 A KR1020237008255 A KR 1020237008255A KR 20237008255 A KR20237008255 A KR 20237008255A KR 20230050396 A KR20230050396 A KR 20230050396A
Authority
KR
South Korea
Prior art keywords
obstacle
coordinate data
analysis range
zone
size
Prior art date
Application number
KR1020237008255A
Other languages
English (en)
Inventor
하오찌엔 시에
Original Assignee
베이징 로보락 이노베이션 테크노로지 씨오.,엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 로보락 이노베이션 테크노로지 씨오.,엘티디. filed Critical 베이징 로보락 이노베이션 테크노로지 씨오.,엘티디.
Publication of KR20230050396A publication Critical patent/KR20230050396A/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/24Floor-sweeping machines, motor-driven
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • G06T3/06
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/28Floor-scrubbing machines, motor-driven
    • A47L11/282Floor-scrubbing machines, motor-driven having rotary tools
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4002Installations of electric equipment
    • A47L11/4008Arrangements of switches, indicators or the like
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4061Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2847Surface treating elements
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/0031Geometric image transformation in the plane of the image for topological mapping of a higher dimensional structure on a lower dimensional surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2201/00Application
    • G05D2201/02Control of position of land vehicles
    • G05D2201/0203Cleaning or polishing vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

본 발명 실시예는 장애물 탐측 방법, 장치, 자율 보행 로봇 및 기억 매체를 제공하는 것으로, 장애물(200) 탐측 방법은 이미지 수집 장치에서 수집한 장애물(200) 정보를 깊이 정보로 전환하는 단계(502); 상기 깊이 정보를 포인트 클라우드 맵으로 변환하고, 또한 상기 장애물(200) 상의 각 참조점의 좌표 데이터를 확정하는 단계(504); 상기 포인트 클라우드 맵에서 높이 방향 상의 유효 분석 범위를 선택하는 단계(506); 및 상기 각 참조점의 좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물(200)이 존재하는지 여부를 분석하는 단계(508)를 포함한다. 장애물(200) 탐측 방법은 자율 보행 로봇의 행진 노선 중의 임의의 물체에 대해 탐측을 진행할 수 있으므로, 종래 방법의 장애물(200) 종류에 대한 제한성을 돌파한 동시에, 레이저 장치의 탐측에서의 높이에 대한 결함을 극복하여, 자율 보행 로봇의 장애물(200) 탐측 능력을 진일보 향상시키고, 자율 보행 로봇의 회피 성능을 증가시킬 수 있다.

Description

장애물 탐측 방법, 장치, 자율 보행 로봇 및 기억 매체
본 발명은 자율 보행 로봇 기술분야에 관한 것으로서, 보다 상세하게는 장애물 탐측 방법, 장치, 자율 보행 로봇 및 기억 매체에 관한 것이다.
<관련 출원의 교차 인용>
본 발명은 2020년8월26일에 제출한 중국특허출원 제202010872327.3호의 우선권을 주장하고, 여기서 상기 중국특허출원에서 공개한 내용의 전문을 인용하여 본 발명의 일부분으로 한다.
인공 지능 기술이 발전함에 따라, 각양각색의 지능형 로봇, 예를 들면, 바닥 청소 로봇, 걸레 청소 로봇, 진공 청소기, 제초기 등이 나타났다. 이러한 청소 로봇은 작업 과정에서 자동적으로 주위의 장애물을 인식하고, 또한 장애물에 대해 회피 조작을 실행함으로써, 이러한 청소 로봇은 노동력을 해방시키고, 인건비를 줄여 주고, 또한 청소 효율을 향상시킬 수 있다.
그러나, 종래의 바닥 청소 로봇의 이미지 수집 장치는 단지 제한된 종류의 장애물만 인식할 수 있고, 통상 촬영된 장애물 이미지를 미리 데이터베이스에 저장한 이미지와 매칭을 진행하고, 매칭 성공 시, 촬영 타겟을 특정 종류의 장애물, 예를 들면, 신발 등으로 인식할 수 있다. 또한, 바닥 청소 로봇은 레이저 장치를 통해 장애물을 인식할 수도 있지만, 레이저 장치는 통상 바닥 청소 로봇의 상면 상에 설치되고, 레이저 장치가 수평 방향에서 신호를 발사, 접수한 후, 바닥 청소 로봇 주위의 장애물을 인식하며, 바닥 청소 로봇 자체가 일정한 높이를 가지고, 또한 레이저 장치도 일정한 높이를 가짐으로써, 레이저 장치는 단지 그 높이가 바닥 청소 로봇의 본체 높이보다 높은 장애물만 검측할 수 있으므로, 부분적 높이가 낮은 장애물과 잘못 충돌이 생기거나, 사용자 경험이 좋지 않은 것을 초래할 수 있다.
상기를 감안하여, 본 발명 실시예는 장애물 탐측 방법, 장치, 자율 보행 로봇 및 기억 매체를 제공하여, 자율 보행 로봇이 일정한 높이 범위 내의 임의의 장애물을 회피할 수 있게 한다.
본 발명 실시예는 장애물 탐측 방법을 제공하는 것으로, 자율 보행 로봇에 응용하고, 이미지 수집 장치에서 수집한 장애물 정보를 깊이 정보로 전환하는 단계; 상기 깊이 정보를 포인트 클라우드 맵으로 변환하고, 또한 상기 장애물 상의 각 참조점의 좌표 데이터를 확정하는 단계; 상기 포인트 클라우드 맵에서 높이 방향 상의 유효 분석 범위를 선택하는 단계; 및 상기 유효 분석 범위 내에서, 상기 각 참조점의 좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계를 포함한다.
선택적으로, 상기의 상기 유효 범위 내에서, 상기 각 참조점의 좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계는, 상기 유효 분석 범위 내의 상기 각 참조점의 3D좌표 데이터를 2D좌표 데이터로 전환하는 단계; 및 상기 유효 분석 범위 내에서, 상기 각 참조점의 2D좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계를 포함한다.
선택적으로, 상기의 상기 유효 분석 범위 내에서, 상기 각 참조점의 2D좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계는, 상기 자율 보행 로봇이 행진 과정에서 형성한 확률맵을 획득하는 단계; 및 상기 확률맵을 기반으로, 상기 각 참조점의 2D좌표 데이터 중의 잡음점 좌표 데이터를 필터링해내고, 필터링 후의 상기 각 참조점의 2D좌표 데이터를 기반으로 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계를 포함한다.
선택적으로, 상기의 상기 확률맵을 기반으로, 상기 각 참조점의 2D좌표 데이터 중의 잡음점 좌표 데이터를 필터링해내는 단계는, 상기 확률맵 중의 장애물의 위치 좌표 데이터를 획득하고, 상기 확률맵 중에서, 상기 장애물의 확률치는 예정 확률 역치보다 큰 단계; 및 상기 장애물의 위치 좌표 데이터와 상기 각 참조점의 2D좌표 데이터를 비교하고, 상기 장애물의 위치 좌표 데이터와 상기 각 참조점의 2D좌표 데이터의 거리가 예정치보다 큰 경우, 상기 2D좌표 데이터를 필터링해내는 단계를 포함한다.
선택적으로, 상기의 상기 유효 분석 범위 내에서, 상기 각 참조점의 2D 또는 3D 좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계는, 상기 유효 분석 범위 내에서, 상기 각 참조점에 대해 군집 분류를 진행하고, 인접한 참조점의 좌표 데이터와의 거리가 제2예정치보다 작은 모든 참조점을 하나의 구역으로 하는 단계; 각각 매개 구역의 사이즈를 판단하는 단계; 및 상기 구역의 사이즈가 제3예정치보다 크거나 같은 경우, 상기 유효 분석 범위 내에 장애물이 존재하는 것으로 확정하는 단계를 포함한다.
선택적으로, 상기 구역의 사이즈는 구역의 면적/체적, 구역의 직경, 구역의 기하학적 중심을 가로지르는 최소 거리 중 적어도 하나를 포함한다.
선택적으로, 상기의 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계 후에는, 상기 유효 분석 범위 내에 장애물이 존재하는 경우, 상기 장애물의 사이즈 범위가 예정 역치보다 작은지 여부를 판단하는 단계; 및 상기 장애물의 사이즈 범위가 예정 역치보다 작은 경우, 상기 자율 보행 로봇이 상기 장애물까지의 거리가 예정 거리 범위 내에서 측면 브러쉬의 회전속도를 감소시키도록 제어하는 단계를 포함한다.
본 발명 실시예는 장애물 탐측 방법을 제공하는 것으로, 자율 보행 로봇에 응용하고, 이미지 수집 장치에서 수집한 장애물 정보를 깊이 정보로 전환하는 단계; 상기 깊이 정보를 포인트 클라우드 맵으로 변환하고, 상기 포인트 클라우드 맵에서 유효 분석 범위를 선택하는 단계; 및 상기 유효 분석 범위 내에서, 장애물이 존재한대고 판단하는 경우, 상기 장애물의 사이즈를 근거로 네비게이션을 실행하는 단계를 포함한다.
선택적으로, 상기 장애물의 사이즈를 근거로 내비게이션을 실행하는 단계는, 구체적으로, 상기 장애물의 사이즈가 예정 역치보다 작은 경우, 상기 자율 보행 로봇이 상기 장애물까지의 거리가 예정 거리 범위 내에서 측면 브러쉬의 회전속도를 감소시키도록 제어하는 단계를 포함한다.
선택적으로, 상기 장애물의 사이즈를 근거로 내비게이션을 실행하는 단계는, 구체적으로, 상기 장애물의 사이즈 또는 해당 사이즈가 위치한 범위에 따라, 그 회피 거리를 확정하고, 상기 자율 보행 로봇이 상기 회피 거리에서 회피 책략의 실행을 시작하도록 제어하는 단계를 포함한다.
선택적으로, 상기의 상기 깊이 정보를 포인트 클라우드 맵으로 변환하는 단계 후에는,
상기 장애물 상의 각 참조점의 좌표 데이터를 확정하는 단계;
상기 유효 분석 범위 내에서, 상기 각 참조점에 대해 군집 분류를 진행하고, 인접한 참조점의 좌표 데이터와의 거리가 제2예정치보다 작은 모든 점을 하나의 구역으로 하는 단계; 각각 매개 구역의 사이즈를 판단하는 단계; 및 상기 구역의 사이즈가 제3예정치보다 크거나 같은 경우, 상기 유효 분석 범위 내에 장애물이 존재하는 것으로 확정하는 단계를 더 포함한다.
선택적으로, 상기 구역의 사이즈는 구역의 면적/체적, 구역의 직경, 구역의 기하학적 중심을 가로지르는 최소 거리, 구역의 높이 중 적어도 하나를 포함한다.
선택적으로, 상기 장애물의 사이즈를 근거로 네비게이션을 실행하는 단계는, 구체적으로, 상기 장애물의 높이가 예정 높이보다 큰 경우, 회피 책략을 실행하는 단계를 포함한다.
본 발명 실시예는 장애물 탐측 장치를 제공하는 것으로, 자율 보행 로봇에 응용하고, 이미지 수집 장치에서 수집한 장애물 정보를 깊이 정보로 전환하도록 구성된 전환 유닛; 상기 깊이 정보를 포인트 클라우드 맵으로 변환하고, 또한 상기 장애물 상의 각 참조점의 좌표 데이터를 확정하도록 구성된 변환 유닛; 상기 포인트 클라우드 맵에서 높이 방향 상의 유효 분석 범위를 선택하도록 구성된 확정 유닛; 및 상기 유효 분석 범위 내에서, 상기 각 참조점의 좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하도록 구성된 분석 유닛을 포함한다.
본 발명 실시예는 자율 보행 로봇을 제공하는 것으로, 프로세서 및 메모리를 포함하고, 상기 메모리는 상기 프로세서에 의해 실행 가능한 컴퓨터 프로그램 명령을 저장하고, 상기 프로세서가 상기 컴퓨터 프로그램 명령을 실행할 때, 상기의 임의의 방법의 단계를 실현할 수 있다.
본 발명 실시예는 비일시적 컴퓨터 판독 가능한 기억 매체를 제공하는 것으로, 컴퓨터 프로그램 명령을 저장하고, 상기 컴퓨터 프로그램 명령은 프로세서에 의해 호출되어 실행될 때, 상기의 임의의 방법의 단계를 실현할 수 있다.
종래 기술을 상대로, 본 발명은 적어도 하기와 같은 기술 효과를 가진다:
본 발명 실시예는 장애물 탐측 방법, 장치, 자율 보행 로봇 및 기억 매체를 제공하는 것으로, 여기서, 장애물 탐측 방법은 자율 보행 로봇 자체가 획득한 일정한 높이 범위 내의 깊이 이미지를 이용하여, 깊이 이미지에 대해 좌표 변환, 데이터 군집 분류 등 처리를 진행하고, 이로써 현재 깊이 이미지 중에 장애물이 존재하는지 여부를 정확히 판단할 수 있다. 해당 방법은 자율 보행 로봇의 행진 노선 중의 임의의 물체에 대해 탐측을 진행할 수 있으므로, 종래 방법의 장애물 종류에 대한 제한성을 돌파한 동시에, 레이저 장치의 탐측에서의 높이에 대한 결함을 극복하여, 자율 보행 로봇의 장애물 탐측 능력을 진일보 향상시키고, 자율 보행 로봇의 회피 성능을 증가시킬 수 있다.
본 발명 실시예 또는 종래 기술의 기술 수단을 더 명확하게 설명하기 위해, 아래는 실시예 또는 종래 기술의 설명에서 사용할 도면에 대해 간단히 소개하고, 자명하게는, 아래에서 설명한 도면은 본 발명의 일 실시예이고, 당업자에 있어서, 진보적 노동을 필요로하지 않은 전제 하에서, 이러한 도면을 근거로 기타 도면을 획득할 수도 있다.
도1은 본 발명 실시예에서 제공한 응용 시나리오를 나타낸 개략도이고;
도2는 본 발명 실시예에서 제공한 자율 보행 로봇의 구조를 나타낸 사시도이고;
도3은 본 발명 실시예에서 제공한 자율 보행 로봇의 구조를 나타낸 평면도이고;
도4는 본 발명 실시예에서 제공한 자율 보행 로봇의 구조를 나타낸 저면도이고;
도5는 본 발명 실시예에서 제공한 자율 보행 로봇의 장애물 탐측 방법을 나타낸 흐름도이고;
도6은 본 발명 실시예에서 제공한 쌍안 거리 측정 원리의 구조도이고;
도7은 본 발명 실시예에서 제공한 쌍안 거리 측정 기하학적 구조를 나타낸 개략도이고;
도8은 본 발명 실시예에서 제공한 평면 좌표계를 나타낸 개략도이고;
도9는 본 발명 실시예에서 제공한 3차원 좌표계를 나타낸 개략도이고;
도10은 본 발명 실시예에서 제공한 군집 분류 방법의 구조를 나타낸 개략도이고;
도11은 본 발명의 다른 일 실시예에서 제공한 자율 보행 로봇 탐측 방법을 나타낸 흐름도이고;
도12는 본 발명 실시예에서 제공한 장애물 탐측 장치의 구조를 나타낸 개략도이고;
도13은 본 발명의 다른 일 실시예에서 제공한 장애물 탐측 장치의 구조를 나타낸 개략도이고;
도14는 본 발명 실시예에서 제공한 로봇의 전자 구조를 나타낸 개략도이다.
본 발명 실시예의 목적, 기술 수단 및 장점들을 더 명확히 하기 위해, 아래에 본 발명 실시예의 도면을 결합하여, 본 발명 실시예 중의 기술 수단에 대해 명확하고, 완전한 서술을 진행하고, 자명하게는, 설명한 실시예는 본 발명의 일부분 실시예일 뿐, 모든 실시예는 아니다. 본 발명 중의 실시예를 기반으로, 해당 분야의 통상의 지식을 가진 자가 진보적 노동을 필요로 하지 않은 전제 하에서 획득한 모든 기타 실시예는 본 발명에서 보호하려는 범위 내에 속해야 한다.
본 발명 실시예는 가능한 응용 시나리오를 제공하고, 해당 응용 시나리오는, 자동 청소 장치(100), 예를 들면, 자율 보행 로봇, 걸레 청소 로봇, 진공 청소기, 제초기 등을 포함한다. 일부 실시예에서, 본 실시예 중, 도1에서 도시한 바와 같이, 가정용 자율 보행 로봇을 예로 설명하면, 자율 보행 로봇은 작업 과정에서, 실시간으로 자율 보행 로봇 전단의 이미지 수집 장치를 통해 전방의 시야 이미지를 획득하고, 또한 시야 이미지에 대한 분석을 근거로 장애물(200) 등이 존재하는지 여부를 판단하고, 인식 결과에 따라 자율 보행 로봇의 행진 노선을 제어한다. 본 실시예에서, 로봇은 하나 또는 다수의 이미지 수집 장치가 설치될 수 있어, 행진 노선 과정 중에서의 이미지를 획득하고, 로봇은 또한 터치 감응 디스플레이가 설치되거나 또는 이동 단말을 통해 제어하여, 사용자가 입력한 조작 명령을 접수한다. 자율 보행 로봇은 각종 센서, 예를 들면, 완충기, 절벽 센서, 초음파 센서, 적외 센서, 자력계, 가속도계, 자이로스코프, 마일계 등 센서 장치가 더 설치되고, 로봇은 WIFI모듈, Bluetooth모듈 등 무선 통신 모듈이 더 설치됨으로써, 지능 단말기 또는 서버와 연결할 수 있고, 또한 무선 통신 모듈을 통해 지능 단말기 또는 서버에서 전송된 조작 명령을 접수할 수 있다.
도2에서 도시한 바와 같이, 자동 청소 장치(100)는 본체(110)로 한정된 하기와 같은 3개의 서로 수직이 되는 축, 즉 전후축X, 횡방향 축Y 및 중심 수직축Z의 이동의 각종 조합을 상대로 바닥 상에서 행진한다. 전후축X에 따른 전향 구동 방향을 "전향"으로 표시하고, 또한 전후축X에 따른 후향 구동 방향을 "후향"으로 표시한다. 횡방향 축Y의 방향은 실질상 구동 휠 모듈(141)의 중심점으로 한정된 축심을 따라 로봇의 좌측휠과 우측휠 사이에서 연장된 방향을 말한다.
자동 청소 장치(100)는 Y축을 둘러싸고 회전할 수 있다. 자동 청소 장치(100)의 전향 부분이 상부로 경사지고, 후향 부분이 하부로 경사지는 경우를 "위로 들림"으로 하고, 또한 자동 청소 장치(100)의 전향 부분이 하부로 경사지고, 후향 부분이 상부로 경사지는 경우를 "아래로 처짐"으로 한다. 이외에, 로봇(100)은 Z축을 둘러싸고 회전할 수 있다. 자동 청소 장치(100)의 전향 방향 상에서, 자동 청소 장치(100)가 X축의 우측으로 경사지는 경우를 "우측 회전"으로 하고, 자동 청소 장치(100)가 X축의 좌측으로 경사지는 경우를 "좌측 회전"으로 한다.
도3에서 도시한 바와 같이, 자동 청소 장치(100)는 기기 본체(110), 감지 시스템(120), 제어 시스템, 구동 시스템(140), 청결 시스템, 에너지 시스템 및 인간-기기 상호작용 시스템(180)을 포함한다.
기기 본체(110)는 전향 부분(111) 및 후향 부분(112)을 포함하고, 원형과 비슷한 형상(전후가 모두 원형임)을 가지거나, 기타 형상을 가질 수도 있으며, 전방후원의 D형과 비슷한 형상 및 전방후방의 직사각형 또는 정방형 형상을 포함하지만 이에 제한되지 않는다.
도3에서 도시한 바와 같이, 감지 시스템(120)은 기기 본체(110) 상에 위치하는 위치 확정 장치(121), 기기 본체(110)의 전향 부분(111)의 완충기(122) 상에 설치되는 충돌 센서, 근거리 센서, 기기 본체 하부에 설치되는 절벽 센서 및 기기 본체 내부에 설치되는 자력계, 가속도계, 자이로스코프(Gyro), 마일계(ODO, 정식 명칭 odograph) 등 센서 장치를 포함하고, 제어 시스템(130)에 기기의 각종 위치 정보 및 운동 상태 정보를 제공하도록 구성된다. 위치 확정 장치(121)는 카메라, 레이저 거리측정 장치(LDS, 정식 명칭 Laser Direct Structuring)를 포함하지만 이에 제한되지 않는다.
도3에서 도시한 바와 같이, 기기 본체(110)의 전향 부분(111)은 완충기(122)를 탑재하고, 청소 과정에서, 구동휠 모듈(141)이 로봇을 추진하여 바닥에서 보행할 때, 완충기(122)는 그 위에 설치된 센서 시스템, 예를 들면 적외선 센서를 경유하여, 자동 청소 장치(100)의 주행 경로 중의 하나 또는 다수의 사건을 검측하고, 자동 청소 장치(100)는 완충기(122)에 의해 검측된 사건, 예를 들면 장애물, 벽을 통해, 구동휠 모듈(141)을 제어하여 자동 청소 장치(100)가 사건에 대해 응답, 예를 들면 장애물을 멀리하게 한다.
제어 시스템(130)은 기기 본체(110) 내의 회로판 상에 설치되고, 비일시적 메모리, 예를 들면 하드디스크, 플래시 메모리, 임의 접근 메모리와 통신하는 연산 처리 장치, 예를 들면 중앙 처리 장치, 응용 처리 장치를 포함하고, 응용 처리 장치는 레이저 거리측정 장치에서 피드백한 장애물 정보에 따라 위치 추정 알고리즘, 예를 들면 동시적 위치 추정 및 지도 작성(SLAM, 정식 명칭 Simultaneous Localization And Mapping)을 이용하여 로봇이 위치한 환경 중의 실시간 지도를 작성한다. 또한 완충기(122) 상에 설치된 센서, 절벽 센서, 자력계, 가속도계, 자이로스코프, 마일계 등 센서 장치에서 피드백한 거리 정보, 속도 정보를 결합하여 종합적으로 자율 보행기가 현재 어떤 작업 상태에 처했는지, 어떤 위치에 처했는지 및 자율 보행기의 현재 자세 등, 예를 들면 문턱을 넘거나, 카펫에 오르거나, 절벽에 위치하거나, 상방 또는 하방이 걸려졌는지, 먼지 케이스가 차 있는지, 들려져 있는지 등을 판단하고, 또한 부동한 상황에 따라 구체적인 다음 동작 책략을 제공하여, 로봇의 작업이 주인의 요구를 더 만족하게 함으로써, 보다 훌륭한 사용자 경험을 가져다 줄 수 있다.
도4에서 도시한 바와 같이, 구동 시스템(140)은 거리 및 각도 정보(예를 들면, x, y 및 θ 성분)를 구비하는 구동 명령을 기반으로 로봇(100)을 제어하여 바닥을 가로질러 주행하게 한다. 구동 시스템(140)은 구동휠 모듈(141)을 포함하고, 구동휠 모듈(141)은 동시에 좌측휠과 우측휠을 제어할 수 있고, 보다 정밀하게 기기의 운동을 제어하기 위해, 바람직하게는 구동휠 모듈(141)은 각각 좌측 구동휠 모듈 및 우측 구동휠 모듈을 포함한다. 좌측, 우측 구동휠 모듈은 본체(110)가 한정한 횡방향축을 따라 마주보게 설치된다. 로봇을 바닥 상에서 보다 안정적으로 운동하게 하거나 또는 보다 강한 운동능력을 구비하게 하기 위해, 로봇은 하나 또는 다수의 종동휠(142)을 포함하며, 종동휠은 만능휠을 포함하지만 이에 제한되지 않는다. 구동휠 모듈은 보행휠, 구동 모터 및 구동 모터를 제어하는 제어 회로를 포함하고, 구동휠 모듈은 또한 구동 전류를 측정하는 회로와 마일계가 연결된다. 구동휠 모듈(141)은 착탈 가능하게 본체(110)에 연결되어, 분해설치와 유지보수가 편리하다. 구동휠은 오프셋 드롭 서스펜션 시스템을 구비하여, 기기 본체(110)에 이동 가능한 방식으로 체결되고, 예를 들면 회전 가능한 방식으로 부착되고, 또한 기기 본체(110)로부터 아래로 향하고 또한 멀리하도록 오프셋되는 스프링 오프셋을 받는다. 스프링 오프셋은 구동휠이 일정한 착지력으로 바닥과의 접촉 및 견인을 유지하는 것을 허용하고, 동시에 자동 청소 장치(100)의 청소 유닛은 또한 일정한 압력으로 지면(10)과 접촉한다.
청결 시스템은 건식 청결 시스템 및/또는 습식 청결 시스템일 수 있다. 건식 청결 시스템으로서, 주요한 청결 기능은 롤러 브러시, 먼지 케이스, 팬, 출풍구 및 4자간 연결수단으로 구성된 청소 시스템(151)에 의한 것이다. 바닥과 일정한 간섭을 가지는 롤러 브러시는 바닥 상의 쓰레기를 쓸고 또한 굴려서 롤러 브러시와 먼지 케이스 사이의 먼지 흡입구 전방으로 보내고, 다음, 팬에 의해 생기고 또한 먼지 케이스를 경유하는 흡입력을 가진 기체에 의해 먼지 케이스로 흡입시킨다. 건식 청결 시스템은 회전축을 구비하는 측면 브러시(152)를 더 포함하고, 회전축은 바닥을 상대로 일정한 각도를 이루어, 부스러기를 청결 시스템의 롤러 브러시 구역으로 이동시키도록 구성된다.
에너지 시스템은 충전전지, 예를 들면 니켈수소전지 및 리튬전지를 포함한다. 충전전지는 충전 제어 회로, 전지팩 충전 온도 검측 회로 및 전지 부족전압 모니터 회로가 연결되고, 충전 제어 회로, 전지팩 충전 온도 검측 회로, 전지 부족전압 모니터 회로는 또한 단일 칩 제어 회로와 연결된다. 호스트 기기는 본체 측방 또는 하방에 설치된 충전 전극을 통해 충전대와 연결하여 충전을 진행한다. 만약 노출된 충전 전극 상에 먼지가 부착되면, 충전 과정에서 전하의 누적효과로 인해, 전극 주변의 플라스틱 몸체가 녹아서 변형되고, 심지어 전극 자체가 변형되어, 정상적으로 충전을 계속할 수 없게 될 수 있다.
인간-기기 상호작용 시스템(180)은 호스트 기기 패널 상의 버튼을 포함하고, 버튼은 사용자가 기능 선택을 진행하게 하고; 디스플레이 및/또는 지시등 및/또는 스피커를 더 포함할 수 있고, 디스플레이, 지시등 및 스피커는 사용자에게 현재 기기가 위치한 상태 또는 기능 옵션을 표시하고; 휴대폰 클라이언트 프로그램을 더 포함할 수 있다. 경로 네비게이션식 청소 장치에 있어서, 휴대폰 클라이언트는 사용자에게 장치가 위치한 환경의 지도 및 기기가 있는 위치를 전시하고, 사용자에게 보다 풍부하고 인간화된 기능 아이템을 제공할 수 있다.
본 발명 실시예는 장애물 탐측 방법을 제공하는 것으로, 해당 방법은 상기에서 서술된 자율 보행 로봇에 응용하고, 자율 보행 로봇 본체에 설치된 이미지 수집 장치를 통해 바로 전방의 이미지를 획득하고, 해당 이미지를 분석하고 나아가 해당 이미지 중에 장애물이 존재하는지 여부를 판단함으로써, 인식 결과에 따라 자율 행보 로봇의 행진 노선을 제어한다.
도5에서 도시한 방법의 단계와 같이, 장애물 탐측 방법을 자율 보행 로봇에 응용하고, 구체적으로 하기와 같은 방법의 단계를 포함하고, 방법의 단계의 번호는 반드시 선후 순서를 구비하는 것은 아니다.
단계(502): 이미지 수집 장치에서 수집한 장애물 정보를 깊이 정보로 전환한다. 이미지 수집 장치는 카메라일 수 있고, 이에 제한되지 않는다.
3D컴퓨터 도형과 컴퓨터 비전에서, 물체의 깊이 정보는 이미지 또는 이미지 채널이고, 여기서 시나리오 타겟의 표면으로부터 시점까지 거리와 관련한 정보를 포함한다. 깊이 이미지의 매개 화소점의 휘도치는 시나리오 중의 어느 한 점과 이미지 수집 장치 사이 거리의 멀고 가까움을 표시하는데 이용될 수 있다.
여기서, 깊이 정보의 획득 방법은 예를 들면, 쌍안 3차원 비전일 수 있고, 해당 방법은 일정한 거리의 간격을 둔 두 개의 카메라를 통해 동시에 동일 시나리오의 두폭의 이미지를 획득하고, 3차원 매칭 알고리즘을 통해 두폭의 이미지 중의 대응하는 화소점을 찾아내고, 나아가 삼각 원리에 따라 시차 정보를 연산하고, 시차 정보는 전환을 통해 시나리오 중의 물체의 깊이 정보를 표시하는데 이용될 수 있다. 3차원 매칭 알고리즘을 기반으로, 또한 동일 시나리오의 부동한 각도의 한 세트의 이미지를 촬영하는 것을 통해, 해당 시나리오의 깊이 정보를 획득할 수 있다.
도6에서 도시한 쌍안 3차원 비전 원리도와 같이, OL와 OR는 좌우 카메라의 광심이고, 이들의 광축과 각자의 이미징 평면은 도6에서 도시한 바와 같다. 만약 쌍안 카메라의 내부와 외부 파라미터가 완전히 동일한 경우, 초점 거리는 f이고, 광심 사이의 거리(기선)는 B이고, 쌍안 카메라는 동일 평면 상에 있고, 즉 그들의 투영 중심의 Y좌표는 동일하다. 동일 시각 공간점 P(x, y, z)이 쌍안 카메라 상에서의 이미징 점은 각각 Pleft 및 Pright이다.
도7에서 도시한 바와 같이, 삼각형 근사 법칙에 따라:
Figure pct00001
변환을 통해, 다음 식을 얻을 수 있다:
Figure pct00002
상기 식을 근거로 알 수 있는 바, 카메라 초점 거리f, 좌우 카메라 기선b(미리 검증된 정보 또는 카메라 교정을 이용하여 얻을 수 있음), 시차d(좌측 카메라 화소점(xl, yl)과 우측 카메라 중의 대응점(xr, yr)의 관계)을 확정하면, 공간점P와 자율 보행 로봇과의 거리(깊이)z를 확정할 수 있다.
단계(S504): 상기 깊이 이미지를 포인트 클라우드 맵으로 변환하고, 상기 장애물의 각 참조점의 3D좌표 데이터를 확정한다. 여기서, 참조점은 일반적으로 장애물 상의 거리를 측정해낼 수 있는 점을 가리키고, 장애물 상의 경계점, 특징점 등을 포함하지만 이에 제한되지 않는다.
깊이 이미지 중의 각점의 화소는 화소 좌표계와 이미지 좌표계를 만족하고, 포인트 클라우드 이미지 중의 각점은 세계 좌표계를 만족한다. 깊이 이미지가 포인트 클라우드 맵으로 변환하는 구체적 변환 원리는 하기와 같다.
카메라 이미징 과정에서 4개의 좌표계, 즉 화소 좌표계, 이미지 좌표계, 카메라 좌표계 및 세계 좌표계가 존재한다. 도8에서 도시한 바와 같이, 화소 좌표계는 이미지의 왼쪽 상단 모서리를 원점O0 으로 하고, 횡좌표(u, v)는 각각 해당 화소점이 이미지 중에서의 열수와 행수를 표시하고; 이미지 좌표계의 원점은 카메라의 광축과 이미지 평면과의 교점이고, 일반적으로 이미지 평면의 중심이고, x축과 u축은 평행되고, y축과 v축도 평행된다. O1이 화소 좌표계O0-uv에서의 좌표는 (u0, v0)이고, dx, dy는 단위 화소가 횡축과 종축 상에서의 물리 사이즈이고, 두개의 좌표계 사이는 하기와 같은 관계를 가지고:
Figure pct00003
동차 행렬로 하기와 같이 표시되고:
Figure pct00004
진일보 하기와 같이 변환된다:
Figure pct00005
도9에서 도시한 바와 같이, 카메라의 이미징 원리도이고, O는 카메라의 광심이고, zc는 카메라의 광축이고, 광축과 이미지 평면과의 교점은 O1이다. 좌표계O-xcyczc은 카메라 좌표계이고, Ow-xwywzw은 세계 좌표계이며, OO1사이의 거리는 카메라의 초점 거리f이다.
카메라 좌표계로부터 이미지 좌표계로의 공식 변환 관계는 하기와 같다:
Figure pct00006
동차 행렬로 하기와 같이 표시되고:
Figure pct00007
세계 좌표계와 카메라 좌표계의 전환 관계는 하기와 같으며:
Figure pct00008
여기서, R는 회전 행렬이고, T는 이동 행렬이다.
설명이 필요한 것은, 상기 원리성 설명은 단지 소개성 설명일 뿐, 변환 원리의 유일한 방안으로 한정하려는 것은 아니다.
단계(S506): 상기 포인트 클라우드 맵에서 높이 방향 상의 유효 분석 범위를 선택한다.
통상 자율 보행 로봇의 높이는 10cm이상이고, 이로써, 상기 자율 보행 로봇의 상부의 라이다 장치는 흔히 높이가 10cm이상의 장애물만을 탐측할 수 있고, 자율 보행 로봇의 장애물 극복 높이는 1~2cm이고, 이로써, 선택된 높이 범위는 바람직하게 3~9cm이며, 이때, 카메라의 시야 방향은 자율 보행 로봇이 작업시의 운행 방향을 향하고, 라이다의 사각 지대를 탐측해낼 수 있다. 이때, 획득된 포인트 클라우드 맵 중의 높이 범위가 3~9cm인 3D데이터점에 대해 분석을 진행하여, 이상적인 타겟 장애물을 정확히 획득할 수 있다.
단계(508): 상기 유효 분석 범위 내에서, 상기 각 참조점의 좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석한다.
선택 가능한 구체적인 실시방식으로서, 상기 유효 분석 범위 내에서, 상기 각 참조점의 좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계는, 하기와 같은 방법의 단계를 포함한다:
단계(S508-2): 좌표 데이터가 3D좌표인 경우, 상기 유효 분석 범위 내의 상기 각 참조점의 3D좌표 데이터를 2D좌표 데이터로 전환한다. 구체적 전환 과정은 상기와 같으므로, 여기서 더 서술하지 않으며, 3D 포인트 클라우드 데이터를 2D좌표 데이터로 변환하는 것을 통해, 데이터 처리량을 효과적으로 감소시키고, 데이터 처리 효율을 향상시킬 수 있다.
단계(S508-4): 상기 유효 분석 범위 내에서, 상기 각 참조점의 2D좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석한다.
선택 가능한 구체적인 실시방식으로서, 상기 유효 분석 범위 내에서, 상기 각 참조점의 2D좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계는, 하기와 같은 하위 단계를 포함한다:
단계(S508-4-2): 상기 자율 보행 로봇이 행진 과정에서 형성한 확률맵을 획득한다.
자율 보행 로봇은 보행 과정에서 실시간으로 장애물 검측을 진행하고, 장애물이 검측되는 경우, 맵 상의 대응 추정 위치의 확률치를 증가하고; 장애물이 검측되지 않은 부분에 대해, 대응하는 맵 구역을 연산하고, 해당 구역 내의 확률치를 감소한다.
확률 맵은 시스템 상태 벡터의 평균치와 분산의 현재 추정을 포함한다. 전자는 맵 중의 물체가 세계 참조계 하에서의 명의 위치를 표시하고; 후자는 맵 중의 각 참조점의 불명확성 및 이러한 불명확성의 상호 의존 정도를 표시한다.
상기 확률맵은 자율 보행 로봇이 히스토리 운행 궤적 과정에서, 다수의 히스토리 경험으로 해당 위치에 장애물이 존재하는지 여부를 판단하고, 또한 장애물이 존재하는지의 위치에 대해 표기를 진행하고, 동시에 해당 위치를 장애물의 확률치로 표기하며, 예를 들면, 해당 위치에 장애물이 존재하는 확률치를 80% 또는 30%으로 표기한다. 확률맵은 자율 보행 로봇 자체의 기억 장치에 저장되고, 또한 확률 데이터 및 위치 데이터는 자율 보행 로봇의 운행에 따라 지속적으로 업데이트된다.
단계(S508-4-4): 상기 확률맵을 기반으로, 상기 각 참조점의 2D좌표 데이터 중의 잡음점 좌표 데이터를 필터링해내고, 필터링 후의 상기 각 참조점의 2D좌표 데이터를 기반으로 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석한다.
선택 가능한 구체적인 실시방식으로서, 상기 확률맵을 기반으로, 상기 각 참조점의 2D좌표 데이터 중의 잡음점 좌표 데이터를 필터링해내는 단계는, 하기와 같은 하위 단계를 포함한다:
단계(S508-4-4-2): 상기 확률맵 중의 장애물의 위치 좌표 데이터를 획득하고, 상기 확률맵 중에서, 상기 장애물의 확률치는 예정 확률 역치보다 크다.
확률맵에서, 선택된 장애물 타겟은 그 확률치가 예정 역치보다 큰 장애물 타겟이며, 예를 들면, 어느 한 장애물 타겟A의 확률은 50%이고, 다른 한 장애물 타겟B의 확률은 60%이며, 확률 역치를 55%로 취하는 경우, 장애물 타겟B 의 좌표 데이터는 고려하고, 장애물 타겟A는 무시한다. 선택될 확률맵 중의 장애물 타겟을 확정하면, 매개 장애물 타겟의 좌표 데이터를 획득할 수 있으며, 예를 들면 B(x1, y1)로 표기한다.
단계(S508-4-4-4): 상기 장애물의 위치 좌표 데이터와 상기 각 참조점의 2D좌표 데이터를 비교하고, 상기 장애물의 위치 좌표 데이터와 상기 각 참조점의 2D좌표 데이터의 거리가 예정치보다 큰 경우, 상기 2D좌표 데이터를 필터링해낸다.
예를 들면, 확률맵 중에서 선택된 장애물 타겟B(x1, y1)의 좌표치와 쌍안 카메라에서 획득한 2D데이터 중의 어느 한 점C의 좌표치C(x0, y0)를 비교하고, 상기 장애물의 위치 좌표 데이터와 상기 각 참조점의 2D좌표 데이터의 거리가 예정치보다 큰 경우, 상기 2D좌표 데이터를 필터링해내고, 다시 말하면, B(x1, y1) 와 C(x0, y0)의 거리가 충분히 먼 경우, 상기 2D좌표 데이터를 필터링해내고, 이때 해당 점C(x0, y0)을 잡음으로 간주한다. 여기서, 예정치는 실험 데이터를 기반으로 확정을 진행할 수 있고, 여기서 제한하지 않는다.
선택 가능한 구체적인 실시방식으로서, 상기 유효 분석 범위 내에서, 상기 각 참조점의 2D좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계는, 하기와 같은 단계:
상기 유효 분석 범위 내에서, 상기 각 참조점에 대해 군집 분류를 진행하고, 인접한 참조점의 좌표 데이터와의 거리가 제2예정치보다 작은 모든 참조점을 하나의 구역으로 하는 단계; 각각 매개 구역의 사이즈를 판단하는 단계; 상기 사이즈가 제3예정치보다 크거나 같은 경우, 상기 유효 분석 범위 내에 장애물이 존재하는 것으로 확정하는 단계를 포함한다.
도10에서 도시한 바와 같이, 예를 들면, 높이가 3~9cm인 거리 범위 내에서, 이미지의 해당 범위 내의 각 참조점과 인접한 점의 좌표 데이터 거리에 대해 연산을 진행하고, 거리치가 제2예정치보다 작은 모든 점을 하나의 구역으로 하며, 예를 들면, 구역D, E, F, G과 같고, 점H, K는 제2예정치를 초과하여, 잡음점으로 판단한다. 여기서, 제2, 제3예정치는 화소 사이즈에 따라 설정을 진행할 수 있고, 여기서 한정을 하지 않는다.
그리고 각각 매개 구역의 사이즈를 판단하고; 상기 사이즈가 제3예정치보다 크거나 같은 경우, 상기 유효 분석 범위 내에 장애물이 존재한다고 확정한다. 상기 사이즈는 매개 구역의 면적, 매개 구역의 직경(구역이 원형 근사 구역을 구성하는 경우, 구역의 직경을 획득함), 매개 구역의 기하학적 중심을 가로지르는 최소 거리 중의 적어도 하나를 포함한다. 도10에서 도시한 바와 같이, 구역D, E, F, G에 있어서, 장애물에 속한다고 판단할 수 있고, 또한 구역 중의 각 점은 장애물 표면의 점에 속하며, 점H, K는 비장애물로 판단한다.
다른 하나의 선택 가능한 구체적 실시방식으로서, 상기 유효 분석 범위 내에서, 상기 각 참조점의 좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계는, 하기와 같은 단계:
상기 유효 분석 범위 내에서, 상기 각 참조점에 대해 군집 분류를 진행하고, 인접한 점의 3D좌표 데이터와의 거리가 제4예정치보다 작은 모든 점을 하나의 3차원 구역으로 하는 단계; 매개 3차원 구역의 사이즈를 각각 판단하는 단계; 상기 사이즈가 제5예정치보다 크거나 같은 경우, 상기 유효 분석 범위 내에 장애물이 존재하는 것으로 확정하는 단계를 포함한다.
예를 들면, 높이가 3~9cm인 거리 범위 내에서, 범위 내의 각 참조점과 3D공간 범위 내의 서로 인접한 점의 좌표 데이터 거리에 대해 연산을 진행하고, 거리치가 제4예정치보다 작은 모든 점을 하나의 구역으로 하며, 모든 좌표점을 탐색한 후, 매개 3차원 구역의 사이즈를 각각 판단하고, 상기 사이즈가 제5예정치보다 크거나 같은 경우, 상기 유효 분석 범위 내에 장애물이 존재한다고 확정한다. 상기 사이즈는 매개 구역의 체적, 매개 구역의 직경(구역이 원형 근사 구역을 구성하는 경우, 구역의 직경을 획득함), 매개 구역의 기하학적 중심을 가로지르는 최소 거리, 구역의 높이 중의 적어도 하나를 포함한다. 여기서, 제4, 제5예정치는 화소 사이즈에 따라 설정을 진행할 수 있고, 여기서 한정을 하지 않는다.
선택 가능한 구체적 실시방식으로서, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계 후에는,
단계(S510): 상기 유효 분석 범위 내에 장애물이 존재하는 경우, 상기 장애물의 사이즈 범위가 예정 역치보다 작은지 여부를 판단하고; 상기 장애물의 사이즈 범위가 예정 역치보다 작은 경우, 상기 자율 보행 로봇이 상기 장애물까지의 거리가 예정 거리 범위 내에서 측면 브러쉬의 회전속도를 감소시키도록 제어하는 것을 포함한다.
상기 방법의 단계에 따라, 장애물인지 여부를 판단할 수 있고, 나아가, 구역 면적의 사이즈에 따라, 장애물의 사이즈를 판단할 수 있고, 실험 데이터를 결합하여 하나의 예정 역치를 설정하고, 해당 역치는 구역 면적 또는 화소량일 수 있으며, 구체적 역치는 한정을 하지 않는다. 해당 역치를 초과하는 경우, 큰 사이즈의 장애물에 속한다고 간주하고, 반대인 경우 작은 사이즈의 장애물에 속한다고 간주한다. 작은 사이즈의 장애물에 대해, 회피를 진행하지 않고, 상기 자율 보행 로봇이 상기 장애물까지의 거리가 예정 거리 범위 내에서 측면 브러쉬의 회전속도를 감소시키도록 제어하여, 작은 사이즈 장애물이 부딪혀 튕겨나가는 것을 방지할 수 있다. 큰 사이즈 장애물에 대해, 상기 자율 보행 로봇이 상기 장애물까지의 거리가 예정 거리 범위 내에서 회피 조작을 실행하도록 제어한다.
본 발명 실시예는 장애물 탐측 방법을 제공하고, 해당 방법은 자율 보행 로봇 자체가 획득한 일정한 높이 범위 내의 깊이 이미지를 이용하여, 깊이 이미지에 대해 좌표 변환, 데이터 군집 분류 등 처리를 진행하고, 이로써 현재 깊이 이미지 중에 장애물이 존재하는지 여부를 정확히 판단할 수 있다. 해당 방법은 자율 보행 로봇의 행진 노선 중의 임의의 물체에 대해 탐측을 진행할 수 있으므로, 종래 방법의 장애물 종류에 대한 제한성을 돌파한 동시에, 레이저 장치의 탐측에서의 높이에 대한 결함을 극복하여, 자율 보행 로봇의 장애물 탐측 능력을 진일보 향상시키고, 자율 보행 로봇의 회피 성능을 증가시킬 수 있다.
도11에서 도시한 바와 같이, 본 발명의 다른 실시예는 장애물 탐측 방법 제공하는 것으로, 자율 보행 로봇에 응용하고, 하기의 방법의 단계를 포함한다:
단계(S1102): 이미지 수집 장치에서 수집한 장애물 정보를 깊이 정보로 전환한다.
해당 단계의 과정은 상기 실시예의 단계(S502)에서 서술한 바를 참조하면 되고, 여기서 서술하지 않는다.
단계(S1104): 상기 깊이 정보를 포인트 클라우드 맵으로 변환하고, 상기 포인트 클라우드 맵에서 유효 분석 범위를 선택하고;
상기 깊이 정보를 포인트 클라우드 맵으로 변환하는 과정은 상기 실시예 단계(S504)에서 서술한 바를 참조하면 되고, 상기 포인트 클라우드 맵 중에서 유효 분석 범위를 선택하는 과정은 상기 실시예 단계(S5011)에서 서술한 바를 참조하면 되고, 여기서 서술하지 않는다.
단계(S1108): 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 확정하고, 상기 장애물의 사이즈를 근거로 네비게이션을 실행한다.
일 실시방식으로서, 여기서 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 확정하는 단계는 하기와 같은 하위 단계를 포함한다:
단계(S1108-1): 상기 유효 분석 범위 내에서, 상기 각 참조점에 대해 군집 분류를 진행하고;
단계(S1108-2): 인접한 참조점의 좌표 데이터와의 거리가 제2예정치보다 작은 모든 참조점을 하나의 구역으로 하고;
단계(S1108-3): 매개 구역의 사이즈를 각각 판단하고;
단계(S1108-4): 상기 구역의 사이즈가 제3예정치보다 크거나 같은 경우, 상기 유효 분석 범위 내에 장애물이 존재하는 것으로 확정한다. 선택적으로, 상기 사이즈는 매개 구역의 면적/체적, 매개 구역의 직경, 구역의 기하학적 중심을 가로지르는 최소 거리 중 적어도 하나를 포함한다.
일 실시예로서, 상기 장애물의 사이즈를 근거로 네비게이션을 실행하는 단계는, 상기 장애물의 사이즈 범위가 예정 역치보다 작은 경우, 상기 자율 보행 로봇이 상기 장애물까지의 거리가 예정 거리 범위 내에서 측면 브러쉬의 회전속도를 감소시키도록 제어하는 단계를 포함한다.
예를 들면, 사이즈가 비교적 작은 장애물에 대해서는, 비교적 먼 회피 거리를 선택하여, 근거리에서 장애물이 부딪혀 튕겨나가는 것을 진일보 방지할 수 있다. 구체적으로, 구역 면적의 사이즈에 따라, 장애물의 사이즈를 판단할 수 있고, 실험 데이터를 결합하여 하나의 예정 역치를 설정하고, 해당 역치는 구역 면적 또는 화소량일 수 있으며, 구체적 역치는 한정을 하지 않는다. 해당 역치를 초과하는 경우, 큰 사이즈의 장애물에 속한다고 간주하고, 반대인 경우 작은 사이즈의 장애물에 속한다고 간주한다. 작은 사이즈의 장애물에 대해, 회피를 진행하지 않고, 상기 자율 보행 로봇이 상기 장애물까지의 거리가 예정 거리 범위 내에서 측면 브러쉬의 회전속도를 감소시키도록 제어하여, 작은 사이즈 장애물이 부딪혀 튕겨나가는 것을 방지할 수 있다.
일 실시예로서, 상기 장애물의 사이즈를 근거로 네비게이션을 실행하는 단계는, 상기 장애물의 사이즈 또는 해당 사이즈가 처한 범위에 따라, 그 회피 거리를 확정하고, 상기 자율 보행 로봇이 상기 회피 거리에서 회피 책략의 실행을 시작하도록 제어하는 단계를 포함한다.
예정 역치를 초과한 큰 사이즈 장애물에 대해, 상기 자율 보행 로봇이 상기 장애물까지의 거리가 예정 거리 범위 내에서 회피 조작을 실행하도록 제어한다. 통상적인 상황 하에서, 판단된 장애물의 사이즈가 크면 클 수록, 회피 조작의 실행을 시작하는 거리는 더 작으며, 이는 장애물이 클 수록, 측면 브러시의 영향을 더 작게 받기 때문이고, 심지어 보행 로봇은 장애물을 따라 보행할 수 있다.
일 실시예로서, 상기 장애물의 사이즈를 근거로 네비게이션을 실행하는 단계는, 구체적으로, 상기 장애물의 높이가 예정 높이보다 높다고 판단하는 경우, 회피 책략을 실행하는 단계를 포함한다. 이로써, 높이가 일정한 수치를 초과하는 장애물만이 회피 조작을 필요로 하고; 높이가 비교적 작은 경우, 직접 해당 장애물을 넘는 것을 선택하여, 청소가 누락되는 구역을 진일보 감소할 수 있다.
도12에서 도시한 바와 같이, 본 발명의 실시예는 장애물 탐측 방법 장치를 제공하는 것으로, 상기 실시예에 따른 방법의 단계를 실시하도록 구성되고, 동일한 방법의 단계에 대해 동일한 기술 효과를 가지므로, 여기서 더 서술하지 않으며, 구체적으로, 상기 장애물 탐측 장치는,
이미지 수집 장치에서 수집한 장애물 정보를 깊이 정보로 전환하도록 구성된 전환 유닛(1202);
상기 깊이 정보를 포인트 클라우드 맵으로 변환하고, 또한 상기 장애물 상의 각 참조점의 좌표 데이터를 확정하도록 구성된 변환 유닛(1204);
상기 포인트 클라우드 맵에서 높이 방향 상의 유효 분석 범위를 선택하도록 구성된 확정 유닛(1206);
상기 유효 분석 범위 내에서, 상기 각 참조점의 좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하도록 구성된 분석 유닛(1208)을 포함한다.
선택적으로, 상기 분석 유닛(1208)은 또한 상기 유효 분석 범위 내의 상기 각 참조점의 3D좌표 데이터를 2D좌표 데이터로 전환한다. 상기 유효 분석 범위 내에서, 상기 각 참조점의 2D좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석한다.
선택적으로, 상기 분석 유닛(1208)은 또한 상기 자율 보행 로봇이 행진 과정에서 형성한 확률맵을 획득하고; 상기 확률맵을 기반으로, 상기 각 참조점의 2D좌표 데이터 중의 잡음점 좌표 데이터를 필터링해내고, 필터링 후의 상기 각 참조점의 2D좌표 데이터를 기반으로 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석한다.
선택적으로, 상기 분석 유닛(1208)은 또한 상기 확률맵 중의 장애물의 위치 좌표 데이터를 획득하고, 상기 확률맵 중에서, 상기 장애물의 확률치는 예정 확률 역치보다 크며; 상기 장애물의 위치 좌표 데이터와 상기 각 참조점의 2D좌표 데이터를 비교하고, 상기 장애물의 위치 좌표 데이터와 상기 각 참조점의 2D좌표 데이터의 거리가 예정치보다 큰 경우, 상기 2D좌표 데이터를 필터링해낸다.
선택적으로, 상기 분석 유닛(1208)은 또한 상기 유효 분석 범위 내에서, 상기 각 참조점에 대해 군집 분류를 진행하고, 인접한 참조점의 좌표 데이터와의 거리가 제2예정치보다 작은 모든 참조점을 하나의 구역으로 하고; 매개 구역의 사이즈를 각각 판단하고; 상기 사이즈가 제3예정치보다 크거나 같은 경우, 상기 유효 분석 범위 내에 장애물이 존재하는 것으로 확정한다. 상기 사이즈는 매개 구역의 면적/체적, 매개 구역의 직경, 매개 구역의 기하학적 중심을 가로지르는 최소 거리 중 적어도 하나를 포함한다.
또한, 상기 유효 분석 범위 내에 장애물이 존재하는 경우, 상기 장애물의 사이즈 범위가 예정 역치보다 작은지 여부를 판단하고; 상기 장애물의 사이즈 범위가 예정 역치보다 작은 경우, 상기 자율 보행 로봇이 상기 장애물까지의 거리가 예정 거리 범위 내에서 측면 브러쉬의 회전속도를 감소시키도록 제어하고; 상기 장애물의 사이즈 범위가 예정 역치 보다 크거나 같은 경우, 상기 자율 보행 로봇이 상기 장애물까지의 거리가 예정 거리 범위 내에서 회피 조작을 실행하도록 제어하는 제어 유닛(미도시)을 더 포함한다.
본 발명 실시예는 장애물 탐측 장치를 제공하고, 자율 보행 로봇의 쌍안 카메라를 이용하여 자율 보행 로봇의 일정한 높이 범위 내의 깊이 이미지를 획득하고, 나아가 깊이 이미지에 대해 좌표 변환, 데이터 군집 분류 등 처리를 진행하고, 이로써 현재 깊이 이미지 중에 장애물이 존재하는지 여부를 정확히 판단할 수 있다. 해당 방법은 자율 보행 로봇의 행진 노선 중의 임의의 물체에 대해 탐측을 진행할 수 있으므로, 종래 방법의 장애물 종류에 대한 제한성을 돌파한 동시에, 레이저 장치의 탐측에서의 높이에 대한 결함을 극복하여, 자율 보행 로봇의 장애물 탐측 능력을 진일보 향상시키고, 자율 보행 로봇의 회피 성능을 증가시킬 수 있다.
도13에서 도시한 바와 같이, 본 발명의 다른 실시예는 장애물 탐측 장치를 제공하고, 상기 실시예에 따른 방법의 단계를 실시하도록 구성되고, 동일한 방법의 단계에 대해 동일한 기술 효과를 가지므로, 여기서 더 서술하지 않으며, 구체적으로, 상기 장애물 탐측 장치는,
이미지 수집 장치에서 수집한 장애물 정보를 깊이 정보로 전환하도록 구성된 이미지 전환 유닛(1302);
상기 깊이 정보를 포인트 클라우드 맵으로 변환하고, 또한 상기 장애물의 각 참조점의 좌표 데이터를 확정하도록 구성된 이미지 변환 유닛(1304);
상기 포인트 클라우드 맵에서 유효 분석 범위를 선택하도록 구성된 범위 선택 유닛(1306);
상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 확정하고, 상기 장애물의 사이즈를 근거로 네비게이션을 실행하도록 구성된 네비게이션 실행 유닛(1308)을 포함한다.
일 실시방식으로서, 네비게이션 실행유닛(1308)은 또한 상기 유효 분석 범위 내에서, 상기 각 참조점에 대해 군집 분류를 진행하고, 인접한 참조점의 좌표 데이터와의 거리가 제2예정치보다 작은 모든 참조점을 하나의 구역으로 하고; 매개 구역의 사이즈를 각각 판단하고; 상기 사이즈가 제3예정치보다 크거나 같은 경우, 상기 유효 분석 범위 내에 장애물이 존재하는 것으로 확정한다. 선택적으로, 상기 사이즈는 매개 구역의 면적/체적, 매개 구역의 직경, 매개 구역의 기하학적 중심을 가로지르는 최소 거리, 구역의 높이 중 적어도 하나를 포함한다.
일 실시예로서, 상기 장애물의 사이즈를 근거로 네비게이션을 실행하는 것은, 상기 장애물의 사이즈 범위가 예정 역치보다 작은 경우, 상기 자율 보행 로봇이 상기 장애물까지의 거리가 예정 거리 범위 내에서 측면 브러쉬의 회전속도를 감소시키도록 제어하는 것을 포함한다.
일 실시예로서, 상기 장애물의 사이즈를 근거로 네비게이션을 실행하는 것은, 상기 장애물의 사이즈 또는 해당 사이즈가 처한 범위에 따라, 그 회피 거리를 확정하고, 상기 자율 보행 로봇이 상기 회피 거리에서 회피 책략의 실행을 시작하도록 제어하는 것을 포함한다.
본 발명 실시예는 비일시적 컴퓨터 판독 가능한 기억 매체를 제공하는 것으로, 컴퓨터 프로그램 명령을 저장하고, 상기 컴퓨터 프로그램 명령은 프로세서에 의해 호출되어 실행될 때, 상기의 임의의 방법의 단계를 실현할 수 있다.
본 발명 실시예는 로봇을 제공하는 것으로, 프로세서 및 메모리를 포함하고, 상기 메모리는 상기 프로세서에 의해 실행되는 컴퓨터 프로그램 명령을 저장하고, 상기 프로세서가 상기 컴퓨터 프로그램 명령을 실행할 때, 상기의 임의의 방법의 단계를 실현할 수 있다.
도14에서 도시한 바와 같이, 로봇은 처리 장치(예를 들면, 중앙 처리 장치, 이미지 처리 장치 등)(1401)를 포함할 수 있고, 이는 읽기 전용 기억 장치(ROM)(1402) 중에 저장된 프로그램 또는 기억 장치(1408)로부터 임의 접근 기억 장치(RAM)(1403) 중에 로드한 프로그램을 기반으로, 각종 적절한 동작과 처리를 실행할 수 있다. RAM(1403) 중에는, 또한 전자 로봇(1400)의 조작에 필요로 하는 각종 프로그램과 데이터가 저장된다. 처리 장치(1401), ROM(1402) 및 RAM(1403)은 버스(1404)를 통해 서로 연결된다. 입력/출력(I/O) 인터페이스(1405)도 버스(1404)에 연결된다.
통상적으로, 하기의 장치, 예를 들면, 터치 스크린, 터치 패널, 키보드, 마우스, 카메라, 마이크, 가속도계, 자이로스코프 등을 포함한 입력 장치(1406); 예를 들면, 액정 화면(LCD), 스피커, 진동기 등을 포함하는 출력 장치(1407); 예를 들면, 하드웨어 등을 포함하는 기억 장치(1408); 및 통신 장치(1409)는 I/O인터페이스(1405)에 연결될 수 있다. 통신 장치(1409)는 전자 로봇이 기타 로봇과 무선 또는 유선 통신을 진행하여 데이터를 교환하도록 허락할 수 있다. 도14에서 각종 장치를 구비하는 전자 로봇을 도시하였지만, 응당 이해해야 할 것은, 도시한 모든 장치를 실시하거나 또는 구비하는 것은 요구하지 않는다. 대체 가능하게 더 많거나 또는 더 적은 장치를 실시하거나 또는 구비할 수 있다.
특별하게는, 본 발명의 실시예에 따르면, 상기의 참조 흐름도에서 설명한 과정은 로봇 소프트웨어 프로그램으로 실현될 수 있다. 예를 들면, 본 발명의 실시예는 로봇 소프트웨어 프로그램 제품을 포함하고, 판독 가능한 매체 상에 로드된 컴퓨터 프로그램을 포함하고, 해당 컴퓨터 프로그램은 흐름도에서 나타낸 방법을 실행하는 프로그램 코드를 포함한다. 이러한 실시예에서, 해당 컴퓨터 프로그램은 통신 장치(1409)를 통해 네트워크로부터 다운로드 및 설치되고, 또는 기억 장치(1408)로부터 설치되거나, 또는 ROM(1402)로부터 설치될 수 있다. 해당 컴퓨터 프로그램은 처리 장치(1401)에 의해 실행되는 경우, 본 발명의 실시예의 방법에서 한정한 상기 기능을 실행한다.
설명이 필요한 것은, 본 발명의 상기 컴퓨터 판독 가능한 매체는 컴퓨터 판독 가능한 신호 매체 또는 컴퓨터 판독 가능한 기억 매체 또는 상기 양자의 임의 조합일 수 있다. 컴퓨터 판독 가능한 기억 매체는 예를 들면, 전기, 자기, 빛, 전자기, 적외선, 또는 반도체 시스템, 장치 또는 기기, 또는 임의의 상기의 조합일 수 있지만, 이에 제한되지 않는다. 컴퓨터 판독 가능한 기억 매체는 더 구체적인 예로서, 하나 또는 다수의 도선의 전기적 연결, 휴대용 컴퓨터 디스크, 하드웨어, 임의 접근 메모리(RAM), 읽기 전용 기억 장치(ROM), 소거 프로그램 가능 ROM(EPROM 또는 플래시 메모리), 광섬유, 콤팩트디스크 읽기 전용 기억 장치(CD-ROM), 광 기억 장치, 자기 기억 장치 또는 상기의 임의의 적절한 조합을 포함할 수 있지만, 이에 제한되지 않는다. 본 발명에서, 컴퓨터 판독 가능한 기억 매체는 임의의 프로그램을 포함하거나 또는 저장하는 유형적 매체일 수 있고, 해당 프로그램은 명령 실행 시스템, 장치 또는 기기에 의해 이용되거나 또는 이들과 결합하여 이용될 수 있다. 본 발명에서, 컴퓨터 판독 가능한 신호 매체는 기저대 중의 또는 반송파 일부분으로서 전파되는 데이터 신호를 포함할 수 있고, 그 중에는 컴퓨터 판독 가능한 프로그램 코드를 반송한다. 이러한 전파된 데이터 신호는 다양한 형식을 채용하고, 전자기 신호, 광 신호 또는 상기의 임의의 적절한 조합을 포함할 수 있지만, 이에 제한되지 않는다. 컴퓨터 판독 가능한 신호 매체는 또한 컴퓨터 판독 가능한 기억 매체 이외의 임의의 컴퓨터 판독 가능한 매체일 수도 있고, 해당 컴퓨터 판독 가능한 신호 매체는 명령 실행 시스템, 장치 또는 기기에 의해 이용되거나 또는 이들과 결합하여 이용되는 프로그램을 발송, 전파 또는 전송할 수 있다. 컴퓨터 판독 가능한 매체 상에는 프로그램 코드를 포함하고, 전선, 광 케이블, RF(무선 주파수) 등, 또는 상기의 임의의 적절한 조합을 포함한 임의의 적절한 매체를 이용하여 전송할 수 있지만, 이에 제한되지 않는다.
상기 컴퓨터 판독 가능한 매체는 상기 로봇에 포함될 수 있거나; 또한 단독으로 존재하여, 해당 로봇에 설치되지 않을 수 있다.
하나 또는 다수의 프로그램 디자인 언어 또는 그 조합으로 본 발명의 조작을 실행하는 컴퓨터 프로그램 코드를 코딩하고, 상기 프로그램 디자인 언어는 객체 지향형의 프로그램 디자인 언어 예를 들면, Java, Smalltalk, C++를 포함하고, 통상적인 절차형 프로그램 디자인 언어 예를 들면, "C"언어 또는 유사한 프로그램 디자인 언어를 더 포함한다. 프로그램 코드는 완전히 사용자 컴퓨터로 실행하거나, 부분적으로 사용자 컴퓨터로 실행하거나, 독립적인 소프트웨어 패키지로서 실행되거나, 부분적으로 사용자 컴퓨터로 부분적으로 원격 컴퓨터로 실행되거나, 또는 완전히 원격 컴퓨터 또는 서버로 실행될 수 있다. 원격 컴퓨터와 관련있는 상황에서, 원격 컴퓨터는 근거리 통신 망(LAN) 또는 광역망(WAN)을 포함한 임의의 종류의 네트워크를 통해 사용자 컴퓨터에 연결되거나, 또는, 외부 컴퓨터(예를 들면, 인터넷 서비스 사업자를 이용하여 인터넷을 통해 연결)에 연결될 수 있다.
도면 중의 흐름도와 블록도는, 본 발명의 각종 실시예에 따른 시스템, 방법 및 컴퓨터 프로그램 제품의 실현 가능한 체계 구성, 기능 및 조작을 도시하였다. 이 점에 있어서, 흐름도 또는 블록도 중의 매개 블록은 하나의 모듈, 프로그램 세그먼트 또는 코드의 일부분을 대표하고, 해당 모듈, 프로그램 세그먼트 또는 코드의 일부분은 하나 또는 다수의 규정된 로직 기능을 실현하는 실행 가능한 명령을 포함한다. 유의할 사항은, 일부 대체 가능한 실현에 있어서, 블록 중에 표시된 기능은 도면 중에 표시된 순서와 부동하게 발생될 수도 있다. 예를 들면, 두개 연달아 표시된 블록은 실제 상에서 기본적으로 병행하여 실행될 수 있고, 이들은 어떤 경우엔 반대 순서로 실행될 수도 있으며, 이는 관련된 기능에 의거하여 확정될 수 있다. 더 유의할 사항은, 블록도 및/또는 흐름도 중의 매개 블록, 및 블록도 및/또는 흐름도 중의 블록의 조합은 규정된 기능 또는 조작을 실행하는 전용적 하드웨어의 시스템을 이용하여 실현될 수 있거나, 또는 전용적 하드웨어와 컴퓨터 명령의 조합으로 실현될 수 있다.
상기에서 서술한 장치 실시예는 단지 예시적인 목적일 뿐, 여기서 상기 분리 수단으로서 설명한 유닛은 물리적으로 분리된 것이거나 또는 분리되지 않은 것일 수도 있고, 유닛으로 표시된 수단은 물리적 유닛일 수 있거나 또는 아닐 수도 있으며, 즉 한 곳에 위치하거나, 또는 다수의 네트워크 유닛에 분포될 수도 있다. 실제 소요에 따라 그 중의 부분 또는 전부 모듈을 선택하여 본 실시예 방안의 목적을 실현할 수 있다. 해당 분야의 통상의 지식을 가진 자라면 진보적 노동을 필요로 하지 않은 상황에서, 이해하고 실시 가능한 것이다.
마지막으로 설명할 것은: 상기의 실시예는 단지 본 발명의 기술 수단을 설명할 뿐, 제한하려는 것은 아니고; 상기의 실시예를 참조하여 본 발명에 대해 상세한 설명을 진행하였지만, 해당 분야의 통상의 지식을 가진 자라면 이해 가능한 것은: 상기의 각 실시예에서 기재된 기술 수단에 대해 수정할 수 있거나, 또는 그 중의 부분적 기술 특징에 대해 동등한 대체를 진행할 수도 있으며; 이러한 수정 또는 대체는 상응하는 기술 수단의 본질을 본 발명의 각 실시예의 기술 수단의 정신과 범위에서 이탈시킬 수 없다.

Claims (16)

  1. 자율 보행 로봇에 응용하는 장애물 탐측 방법에 있어서,
    이미지 수집 장치에서 수집한 장애물 정보를 깊이 정보로 전환하는 단계;
    상기 깊이 정보를 포인트 클라우드 맵으로 변환하고, 상기 장애물 상의 각 참조점의 좌표 데이터를 확정하는 단계;
    상기 포인트 클라우드 맵에서 높이 방향 상의 유효 분석 범위를 선택하는 단계; 및
    상기 각 참조점의 좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계를 포함하는
    것을 특징으로 하는 장애물 탐측 방법.
  2. 제1항에 있어서,
    상기 각 참조점의 좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계는,
    상기 유효 분석 범위 내의 상기 각 참조점의 3D좌표 데이터를 2D좌표 데이터로 전환하는 단계; 및
    상기 유효 분석 범위 내에서, 상기 각 참조점의 2D좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계를 포함하는
    것을 특징으로 하는 장애물 탐측 방법.
  3. 제2항에 있어서,
    상기 각 참조점의 2D좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계는,
    상기 자율 보행 로봇이 행진 과정에서 형성한 확률맵을 획득하는 단계; 및
    상기 확률맵을 기반으로, 상기 각 참조점의 2D좌표 데이터 중의 잡음점 좌표 데이터를 필터링해내고, 필터링 후의 상기 각 참조점의 2D좌표 데이터를 기반으로 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계를 포함하는
    것을 특징으로 하는 장애물 탐측 방법.
  4. 제3항에 있어서,
    상기 확률맵을 기반으로, 상기 각 참조점의 2D좌표 데이터 중의 잡음점 좌표 데이터를 필터링해내는 단계는,
    상기 확률맵 중의 장애물의 위치 좌표 데이터를 획득하고, 상기 확률맵 중에서, 상기 장애물의 확률치는 예정 확률 역치보다 큰 단계; 및
    상기 장애물의 위치 좌표 데이터와 상기 각 참조점의 2D좌표 데이터를 비교하고, 상기 장애물의 위치 좌표 데이터와 상기 각 참조점의 2D좌표 데이터의 거리가 제1예정치보다 큰 경우, 상기 2D좌표 데이터를 필터링해내는 단계를 포함하는
    것을 특징으로 하는 장애물 탐측 방법.
  5. 제1항 내지 제4항 중의 어느 한 항에 있어서,
    상기 각 참조점의 2D 또는 3D 좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계는,
    상기 유효 분석 범위 내에서, 상기 각 참조점에 대해 군집 분류를 진행하고, 인접한 참조점의 좌표 데이터와의 거리가 제2예정치보다 작은 모든 참조점을 하나의 구역으로 하는 단계;
    각각 매개 구역의 사이즈를 판단하는 단계; 및
    상기 구역의 사이즈가 제3예정치보다 크거나 같은 경우, 상기 유효 분석 범위 내에 장애물이 존재하는 것으로 확정하는 단계를 포함하는
    것을 특징으로 하는 장애물 탐측 방법.
  6. 제5항에 있어서,
    상기 구역의 사이즈는 구역의 면적/체적, 구역의 직경, 구역의 기하학적 중심을 가로지르는 최소 거리 중 적어도 하나를 포함하는
    것을 특징으로 하는 장애물 탐측 방법.
  7. 제1항에 있어서,
    상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하는 단계 후에는,
    상기 유효 분석 범위 내에 장애물이 존재하는 경우, 상기 장애물의 사이즈가 예정 역치보다 작은지 여부를 판단하는 단계; 및
    상기 장애물의 사이즈가 예정 역치보다 작은 경우, 상기 자율 보행 로봇이 상기 장애물까지의 거리가 예정 거리 범위 내에서 측면 브러쉬의 회전속도를 감소시키도록 제어하는 단계를 더 포함하는
    것을 특징으로 하는 장애물 탐측 방법.
  8. 자율 보행 로봇에 응용하는 장애물 탐측 방법에 있어서,
    이미지 수집 장치에서 수집한 장애물 정보를 깊이 정보로 전환하는 단계;
    상기 깊이 정보를 포인트 클라우드 맵으로 변환하고, 상기 포인트 클라우드 맵에서 유효 분석 범위를 선택하는 단계; 및
    상기 유효 분석 범위 내에서, 장애물이 존재한다고 판단하는 경우, 상기 장애물의 사이즈를 근거로 네비게이션을 실행하는 단계를 포함하는
    것을 특징으로 하는 장애물 탐측 방법.
  9. 제8항에 있어서,
    상기 장애물의 사이즈를 근거로 내비게이션을 실행하는 단계는,
    상기 장애물의 사이즈가 예정 역치보다 작은 경우, 상기 자율 보행 로봇이 상기 장애물까지의 거리가 예정 거리 범위 내에서 측면 브러쉬의 회전속도를 감소시키도록 제어하는 단계를 포함하는
    것을 특징으로 하는 장애물 탐측 방법.
  10. 제8항 또는 제9항에 있어서,
    상기 장애물의 사이즈를 근거로 내비게이션을 실행하는 단계는,
    상기 장애물의 사이즈 또는 해당 사이즈가 처한 범위에 따라, 회피 거리를 확정하고, 상기 자율 보행 로봇이 상기 회피 거리에서 회피 책략의 실행을 시작하도록 제어하는 단계를 포함하는
    것을 특징으로 하는 장애물 탐측 방법.
  11. 제8항에 있어서,
    상기 깊이 정보를 포인트 클라우드 맵으로 변환하는 단계 후에는,
    상기 장애물 상의 각 참조점의 좌표 데이터를 확정하는 단계;
    상기 유효 분석 범위 내에서, 상기 각 참조점에 대해 군집 분류를 진행하고, 인접한 참조점의 좌표 데이터와의 거리가 제2예정치보다 작은 모든 점을 하나의 구역으로 하는 단계;
    각각 매개 구역의 사이즈를 판단하는 단계; 및
    상기 구역의 사이즈가 제3예정치보다 크거나 같은 경우, 상기 유효 분석 범위 내에 장애물이 존재하는 것으로 확정하는 단계를 더 포함하는
    것을 특징으로 하는 장애물 탐측 방법.
  12. 제11항에 있어서,
    상기 구역의 사이즈는 구역의 면적/체적, 구역의 직경, 구역의 기하학적 중심을 가로지르는 최소 거리, 구역의 높이 중 적어도 하나를 포함하는
    것을 특징으로 하는 장애물 탐측 방법.
  13. 제12항에 있어서,
    상기 장애물의 사이즈를 근거로 네비게이션을 실행하는 단계는,
    상기 장애물의 높이가 예정 높이보다 큰 경우, 회피 책략을 실행하는 단계를 포함하는
    것을 특징으로 하는 장애물 탐측 방법.
  14. 자율 보행 로봇에 응용하는 장애물 탐측 장치에 있어서,
    이미지 수집 장치에서 수집한 장애물 정보를 깊이 정보로 전환하도록 구성된 전환 유닛;
    상기 깊이 정보를 포인트 클라우드 맵으로 변환하고, 상기 장애물 상의 각 참조점의 좌표 데이터를 확정하도록 구성된 변환 유닛;
    상기 포인트 클라우드 맵에서 높이 방향 상의 유효 분석 범위를 선택하도록 구성된 확정 유닛; 및
    상기 유효 분석 범위 내에서, 상기 각 참조점의 좌표 데이터를 기반으로, 상기 유효 분석 범위 내에 장애물이 존재하는지 여부를 분석하도록 구성된 분석 유닛을 포함하는
    것을 특징으로 하는 장애물 탐측 장치.
  15. 프로세서 및 메모리를 포함하는 자율 보행 로봇에 있어서,
    상기 메모리는 상기 프로세서에 의해 실행 가능한 컴퓨터 프로그램 명령을 저장하고, 상기 프로세서가 상기 컴퓨터 프로그램 명령을 실행할 때, 제1항 내지 제13항 중의 어느 한 항에 따른 방법의 단계를 실현하는
    것을 특징으로 하는 자율 보행 로봇.
  16. 컴퓨터 프로그램 명령을 저장하고, 상기 컴퓨터 프로그램 명령은 프로세서에 의해 호출되어 실행될 때, 제1항 내지 제13항 중의 어느 한 항에 따른 방법의 단계를 실현하는
    것을 특징으로 하는 비일시적 컴퓨터 판독 가능한 기억 매체.
KR1020237008255A 2020-08-26 2021-04-08 장애물 탐측 방법, 장치, 자율 보행 로봇 및 기억 매체 KR20230050396A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010872327.3 2020-08-26
CN202010872327.3A CN111990929B (zh) 2020-08-26 2020-08-26 一种障碍物探测方法、装置、自行走机器人和存储介质
PCT/CN2021/085960 WO2022041740A1 (zh) 2020-08-26 2021-04-08 一种障碍物探测方法、装置、自行走机器人和存储介质

Publications (1)

Publication Number Publication Date
KR20230050396A true KR20230050396A (ko) 2023-04-14

Family

ID=73470968

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237008255A KR20230050396A (ko) 2020-08-26 2021-04-08 장애물 탐측 방법, 장치, 자율 보행 로봇 및 기억 매체

Country Status (7)

Country Link
US (1) US20230305573A1 (ko)
EP (1) EP4193897A1 (ko)
JP (1) JP2023540909A (ko)
KR (1) KR20230050396A (ko)
CN (2) CN111990929B (ko)
CA (1) CA3190361A1 (ko)
WO (1) WO2022041740A1 (ko)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111990929B (zh) * 2020-08-26 2022-03-22 北京石头世纪科技股份有限公司 一种障碍物探测方法、装置、自行走机器人和存储介质
CN114633248B (zh) * 2020-12-16 2024-04-12 北京极智嘉科技股份有限公司 一种机器人及定位方法
CN112684801B (zh) * 2020-12-25 2022-08-23 珠海格力电器股份有限公司 一种机器人回充控制方法、装置、电器设备及存储介质
CN112783158A (zh) * 2020-12-28 2021-05-11 广州辰创科技发展有限公司 多种无线传感识别技术融合方法、设备及存储介质
CN112883128A (zh) * 2020-12-30 2021-06-01 杭州图歌科技有限公司 一种封闭环境下机器人自主建图方法
CN112857254B (zh) * 2021-02-02 2022-02-08 北京大成国测科技有限公司 基于无人机数据的参数测量方法、装置及电子设备
CN113031648A (zh) * 2021-02-26 2021-06-25 华南理工大学 一种基于实感深度相机的旋翼无人机避障的方法
US20220280010A1 (en) * 2021-03-02 2022-09-08 Yujin Robot Co., Ltd. Moving path planning apparatus and method for robot
CN113075692A (zh) * 2021-03-08 2021-07-06 北京石头世纪科技股份有限公司 目标检测及控制方法、系统、设备及存储介质
CN114625116A (zh) * 2021-05-06 2022-06-14 北京石头世纪科技股份有限公司 自行走设备避障方法、装置、介质和电子设备
CN113485359A (zh) * 2021-07-29 2021-10-08 北京超维世纪科技有限公司 一种工业类巡检机器人多传感器融合避障系统
CN115235482A (zh) * 2021-09-28 2022-10-25 上海仙途智能科技有限公司 地图更新方法、装置、计算机设备及介质
CN114549576B (zh) * 2022-01-26 2023-05-23 广州方图科技有限公司 行走能力检测方法、装置、存储介质及体检机
CN114557640B (zh) * 2022-02-21 2023-08-01 广州宝乐软件科技有限公司 清洁机器人的数据处理方法、装置及清洁机器人
CN114451830B (zh) * 2022-03-17 2023-06-16 上海飞博激光科技股份有限公司 激光清洗玻璃幕墙装置及其清洗方法
CN114777759A (zh) * 2022-03-23 2022-07-22 北京石头创新科技有限公司 机器人地图中障碍物的标记方法及装置
CN116859380B (zh) * 2023-09-05 2023-11-21 长沙隼眼软件科技有限公司 目标航迹的测量方法、装置、电子设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008281385A (ja) * 2007-05-09 2008-11-20 Olympus Corp 画像処理装置
KR20090018336A (ko) * 2007-08-17 2009-02-20 삼성전자주식회사 로봇 청소기 및 그 제어방법
CN104236548B (zh) * 2014-09-12 2017-04-05 清华大学 一种微型无人机室内自主导航方法
JP6464410B2 (ja) * 2014-09-26 2019-02-06 シャープ株式会社 障害物判定装置および障害物判定方法
CN105204510B (zh) * 2015-10-09 2016-06-22 福州华鹰重工机械有限公司 一种用于精确定位的概率地图的生成方法及装置
US20170357267A1 (en) * 2016-06-10 2017-12-14 Cnh Industrial America Llc Autonomous work vehicle obstacle detection system
CN107491070A (zh) * 2017-08-31 2017-12-19 成都通甲优博科技有限责任公司 一种移动机器人路径规划方法及装置
CN107966989A (zh) * 2017-12-25 2018-04-27 北京工业大学 一种机器人自主导航系统
US10795377B2 (en) * 2018-01-03 2020-10-06 AI Incorporated Method for autonomously controlling speed of components and functions of a robot
CN108983248A (zh) * 2018-06-26 2018-12-11 长安大学 一种基于3d激光雷达及v2x的网联车定位方法
CN109645892B (zh) * 2018-12-12 2021-05-28 深圳乐动机器人有限公司 一种障碍物的识别方法及清洁机器人
CN109645897A (zh) * 2019-01-10 2019-04-19 轻客小觅智能科技(北京)有限公司 一种扫地机的障碍物检测方法及系统
CN110070570B (zh) * 2019-03-20 2023-05-26 重庆邮电大学 一种基于深度信息的障碍物检测系统及方法
CN110799989A (zh) * 2019-04-20 2020-02-14 深圳市大疆创新科技有限公司 一种障碍物检测方法、设备、可移动平台及存储介质
CN110045376B (zh) * 2019-04-28 2021-06-01 森思泰克河北科技有限公司 可行驶区域获取方法、计算机可读存储介质及终端设备
CN111329398A (zh) * 2020-03-27 2020-06-26 上海高仙自动化科技发展有限公司 机器人控制方法、机器人、电子设备和可读存储介质
CN111990929B (zh) * 2020-08-26 2022-03-22 北京石头世纪科技股份有限公司 一种障碍物探测方法、装置、自行走机器人和存储介质

Also Published As

Publication number Publication date
WO2022041740A1 (zh) 2022-03-03
EP4193897A1 (en) 2023-06-14
CN111990929B (zh) 2022-03-22
CN114521836B (zh) 2023-11-28
US20230305573A1 (en) 2023-09-28
CN114521836A (zh) 2022-05-24
CA3190361A1 (en) 2022-03-03
CN111990929A (zh) 2020-11-27
JP2023540909A (ja) 2023-09-27

Similar Documents

Publication Publication Date Title
KR20230050396A (ko) 장애물 탐측 방법, 장치, 자율 보행 로봇 및 기억 매체
EP4140381A1 (en) Obstacle avoidance method and apparatus for self-walking robot, robot, and storage medium
CN109947109B (zh) 机器人工作区域地图构建方法、装置、机器人和介质
AU2017228620B2 (en) Autonomous coverage robot
EP4137905A1 (en) Robot obstacle avoidance method, device, and storage medium
KR102203439B1 (ko) 이동 로봇 및 이동 로봇의 제어방법
WO2022041737A1 (zh) 一种测距方法、装置、机器人和存储介质
KR20180081546A (ko) 자동 청소 디바이스 및 청소 방법
Zainuddin et al. Autonomous navigation of mobile robot using Kinect sensor
CN217792839U (zh) 自动清洁设备
CN114879691A (zh) 自行走机器人的控制方法、存储介质和自行走机器人
CN112308033B (zh) 一种基于深度数据的障碍物碰撞警告方法及视觉芯片
AU2023201499A1 (en) Method and apparatus for detecting obstacle, self-moving robot, and storage medium
EP4332501A1 (en) Distance measurement method and apparatus, and robot and storage medium
CN113625700A (zh) 自行走机器人控制方法、装置、自行走机器人和存储介质
US20220234612A1 (en) Location indicator devices
AU2015224421A1 (en) Autonomous coverage robot
CN115164882A (zh) 一种激光畸变去除方法、装置、系统及可读存储介质
AU2013338354B9 (en) Autonomous coverage robot

Legal Events

Date Code Title Description
A201 Request for examination