KR20200116111A - 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법 및 시스템 - Google Patents

가변적인 장면에서의 다중 장치의 시각 네비게이션 방법 및 시스템 Download PDF

Info

Publication number
KR20200116111A
KR20200116111A KR1020207024256A KR20207024256A KR20200116111A KR 20200116111 A KR20200116111 A KR 20200116111A KR 1020207024256 A KR1020207024256 A KR 1020207024256A KR 20207024256 A KR20207024256 A KR 20207024256A KR 20200116111 A KR20200116111 A KR 20200116111A
Authority
KR
South Korea
Prior art keywords
digitized
feature information
image
information
scene
Prior art date
Application number
KR1020207024256A
Other languages
English (en)
Inventor
저 리우
Original Assignee
쥬넹 로보틱스 (상해) 씨오., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 쥬넹 로보틱스 (상해) 씨오., 엘티디. filed Critical 쥬넹 로보틱스 (상해) 씨오., 엘티디.
Publication of KR20200116111A publication Critical patent/KR20200116111A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/383Indoor data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • G05D2201/0216

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Evolutionary Computation (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명의 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법 및 시스템은, 한편으로 다중 장치를 통하여 장면의 지면 이미지를 연속 촬영하고, 이미지의 디지털화 특징 정보를 획득하고, 그중에서 추출한 핵심 프레임을 서버(또는 클라우드)에 전송하고, 다른 한편으로 서버(또는 클라우드)는 최신 획득한 핵심 프레임 디지털화 특징 정보로 장면의 공백 공간을 보충하여, 장면의 네비게이션 데이터의 확장을 완성하고; 또는 최신 획득한 디지털화 특징 정보를 가입 한 후, 영역 내 기존 데이터 중 가장 유사하지 않은 디지털화 특징 정보를 치환하여 장면의 네비게이션 데이터의 업데이트를 완성하고, 마지막으로 서버는 교정하고 업데이트된 디지털화 특징 정보를 매 개 단말기에 발송하여, 네비게이션 데이터의 실시간 업데이트를 보증하고, 클러스터화의 자주적인 네비게이션을 실현한다.

Description

가변적인 장면에서의 다중 장치의 시각 네비게이션 방법 및 시스템
본 발명은 로봇 네비게이션 기술 분야에 관한 것이고, 구체적으로 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법 및 시스템에 관한 것이다.
현재 자동 네비게이션 로봇은 창고 자동화 중에서 광범위하게 응용되었고, 특히 자동 네비게이션 로봇에 근거한 제품 대 사람(Goods To Person) 시스템을 볼수 있다. 현재 비교적 선진적인 자동 네비게이션 로봇이 창고 중에서의 포지셔닝 방법에는 주로 다음과 같은 몇 가지가 있다.
1. 레이저 반사에 근거한 레이저 포지셔닝 시스템
a) 가격이 비싸다.
b) 반사판을 설치한 위치를 가려서는 안 되고, 사용시 주행경로에 비교적 큰 공간을 사전에 보류하여야 하며, 창고의 비교적 큰 공간을 낭비한다.
c) 온도의 영향을 받는다.
d) 실내에서만 사용할 수 있다.
2. 실내 장면에 근거하여 재구축한 시각 포지셔닝
a) 정밀도가 비교적 낮고, 사용시 주행경로에 비교적 큰 공간을 사전에 보류하여야 하고, 창고의 비교적 큰 공간을 낭비한다.
b) 반복 장면에 대응할 수 없다.
c) 경상적으로 변화하는 장면에 대응할 수 없다. 특히 제품 대 사람 창고 보관 분야에서 선반이 끊임없이 이동되어, 장면을 끊임없이 변화시킨다.
d) 장치들은 독립적으로 운행되고, 부동한 장치 사이의 재구성 장면에는 편차가 존재하여, 정밀한 포지셔닝과 재구성 장면을 통일시킬 수 없다. 그리하여 실내 장면에 근거하여 재구축한 시각 포지셔닝 시스템은 소수 장치만 운행하고 있다.
3. 지면 식별 코드에 근거한 포지셔닝 시스템
a) 비록 정밀도가 높지만, 지면 표시에 의지하고, 쉽게 마모된다.
b) 장면 진입은 많은 인력을 측정과 부설에 소모하여야 한다.
c) 장치가 대폭으로 정상 노선을 이탈하면, 표시를 통하여 시정할 수 없다.
본 발명의 목적은 종래기술 중에 존재하는 상기 문제 해결하는 것을 제공하는 것이다.
상기 목적을 달성하기 위하여, 본 발명의 구체적인 해결수단은 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법을 제공하는 것이고, 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법은,
제1장치가 장면의 비디오 시퀀스를 촬영하고, 비디오 시퀀스 중 매 프레임 이미지마다의 디지털화 특징 정보를 획득하는 단계;
제1장치가 디지털화 특징 정보에 근거하여 비교하고, 비디오 시퀀스 중의 핵심 프레임을 추출하고 상기 핵심 프레임의 디지털화 특징 정보를 제2장치에 업로드하는 단계;
제2장치가 제1장치에서 업로드한 디지털화 특징 정보를 비교하고 선별하며, 선별 후의 디지털화 특징 정보를 재구성하여 장면의 네비게이션 데이터의 구축, 업그레이드와 배포를 완성하는 단계를 포함한다.
나아가, 상기 디지털화 특징 정보의 획득 과정은,
제1장치가 장면의 지면의 이미지를 수집하는 단계;
상기 이미지 중의 특징 포인트를 식별하고, 특징 포인트 중에서 특징 포인트의 특징 정보를 추출하는 단계;
이미지 중 특징 포인트의 특징 정보를 포맷화와 디지털화 하여 상기 이미지의 디지털화 특징 정보를 형성하는 단계를 포함하는 것을 특징으로 한다.
더 나아가, 상기 이미지의 디지털화 특징 정보는 포맷화 배열로 형성 된 데이터 배열이고, 상기 디지털화 특징 정보는 이미지 위치, 특징 포인트의 좌표, 특징 포인트의 방향, 특징 포인트의 크기 및 특징 포인트의 서술 요인을 포함한다.
더 나아가, 상기 핵심 프레임의 추출 과정은,
새로 획득한 이미지의 디지털화 특징 정보를 데이터 베이스 속에 저장된 핵심 프레임의 디지털화 특징 정보와 검색 비교하는 단계;
새로 획득한 이미지와 데이터 베이스 속에 저장된 핵심 프레임의 디지털화 특징 정보의 비교 결과에 근거하여 유사도 평가값을 제시하는 단계;
유사도 평가값이 소정 값보다 작을 시, 해당 이미지 프레임은 핵심 프레임인 단계를 포함한다.
더 나아가, 특징 포인트의 기하학적 위치와 특징 포인트의 서술 요인을 통하여 상기 디지털화 특징 정보에 대하여 검색 비교하고, 상기 특징 포인트의 기하학적 위치는 특징 포인트의 위치, 크기 및 방향을 통하여 계산해 낸다.
더 나아가, 상기 유사도 평가값은 이미지의 디지털화 특징 정보 비교 결과 중 서술 요인과 기하학적 위치가 서로 일치한 특징 포인트의 개수이다.
더 나아가, 상기 제2장치가 디지털화 특징 정보에 대한 선별과 구축 과정은,
디지털화 특징 정보를 수신하고 저장하여 디지털화 특징 정보의 데이터 집합을 형성하는 단계;
데이터 집합 중의 디지털화 특징 정보가 수량 상한에 도달할 시, 최신 수신한 디지털화 특징 정보를 보류하고, 나머지 디지털화 특징 정보에 대하여 우선 순위 정렬을 진행하며, 우선 순위가 가장 낮은 디지털화 특징 정보를 삭제하는 단계;
데이터 집합 중 모든 디지털화 특징 정보를 교정하고 폐쇄 루프 검사를 진행하여 장면의 네비게이션 데이터를 구축하는 단계를 포함한다.
나아가, 데이터 집합 중 디지털화 특징 정보의 수량 상한을 설정하고, 상기 수량 상한은 매개 이미지 위치의 디지털화 특징 정보의 수량 상한이다.
더 나아가, 상기 디지털화 특징 정보의 우선 순위 정렬은,
새로 수신한 디지털화 특징 정보와 그 이미지 위치 및 그 인접 범위 내 모든 디지털화 특징 정보를 둘씩 유사도 비교하는 단계;
공간 전환 모델을 통하여, 디지털화 특징 정보 사이에서 특징 포인트 위치, 특징 포인트 방향, 특징 포인트 크기 및 특징 포인트 서술 요인이 서로 일치한 특징 포인트 개수를 검사하는 단계;
서로 일치한 특징 포인트 개수를 통하여 디지털화 특징 정보의 우순 순위를 정렬하는 단계를 포함한다
더 나아가, 상기 공간 전환 모델은 데이터 집합 중 디지털화 특징 정보의 특징 포인트 위치, 특징 포인트 방향, 특징 포인트 크기 및 특징 포인트의 서술 요인을 통하여 생성된다.
다른 한편으로, 본 발명은 가변적인 장면에서의 다중 장치의 시각 네비게이션 시스템을 더 제공하고, 가변적인 장면에서의 다중 장치의 시각 네비게이션 시스템은,
제1장치를 포함하고, 상기 제1장치는 장면의 지면의 비디오 시퀀스를 촬영하고, 비디오 시퀀스 중 매 프레임 이미지마다의 디지털화 특징 정보를 획득하고, 디지털화 특징 정보에 근거하여 비교하고, 비디오 시퀀스 중의 핵심 프레임을 추출하며 해당 핵심 프레임의 디지털화 특징 정보를 제2장치에 업로드하는데 사용되며;
제2장치를 포함하고, 제1장치에서 업로드한 디지털화 특징 정보를 비교하고 선별하며, 선별한 후의 디지털화 특징 정보를 재구성하여 장면의 네비게이션 데이터의 구축, 업그레이드와 배포를 완성한다.
더 나아가, 상기 제1장치는 자주적 네비게이션 장치 또는 AGV운반차에 배치한 자주적 네비게이션 장치이고, 상기 제2장치는 제1장치와 통신 연결된 서버이다.
더 나아가, 상기 자주적 네비게이션 장치와 서버의 수량비는 n:m이고, 그 중 n은 1보다 큰 자연수이며, 그 중 m은 1보다 크거나 같은 자연수이다.
더 나아가, 상기 제1장치는,
비디오 수집 유닛을 포함하고, 비디오 수집 유닛은 장면의 지면의 이미지 프레임을 수집하는데 사용되고;
이미지 정보 식별 유닛을 포함하고, 이미지 정보 식별 유닛은 상기 이미지 프레임 중의 특징 포인트를 식별하는데 사용되고, 이미지 프레임의 디지털화 특징 정보를 형성하며;
핵심 프레임 추출 유닛을 포함하고, 상기 핵심 프레임은 획득한 이미지 프레임의 디지털화 특징 정보를 앞서 추출한 상기 핵심 프레임의 디지털화 특징 정보와 검색 비교하여 핵심 프레임을 추출하고.
통신 유닛을 포함하고, 상기 통신 유닛은 상기 핵심 프레임 추출 유닛에서 추출한 핵심 프레임의 디지털화 특징 정보를 제2장치로 전송하는데 사용된다.
더 나아가, 상기 제2장치는,
디지털화 특징 정보 선별 유닛을 포함하고, 상기 디지털화 특징 정보 선별 유닛은 최신 획득한 디지털화 특징 정보와 앞서 획득한 디지털화 특징 정보를 유사도 비교하고, 선별시 비교 결과에 따라 우선 순위를 정렬하고;
네비게이션 데이터 구축 유닛을 포함하고, 상기 네비게이션 데이터 구축 유닛은 디지털화 특징 정보에 근거하여 장면의 네비게이션 데이터를 구축한다.
본 발명은 종래기술과 비교하면 다음과 같은 장점과 유익한 효과를 구비한다.
본 발명의 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법 및 시스템은, 한편으로 다중 장치를 통하여 장면의 지면 이미지를 연속 촬영하고, 지면 이미지의 특징 정보 및 해당 특징 정보에 근거하여 형성된 이미지 디지털화 특징 정보를 추출하고, 네트워크를 통하여 핵심 프레임의 포맷화 데이터를 서버(또는 클라우드)에 전송하고, 이와 같이 포맷화 데이터만 전송하면 되므로, 네트워크 전송의 실시간 성능을 향상시키고, 네트워크 광대역과 자원을 절약하고, 지면 비디오 촬영을 통하여 다변적인 장면에서의 식별 정밀도와 신뢰성 문제를 피면하고, 다른 한편으로 서버(또는 클라우드)는 해당 핵심 프레임의 디지털화 특징 정보와 앞서 획득한 디지털화 특징 정보에 근거하여 비교, 교정 및 선별을 진행한다. 최신 획득한 디지털화 특징 정보는 장면의 공백 공간을 보충하여, 장면의 네비게이션 데이터의 확장을 완성하고; 또는 최신 획득한 디지털화 특징 정보를 가입 한 후, 영역 내 기존 데이터 중 가장 유사하지 않은 디지털화 특징 정보를 치환하여 장면의 네비게이션 데이터의 업데이트를 완성한다. 마지막으로, 서버는 교정하고 업데이트된 디지털화 특징 정보를 매 개 단말기에 발송한다. 이리하여 네비게이션 데이터의 실시간 업데이트를 보증하고, 동시에 클러스터화의 자주적인 네비게이션을 실현한다.
본 발명 실시예 혹은 종래기술 중의 기술 방안을 보다 명확하게 설명하기 위하여, 아래에 실시예 또는 종래기술 설명 중 사용될 도면에 대하여 간단하게 소개할 것이고, 명백히 알수 있는 것은, 아래 설명 중의 도면은 본 발명의 일부 실시예일 뿐이고, 해당 기술 분야의 일반적인 당업자에게 있어서, 진보성 노동을 필요로 하지 않는 전제 하에서, 이 도면들에 근거하여 기타 도면을 얻을 수도 있다.
도1은 본 발명의 다변적인 장면에서의 다중 장치 비디오 네비게이션 방법의 순서 모식도이다.
도2는 본 발명의 디지털화 특징 정보를 획득하는 방법의 순서 모식도이다.
도3은 본 발명의 핵심 프레임을 추출하는 방법의 순서 모식도이다.
아래 본 발명 실시예 중의 도면을 결합하여, 본 발명 실시예 중의 기술 방안에 대하여 뚜렷하고 완전하게 설명하고, 분명한 것은, 설명한 실시예는 본 발명의 일부 실시예일뿐이며, 전부의 실시예가 아니다. 본 발명 중의 실시예에 근거하여 본 기술 분야 일반적인 당업자가 진보성 노동을 하지 않은 전제 하에서 얻은 모든 기타 실시예는 전부 본 발명의 보호 범위에 속한다.
본 발명은 다변적인 장면에서의 다중 장치 비디오 네비게이션 방법 및 시스템을 제공하며, 이는 주로 창고 보관 자동화 등을 비롯한 다변적이고 복잡한 장면에 응용된다. 창고 보관 자동화 환경은 주요하게 이동 선반과 자동 네비게이션 로봇이 포함하고, 그 중 이동 선반의 하부는 자동 네비게이션 로봇의 진입을 수용하는 공간을 구비하며, 자동 네비게이션 로봇은 네 방향에서 이동 선반의 하부에 진입할 수 있고, 이동 선반을 들어올려 작업 구역 또는 저장 구역으로 운반한다. 실제 운반 과정 중에서, 대량의 이동 선반은 자동 네비게이션 로봇에 의하여 작업 구역과 저장 구역 사이에서 왕복 운반되어 실시간 변화되는 복잡한 장면을 구성한다. 이토록 다변적이고 복잡한 장면 중에서, SLAM(동기 포지셔닝과 지도 구축)에 근거한 기술 즉 장면의 이미지를 포착하여 식별하는 자동 네비게이션 방법은 선반의 끊임없는 이동에 대하여 식별할 수 없고, 선반이 반복된 배열에 대하여도 식별할 수 없다. 지면 식별 코드에 근거한 식별 방식을 채택하는 것도 많은 인력과 재력이 필요하고 장면 중에 부설한 식별 코드 및 자동 네비게이션 로봇이 운동 궤적을 이탈하면 식별 코드를 통하여 노선 교정과 재포지셔닝을 진행할 수 없는 문제가 존재한다.
상기 기술 문제에 근거하여, 본 발명이 제공한 다변적인 장면에서의 다중 장치 비디오 네비게이션 방법은, 스탠드 얼로운 장면 식별 또는 식별 코드를 통하여 포지셔닝하는 방식을 배제하고, 분산식의 방법, 전단 다수의 제1장치가 장면의 지면 이미지(또는 그라운드 패턴 이미지라고 부름)을 획득하는 방식을 채택하였으며, 백그라운드(예를 들면, 서버 또는 클라우드)에서 다수의 제1장치가 업로드한 지면 이미지 정보에 대한 분석, 선별과 최적화를 거쳐 장면의 지면 이미지(또는 그라운드 패턴 이미지라고 부름)에 근거한 장면 구축을 완성한다. 각 제1장치는 이러한 작업 과정 중에서 실시간으로 장면의 지면 이미지를 획득, 업로드, 업데이트하고, 즉 다변적이고 반복하는 장면에서의 포지셔닝과 네비게이션을 실현할 수 있다.
아래 도1에 결합하여 본 발명 실시예가 공개한 다변적인 장면에서의 다중 장치 비디오 네비게이션 방법에 대하여 상세한 설명을 진행하고, 도1은 본 실시예가 공개한 다변적인 장면에서의 다중 장치 비디오 네비게이션 방법의 순서 모식도를 예시한다.
도1에서 예시 한 바와 같이, 본 실시예가 제공하는 다변적인 장면에서의 다중 장치 비디오 네비게이션 방법은,
단계S1, 제1장치가 장면의 비디오 시퀀스를 촬영하고, 비디오 시퀀스 중 매 프레임 이미지마다의 디지털화 특징 정보를 획득하는 단계를 포함한다.
그 중, 제1장치는 AGV로봇일 수 있고, AGV로봇 또는 기타 이동 장치 위에 집성된 자주적 네비게이션 장치일 수도 있다. 제1장치는 딥 카메라, 입체 카메라, 일목/다목 카메리 또는 일반 카메라 등을 비롯한 여러 가지 이미지 수집 장치를 통하여 지면 이미지를 촬영한다. 첫 촬영 전, 제1장치의 운동궤적은 배치 서버에서 설정한다. 배치 서버에는 장면의 형상, 크기와 나열 등 기본 정보가 저장되고, 장면의 기본 정보는 사전에 배치 서버에 입력되었으며, 이는 각 제1장치가 첫 촬영 시의 운동궤적이 가능한 전체 장면을 커버할 수 있게 보장하는 것에 목적이 있다.
바람직하게, 본 실시예는 일반 카메라를 예로 하고, 카메라는 AGV로봇에 설치하여, 지면과 일정한 촬영 협각을 이룰 수 있고, 90ㅀ의 협각을 통하여 지면 이미지를 수직으로 촬영하지만 이에 제한되지 않는다. 제1장치는 운동궤적에 따라 장면 중에서 이동하고, 카메라는 즉시 장면의 지면에 대해 촬영하여 연속되는 여러 개 이미지 프레임으로 구성한 비디오 시퀀스를 형성한다. 비디오 시퀀스를 얻는 동시에, 제1장치는 비디오 시퀀스 중의 매 프레임 이미지마다의 디지털화 특징 정보를 획득한다.
바람직하게, 비디오 시퀀스 중의 다수의 이미지 프레임은 비디오 시퀀스 중 모든 이미지 프레임이 필수인 것은 아니고, 그 중의 일부 이미지 프레임일 수도 있으며; 다른 한편으로 다수의 이미지 프레임은 연속된 다수의 이미지 프레임일 수도 있고, 프레임 간격을 사전에 설정하여 비디오 시퀀스 중에서 추출한 비연속적인 다수의 이미지 프레임일 수도 있다.
바람직하게, 디지털화 특징 정보는 포맷화 배열을 거친 이미지 디지털화 특징 정보를 포함한 한 세트의 데이터 배열이다. 도2에서 예시 한 바와 같이, 디지털화 특징 정보의 획득 과정은,
단계 S101, 제1장치가 장면의 지면의 이미지를 수집하는 단계;
단계 S102, 상기 이미지 속의 특징 포인트를 식별하고, 특징 포인트 중에서 특징 포인트의 특징 정보를 추출하는 단계;
단계 S103, 이미지 속 특징 포인트의 특징 정보를 포맷화와 디지털화 하여 상기 이미지의 디지털화 특징 정보를 형성하는 단계를 포함한다.
그 중, 특징 포인트의 식별은 FAST알고리즘, ORB알고리즘 또는 SURF알고리즘 등을 비롯한 본 기술 분야에서 상용하는 특징 포인트 검사 방법을 통하여 식별할 수 있다. 특징 포인트를 식별한 후 특징 포인트의 특징 정보를 획득하면, 특징 포인트의 특징 정보를 통하여 이미지를 설명할 수 있다.
바람직하게, 특징 포인트의 특징 정보를 얻은 후, 특징 정보를 포맷화와 디지털화 하여 이미지의 특징 정보를 형성한다. 종래기술 중 이미지를 획득하는 방식으로 비교하여 핵심 프레임을 얻는 것에 비하면, 광대역 점유율을 줄이고, 전송 속도와 계산 속도를 높여, 식별의 실시간 성능을 보증하였다.
예시 적으로, 지면 이미지의 디지털화 특징 정보는 이미지 위치, 특징 포인트의 좌표, 특징 포인트의 방향, 특징 포인트의 크기와 특징 포인트의 서술 요인을 포함한다. 다음 표와 같다.
데이터 헤드(고정 격식)
장치 명칭
촬영 시간 이미지 위치
이미지 번호
특징 포인트의 특징 정보
데이터 테일(고정 격식)
표1에서 예시 한 바와 같이, 이는 본 발명의 바람직한 실시예의 디지털화 특징 정보의 설명도이고, 그 중, 데이터 헤드 예를 들면 TCP메시지의 메시지 헤드는, 송신 포트(source port) 와 수신 포트(destination port)의 포트 번호, 시퀀스 번호(sequence number), 확인 번호(acknowledgement number), 데이터 편차(offset) 등을 포함할 수 있고, TCP메시지의 데이터부분 속에 제1 장치의 명칭, 촬영시간, 이미지 위치와 특징 포인트의 특징 정보 등을 패키지한다. 특징 포인트의 특징 정보는 여러 세트일 수 있고, 매 세트 특징 포인트 정보 속에는 특징 포인트의 좌표, 특징 포인트의 방향, 특징 포인트의 크기와 특징 포인트의 서술 요인을 포함한다.
바람직하게, 이미지 위치는 다음과 같은 두 가지 방식을 통하여 종합적으로 획득할 수 있다.
1. 촬영한 이미지P는 앞서 저장된 인접 핵심 프레임K(다수의 핵심 프레임과 마찬가지로 계산할 수 있다.)와 특징 포인트를 매칭하고, 오류 매칭 제거, 공간 모델 구축을 통하여 P와K사이의 회전과 병진 행렬을 얻으며, K의 위치 정보에 P가 K에 대한 위치 정보를 겹쳐, 최종적으로 P의 위치 정보를 얻는다.
2. 제1장치의 운동궤적과인코더, 위치 센서, 레인지 장치 중의 하나또는 다수를 결합하는 것을 통하여 이미지의 위치 정보를 계산해낸다.
바람직하게, 특징 포인트의 좌표는 특징 포인트가 이미지 중에서의 좌표 위치이다. 특징 포인트의 크기와 방향은 특징 포인트 검사 방법에서 정의한 특징 포인트 사이즈 및 이차원 벡터이다. 특징 포인트 서술 요인은 라벨 번호이고, 해당 분류 번호는 사전에 분류한 서술 요인 베이스 중 특징 포인트가 서술한 서술 요인 분류 번호에 가장 가깝다.
단계 S2, 제1장치가 디지털화 특징 정보에 근거하여 비교하고, 비디오 시퀀스 중의 핵심 프레임을 추출하고 상기 핵심 프레임의 디지털화 특징 정보를 제2장치로 업로드하는 단계를 포함한다.
도3에서 예시 한 바와 같이, 상기 핵심 프레임의 추출 과정은,
단계 S201, 새로 획득한 이미지의 디지털화 특징 정보를 데이터 베이스 속에 저장된 핵심 프레임의 디지털화 특징 정보와 검색 비교하는 단계;
단계 S202, 새로 획득한 이미지와 데이터 베이스 속에 저장된 핵심 프레임의 디지털화 특징 정보의 비교 결과에 근거하여 유사도 평가값을 제시하는 단계;
단계 S203, 유사도 평가값이 소정 값보다 작을 시, 해당 이미지 프레임은 핵심 프레임인 단계를 포함한다.
바람직하게, 본 발명의 바람직한 실시예는 디지털화 특징 정보에 근거하여 새로 획득한 이미지와 데이터 베이스 속에 저장된 핵심 프레임 중의 특징 포인트를 비교하여, 둘 사이 서로 매칭하는 특징 포인트 수량을 획득한다. 특징 포인트 비교 과정 중에서, 우선 특징 포인트 매칭과 모델 적합 방식을 통하여 공간 환산 모델을 획득하고, 공간 환산 모델은 다시 둘 사이의 특징 포인트 좌표, 특징 포인트 방향, 특징 포인트 크기를 환산하여, 특징 포인트의 기하학적 위치를 얻고, 둘의 기하학적 위치가 접근하며 특징 포인트의 서술 요인의 일치 여부를 판단하고, 특징 포인트의 기하학적 위치와 서술이 모두 매칭 될 시, 새로 획득한 이미지와 비교된 핵심 프레임에 같은 특징 포인트가 존재한다고 판단할 수 있다.
바람직하게, 유사도 평가값은 새로 획득한 이미지와 비교 핵심 프레임 중 같은 특징 포인트 개수이고, 유사도 평가값이 소정 값보다 작으면, 새로 획득한 이미지는 데이터 베이스 속에 저장된 핵심 프레임과 비교하여 현저한 변화가 존재한다고 판단할 수 있으며, 해당 이미지는 곧 핵심 프레임으로 설정되고, 제1장치는 수시로 해당 핵심 프레임의 디지털화 특징 정보를 제2장치로 업로드한다.
단계S3, 제2장치는 제1장치가 업로드한 디지털화 특징 정보를 비교와 선별하고, 선별 후의 디지털화 특징 정보를 재구성하여 장면의 네비게이션 데이터의 구축, 업그레이드를 완성하며 제1장치로 배포하여 네비게이션을 진행하는 단계를 포함한다.
바람직하게, 제2장치는 우선 디지털화 특징 정보를 수신 및 저장하여 디지털화 특징 정보의 데이터 집합을 형성한다. 데이터 집합 중 어느 한 영역의 디지털화 특징 정보가 수량 상한에 도달하면, 최신 수신된 디지털화 특징 정보를 보류하고, 나머지 디지털화 특징 정보에 대하여 우선 순위 정렬을 진행하며, 우선 순위가 가장 낮은 디지털화 특징 정보를 삭제한다. 데이터 집합 중 모든 디지털화 특징 정보를 교정과 폐쇄 루프 검사를 진행하여 장면의 네비게이션 데이터를 구축한다.
그 중, 디지털화 특징 정보의 수량 상한은 사전에 설정하고, 이는 시스템의 계산과 저장 성능에 따라 결정된다. 수량 상한은 매 개 공간 영역에서의 디지털화 특징 정보의 수량 상한이다.
바람직하게, 상기 디지털화 특징 정보의 우선 순위 정렬은,
새로 수신한 디지털화 특징 정보와 그 이미지 위치 및 그 인접 범위 내 모든 디지털화 특징 정보를 둘씩 유사도 비교하는 단계;
공간 전환 모델을 통하여, 디지털화 특징 정보 사이에서 특징 포인트 위치, 특징 포인트 방향, 특징 포인트 크기 및 특징 포인트 서술 요인이 서로 일치한 특징 포인트 개수를 검사하는 단계;
서로 일치한 특징 포인트 개수를 통하여 디지털화 특징 정보의 우순 순위를 정렬하는 단계를 포함한다
더 나아가, 상기 공간 전환 모델은 데이터 집합 중 디지털화 특징 정보의 특징 포인트 위치, 특징 포인트 방향, 특징 포인트 크기 및 특징 포인트의 서술 요인을 통하여 생성된다.
다른 한편으로, 본 발명은 가변적인 장면에서의 다중 장치의 시각 네비게이션 시스템을 더 제공하고, 가변적인 장면에서의 다중 장치의 시각 네비게이션 시스템은,
제1장치를 포함하고, 상기 제1장치는 장면의 지면의 비디오 시퀀스를 촬영하고, 비디오 시퀀스 중 매 프레임 이미지마다의 디지털화 특징 정보를 획득하고, 디지털화 특징 정보에 근거하여 비교하고, 비디오 시퀀스 중의 핵심 프레임을 추출하며 해당 핵심 프레임의 디지털화 특징 정보를 제2장치에 업로드하는데 사용되며;
제2장치를 포함하고, 제1장치에서 업로드한 디지털화 특징 정보를 비교하고 선별하며, 선별한 후의 디지털화 특징 정보를 재구성하여 장면의 네비게이션 데이터의 구축, 업그레이드와 배포를 완성한다.
더 나아가, 상기 제1장치는 자주적 네비게이션 장치 또는 AGV운반차에 배치한 자주적 네비게이션 장치이고, 상기 제2장치는 제1장치와 통신 연결된 서버이다.
더 나아가, 상기 자주적 네비게이션 장치와 서버의 수량비는 n:m이고, 그 중 n은 1보다 큰 자연수이며, 그 중 m은 1보다 크거나 같은 자연수이다.
더 나아가, 상기 제1장치는,
비디오 수집 유닛을 포함하고, 비디오 수집 유닛은 장면의 지면의 이미지 프레임을 수집하는데 사용되고;
이미지 정보 식별 유닛을 포함하고, 이미지 정보 식별 유닛은 상기 이미지 프레임 중의 특징 포인트를 식별하는데 사용되고, 이미지 프레임의 디지털화 특징 정보를 형성하며;
핵심 프레임 추출 유닛을 포함하고, 상기 핵심 프레임은 획득한 이미지 프레임의 디지털화 특징 정보를 앞서 추출한 상기 핵심 프레임의 디지털화 특징 정보와 검색 비교하여 핵심 프레임을 추출하고.
통신 유닛을 포함하고, 상기 통신 유닛은 상기 핵심 프레임 추출 유닛에서 추출한 핵심 프레임의 디지털화 특징 정보를 제2장치로 전송하는데 사용된다.
더 나아가, 상기 제2장치는,
디지털화 특징 정보 선별 유닛을 포함하고, 상기 디지털화 특징 정보 선별 유닛은 최신 획득한 디지털화 특징 정보와 앞서 획득한 디지털화 특징 정보를 유사도 비교하고, 선별시 비교 결과에 따라 우선 순위를 정렬하고;
네비게이션 데이터 구축 유닛을 포함하고, 상기 네비게이션 데이터 구축 유닛은 디지털화 특징 정보에 근거하여 장면의 네비게이션 데이터를 구축한다.
위에서 서술한 바와 같이 이는 본 발명의 바람직한 실시예일뿐이고, 본 발명을 제한하는 것에 사용되지 않으며, 무릇 본 발명의 정신과 원칙 안에서 한 어떠한 수정, 동등 교체, 개선 등은 전부 본 발명의 보호 범위 안에 포함하여야 한다.

Claims (15)

  1. 제1장치가 장면의 비디오 시퀀스를 촬영하고, 비디오 시퀀스 중 매 프레임 이미지마다의 디지털화 특징 정보를 획득하는 단계;
    제1장치가 디지털화 특징 정보에 근거하여 비교하고, 비디오 시퀀스 중의 핵심 프레임을 추출하고 상기 핵심 프레임의 디지털화 특징 정보를 제2장치에 업로드하는 단계;
    제2장치가 제1장치에서 업로드한 디지털화 특징 정보를 비교하고 선별하며, 선별 후의 디지털화 특징 정보를 재구성하여 장면의 네비게이션 데이터의 구축, 업그레이드를 완성하고 제1장치에 배포하여 네비게이션을 실현하는 단계를 포함하는 것을 특징으로 하는 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법.
  2. 제1항에 있어서,
    상기 디지털화 특징 정보의 획득 과정은,
    제1장치가 장면의 지면의 이미지를 수집하는 단계;
    상기 이미지 중의 특징 포인트를 식별하고, 특징 포인트 중에서 특징 포인트의 특징 정보를 추출하는 단계;
    이미지 중 특징 포인트의 특징 정보를 포맷화와 디지털화 하여 상기 이미지의 디지털화 특징 정보를 형성하는 단계를 포함하는 것을 특징으로 하는 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법.
  3. 제2항에 있어서,
    상기 이미지의 디지털화 특징 정보는 포맷화 배열로 형성 된 데이터 배열이고, 상기 디지털화 특징 정보는 이미지 위치, 특징 포인트의 좌표, 특징 포인트의 방향, 특징 포인트의 크기 및 특징 포인트의 서술 요인을 포함하는 것을 특징으로 하는 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법.
  4. 제3항에 있어서,
    상기 핵심 프레임의 추출 과정은,
    새로 획득한 이미지의 디지털화 특징 정보를 데이터 베이스 속에 저장된 핵심 프레임의 디지털화 특징 정보와 검색 비교하는 단계;
    새로 획득한 이미지와 데이터 베이스 속에 저장된 핵심 프레임의 디지털화 특징 정보의 비교 결과에 근거하여 유사도 평가값을 제시하는 단계;
    유사도 평가값이 소정 값보다 작을 시, 해당 이미지 프레임은 핵심 프레임인 단계를 포함하는 것을 특징으로 하는 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법.
  5. 제4항에 있어서,
    특징 포인트의 기하학적 위치와 특징 포인트의 서술 요인을 통하여 상기 디지털화 특징 정보에 대하여 검색 비교하고, 상기 특징 포인트의 기하학적 위치는 특징 포인트의 위치, 크기 및 방향을 통하여 계산해 내는 것을 특징으로 하는 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법.
  6. 제5항에 있어서,
    상기 유사도 평가값은 이미지의 디지털화 특징 정보 비교 결과 중 서술 요인과 기하학적 위치가 서로 일치한 특징 포인트의 개수인 것을 특징으로 하는 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법.
  7. 제1항 내지 제6항에 있어서,
    상기 제2장치가 디지털화 특징 정보에 대한 선별과 구축 과정은,
    디지털화 특징 정보를 수신하고 저장하여 디지털화 특징 정보의 데이터 집합을 형성하는 단계;
    데이터 집합 중의 디지털화 특징 정보가 수량 상한에 도달할 시, 최신 수신한 디지털화 특징 정보를 보류하고, 나머지 디지털화 특징 정보에 대하여 우선 순위 정렬을 진행하며, 우선 순위가 가장 낮은 디지털화 특징 정보를 삭제하는 단계;
    데이터 집합 중 모든 디지털화 특징 정보를 교정하고 폐쇄 루프 검사를 진행하여 장면의 네비게이션 데이터를 구축하는 단계를 포함하는 것을 특징으로 하는 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법.
  8. 제7항에 있어서,
    데이터 집합 중 디지털화 특징 정보의 수량 상한을 설정하고, 상기 수량 상한은 매개 이미지 위치의 디지털화 특징 정보의 수량 상한인 것을 특징으로 하는 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법.
  9. 제8항에 있어서,
    상기 디지털화 특징 정보의 우선 순위 정렬은,
    새로 수신한 디지털화 특징 정보와 그 이미지 위치 및 그 인접 범위 내 모든 디지털화 특징 정보를 둘씩 유사도 비교하는 단계;
    공간 전환 모델을 통하여, 디지털화 특징 정보 사이에서 특징 포인트 위치, 특징 포인트 방향, 특징 포인트 크기 및 특징 포인트 서술 요인이 서로 일치한 특징 포인트 개수를 검사하는 단계;
    서로 일치한 특징 포인트 개수를 통하여 디지털화 특징 정보의 우순 순위를 정렬하는 단계를 포함하는 것을 특징으로 하는 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법.
  10. 제9항에 있어서,
    상기 공간 전환 모델은 데이터 집합 중 디지털화 특징 정보의 특징 포인트 위치, 특징 포인트 방향, 특징 포인트 크기 및 특징 포인트의 서술 요인을 통하여 생성되는 것을 특징으로 하는 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법.
  11. 제1장치를 포함하고, 상기 제1장치는 장면의 지면의 비디오 시퀀스를 촬영하고, 비디오 시퀀스 중 매 프레임 이미지마다의 디지털화 특징 정보를 획득하고, 디지털화 특징 정보에 근거하여 비교하고, 비디오 시퀀스 중의 핵심 프레임을 추출하며 해당 핵심 프레임의 디지털화 특징 정보를 제2장치에 업로드하는데 사용되며;
    제2장치를 포함하고, 제1장치에서 업로드한 디지털화 특징 정보를 비교하고 선별하며, 선별한 후의 디지털화 특징 정보를 재구성하여 장면의 네비게이션 데이터의 구축, 업그레이드와 배포를 완성하는 것을 특징으로 하는 가변적인 장면에서의 다중 장치의 시각 네비게이션 시스템.
  12. 제11항에 있어서,
    상기 제1장치는 자주적 네비게이션 장치 또는 AGV운반차에 배치한 자주적 네비게이션 장치이고, 상기 제2장치는 제1장치와 통신 연결된 서버인 것을 특징으로 하는 가변적인 장면에서의 다중 장치의 시각 네비게이션 시스템.
  13. 제12항에 있어서,
    상기 자주적 네비게이션 장치와 서버의 수량비는 n:m이고, 그 중 n은 1보다 큰 자연수이며, 그 중 m은 1보다 크거나 같은 자연수인 것을 특징으로 하는 가변적인 장면에서의 다중 장치의 시각 네비게이션 시스템.
  14. 제12항에 있어서,
    상기 제1장치는,
    비디오 수집 유닛을 포함하고, 비디오 수집 유닛은 장면의 지면의 이미지 프레임을 수집하는데 사용되고;
    이미지 정보 식별 유닛을 포함하고, 이미지 정보 식별 유닛은 상기 이미지 프레임 중의 특징 포인트를 식별하는데 사용되고, 이미지 프레임의 디지털화 특징 정보를 형성하며;
    핵심 프레임 추출 유닛을 포함하고, 상기 핵심 프레임은 획득한 이미지 프레임의 디지털화 특징 정보를 앞서 추출한 상기 핵심 프레임의 디지털화 특징 정보와 검색 비교하여 핵심 프레임을 추출하고;
    통신 유닛을 포함하고, 상기 통신 유닛은 상기 핵심 프레임 추출 유닛에서 추출한 핵심 프레임의 디지털화 특징 정보를 제2장치로 전송하는데 사용되는 것을 특징으로 하는 가변적인 장면에서의 다중 장치의 시각 네비게이션 시스템.
  15. 제12항에 있어서,
    상기 제2장치는,
    디지털화 특징 정보 선별 유닛을 포함하고, 상기 디지털화 특징 정보 선별 유닛은 최신 획득한 디지털화 특징 정보와 앞서 획득한 디지털화 특징 정보를 유사도 비교하고, 선별시 비교 결과에 따라 우선 순위를 정렬하고;
    네비게이션 데이터 구축 유닛을 포함하고, 상기 네비게이션 데이터 구축 유닛은 디지털화 특징 정보에 근거하여 장면의 네비게이션 데이터를 구축하는 것을 특징으로 하는 가변적인 장면에서의 다중 장치의 시각 네비게이션 시스템.
KR1020207024256A 2018-01-24 2018-08-29 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법 및 시스템 KR20200116111A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810066735.2A CN108267121A (zh) 2018-01-24 2018-01-24 一种可变场景下多设备的视觉导航方法及系统
CN201810066735.2 2018-01-24
PCT/CN2018/102972 WO2019144617A1 (zh) 2018-01-24 2018-08-29 一种可变场景下多设备的视觉导航方法及系统

Publications (1)

Publication Number Publication Date
KR20200116111A true KR20200116111A (ko) 2020-10-08

Family

ID=62776429

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207024256A KR20200116111A (ko) 2018-01-24 2018-08-29 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법 및 시스템

Country Status (6)

Country Link
US (1) US20210041886A1 (ko)
EP (1) EP3745085A1 (ko)
JP (1) JP2021512297A (ko)
KR (1) KR20200116111A (ko)
CN (1) CN108267121A (ko)
WO (1) WO2019144617A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108267121A (zh) * 2018-01-24 2018-07-10 锥能机器人(上海)有限公司 一种可变场景下多设备的视觉导航方法及系统
CN111046698B (zh) * 2018-10-12 2023-06-20 锥能机器人(上海)有限公司 可视化编辑的视觉定位方法和系统
KR102203438B1 (ko) * 2018-12-26 2021-01-14 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
CN110471407B (zh) * 2019-07-02 2022-09-06 无锡真源科技有限公司 一种模组自动调节的自适应定位系统及方法
CN112212871A (zh) * 2019-07-10 2021-01-12 阿里巴巴集团控股有限公司 一种数据处理方法、装置及机器人
CN110751694B (zh) * 2019-10-25 2022-04-22 北京理工大学 一种基于三色通道融合互信息的图像导航方法
CN111735473B (zh) * 2020-07-06 2022-04-19 无锡广盈集团有限公司 一种能上传导航信息的北斗导航系统
CN112034855A (zh) * 2020-09-07 2020-12-04 中国南方电网有限责任公司超高压输电公司天生桥局 一种提高巡检机器人定位速度的方法及装置
CN114554108B (zh) * 2022-02-24 2023-10-27 北京有竹居网络技术有限公司 图像处理方法、装置和电子设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7889794B2 (en) * 2006-02-03 2011-02-15 Eastman Kodak Company Extracting key frame candidates from video clip
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
JP5714940B2 (ja) * 2011-03-04 2015-05-07 国立大学法人 熊本大学 移動体位置測定装置
ITMI20121210A1 (it) * 2012-07-11 2014-01-12 Rai Radiotelevisione Italiana A method and an apparatus for the extraction of descriptors from video content, preferably for search and retrieval purpose
US9111348B2 (en) * 2013-03-15 2015-08-18 Toyota Motor Engineering & Manufacturing North America, Inc. Computer-based method and system of dynamic category object recognition
US9665777B2 (en) * 2013-05-10 2017-05-30 Robert Bosch Gmbh System and method for object and event identification using multiple cameras
CN103278170B (zh) * 2013-05-16 2016-01-06 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
US9969337B2 (en) * 2014-09-03 2018-05-15 Sharp Laboratories Of America, Inc. Methods and systems for mobile-agent navigation
CN104881029B (zh) * 2015-05-15 2018-01-30 重庆邮电大学 基于一点ransac和fast算法的移动机器人导航方法
CN105676253B (zh) * 2016-01-15 2019-01-01 武汉光庭科技有限公司 一种自动驾驶中基于城市道路标线地图的纵向定位系统及其方法
CN108072370A (zh) * 2016-11-18 2018-05-25 中国科学院电子学研究所 基于全局地图的机器人导航方法及用该方法导航的机器人
CN106840148B (zh) * 2017-01-24 2020-07-17 东南大学 室外作业环境下基于双目摄像机的可穿戴式定位与路径引导方法
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建系统
CN107860390A (zh) * 2017-12-21 2018-03-30 河海大学常州校区 基于视觉ros系统的非完整机器人远程定点自导航方法
CN108267121A (zh) * 2018-01-24 2018-07-10 锥能机器人(上海)有限公司 一种可变场景下多设备的视觉导航方法及系统

Also Published As

Publication number Publication date
US20210041886A1 (en) 2021-02-11
EP3745085A1 (en) 2020-12-02
CN108267121A (zh) 2018-07-10
WO2019144617A1 (zh) 2019-08-01
JP2021512297A (ja) 2021-05-13

Similar Documents

Publication Publication Date Title
KR20200116111A (ko) 가변적인 장면에서의 다중 장치의 시각 네비게이션 방법 및 시스템
US10810544B2 (en) Distributed autonomous robot systems and methods
US11204247B2 (en) Method for updating a map and mobile robot
US20220391825A1 (en) Method for tracking placement of products on shelves in a store
CN104574386B (zh) 一种基于三维环境模型匹配的室内定位方法
CN103324194B (zh) 基于二维码导航带的移动机器人定位系统
CN109186606B (zh) 一种基于slam和图像信息的机器人构图及导航方法
CN106985161B (zh) 物品抓取系统和方法
DE102019130046A1 (de) Ein robotersystem mit verbessertem abtastmechanismus
JP2019523924A (ja) 製品を店舗内の棚構造に割り当てる棚割表を自動的に生成する方法
CN110084243B (zh) 一种基于二维码和单目相机的档案识别与定位方法
US11055659B2 (en) System and method for automatic product enrollment
CN106647738A (zh) 一种无人搬运车的对接路径确定方法及系统及无人搬运车
CN111693046A (zh) 机器人系统和机器人导航地图建图系统及方法
KR102291827B1 (ko) 스마트 팜의 작물 자동 생육 계측 시스템 및 그 방법
Dymczyk et al. Erasing bad memories: Agent-side summarization for long-term mapping
CN109671135A (zh) 地图绘制方法、自驱动设备及存储介质
US20230280759A1 (en) Autonomous Robotic Navigation In Storage Site
CN113776533A (zh) 可移动设备的重定位方法及装置
CN113907645A (zh) 移动机器人的定位方法及装置、存储介质及电子装置
CN113759918A (zh) 盘点服务机器人控制方法
CN111578837B (zh) 面向农业机器人作业的植物形态视觉跟踪测量方法
CN110979853B (zh) 一种基于机器视觉的自动化包装方法及系统
CN116126020A (zh) 基于空天协同的茶叶采摘作业系统及作业方法
CN115615436A (zh) 一种多机重定位的无人机定位方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application