TW202144150A - 定位方法、機器人及儲存介質 - Google Patents

定位方法、機器人及儲存介質 Download PDF

Info

Publication number
TW202144150A
TW202144150A TW110131343A TW110131343A TW202144150A TW 202144150 A TW202144150 A TW 202144150A TW 110131343 A TW110131343 A TW 110131343A TW 110131343 A TW110131343 A TW 110131343A TW 202144150 A TW202144150 A TW 202144150A
Authority
TW
Taiwan
Prior art keywords
robot
positioning
route
information
position information
Prior art date
Application number
TW110131343A
Other languages
English (en)
Inventor
劉春曉
梁煜
石建萍
梁浩賢
林曉慧
Original Assignee
大陸商上海商湯智能科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大陸商上海商湯智能科技有限公司 filed Critical 大陸商上海商湯智能科技有限公司
Publication of TW202144150A publication Critical patent/TW202144150A/zh

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Algebra (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)
  • Manipulator (AREA)

Abstract

本發明實施例提供了定位方法、路徑確定方法、機器人及儲存介質,該定位方法包括:通過定位部件確定機器人的第一位置資訊;通過攝影頭採集圖像;根據該圖像,確定機器人的第二位置資訊;融合第一位置資訊和第二位置資訊,得到機器人的定位資訊。

Description

定位方法、機器人及儲存介質
本發明關於機器人技術領域,具體關於定位方法、路徑確定方法、機器人及儲存介質。
隨著電子技術的不斷發展,無人控制機器人,例如無人駕駛車輛應用而生。無人控制機器人為了能夠在道路上行動,首先需要能夠準確地定位機器人自身的位置,以便可以根據定位確定接下來的行動路徑。目前,常用的定位方法為:通過單線雷射雷達、全球定位系統(global positioning system,GPS)等定位部件進行定位。
本發明實施例提供了定位方法、路徑確定方法、機器人及儲存介質。
第一方面提供一種定位方法,包括: 通過定位部件確定機器人的第一位置資訊; 通過攝影頭採集圖像; 根據所述圖像,確定所述機器人的第二位置資訊; 融合所述第一位置資訊和所述第二位置資訊,得到所述機器人的定位資訊。
在進行定位時,將通過定位部件的定位和通過攝影頭採集的圖像進行的定位進行融合得到機器人的定位,結合了定位部件的定位和感知結果的定位,可以對定位部件的定位進行修正,可以提高定位精度。
作為一種可能的實施方式,所述定位部件包括雷射雷達,所述通過定位部件確定所述機器人的第一位置資訊包括: 通過所述雷射雷達採集定位資料; 根據點雲定位地圖和所述定位資料,確定所述機器人的第一位置資訊。
可以降低光照變化、遮擋等對定位的影響,從而可以提高定位精度。
作為一種可能的實施方式,所述根據所述圖像,確定所述機器人的第二位置資訊包括: 確定所述機器人與所述圖像中標誌性物體之間的相對位置; 根據所述標誌性物體和所述相對位置確定所述機器人的第二位置資訊。
可以降低通過地圖定位不準確的影響,從而可以提高定位精度。
作為一種可能的實施方式,所述確定所述機器人與所述圖像中標誌性物體之間的相對位置包括: 檢測所述圖像中的標誌性物體; 根據所述攝影頭的仿射變換矩陣,確定所述機器人與所述標誌性物體之間的相對位置。
作為一種可能的實施方式,所述根據所述標誌性物體和所述相對位置確定所述機器人的第二位置資訊包括: 根據所述第一位置資訊、地圖、所述標誌性物體和所述相對位置確定所述機器人的第二位置資訊。
由於標誌性物體通常在地圖中有標識位置,通過其與機器人的相對位置和定位部件獲得的第一位置資訊,確定機器人的第二位置資訊,可以提高機器人的定位精度。
作為一種可能的實施方式,所述根據所述第一位置資訊、地圖、所述標誌性物體和所述相對位置確定所述機器人的第二位置資訊包括: 將所述第一位置資訊轉換為在所述地圖中的位置,得到所述機器人的初始位置資訊; 識別所述圖像中所述機器人所在道路的道路邊線; 根據所述識別的道路邊線修正所述初始位置資訊的橫向資訊,以及根據所述相對位置修正所述初始位置資訊中的縱向資訊,得到所述機器人的第二位置資訊; 其中,縱向資訊為所述初始位置資訊在道路邊線所在方向上的位置資訊,所述橫向資訊為所述初始位置資訊在與道路邊線垂直的方向上的位置資訊。
通過標誌性物體與機器人的相對位置和圖像識別的道路資訊修正機器人的位置,可以提高機器人的定位精度。
作為一種可能的實施方式,所述融合所述第一位置資訊和所述第二位置資訊,得到所述機器人的定位資訊包括: 將所述第一位置資訊和所述第二位置資訊進行融合,得到融合定位資訊以及所述融合定位資訊的置信度; 在所述置信度大於閾值的情況下,確定所述融合定位資訊為所述機器人的定位資訊。
通過置信度可以確定通過融合得到的融合定位資訊的可信程度,在置信度大於閾值的情況下,表明融合定位資訊的可信程度較高,可以將融合定位資訊確定為機器人的定位資訊,從而可以提高定位精度。
作為一種可能的實施方式,所述方法還包括: 根據所述圖像確定所述機器人的第一路線; 根據地圖和所述機器人的定位資訊確定所述機器人的第二路線; 根據所述第一路線和所述第二路線確定所述機器人的行駛路徑。
在確定行駛路徑時,將通過地圖確定的路線和通過攝影頭採集的圖像確定的路線進行結合得到機器人的行駛路徑,結合了通過地圖確定的路線和感知結果確定的路線,可以提高行駛路徑的確定精度。
作為一種可能的實施方式,所述根據所述圖像確定所述機器人的第一路線包括: 識別所述圖像中所述機器人所在道路對應的兩條道路邊線; 計算所述兩條道路邊線的中線; 對所述中線進行曲線平滑處理,得到所述機器人的第一路線。
通過識別圖像中道路邊線來確定機器人的第一路線,可以降低通過地圖確定路線不準確的影響,從而可以提高行駛路徑的確定精度。
作為一種可能的實施方式,所述根據地圖和所述機器人的定位資訊確定所述機器人的第二路線包括: 從地圖中查詢所述機器人的定位資訊對應道路的中線,得到所述機器人的第二路線。
通過地圖確定機器人的第二路線,可以降低光照變化、遮擋等對確定路線的影響,從而可以提高行駛路徑的確定精度。
作為一種可能的實施方式,所述根據所述圖像確定所述機器人的第一路線包括: 識別所述圖像中所述機器人所在道路對應的第一道路邊線; 根據地圖和所述機器人的定位資訊,確定所述機器人轉彎後道路的第二道路邊線; 根據所述第一道路邊線和所述第二道路邊線,確定所述機器人轉彎後道路的入口位置和入口方向; 根據所述入口位置、所述入口方向以及所述機器人的定位資訊和方向,計算轉彎曲線,得到所述機器人的第一路線。
通過圖像和地圖可以確定機器人在轉彎方向的路線,可以降低遮擋等對確定路線的影響,從而可以提高行駛路徑的確定精度。
作為一種可能的實施方式,所述根據地圖和所述機器人的定位資訊確定所述機器人的第二路線包括: 從地圖中查詢所述機器人的定位資訊對應轉彎道路的中線,得到所述機器人的第二路線。
通過查詢地圖確定機器人的第二路線,可以降低確定路線的時間,從而可以提高行駛路徑的確定速度。
作為一種可能的實施方式,所述根據所述第一路線和所述第二路線確定所述機器人的行駛路徑包括: 對齊所述第一路線和所述第二路線,得到所述機器人的行駛路徑。
通過對齊根據不同方式確定的機器人的兩條路線,可以優化機器人的路線,從而可以提高行駛路徑的確定精度。
作為一種可能的實施方式,所述方法還包括: 生成用於按照所述行駛路徑行駛的行駛指令; 執行所述行駛指令。
可以根據確定的行駛路徑行駛,可以提高行駛的安全性。
第二方面提供一種路徑確定方法,包括: 通過攝影頭採集圖像; 根據所述圖像確定所述機器人的第一路線; 根據地圖和所述機器人的定位資訊確定所述機器人的第二路線; 根據所述第一路線和所述第二路線確定所述機器人的行駛路徑。
在確定行駛路徑時,將通過地圖確定的路線和通過攝影頭採集的圖像確定的路線進行結合得到機器人的行駛路徑,結合了通過地圖確定的路線和感知結果確定的路線,可以提高行駛路徑的確定精度。
作為一種可能的實施方式,所述根據所述圖像確定所述機器人的第一路線包括: 識別所述圖像中所述機器人所在道路對應的兩條道路邊線; 計算所述兩條道路邊線的中線; 對所述中線進行曲線平滑處理,得到所述機器人的第一路線。
通過識別圖像中道路邊線來確定機器人的第一路線,可以降低通過地圖確定路線不準確的影響,從而可以提高行駛路徑的確定精度。
作為一種可能的實施方式,所述根據地圖和所述機器人的定位資訊確定所述機器人的第二路線包括: 從地圖中查詢所述機器人的定位資訊對應道路的中線,得到所述機器人的第二路線。
通過地圖確定機器人的第二路線,可以降低光照變化、遮擋等對確定路線的影響,從而可以提高行駛路徑的確定精度。
作為一種可能的實施方式,所述根據所述圖像確定所述機器人的第一路線包括: 識別所述圖像中所述機器人所在道路對應的第一道路邊線; 根據地圖和所述機器人的定位資訊,確定所述機器人轉彎後道路的第二道路邊線; 根據所述第一道路邊線和所述第二道路邊線,確定所述機器人轉彎後道路的入口位置和入口方向; 根據所述入口位置、所述入口方向以及所述機器人的定位資訊和方向,計算轉彎曲線,得到所述機器人的第一路線。
通過圖像和地圖可以確定機器人在轉彎方向的路線,可以降低遮擋等對確定路線的影響,從而可以提高行駛路徑的確定精度。
作為一種可能的實施方式,所述根據地圖和所述機器人的定位資訊確定所述機器人的第二路線包括: 從地圖中查詢所述機器人的定位資訊對應轉彎道路的中線,得到所述機器人的第二路線。
通過查詢地圖確定機器人的第二路線,可以降低確定路線的時間,從而可以提高行駛路徑的確定速度。
作為一種可能的實施方式,所述根據所述第一路線和所述第二路線確定所述機器人的行駛路徑包括: 對齊所述第一路線和所述第二路線,得到所述機器人的行駛路徑。
通過對齊根據不同方式確定的機器人的兩條路線,可以優化機器人的路線,從而可以提高行駛路徑的確定精度。
作為一種可能的實施方式,所述方法還包括: 生成用於按照所述行駛路徑行駛的行駛指令; 執行所述行駛指令。
可以根據確定的行駛路徑行駛,可以提高行駛的安全性。
第三方面提供一種定位裝置,包括: 第一確定單元,用於通過定位部件確定機器人的第一位置資訊; 採集單元,用於通過攝影頭採集圖像; 第二確定單元,用於根據所述圖像,確定所述機器人的第二位置資訊; 融合單元,用於融合所述第一位置資訊和所述第二位置資訊,得到所述機器人的定位資訊。
作為一種可能的實施方式,所述定位部件包括雷射雷達,所述第一確定單元具體用於: 通過所述雷射雷達採集定位資料; 根據點雲定位地圖和所述定位資料,確定所述機器人的第一位置資訊。
作為一種可能的實施方式,所述第二確定單元具體用於: 確定所述機器人與所述圖像中標誌性物體之間的相對位置; 根據所述標誌性物體和所述相對位置確定所述機器人的第二位置資訊。
作為一種可能的實施方式,所述第二確定單元確定所述機器人與所述圖像中標誌性物體之間的相對位置包括: 檢測所述圖像中的標誌性物體; 根據所述攝影頭的仿射變換矩陣,確定所述機器人與所述標誌性物體之間的相對位置。
作為一種可能的實施方式,所述第二確定單元根據所述標誌性物體和所述相對位置確定所述機器人的第二位置資訊包括: 根據所述第一位置資訊、地圖、所述標誌性物體和所述相對位置確定所述機器人的第二位置資訊。
作為一種可能的實施方式,所述第二確定單元根據所述第一位置資訊、地圖、所述標誌性物體和所述相對位置確定所述機器人的第二位置資訊包括: 將所述第一位置資訊轉換為在所述地圖中的位置,得到所述機器人的初始位置資訊; 識別所述圖像中所述機器人所在道路的道路邊線; 根據所述識別的道路邊線修正所述初始位置資訊的橫向資訊,以及根據所述相對位置修正所述初始位置資訊中的縱向資訊,得到所述機器人的第二位置資訊; 其中,縱向資訊為所述初始位置資訊在道路邊線所在方向上的位置資訊,所述橫向資訊為所述初始位置資訊在與道路邊線垂直的方向上的位置資訊。
作為一種可能的實施方式,所述融合單元具體用於: 將所述第一位置資訊和所述第二位置資訊進行融合,得到融合定位資訊以及所述融合定位資訊的置信度; 在所述置信度大於閾值的情況下,確定所述融合定位資訊為所述機器人的定位資訊。
作為一種可能的實施方式,所述裝置還包括: 第三確定單元,用於根據所述圖像確定所述機器人的第一路線; 第四確定單元,用於根據地圖和所述機器人的定位資訊確定所述機器人的第二路線; 第五確定單元,用於根據所述第一路線和所述第二路線確定所述機器人的行駛路徑。
作為一種可能的實施方式,所述第三確定單元具體用於: 識別所述圖像中所述機器人所在道路對應的兩條道路邊線; 計算所述兩條道路邊線的中線;對所述中線進行曲線平滑處理,得到所述機器人的第一路線。
作為一種可能的實施方式,所述第四確定單元,具體用於從地圖中查詢所述機器人的定位資訊對應道路的中線,得到所述機器人的第二路線。
作為一種可能的實施方式,所述第三確定單元具體用於: 識別所述圖像中所述機器人所在道路對應的第一道路邊線; 根據地圖和所述機器人的定位資訊,確定所述機器人轉彎後道路的第二道路邊線; 根據所述第一道路邊線和所述第二道路邊線,確定所述機器人轉彎後道路的入口位置和入口方向; 根據所述入口位置、所述入口方向以及所述機器人的定位資訊和方向,計算轉彎曲線,得到所述機器人的第一路線。
作為一種可能的實施方式,所述第四確定單元,具體用於從地圖中查詢所述機器人的定位資訊對應轉彎道路的中線,得到所述機器人的第二路線。
作為一種可能的實施方式,所述第五確定單元,具體用於對齊所述第一路線和所述第二路線,得到所述機器人的行駛路徑。
作為一種可能的實施方式,所述裝置還包括: 生成單元,用於生成用於按照所述行駛路徑行駛的行駛指令; 執行單元,用於執行所述行駛指令。
第四方面提供一種路徑確定裝置,包括: 採集單元,用於通過攝影頭採集圖像; 第一確定單元,用於根據所述圖像確定所述機器人的第一路線; 第二確定單元,用於根據地圖和所述機器人的定位資訊確定所述機器人的第二路線; 第三確定單元,用於根據所述第一路線和所述第二路線確定所述機器人的行駛路徑。
作為一種可能的實施方式,所述第一確定單元具體用於: 識別所述圖像中所述機器人所在道路對應的兩條道路邊線; 計算所述兩條道路邊線的中線; 對所述中線進行曲線平滑處理,得到所述機器人的第一路線。
作為一種可能的實施方式,所述第二確定單元,具體用於從地圖中查詢所述機器人的定位資訊對應道路的中線,得到所述機器人的第二路線。
作為一種可能的實施方式,所述第一確定單元具體用於: 識別所述圖像中所述機器人所在道路對應的第一道路邊線; 根據地圖和所述機器人的定位資訊,確定所述機器人轉彎後道路的第二道路邊線; 根據所述第一道路邊線和所述第二道路邊線,確定所述機器人轉彎後道路的入口位置和入口方向; 根據所述入口位置、所述入口方向以及所述機器人的定位資訊和方向,計算轉彎曲線,得到所述機器人的第一路線。
作為一種可能的實施方式,所述第二確定單元,具體用於從地圖中查詢所述機器人的定位資訊對應轉彎道路的中線,得到所述機器人的第二路線。
作為一種可能的實施方式,所述第三確定單元,具體用於對齊所述第一路線和所述第二路線,得到所述機器人的行駛路徑。
作為一種可能的實施方式,所述裝置還包括: 生成單元,用於生成用於按照所述行駛路徑行駛的行駛指令; 執行單元,用於執行所述行駛指令。
第五方面提供一種機器人,包括處理器、記憶體、定位部件、攝影頭,記憶體用於儲存電腦程式代碼,定位部件用於定位,攝影頭用於採集圖像,處理器用於執行如第一方面或第一方面中任一種可能的實施方式提供的方法。
第六方面提供一種機器人,包括處理器、記憶體、攝影頭,記憶體用於儲存電腦程式代碼,攝影頭用於採集圖像,處理器用於執行如第二方面或第二方面中任一種可能的實施方式提供的方法。
第七方面提供一種可讀儲存介質,該可讀儲存介質儲存有電腦程式,該電腦程式包括程式碼,該程式碼當被處理器執行時使該處理器執行第一方面或第一方面中任一種可能的實施方式提供的方法,或者第二方面或第二方面中任一種可能的實施方式提供的方法。
第八方面提供一種電腦程式,包括電腦可讀代碼,當所述電腦可讀代碼在電子設備中運行時,所述電子設備中的處理器執行第一方面或第一方面中任一種可能的實施方式提供的方法,或者第二方面或第二方面中任一種可能的實施方式提供的方法。
本發明實施例提供定位方法、路徑確定方法、機器人及儲存介質,用於提高定位的準確性。以下分別進行詳細說明。
請參閱圖1,圖1是本發明實施例提供的一種定位方法的流程示意圖。其中,該定位方法應用於機器人。該機器人可以是用於教學、玩耍等的小車,也可以是用於載客、載物等的大車,還可以是用於教學、玩耍等的機器人,在此不作限定。其中,該機器人使用的系統可以為嵌入式系統,也可以為其它系統,在此不作限定。該定位方法步驟的可以通過機器人等硬體執行,或者通過處理器運行電腦可執行代碼的方式執行。如圖1所示,該定位方法可以包括以下步驟。
101、通過定位部件確定機器人的第一位置資訊。
第一位置資訊為利用定位部件確定的機器人自身的位置資訊。在機器人上電或啟動之後,可以即時或週期性地通過定位部件確定機器人的第一位置資訊。該定位部件可以為雷射雷達、全球定位系統(Global Positioning System,GPS)、輔助全球定位系統(Assisted Global Positioning System,AGPS)、北斗定位等。雷射雷達可以為單線雷射雷達,也可以為多線雷射雷達。其中,週期可以是1s、2s、5s等。
在定位部件為雷射雷達的情況下,可以先通過雷射雷達採集定位資料,之後根據點雲定位地圖和定位資料確定機器人的第一位置資訊,即將定位資料中的點與點雲定位地圖中的點進行匹配,可以通過匹配確定採集到的定位資料在點雲地圖中的位置,從而確定機器人的第一位置資訊。點雲定位地圖為根據點雲拼接成的用於定位的地圖。其中,點雲定位地圖可以預先儲存在機器人中,在使用點雲定位地圖的情況下,先需要從本地獲取儲存的點雲定位地圖。當然,在其他實施方式中,點雲定位地圖也可以儲存在雲端或其他設備中,機器人需要使用時可以從雲端或其他設備上獲取。
102、通過攝影頭採集圖像。
在機器人上電或啟動之後,可以即時或週期性地通過攝影頭採集圖像。此處的週期與步驟101中的週期可以相同,也可以不同。攝影頭的數量可以為一個,也可以為兩個或兩個以上。
103、根據採集的圖像確定機器人的第二位置資訊。
通過攝影頭採集到圖像之後,可以根據採集的圖像確定機器人的第二位置資訊。
具體地,可以先確定機器人與圖像中標誌性物體之間的相對位置,之後根據標誌性物體和相對位置確定機器人的第二位置資訊。也可以先確定標誌性物體在圖像中的座標,之後根據攝影頭的相對標誌性物體的拍攝角度和圖像的拍攝比例,確定機器人與圖像中標誌性物體之間的相對位置,再根據標誌性物體和相對位置確定機器人的第二位置資訊。還可以根據目標識別技術識別得到機器人後,根據預設座標轉換矩陣,將攝影機座標系下的機器人位置轉換到世界座標系下,從而得到機器人的第二位置資訊。
在確定機器人與圖像中標誌性物體之間的相對位置時,可以先檢測圖像中的標誌性物體,之後根據攝影頭的仿射變換矩陣確定機器人與標誌性物體之間的相對位置;也可以先檢測圖像中的標誌性物體,之後使用雷射雷達掃描標誌性物體,根據掃描的標誌性物體的點確定機器人與標誌性物體之間的相對位置。其中,標誌性物體可以為交通信號燈、路標指示牌等具有標誌性的物體。當然,在其他實施例中,也可以通過距離感測器測量機器人與標誌性物體之間的相對距離。
在根據攝影頭的仿射變換矩陣確定機器人與標誌性物體之間的相對位置時,可以先確定標誌性物體在圖像座標系中的座標,之後根據攝影頭的仿射變換矩陣將標誌性物體在圖像座標系中的座標轉換為以攝影頭為原點的座標系中的座標,最後根據轉換後的標誌性物體的座標確定機器人與標誌性物體之間的相對位置。例如,機器人在以攝影頭為原點的座標系中的座標為(0,0,0),標誌性物體在以攝影頭為原點的座標系中的座標為(x1,y1,z1),則機器人與標誌性物體之間的相對位置為(x1,y1,z1)。其中,由於攝影頭與機器人中心之間的位置可能存在偏差,而攝影頭與機器人中心的外參可測量,因此可以進一步結合上述外參得到機器人在以攝影頭為原點的座標系中的座標,然後根據上述過程得到標誌性物體相對於機器人中心(也就是機器人)的相對位置。
在根據圖像中標誌性物體和機器人與圖像中標誌性物體之間的相對位置確定機器人的第二位置資訊時,可以根據第一位置資訊、地圖、標誌性物體和相對位置確定機器人的第二位置資訊。具體地,可以先將第一位置資訊轉換為在地圖中的位置,得到機器人的初始位置資訊,同時、之前或之後可以從圖像中識別機器人所在道路的道路邊線,例如識別機器小車所在車道的車道線,然後可以根據識別出的道路邊線修正初始位置資訊中的橫向資訊,以及可以根據機器人與圖像中標誌性物體之間的相對位置修正初始位置資訊中的縱向資訊,得到機器人的第二位置資訊。
其中,道路邊線所在方向為縱向,與道路邊線垂直的方向為橫向。縱向資訊為該初始位置資訊在道路邊線所在方向上的位置資訊,該橫向資訊為該初始位置資訊在與道路邊線垂直的方向上的位置資訊,例如初始位置資訊為機器人的橫向座標和縱向座標,該橫向資訊為該橫向座標,該縱向資訊為該縱向座標。
根據機器人與圖像中標誌性物體之間的相對位置修正初始位置資訊中的縱向資訊可以是先將標誌性物體在以攝影頭為原點的座標系中的座標(x1,y1,z1)映射到地圖中得到映射橫向位置與映射縱向位置,以及直接從地圖查詢標誌性物體的位置得到查詢橫向位置與查詢縱向位置。之後可以根據映射縱向位置和查詢縱向位置得到標誌性物體的縱向位置,可以將映射縱向位置和查詢縱向位置的平均或加權平均確定為標誌性物體的縱向位置。之後再根據機器人與圖像中標誌性物體之間的相對位置以及標誌性物體的縱向位置修正初始位置資訊中的縱向資訊。例如,初始位置資訊的座標為(x2,y2),確定的標誌性物體的縱向位置為y3,機器人與標誌性物體之間的相對位置為(x1,y1,z1),可見,相對位置對應的標誌性物體與機器人之間的縱向座標差為y1,之後根據y3- y1= y4可以得到機器人的修正縱向資訊,可以將y2與y4的平均值或加權平均可以作為機器人的縱向座標點。
根據識別出的道路邊線修正初始位置資訊中的橫向資訊可以是先根據識別出的道路邊線確定機器人所在道路的中線,之後確定中線中初始位置資訊對應的點,根據該點的橫向資訊修正初始位置資訊中的橫向資訊。修正後的橫向資訊可以是該點的橫向資訊與初始位置資訊中的橫向資訊的平均或加權平均。在車道邊線為直線的情況下,中線中初始位置資訊對應的點可以為與初始位置的縱向資訊相同的點。在車道邊線為曲線的情況下,中線中初始位置資訊對應的點可以為與初始位置距離最近的點。例如,初始位置資訊的座標為(x2,y2),可以根據識別出的機器人所在道路的道路邊線確定該道路的中線,該中線的橫座標為x3,可以將x2與x3的平均值或加權平均可以作為機器人的橫向座標點。在該中線不是直線的情況下,x3可以是中線中與(x2,y2)距離最近的點的橫座標。
其中,該地圖可以為高精度地圖,也可以為普通的實物定位地圖。高精度地圖就是精度更高、資料維度更多的電子地圖。精度更高體現在精確到釐米級別,資料維度更多體現在其包括了除道路資訊之外的與行駛相關的周圍靜態資訊。高精度地圖將大量的機器人行駛輔助資訊儲存為結構化資料,這些資訊可以分為兩類。第一類是道路資料,比如道路邊線的位置、類型、寬度、坡度和曲率等車道資訊。第二類是道路周邊的固定物件資訊,比如交通標誌、交通信號燈等資訊、道路限高、下水道口、障礙物及其他道路細節,還包括高架物體、防護欄、數目、道路邊緣類型、路邊地標等基礎設施資訊。其中,道路可以為車道,也可以為人行道等機器人可移動的道路。道路邊線為道路的邊沿線,可以為車道線,也可以為道路牙子,還可以隔離物體,還可以為其它能夠用作道路邊線的東西。其中,地圖是預先儲存的機器人中的,使用之前可以先從本地獲取儲存的地圖。當然,在其他實施方式中,地圖也可以儲存在雲端或其他設備中,機器人需要使用時可以從雲端或其他設備上獲取。
104、融合第一位置資訊和第二位置資訊,得到機器人的定位資訊。
通過定位部件確定出機器人的第一位置資訊,以及根據圖像確定出機器人的第二位置資訊之後,可以融合第一位置資訊和第二位置資訊得到機器人的定位資訊。
在一種可能的實現方式中,可以先將第一位置資訊和第二位置資訊輸入融合演算法得到融合定位資訊以及該融合定位資訊的置信度,之後判斷置信度是否大於閾值,在判斷出置信度大於閾值的情況下,表明該融合定位資訊的準確度較高,可以確定該融合定位資訊為機器人的定位資訊。在判斷出置信度小於或等於閾值的情況下,表明該融合定位資訊的準確度較低,可以丟棄該融合定位資訊,之後進行重新定位。機器人的定位資訊可以是第一位置資訊和第二位置資訊的平均、加權平均等。融合演算法可以為綜合平均法、卡爾曼濾波法、貝葉斯估計法等。
在其他可能的實現方式中,也可以直接將第一位置資訊和第二位置資訊進行加權或平均等融合處理,得到機器人的定位資訊。
在圖1所描述的定位方法中,在進行定位時,將通過定位部件的定位和通過攝影頭採集的圖像進行的定位進行融合得到機器人的定位,結合了定位部件的定位和感知結果的定位,可以對定位部件的定位進行修正,可以提高定位精度。
請參閱圖2,圖2是本發明實施例提供的另一種定位方法的流程示意圖。其中,該定位方法應用於機器人。該機器人可以是用於教學、玩耍等的小車,也可以是用於載客、載物等的大車,還可以是用於教學、玩耍等的機器人,在此不作限定。其中,該機器人使用的系統可以為嵌入式系統,也可以為其它系統,在此不作限定。該定位方法步驟的可以通過機器人等硬體執行,或者通過處理器運行電腦可執行代碼的方式執行。如圖2所示,該定位方法可以包括以下步驟。
201、通過定位部件確定機器人的第一位置資訊。
其中,步驟201與步驟101相同,詳細描述請參考步驟101,在此不再贅述。
202、通過攝影頭採集圖像。
其中,步驟202與步驟102相同,詳細描述請參考步驟102,在此不再贅述。
203、根據採集的圖像確定機器人的第二位置資訊。
其中,步驟203與步驟103相同,詳細描述請參考步驟103,在此不再贅述。
204、融合第一位置資訊和第二位置資訊,得到機器人的定位資訊。
其中,步驟204與步驟104相同,詳細描述請參考步驟104,在此不再贅述。
205、根據圖像確定機器人的第一路線。
第一路線是根據採集的圖像資訊,規劃得到的機器人移動路徑。通過攝影頭採集到圖像之後,可以根據圖像確定機器人的第一路線。
在一種可能的實現方式中,機器人以車輛為例,在機器人行駛在直道上時,可以先識別圖像中機器人所在道路對應的兩條道路邊線,例如,採用預先訓練好的道路邊線識別模型識別圖像中機器人所在道路對應的兩條道路邊線,然後計算兩條道路邊線的中線。之後,可以直接將道路邊線的中線確定為機器人的第一路線,也可以對道路邊線的中線進行曲線平滑處理得到機器人的第一路線。在機器人行駛在道路的最右邊或最左邊的情況下,機器人所在道路可能只有一條道路邊線,在圖像檢測中可以將檢測到的道路牙子確定為另一條道路邊線。在道路為雙向行駛,且道路中間用圍欄之類的物體隔開的情況下,在機器人行駛在隔開物體旁邊道路的情況下,機器人所在道路可能只有一條道路邊線,在圖像檢測中可以將檢測到的隔開物體確定為另一條道路邊線。
在一種可能的實現方式中,在機器人行駛在路口或彎道時,可以識別圖像中機器人所在道路對應的第一道路邊線。可以根據地圖和機器人的定位資訊確定機器人轉彎後道路的第二道路邊線,即根據機器人的定位資訊在地圖中查詢機器人所在道路轉彎後道路的資訊,道路的資訊可以包括道路的寬度、機器人的道路邊線等。之後根據識別出的第一道路邊線和確定的第二道路邊線確定機器人轉彎後道路的入口位置和入口方向。由於通過圖像識別的第一道路邊線比確定的第二道路邊線的精度要高,因此,可以根據識別出的道路邊線補全確定的道路邊線,根據補全後的道路邊線確定機器人轉彎後行駛道路的入口位置和入口方向。最後可以根據機器人轉彎後行駛道路的入口位置和入口方向,以及機器人的定位資訊和方向計算轉彎曲線,得到機器人的第一路線。其中,可以使用b樣條、多項式擬合等方法計算轉彎曲線。通過上述方式,可以提高機器人行駛路徑規劃的準確性,克服由於攝影頭盲區道路邊線部分不可見而導致的路徑規劃不準確問題。
206、根據地圖和機器人的定位資訊確定機器人的第二路線。
第二路線為根據地圖和機器人的定位資訊規劃的機器人行駛參考路徑。融合第一位置資訊和第二位置資訊得到機器人的定位資訊之後,可以根據地圖和機器人的定位資訊確定機器人的第二路線。在機器人行駛在直道上時,可以從地圖中查詢機器人的定位資訊對應機器人當前所在道路的中線,將該中線作為機器人的第二路線。在機器人行駛在路口時,可以從地圖中查詢機器人的定位資訊對應機器人將要轉彎的道路的中線,將該中線作為機器人的第二路線。
當然,在其他實施例中,也可以將道路的其他位置,例如沿道路左側2/3位置的路線,作為機器人的第二路線。
207、根據第一路線和第二路線確定機器人的行駛路徑。
根據圖像確定機器人的第一路線,以及根據地圖和機器人的定位資訊確定機器人的第二路線之後,可以根據第一路線和第二路線確定機器人的行駛路徑。例如,對齊第一路線和第二路線得到機器人的行駛路徑,其中,可以使用加權平均、曲線擬合等方法對第一路線和第二路線進行對齊。
可選地,在步驟S207之後,還包括以下步驟。
208、生成用於按照行駛路徑行駛的行駛指令。
根據第一路線和第二路線確定出機器人的行駛路徑之後,可以根據行駛路徑生成用於按照行駛路徑行駛的行駛指令。
例如,在行駛路徑為直線的情況下,可以生成用於按照當前道路直行100米的行駛指令。
209、執行行駛指令。
生成用於按照行駛路徑行駛的行駛指令之後,機器人可以執行該行駛指令,以便按照行駛路徑行駛。
在圖2所描述的定位方法中,將通過定位部件的定位和通過攝影頭採集的圖像進行的定位進行融合得到機器人的定位,結合了定位部件的定位和感知結果的定位,可以對定位部件的定位進行修正,可以提高定位的準確性。此外,根據定位資訊確定的機器人的路線和通過攝影頭採集的圖像確定的機器人的路線確定機器人的行駛路徑,結合了定位資訊確定的機器人的路線和攝影頭採集圖像確定的機器人的路線,可以對定位資訊確定的機器人的路線進行修正,可以提高行駛路徑的確定精度。
請參閱圖3,圖3是本發明實施例提供的一種路徑確定方法的流程示意圖。其中,該路徑確定方法可應用於機器人。該機器人可以是用於教學、玩耍等的小車,也可以是用於載客、載物等的大車,還可以是用於教學、玩耍等的機器人,在此不作限定。其中,該機器人使用的系統可以為嵌入式系統,也可以為其它系統,在此不作限定。該路徑確定方法步驟的可以通過機器人等硬體執行,或者通過處理器運行電腦可執行代碼的方式執行。如圖3所示,該路徑確定方法可以包括以下步驟。
301、通過攝影頭採集圖像。
其中,步驟301與步驟102相同,詳細描述請參考步驟102,在此不再贅述。
302、根據圖像確定機器人的第一路線。
其中,步驟302與步驟205相同,詳細描述請參考步驟205,在此不再贅述。
303、根據地圖和機器人的定位資訊確定機器人的第二路線。
其中,步驟303與步驟206相似,詳細描述請參考步驟206,在此不再贅述。
當然,在其他實施例中,機器人也可以利用定位部件或地圖其中一種方式直接獲取機器人定位資訊後,確定機器人的第一路線和第二路線。
304、根據第一路線和第二路線確定機器人的行駛路徑。
其中,步驟304與步驟207相同,詳細描述請參考步驟207,在此不再贅述。
305、生成用於按照行駛路徑行駛的行駛指令。
其中,步驟305與步驟208相同,詳細描述請參考步驟208,在此不再贅述。
306、執行行駛指令。
其中,步驟306與步驟209相同,詳細描述請參考步驟209,在此不再贅述。
在圖3所描述的路徑確定方法中,根據定位資訊確定的機器人的路線和通過攝影頭採集的圖像確定的機器人的路線確定機器人的行駛路徑,結合了定位資訊確定的機器人的路線和攝影頭採集圖像確定的機器人的路線,可以對定位資訊確定的機器人的路線進行修正,可以提高行駛路徑的確定精度。
請參閱圖4,圖4是本發明實施例提供的一種定位裝置的結構示意圖。其中,該定位裝置可應用於機器人。該機器人可以是用於教學、玩耍等的小車,也可以是用於載客、載物等的大車,還可以是用於教學、玩耍等的機器人,在此不作限定。其中,該機器人使用的系統可以為嵌入式系統,也可以為其它系統,在此不作限定。如圖4所示,該定位裝置可以包括: 第一確定單元401,用於通過定位部件確定機器人的第一位置資訊; 採集單元402,用於通過攝影頭採集圖像; 第二確定單元403,用於根據該圖像,確定機器人的第二位置資訊; 融合單元404,用於融合第一位置資訊和第二位置資訊,得到機器人的定位資訊。
在一個實施例中,定位部件可以包括雷射雷達,第一確定單元401具體用於: 通過雷射雷達採集定位資料; 根據點雲定位地圖和定位資料,確定機器人的第一位置資訊。
在一個實施例中,第二確定單元403具體用於: 確定機器人與該圖像中標誌性物體之間的相對位置; 根據標誌性物體和相對位置確定機器人的第二位置資訊。
在一個實施例中,第二確定單元403確定機器人與該圖像中標誌性物體之間的相對位置包括: 檢測該圖像中的標誌性物體; 根據攝影頭的仿射變換矩陣,確定機器人與標誌性物體之間的相對位置。
在一個實施例中,第二確定單元403根據標誌性物體和相對位置確定機器人的第二位置資訊包括: 根據第一位置資訊、地圖、標誌性物體和相對位置確定機器人的第二位置資訊。
在一個實施例中,第二確定單元403根據第一位置資訊、地圖、標誌性物體和相對位置確定機器人的第二位置資訊包括: 將第一位置資訊轉換為在地圖中的位置,得到機器人的初始位置資訊; 識別該圖像中機器人所在道路的道路邊線; 根據識別的道路邊線修正初始位置資訊的橫向資訊,以及根據相對位置修正初始位置資訊中的縱向資訊,得到機器人的第二位置資訊; 其中,縱向資訊為初始位置資訊在道路邊線所在方向上的位置資訊,橫向資訊為初始位置資訊在與道路邊線垂直的方向上的位置資訊。
在一個實施例中,融合單元404具體用於: 將第一位置資訊和第二位置資訊進行融合,得到融合定位資訊以及融合定位資訊的置信度; 在置信度大於閾值的情況下,確定融合定位資訊為機器人的定位資訊。
在一個實施例中,該定位裝置還可以包括: 第三確定單元405,用於根據圖像確定機器人的第一路線; 第四確定單元406,用於根據地圖和機器人的定位資訊確定機器人的第二路線; 第五確定單元407,用於根據第一路線和第二路線確定機器人的行駛路徑。
在一個實施例中,第三確定單元405具體用於: 識別圖像中機器人所在道路對應的兩條道路邊線; 計算兩條道路邊線的中線; 對中線進行曲線平滑處理,得到機器人的第一路線。
在一個實施例中,第四確定單元406,具體用於從地圖中查詢機器人的定位資訊對應道路的中線,得到機器人的第二路線。
在一個實施例中,第三確定單元405具體用於: 識別圖像中機器人所在道路對應的第一道路邊線; 根據地圖和機器人的定位資訊,確定機器人轉彎後道路的第二道路邊線; 根據第一道路邊線和第二道路邊線,確定機器人轉彎後道路的入口位置和入口方向; 根據入口位置、入口方向以及機器人的定位資訊和方向,計算轉彎曲線,得到機器人的第一路線。
在一個實施例中,第四確定單元406,具體用於從地圖中查詢機器人的定位資訊對應轉彎道路的中線,得到機器人的第二路線。
在一個實施例中,第五確定單元407,具體用於對齊第一路線和第二路線,得到機器人的行駛路徑。
在一個實施例中,該定位裝置還可以包括: 生成單元408,用於生成用於按照行駛路徑行駛的行駛指令; 執行單元409,用於執行行駛指令。
本實施例可對應於本發明實施例中方法實施例描述,並且各個單元的上述和其它操作和/或功能分別為了實現圖1和圖2中各方法中的相應流程,為了簡潔,在此不再贅述。
請參閱圖5,圖5是本發明實施例提供的一種路徑確定裝置的結構示意圖。其中,該路徑確定裝置可應用於機器人。該機器人可以是用於教學、玩耍等的小車,也可以是用於載客、載物等的大車,還可以是用於教學、玩耍等的機器人,在此不作限定。其中,該機器人使用的系統可以為嵌入式系統,也可以為其它系統,在此不作限定。如圖5所示,該路徑確定裝置可以包括: 採集單元501,用於通過攝影頭採集圖像; 第一確定單元502,用於根據圖像確定機器人的第一路線; 第二確定單元503,用於根據地圖和機器人的定位資訊確定機器人的第二路線; 第三確定單元504,用於根據第一路線和第二路線確定機器人的行駛路徑。
在一個實施例中,第一確定單元502具體用於: 識別圖像中機器人所在道路對應的兩條道路邊線; 計算兩條道路邊線的中線; 對中線進行曲線平滑處理,得到機器人的第一路線。
在一個實施例中,第二確定單元503,具體用於從地圖中查詢機器人的定位資訊對應道路的中線,得到機器人的第二路線。
在一個實施例中,第一確定單元502具體用於: 識別圖像中機器人所在道路對應的第一道路邊線; 根據地圖和機器人的定位資訊,確定機器人轉彎後道路的第二道路邊線; 根據第一道路邊線和第二道路邊線,確定機器人轉彎後道路的入口位置和入口方向; 根據入口位置、入口方向以及機器人的定位資訊和方向,計算轉彎曲線,得到機器人的第一路線。
在一個實施例中,第二確定單元503,具體用於從地圖中查詢機器人的定位資訊對應轉彎道路的中線,得到機器人的第二路線。
在一個實施例中,第三確定單元504,具體用於對齊第一路線和第二路線,得到機器人的行駛路徑。
在一個實施例中,該路徑確定裝置還可以包括: 生成單元505,用於生成用於按照行駛路徑行駛的行駛指令; 執行單元506,用於執行行駛指令。
本實施例可對應於本發明實施例中方法實施例描述,並且各個單元的上述和其它操作和/或功能分別為了實現圖2和圖3中各方法中的相應流程,為了簡潔,在此不再贅述。
請參閱圖6,圖6是本發明實施例提供的一種機器人的結構示意圖。其中,該機器人可以是用於教學、玩耍等的小車,也可以是用於載客、載物等的大車,還可以是用於教學、玩耍等的機器人,在此不作限定。其中,該機器人使用的系統可以為嵌入式系統,也可以為其它系統,在此不作限定。如圖6所示,該機器人可以包括至少一個處理器601、記憶體602、定位部件603、攝影頭604和通信線路605。記憶體602可以是獨立存在的,可以通過通信線路605與處理器601相連接。記憶體602也可以和處理器601集成在一起。其中,通信線路605用於實現這些元件之間的連接。
在一個實施例中,記憶體602中儲存的電腦程式指令被執行時,該處理器601用於執行上述實施例中執行第二確定單元403、融合單元404、第三確定單元405、第四確定單元406、第五確定單元407、生成單元408和執行單元409中至少部分單元的操作,定位部件603用於執行上述實施例中第一確定單元401執行的操作,攝影頭604用於執行上述實施例中採集單元402執行的操作。上述機器人還可以用於執行前述方法實施例中終端設備執行的各種方法,不再贅述。
在另一個實施例中,記憶體602中儲存的電腦程式指令被執行時,該處理器601用於執行上述實施例中執行第一確定單元502、第二確定單元503、第三確定單元504、生成單元505和執行單元505中至少部分單元的操作,攝影頭604用於執行上述實施例中採集單元501執行的操作。上述機器人還可以用於執行前述方法實施例中執行的各種方法,不再贅述。
本發明實施例還公開一種電腦可讀儲存介質,其上儲存有指令,該指令被執行時執行上述方法實施例中的方法。該可讀儲存介質可以是易失性儲存介質,也可以是非易失性儲存介質。
本發明實施例還公開一種包含指令的電腦程式產品,該指令被執行時執行上述方法實施例中的方法。
本領域普通技術人員可以理解上述實施例的各種方法中的全部或部分步驟是可以通過程式指令相關的硬體來完成,該程式可以儲存於一電腦可讀記憶體中,記憶體可以包括:快閃記憶體盤、唯讀記憶體(Read-Only Memory,ROM)、隨機存取記憶體(Random-Access Memory,RAM)、磁片或光碟等。
以上對本發明實施例進行了詳細介紹,本文中應用了具體個例對本發明的原理及實施方式進行了闡述,以上實施例的說明只是用於幫助理解本發明的方法及其核心思想;同時,對於本領域的一般技術人員,依據本發明的思想,在具體實施方式及應用範圍上均會有改變之處,綜上所述,本說明書內容不應理解為對本發明的限制。
401:第一確定單元 402:採集單元 403:第二確定單元 404:融合單元 405:第三確定單元 406:第四確定單元 407:第五確定單元 408:生成單元 409:執行單元 501:採集單元 502:第一確定單元 503:第二確定單元 504:第三確定單元 505:生成單元 506:執行單元 601:處理器 602:記憶體 603:定位部件 604:攝影頭 605:通信線路 101~104,201~209,301~306:步驟
圖1是本發明實施例提供的一種定位方法的流程示意圖; 圖2是本發明實施例提供的另一種定位方法的流程示意圖; 圖3是本發明實施例提供的一種路徑確定方法的流程示意圖; 圖4是本發明實施例提供的一種定位裝置的結構示意圖; 圖5是本發明實施例提供的一種路徑確定裝置的結構示意圖; 圖6是本發明實施例提供的一種機器人的結構示意圖。
101~104:步驟

Claims (14)

  1. 一種定位方法,包括: 通過定位部件確定機器人的第一位置資訊; 通過攝影頭採集圖像; 根據所述圖像,確定所述機器人的第二位置資訊; 融合所述第一位置資訊和所述第二位置資訊,得到所述機器人的定位資訊; 其中,所述方法還包括: 根據所述圖像確定所述機器人的第一路線; 根據地圖和所述機器人的定位資訊確定所述機器人的第二路線; 根據所述第一路線和所述第二路線確定所述機器人的行駛路徑。
  2. 根據請求項1所述的方法,其中,所述定位部件包括雷射雷達,所述通過定位部件確定所述機器人的第一位置資訊包括: 通過所述雷射雷達採集定位資料; 根據點雲定位地圖和所述定位資料,確定所述機器人的第一位置資訊。
  3. 根據請求項1或2所述的方法,其中, 所述根據所述圖像,確定所述機器人的第二位置資訊包括: 確定所述機器人與所述圖像中標誌性物體之間的相對位置; 根據所述標誌性物體和所述相對位置確定所述機器人的第二位置資訊; 所述確定所述機器人與所述圖像中標誌性物體之間的相對位置包括: 檢測所述圖像中的標誌性物體; 根據所述攝影頭的仿射變換矩陣,確定所述機器人與所述標誌性物體之間的相對位置。
  4. 根據請求項3所述的方法,其中,所述根據所述標誌性物體和所述相對位置確定所述機器人的第二位置資訊包括: 根據所述第一位置資訊、地圖、所述標誌性物體和所述相對位置確定所述機器人的第二位置資訊。
  5. 根據請求項4所述的方法,其中,所述根據所述第一位置資訊、地圖、所述標誌性物體和所述相對位置確定所述機器人的第二位置資訊包括: 將所述第一位置資訊轉換為在所述地圖中的位置,得到所述機器人的初始位置資訊; 識別所述圖像中所述機器人所在道路的道路邊線; 根據所述識別的道路邊線修正所述初始位置資訊的橫向資訊,以及根據所述相對位置修正所述初始位置資訊中的縱向資訊,得到所述機器人的第二位置資訊; 其中,縱向資訊為所述初始位置資訊在道路邊線所在方向上的位置資訊,所述橫向資訊為所述初始位置資訊在與道路邊線垂直的方向上的位置資訊。
  6. 根據請求項1或2所述的方法,其中,所述融合所述第一位置資訊和所述第二位置資訊,得到所述機器人的定位資訊包括: 將所述第一位置資訊和所述第二位置資訊進行融合,得到融合定位資訊以及所述融合定位資訊的置信度; 在所述置信度大於閾值的情況下,確定所述融合定位資訊為所述機器人的定位資訊。
  7. 根據請求項1所述的方法,其中,所述根據所述圖像確定所述機器人的第一路線包括: 識別所述圖像中所述機器人所在道路對應的兩條道路邊線; 計算所述兩條道路邊線的中線; 對所述中線進行曲線平滑處理,得到所述機器人的第一路線。
  8. 根據請求項7所述的方法,其中,所述根據地圖和所述機器人的定位資訊確定所述機器人的第二路線包括: 從地圖中查詢所述機器人的定位資訊對應道路的中線,得到所述機器人的第二路線。
  9. 根據請求項1所述的方法,其中,所述根據所述圖像確定所述機器人的第一路線包括: 識別所述圖像中所述機器人所在道路對應的第一道路邊線; 根據地圖和所述機器人的定位資訊,確定所述機器人轉彎後道路的第二道路邊線; 根據所述第一道路邊線和所述第二道路邊線,確定所述機器人轉彎後道路的入口位置和入口方向; 根據所述入口位置、所述入口方向以及所述機器人的定位資訊和方向,計算轉彎曲線,得到所述機器人的第一路線。
  10. 根據請求項9所述的方法,其中,所述根據地圖和所述機器人的定位資訊確定所述機器人的第二路線包括: 從地圖中查詢所述機器人的定位資訊對應轉彎道路的中線,得到所述機器人的第二路線。
  11. 根據請求項1所述的方法,其中,所述根據所述第一路線和所述第二路線確定所述機器人的行駛路徑包括: 對齊所述第一路線和所述第二路線,得到所述機器人的行駛路徑。
  12. 根據請求項1所述的方法,所述方法還包括: 生成用於按照所述行駛路徑行駛的行駛指令; 執行所述行駛指令。
  13. 一種機器人,包括處理器、記憶體、定位部件、攝影頭,所述記憶體用於儲存電腦程式代碼,所述定位部件用於定位,所述攝影頭用於採集圖像,所述處理器用於調用所述電腦程式代碼執行如請求項1至12任一項所述的方法。
  14. 一種可讀儲存介質,所述可讀儲存介質儲存有電腦程式,所述電腦程式被處理器執行時實現如請求項1至12任一項所述的方法。
TW110131343A 2019-09-26 2020-03-05 定位方法、機器人及儲存介質 TW202144150A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910915168.8 2019-09-26
CN201910915168.8A CN110530372B (zh) 2019-09-26 2019-09-26 定位方法、路径确定方法、装置、机器人及存储介质

Publications (1)

Publication Number Publication Date
TW202144150A true TW202144150A (zh) 2021-12-01

Family

ID=68670274

Family Applications (2)

Application Number Title Priority Date Filing Date
TW109107316A TWI742554B (zh) 2019-09-26 2020-03-05 定位方法、路徑確定方法、機器人及儲存介質
TW110131343A TW202144150A (zh) 2019-09-26 2020-03-05 定位方法、機器人及儲存介質

Family Applications Before (1)

Application Number Title Priority Date Filing Date
TW109107316A TWI742554B (zh) 2019-09-26 2020-03-05 定位方法、路徑確定方法、機器人及儲存介質

Country Status (6)

Country Link
US (1) US20210229280A1 (zh)
JP (1) JP2022504728A (zh)
CN (1) CN110530372B (zh)
SG (1) SG11202103843YA (zh)
TW (2) TWI742554B (zh)
WO (1) WO2021056841A1 (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110530372B (zh) * 2019-09-26 2021-06-22 上海商汤智能科技有限公司 定位方法、路径确定方法、装置、机器人及存储介质
CN111121805A (zh) * 2019-12-11 2020-05-08 广州赛特智能科技有限公司 基于道路交通标线标志的局部定位修正方法、设备及介质
CN111524185A (zh) * 2020-04-21 2020-08-11 上海商汤临港智能科技有限公司 定位方法及装置、电子设备和存储介质
CN113884093A (zh) * 2020-07-02 2022-01-04 苏州艾吉威机器人有限公司 Agv建图和定位的方法、系统、装置及计算机可读存储介质
CN114076602B (zh) * 2020-08-20 2024-07-16 北京四维图新科技股份有限公司 定位方法及定位设备
CN112405526A (zh) * 2020-10-26 2021-02-26 北京市商汤科技开发有限公司 一种机器人的定位方法及装置、设备、存储介质
EP4258078A4 (en) * 2021-01-13 2023-12-27 Huawei Technologies Co., Ltd. POSITIONING METHOD AND DEVICE AND VEHICLE
CN112800159B (zh) * 2021-01-25 2023-10-31 北京百度网讯科技有限公司 地图数据处理方法及装置
CN113706621B (zh) * 2021-10-29 2022-02-22 上海景吾智能科技有限公司 基于带标记图像的标志点定位及姿态获取方法和系统
CN116008991B (zh) * 2022-12-12 2024-08-06 北京斯年智驾科技有限公司 一种岸桥下车辆定位方法、装置、电子设备及存储介质
TWI832686B (zh) * 2023-01-23 2024-02-11 國立陽明交通大學 路徑規劃系統及其路徑規劃方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105674992A (zh) * 2014-11-20 2016-06-15 高德软件有限公司 一种导航方法及装置
CN105448184B (zh) * 2015-11-13 2019-02-12 北京百度网讯科技有限公司 地图道路的绘制方法及装置
CN105783936B (zh) * 2016-03-08 2019-09-24 武汉中海庭数据技术有限公司 用于自动驾驶中的道路标识制图及车辆定位方法及系统
CN107398899A (zh) * 2016-05-20 2017-11-28 富泰华工业(深圳)有限公司 无线信号强度定位引导系统及方法
JP6535634B2 (ja) * 2016-05-26 2019-06-26 本田技研工業株式会社 経路案内装置及び経路案内方法
CN108073167A (zh) * 2016-11-10 2018-05-25 深圳灵喵机器人技术有限公司 一种基于深度相机与激光雷达的定位与导航方法
JP6834401B2 (ja) * 2016-11-24 2021-02-24 日産自動車株式会社 自己位置推定方法及び自己位置推定装置
JP7016214B2 (ja) * 2016-11-29 2022-02-04 アルパイン株式会社 走行可能領域設定装置および走行可能領域設定方法
JP6891753B2 (ja) * 2017-09-28 2021-06-18 ソニーグループ株式会社 情報処理装置、移動装置、および方法、並びにプログラム
US10436885B2 (en) * 2017-10-19 2019-10-08 DeepMap Inc. Calibrating sensors mounted on an autonomous vehicle
JP6859927B2 (ja) * 2017-11-06 2021-04-14 トヨタ自動車株式会社 自車位置推定装置
CN108010360A (zh) * 2017-12-27 2018-05-08 中电海康集团有限公司 一种基于车路协同的自动驾驶环境感知系统
JP2019152924A (ja) * 2018-02-28 2019-09-12 学校法人立命館 自己位置同定システム、車両、及び処理装置
CN108776474B (zh) * 2018-05-24 2022-03-15 中山赛伯坦智能科技有限公司 集成高精度导航定位与深度学习的机器人嵌入式计算终端
CN109241835A (zh) * 2018-07-27 2019-01-18 上海商汤智能科技有限公司 图像处理方法及装置、电子设备和存储介质
CN109141437B (zh) * 2018-09-30 2021-11-26 中国科学院合肥物质科学研究院 一种机器人全局重定位方法
US10534068B2 (en) * 2018-12-27 2020-01-14 Intel Corporation Localization system, vehicle control system, and methods thereof
CN109931939B (zh) * 2019-02-27 2020-11-03 杭州飞步科技有限公司 车辆的定位方法、装置、设备及计算机可读存储介质
CN109920011B (zh) * 2019-05-16 2020-01-10 长沙智能驾驶研究院有限公司 激光雷达与双目摄像头的外参标定方法、装置及设备
CN110530372B (zh) * 2019-09-26 2021-06-22 上海商汤智能科技有限公司 定位方法、路径确定方法、装置、机器人及存储介质

Also Published As

Publication number Publication date
TW202112513A (zh) 2021-04-01
TWI742554B (zh) 2021-10-11
JP2022504728A (ja) 2022-01-13
SG11202103843YA (en) 2021-05-28
CN110530372B (zh) 2021-06-22
CN110530372A (zh) 2019-12-03
US20210229280A1 (en) 2021-07-29
WO2021056841A1 (zh) 2021-04-01

Similar Documents

Publication Publication Date Title
TWI742554B (zh) 定位方法、路徑確定方法、機器人及儲存介質
RU2645388C2 (ru) Устройство определения неправильного распознавания
Kümmerle et al. Accurate and efficient self-localization on roads using basic geometric primitives
US11307040B2 (en) Map information provision system
CN108628324B (zh) 基于矢量地图的无人车导航方法、装置、设备及存储介质
JP5966747B2 (ja) 車両走行制御装置及びその方法
Schreiber et al. Laneloc: Lane marking based localization using highly accurate maps
JP5157067B2 (ja) 自動走行用マップ作成装置、及び自動走行装置。
Qin et al. Curb-intersection feature based monte carlo localization on urban roads
JP6492469B2 (ja) 自車走行レーン推定装置及びプログラム
US11143511B2 (en) On-vehicle processing device
KR20220033477A (ko) 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법
Shunsuke et al. GNSS/INS/on-board camera integration for vehicle self-localization in urban canyon
CN112537294B (zh) 自动泊车控制方法及电子设备
KR102037129B1 (ko) 차량의 위치 보정 장치 및 방법과 이를 이용한 차량 위치 보정 시스템 및 무인 운행이 가능한 차량
WO2023092451A1 (zh) 预测可行驶车道的方法和装置
JP2020067698A (ja) 区画線検出装置及び区画線検出方法
CN112985425A (zh) 基于异构感知数据融合的车辆定位方法、装置及系统
JP7321035B2 (ja) 物体位置検出方法及び物体位置検出装置
JP6834401B2 (ja) 自己位置推定方法及び自己位置推定装置
JP5375249B2 (ja) 移動経路計画装置、移動体制御装置及び移動体
JP2021092508A (ja) 走行軌跡推定方法及び走行軌跡推定装置
JP6790951B2 (ja) 地図情報学習方法及び地図情報学習装置
KR20160125803A (ko) 영역 추출 장치, 물체 탐지 장치 및 영역 추출 방법
JP2010176592A (ja) 車両用運転支援装置