CN116740581A - 确定材质识别模型的方法、回到基站的方法及电子设备 - Google Patents
确定材质识别模型的方法、回到基站的方法及电子设备 Download PDFInfo
- Publication number
- CN116740581A CN116740581A CN202311029416.1A CN202311029416A CN116740581A CN 116740581 A CN116740581 A CN 116740581A CN 202311029416 A CN202311029416 A CN 202311029416A CN 116740581 A CN116740581 A CN 116740581A
- Authority
- CN
- China
- Prior art keywords
- brightness
- curve
- distance
- straight line
- minimum
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000000463 material Substances 0.000 title claims abstract description 354
- 238000000034 method Methods 0.000 title claims abstract description 78
- 238000009826 distribution Methods 0.000 claims abstract description 74
- 238000002310 reflectometry Methods 0.000 claims abstract description 60
- 238000010586 diagram Methods 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims description 16
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 238000003860 storage Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 9
- 238000004140 cleaning Methods 0.000 description 53
- 238000003032 molecular docking Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 15
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 15
- 239000000428 dust Substances 0.000 description 13
- 239000010865 sewage Substances 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 239000012459 cleaning agent Substances 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000004927 fusion Effects 0.000 description 5
- 238000013178 mathematical model Methods 0.000 description 5
- 230000001502 supplementing effect Effects 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 238000010330 laser marking Methods 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000007621 cluster analysis Methods 0.000 description 3
- 239000003599 detergent Substances 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 241001417527 Pempheridae Species 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000001035 drying Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 239000011325 microbead Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000009257 reactivity Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000008400 supply water Substances 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/17—Systems in which incident light is modified in accordance with the properties of the material investigated
- G01N21/55—Specular reflectivity
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2201/00—Features of devices classified in G01N21/00
- G01N2201/12—Circuits of general importance; Signal processing
- G01N2201/129—Using chemometrical methods
- G01N2201/1296—Using chemometrical methods using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Remote Sensing (AREA)
- Pathology (AREA)
- Immunology (AREA)
- Biochemistry (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Electromagnetism (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本申请实施例涉及机器人技术领域,公开了一种确定材质识别模型的方法、回到基站的方法及电子设备,该确定材质识别模型的方法包括获取激光雷达采集到的标定点云,其中,标定点云包括不同距离下标板对应的点云数据,标板包括至少两种不同反射率的材质(例如第一材质和第二材质);对标定点云进行统计,获取距离亮度分布图;根据距离亮度分布图,确定材质识别模型。在此实施例中,通过分析距离亮度分布图中亮度分布情况确定材质识别模型,考虑到了不同距离下阈值的特异性,使得不同距离下的阈值与距离相适配,材质识别模型在各个距离下均可准确判断多种反射率的材质。从而,采用该材质识别模型能够对点云对应的物体的材质进行准确识别。
Description
技术领域
本申请实施例涉及机器人技术领域,尤其涉及一种确定材质识别模型的方法、回到基站的方法及电子设备。
背景技术
机器人配合基站可以自动化地完成工作,这里,基站是配合机器人自动化地完成工作的电子设备。例如,基站能够为机器人提供停靠和充电服务,机器人自主停靠至基站并与基站上的充电接口进行对接,以进行充电。此外,基站除了能够提供充电服务外,机器人还可以回到基站进行其它服务,例如清洁机器人回到基站进行补水、排污、补清洁剂以及自清洁等,并在不工作时停靠于基站。
在本申请发明人所知晓的一些回到基站的方案中,一般基于红外信号、蓝牙以及超声波等对基站进行通信定位,以回到基站。然而,上述方案不仅增加了硬件成本,还容易受环境影响(例如遮挡、屏蔽或硬件自身损坏等),导致信号不稳定,干扰机器人对基站的识别。此外,通过信号通信定位,误差较大,使得机器人无法准确识别基站,识别效果较差。
发明内容
有鉴于此,本申请一些实施例提供一种确定材质识别模型的方法、回到基站的方法及电子设备,采用该确定材质识别模型的方法能够得到准确的材质识别模型,机器人采用该材质识别模型能够准确识别基站上的特定材质,从而,能够准确识别定位出基站,使得机器人在不增加硬件成本的情况下即可准确快速回到基站。
第一方面,本申请一些实施例中提供了一种确定材质识别模型的方法,包括:
获取激光雷达采集到的标定点云,标定点云包括不同距离下标板对应的点云数据,标板包括至少两种不同反射率的材质;
对标定点云进行统计,获取距离亮度分布图;
根据距离亮度分布图,确定材质识别模型。
在一些实施例中,前述根据距离亮度分布图,确定材质识别模型,包括:
从距离亮度分布图中提取第一材质的最大亮度曲线和第二材质的最小亮度曲线;
在任意距离下最小亮度曲线中亮度大于最大亮度曲线中亮度的情况下,根据最大亮度曲线和最小亮度曲线,确定用于区分第一材质和第二材质的亮度阈值曲线,以作为材质识别模型;
其中,第一材质和第二材质均为标板中任意两个不同的材质,第一材质的反射率小于第二材质的反射率。
在一些实施例中,前述根据最大亮度曲线和最小亮度曲线,确定用于区分第一材质和第二材质的亮度阈值曲线,包括:
获取最大亮度曲线对应的直线,其中,任意距离下最大亮度曲线中亮度小于直线中亮度;
根据直线和最小亮度曲线,确定亮度阈值曲线。
在一些实施例中,前述根据直线和最小亮度曲线,确定亮度阈值曲线,包括:
根据最小亮度曲线,调整直线,得到亮度阈值曲线,以使任一距离下亮度阈值曲线中亮度小于最小亮度曲线中亮度且大于最大亮度曲线中亮度。
在一些实施例中,前述根据最小亮度曲线,调整直线,得到亮度阈值曲线,包括:
将直线划分为预设个数的直线段;
按与直线段对应的最小亮度曲线中的曲线段的走势,将直线段调整成折线段;
预设个数的直线段调整完成后,得到预设个数的折线段,以构成亮度阈值曲线。
在一些实施例中,前述按与直线段对应的最小亮度曲线中的曲线段的走势,将直线段调整成折线段,包括:
在任意距离下曲线段中亮度大于直线段中亮度的情况下,将直线段作为折线段;
在存在某一距离下曲线段中亮度小于或等于直线段中亮度的情况下,根据曲线段中亮度值最小的最小亮度点和最大亮度曲线中与亮度值最小的最小亮度点同距离的最大亮度点,确定折点;
采用折点对直线段进行折线调整,得到折线段。
在一些实施例中,前述根据曲线段中的最小亮度点和最大亮度曲线中与最小亮度点同距离的最大亮度点,确定折点,包括:
确定折点为最小亮度点和最大亮度点的中点。
在一些实施例中,前述根据距离亮度分布图,确定材质识别模型,还包括:
在存在某一距离下最小亮度曲线中亮度小于或等于最大亮度曲线中亮度的情况下,获取激光雷达采集的若干个点云数据,每个点云数据标注有材质标签;
采用若干个点云数据对神经网络进行迭代训练,直至收敛,得到材质识别模型。
第二方面,本申请一些实施例中提供了一种回到基站的方法,应用于包括激光雷达的机器人,基站上设置有特征码,特征码包括至少两种不同反射率的材质,方法包括:
获取激光雷达采集到的点云数据;
采用材质识别模型对点云数据进行处理,以识别特征码,其中,材质识别模型是采用第一方面中确定材质识别模型的方法确定的;
根据识别到的特征码的位置,控制机器人移动至基站。
第三方面,本申请一些实施例中提供了一种电子设备,包括:
至少一个处理器,以及
与至少一个处理器通信连接的存储器,其中,
存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行第一方面或第二方面的方法。
第四方面,本申请一些实施例中提供了一种计算机存储介质,计算机存储介质存储有计算机可执行指令,计算机可执行指令用于使计算机设备执行第一方面或第二方面的方法。
本申请实施例的有益效果:区别于现有技术的情况,本申请实施例提供的确定材质识别模型的方法,包括:获取激光雷达采集到的标定点云,其中,标定点云包括不同距离下标板对应的点云数据,标板包括至少两种不同反射率的材质;对标定点云进行统计,获取距离亮度分布图;根据距离亮度分布图,确定材质识别模型。
在此实施例中,由标定点云的特征可知,距离亮度分布图包括反射率不同的材质(例如第一材质和第二材质,第一材质的反射率小于第二材质的反射率)对应的激光点云的亮度在不同距离下的分布情况。基于同一距离下反射率不同的材质,它们的激光点亮度分布不同,从而,可以通过分析距离亮度分布图中亮度分布情况,确定材质识别模型(例如可以是数学模型或神经网络模型)。相比于将第一材质某距离范围内的最大亮度值作为区分第一材质和第二材质的亮度阈值(此种方案所有的距离采用同一阈值,容易发生误判),本申请实施例中,通过分析距离亮度分布图中亮度分布情况确定材质识别模型,考虑到了不同距离下阈值的特异性,使得不同距离下的阈值与距离相适配,材质识别模型在各个距离下均可准确判断不同反射率的材质。从而,采用该材质识别模型能够对点云对应的物体的材质进行准确识别。
本申请实施例提供的回到基站的方法,应用于包括激光雷达的机器人,基站上设置有特征码,特征码包括至少两种不同反射率的材质,该方法包括:获取激光雷达采集到的点云数据;采用上述材质识别模型对点云数据进行处理,以识别到特征码;根据识别到的特征码的位置,控制机器人移动至基站。
在此实施例中,采用激光雷达和上述材质识别模型配合识别基站上具有不同材质的特征码即可准确识别出基站。在软件上,材质识别模型能够准确识别材质,有益于识别准确识别基站,并且,材质识别模型具有较好的兼容性,写入机器人或激光雷达中存储器,即可被调用以识别材质,能被广泛应用于机器人以识别基站。在硬件上,采用机器人原有的激光雷达即可实现,无需新增其它传感器,能够简化硬件结构,并且相比于其它传感器,激光雷达采集数据稳定,使得识别并回到基站的过程更加可靠。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1为本申请一些实施例中识别基站的应用环境示意图;
图2为本申请一些实施例中包括不同材质的点云的距离亮度分布图;
图3为本申请一些实施例中激光雷达的测距示意图;
图4为本申请一些实施例中确定材质识别模型的方法的流程示意图;
图5为本申请一些实施例中包括不同材质的点云的距离亮度分布图;
图6为本申请一些实施例中最大亮度曲线和直线的示意图;
图7为本申请一些实施例中确定折线段的示意图;
图8为本申请一些实施例中包括不同材质的点云的距离亮度分布图;
图9为本申请一些实施例中回到基站的方法的示意图;
图10为本申请一些实施例中电子设备的硬件结构示意图。
具体实施方式
下面结合具体实施例对本申请进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本申请,但不以任何形式限制本申请。应当指出的是,对本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进。这些都属于本申请的保护范围。
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,如果不冲突,本申请实施例中的各个特征可以相互结合,均在本申请的保护范围之内。另外,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。此外,本文所采用的“第一”、“第二”、“第三”等字样并不对数据和执行次序进行限定,仅是对功能和作用基本相同的相同项或相似项进行区分。
除非另有定义,本说明书所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本说明书中在本申请的说明书中所使用的术语只是为了描述具体的实施方式的目的,不是用于限制本申请。本说明书所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
此外,下面所描述的本申请各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本申请实施例中,机器人可以是能够提供功能服务的移动设备,例如:可以是清洁机器人、宠物机器人、配送机器人、看护机器人、远程监控机器人、扫地机器人等机器人。机器人配合基站可以自动化地完成工作,这里,基站是配合机器人自动化地完成工作的电子设备。可以理解的是,基站的功能是基于对应的机器人的功能配置的。在一些实施例中,机器人可以是配送机器人,对应的基站可以为配送机器人提供充电服务、停靠服务或物料补给等。在一些实施例中,机器人可以是清洁机器人,对应的基站能够为清洁机器人提供停靠、充电、补水、排污、补清洁剂以及自清洁、干燥等服务。
下面以机器人为清洁机器人,示例性说明本申请中回到基站的方法的应用环境。
请参阅图1,图1是本申请实施例提供的一种回到基站的方法的应用环境示意图。如图1所示,清洁机器人100位于地面上,该地面可以是居住室或办公室等场所的地面。清洁机器人100所在的场所包括基站200、书桌、花盆、沙发等物体。
该清洁机器人100上安装有激光雷达(图未示),其中,激光雷达对清洁机器人100所在的周围环境进行扫描,得到激光点云数据。激光雷达与控制芯片通信连接,激光雷达将激光点云数据发送给控制芯片。当清洁机器人需要回到基站时,控制芯片调用清洁机器人的存储器内事先预置好的回到基站的方法的程序,基于激光点云数据识别定位出基站,并控制机器人向基站的方向移动,以回到停靠至基站。
其中,清洁机器人100可以被构造成任何合适形状,以便实现特定业务功能操作,例如,在一些实施例中,清洁机器人100可以为基于SLAM系统的移动机器人。在一些实施例中,清洁机器人100可以包括机器人主体、激光雷达、控制芯片以及行走机构、对接装置(图未示)。
机器人主体是清洁机器人100的主体结构,可以根据清洁机器人100的实际需要,选用相应的形状结构及制造材质(如硬质塑料或者铝、铁等金属),例如设置为清洁机器人100常见的较为扁平的圆柱形。
行走机构是设置在机器人主体上,为清洁机器人100提供移动能力的结构装置。该行走机构具体可以采用任何类型的移动装置实现,例如滚轮、履带式等。
激光雷达设置于清洁机器人100的机身,用于感知移动清洁机器人100周围环境的障碍物情况,扫描获得激光点云数据,并发送给控制芯片,以便控制芯片基于周围物体的距离控制机器人行走。在一些实施例中,激光雷达包括脉冲激光雷达、连续波激光雷达等雷达。
控制芯片是内置于机器人主体中的电子计算核心,用于执行逻辑运算步骤以实现机器人的智能化控制。在本实施例中,控制芯片与激光雷达通信连接,用于根据激光点云数据,识别定位出基站,以便于控制清洁机器人100向基站的方向移动,使得清洁机器人100回到基站200。
可以理解的是,在一些实施例中,机器人主体还可以包括清水箱、污水箱、清洁剂盒、集尘盒等。机器人的对接装置可以包括清水箱的接口、污水箱的接口、清洁剂盒的接口、集尘盒的接口,或,充电极片等。
在此实施例中,基站200包括基座、清洗装置、给水装置、集尘装置、供电装置、清洁剂补充装置和污水收纳装置(图未示)。基座、清洗装置、给水装置、集尘装置、供电装置、清洁剂补充装置和污水收纳装置在图中未示出。基座用于停靠清洁机器人,清洗装置用于清洗清洁机器人,给水装置用于为清洁机器人供水和/或为清洗装置供水,集尘装置用于收集清洁机器人集尘盒内的灰尘。供电装置用于为清洁机器人充电。污水收纳装置用于收集清洁机器人污水箱内的污水。
可以理解的是,基座200上设有用于将上述各装置与清洁机器人100对接的对接装置,基站的对接装置可以包括清洗装置的接口、给水装置的接口、集尘装置的接口、供电装置的接口、清洁剂补充装置的接口,或,充电极片等。
在此实施例中,清洁机器人100的对接装置与基站200的对接装置完成对接时,清洁机器人100上清水箱的接口与基站200上给水装置的接口对接连通,从而给水装置能够给清水箱给水;清洁机器人100上污水箱的接口与基站200上污水收纳装置的接口对接连通,从而,污水收纳装置能够收集污水箱中的污水;清洁机器人100上清洁剂盒的接口与基站200上清洁剂补充装置的接口对接连通,从而,清洁剂补充装置能够给清洁剂盒补灌清洁剂;清洁机器人100上集尘盒的接口与集尘装置的接口对接连通,从而,集尘装置能够收集集尘盒中的灰尘;清洁机器人100上充电极片与基站200上充电极片对接电连接,从而,基站200上供电装置可以对清洁机器人充电。
可以理解的是,为了便于上述对接,基站200中用于与清洁机器人100靠近的面与清洁机器人的外形相互匹配。例如,清洁机器人100常见的较为扁平的圆柱形,则相应地,基站200设置有一开口的停靠腔,用于收容清洁机器人100,停靠腔呈半圆柱形,其表面为圆弧面。在一些实施例中,停靠腔的半径相比于清洁机器人的半径大5-10厘米,从而,当清洁机器人100与基站200对接时,清洁机器人100收容于停靠腔中。
需要说明的是,根据所要完成的任务,除了以上的功能模组以外,清洁机器人的主体上还可以搭载一个或者多个其它不同的功能模组(如储水箱、清扫装置等),相互配合用以执行相应的任务。
在本申请发明人所知晓的一些回到基站的方案中,一般基于红外信号、蓝牙以及超声波等对基站进行通信定位,以回到基站。然而,上述方案不仅增加了硬件成本,还容易受环境影响(例如遮挡、屏蔽或硬件自身损坏等),导致信号不稳定,干扰机器人对基站的识别。此外,通过信号通信定位,误差较大,使得机器人无法准确识别基站,识别效果较差。
针对上述问题,本申请一些实施例提供了一种回到基站的方法,应用于包括激光雷达的机器人,基站上设置有特征码,特征码包括至少两种不同反射率的材质,该方法包括:获取激光雷达采集到的点云数据;采用预先确定的材质识别模型对点云数据进行处理,以识别到特征码;根据识别到的特征码的位置,控制机器人移动至基站。
在此实施例中,采用激光雷达和上述材质识别模型配合识别基站上具有不同材质的特征码即可准确识别出基站。在软件上,材质识别模型能够准确识别材质,有益于识别准确识别基站,并且,材质识别模型具有较好的兼容性,写入机器人或激光雷达中存储器,即可被调用以识别材质,能被广泛应用于机器人以识别基站。在硬件上,采用机器人原有的激光雷达即可实现,无需新增其它传感器,能够简化硬件结构,并且相比于其它传感器,激光雷达采集数据稳定,使得识别并回到基站的过程更加可靠。可以理解的是,材质识别模型的确定方式将在下面实施例中进行详细介绍,在此不进行重复说明。
本申请一些实施例提供了一种确定材质识别模型的方法,包括:获取激光雷达采集到的标定点云,其中,标定点云包括不同距离下标板对应的点云数据,标板包括至少两种不同反射率的材质;对标定点云进行统计,获取距离亮度分布图;根据距离亮度分布图,确定材质识别模型。
在此实施例中,由标定点云的特征可知,距离亮度分布图包括反射率不同的材质(例如第一材质和第二材质,第一材质的反射率小于第二材质的反射率)对应的激光点亮度在不同距离下的分布情况。基于同一距离下反射率不同的材质,它们的激光点亮度分布不同,从而,可以通过分析距离亮度分布图中亮度分布情况,确定材质识别模型(例如可以是数学模型或神经网络模型)。相比于将第一材质某距离范围内的最大亮度值作为区分第一材质和第二材质的亮度阈值(此种方案所有的距离采用同一阈值,容易发生误判),本申请实施例中,过分析距离亮度分布图中亮度分布情况确定材质识别模型,考虑到了不同距离下阈值的特异性,使得不同距离下的阈值与该距离相适配,材质识别模型在各个距离下均可准确判断多种反射率的材质。从而,采用该材质识别模型能够对点云对应的物体的材质进行准确识别。
本申请发明人所知晓的一些识别材质的方案中,采用激光雷达采集第一材质(例如白板)在某距离范围(例如10cm-3m)内的激光点云,将该激光点云中的最大亮度值作为用于区分第一材质和第二材质(例如晶格板)的亮度阈值。其中,第二材质的反射率低于第一材质的反射率。
请参阅图2,图2为白板、晶格板和黑板在不同距离下的激光点云的亮度分布图。如图2所示,以距离范围(例如10cm-3m)内白板的最大亮度值作水平线,该水平线如虚线所示。从而,该最大亮度值作为整个距离范围内的亮度阈值。然而,某些距离下晶格板对应的激光点的亮度值低于该亮度阈值,因此会对该距离下的晶格材质(高反射率材质)存在漏识别的可能。
本申请发明人所知晓的一些识别材质的方案中,用激光雷达采集第二材质(例如晶格板)在某距离范围(例如10cm-3m)内的激光点云,将该激光点云中两个最小亮度值所在的直线作为线性划分。
然而,这可能导致在该距离范围内,对倾斜打在晶格板上的激光点云漏识别,以及对正对打在白板材质上的激光点云造成误识别。具体地,标板的摆放一般是正对激光雷达(靶面与激光雷达到靶面的连线垂直),所采集的亮度均为正对激光雷达的亮度信息。由于激光发射在垂直处接收能量会比倾斜大,从而同等距离下,同一标板(同一材质),正对激光雷达时亮度大于斜对雷光雷达时亮度。如图3所示,同一材质,正对激光雷达时激光落点为A点,斜对激光雷达时激光落点为B点,两点距离值相同(Da等于Db),但亮度值不同(Pa大于Pb)。
从而,当亮度阈值不考虑距离因素,过于绝对时,可能会出现对倾斜打在晶格板上的激光点云漏识别,以及对正对打在白板材质上的激光点云造成误识别。
为了准确识别不同距离下的材质,以将材质识别应用于识别基站,本申请一些实施例提供了一种确定材质识别模型的方法,通过对激光雷达对多种材质在各种距离下采集激光点云,对激光点云的亮度分布进行分析,确定材质识别模型(可以是数学模型或神经网络模型),在各个距离下均可准确判断多种不同反射率的材质。在激光雷达出厂前,可将材质识别模型写入激光雷达的存储器中,以供激光雷达调用,从而,激光雷达能够识别出不同反射率的材质。
根据上文可以理解,本申请实施例提供的确定材质识别模型的方法可以由电子设备实施,例如由电子设备的一个或多个处理器实施执行。在一些实施例中,电子设备为具有计算处理能力的设备,例如计算机或服务器等。
请参阅图4,图4是本申请实施例提供的确定材质识别模型的方法的流程示意图。可以理解的是,该确定材质识别模型的执行主体可以是电子设备的一个或多个处理器。
如图4所示,该方法S100具体可以包括以下步骤:
S10:获取激光雷达采集到的标定点云,标定点云包括不同距离下标板对应的点云数据,标板包括至少两种不同反射率的材质。
其中,标定点云是激光雷达对不同距离的标板进行扫描得到的点云数据。其中,标板包括至少两种不同反射率的材质。从而,标点点云包括至少两种不同反射率的材质在不同距离下被激光雷达扫描所产生的点云数据。
在一些实施例中,标板包括3种材质,例如白板材质、晶格材质和黑板材质。晶格材质表面为钻石级形态,具有较高的反射率。可以理解的是,该标板也可是由白板、晶格板、黑板组合而成。为了描述方便,本申请实施例中将不同反射率的材质统一称为标板。在一些实施中,可以采用3M材质(3M板)代替晶格材质(晶格板),其中,3M材质的表面为微珠形态,具有较高的反射率。3M板为3M公司生产的反光板。
在一些可以实现的方式中,采用距离标定的工位,控制激光雷达对工位上的标板进行扫描,以生成该标定点云。具体地,激光雷达在出厂前会进行距离矫正,也称距离标定,还需要矫正常规材质以及高反材质的测量距离,从而在每个距离下放置标板(例如黑板、白板、晶格板组合成一个标板)。从激光雷达的应用场景来看,激光雷达具有较小的盲区(如2cm),具有有较大的量程距离(如12m)。在盲区到量程的距离范围内,跨度较大,因此需要摆放较多的标板,在此过程中,材质识别所需要采集的点云数据(标定点云)可借用该工位各标板进行采集,这样可共同使用一个工位,减少人力物力的消耗。
示例性地,标定的距离包括45, 60, 80, 100, 200, 300, 400, 500, 600, 700,800, 900, 1000, 2000, 4000, 6000, 8000, 12000,单位为mm。每个距离下均摆放有一个标板(例如包括三种材质,白板材质、晶格材质和黑板材质),各个标板在距离方向无遮挡。激光雷达扫描以上距离下的各个标板,得到标定点云。
具体地,激光雷达对各个标板进行激光扫描,其处理器基于发射激光信息和回波激光信息,计算每个光斑(激光打在标板上形成的光斑点)的坐标、距离、角度和亮度。其中,光斑的坐标、距离、角度和亮度的计算是激光雷达的现有计算方式,在此不详细描述。
可以理解的是,基于扫描的连续性,各光斑的距离、角度和亮度构成标定点云。从而,在扫描完成后,激光雷达的处理器通过计算获取到标定点云。标定点云中的点云按照产生时间从小到大的顺序排序。在标定点云中,可以获取每个激光点的坐标、距离、角度和亮度。其中,距离是激光打在标板上形成的光斑至激光雷达的距离,角度是激光打在目标靶上形成的光斑在极坐标中的角度,坐标是激光打在标板上形成的光斑在直角坐标系中的位置坐标。亮度为光斑亮度。
激光雷达将采集到的标定点云发送给电子设备(有线传输或无线传输),从而,电子设备的处理器获取到标定点云。
S20:对标定点云进行统计,获取距离亮度分布图。
由标定点云的特征可知,标定点云是涉及2个维度(距离维度,材质维度)下的激光点云。从激光点云中,可以获取每个激光点的坐标、距离、角度和亮度。
基于同一距离下反射率不同的材质,它们的激光点亮度分布不同,从而,可以通过区分激光点亮度,以区分材质的反射率,进而识别材质。
为了区分激光点亮度,可对标定点云从材质、距离、激光点的亮度这三个方面进行统计,得到距离亮度分布图。距离亮度分布图包括反射率不同的材质(例如白板材质和晶格板材质)对应的激光点云的亮度在不同距离下的分布情况。
如图5所示,距离亮度分布图的横坐标为距离,纵坐标为亮度,在一些距离下,对应有3个柱状分布,一个柱状分布为一种材质在该距离下的激光点云的亮度分布。例如,图5中的柱状分布1#为晶格材质在6m距离下对应的激光点云的亮度分布,柱状分布2#为白板材质在6m距离下对应的激光点云的亮度分布,柱状分布3#黑板材质在6m距离下对应的激光点云的亮度分布。
可以理解的是,在一个柱状分布中,最大亮度点,即坐标点(距离,最大亮度值),位于柱状分布的顶部。最小亮度点,即坐标点(距离,最小亮度值),位于柱状分布的底部。同一距离下,反射率高的材质,其亮度也越高。同一材质,随着距离的增加,亮度呈先减少后增加再减小的趋势。
如图5所示,晶格材质(高反材质)对应的激光点云的亮度整体趋势变化不明显,即亮度随着距离增加下降不明显。白板在3m距离以后会呈现下降趋势,黑板则会下降的更加明显。
在一些实施例中,在上述变化趋势的基础上,可通过对距离亮度分布图进行分析,对激光雷达的光学系统是否符合要求进行筛选和判断。具体地,由于激光雷达的接收端具有镜筒(即接收端芯片到镜片焦距),因此,接收端在很近的距离下(如200mm)是无法接收到发射端发出的光斑,在该距离下,进光量较低,接收端所感应的光皆为镜头内壁多次反射的杂散光。当随着标板距离增大(增加至800mm),光斑逐渐回落到接收端上,进光量变大,光斑的亮度值也变大,直到光斑完全打到接收器上,此时亮度值达到最大值。当标板的距离再次增大时,光斑的发射能量逐渐减少,因此,亮度值会随着标板距离增大而逐渐减小。
通过上述分析,预先调节焦距以及基线(发射端激光管中心到接收端中心的连线)等信息,并设置好两个距离点位,一个为光斑刚进入接收端时的距离D1,另一个为光斑恰好完全回落到接收端的距离D2。以白板材质对应的亮度分布为例,若亮度值不能在D1距离附近出现“V”形且D2距离附近出现倒“V”形转折点,则可认为激光雷达中激光器等部件组成的光学系统存在问题,可将该激光雷达判为不合格品。需要进一步排查该激光雷达光学系统问题,如调焦是否正确、镜片是否符合规格、镜筒是否过长、光阑是否加装正确等。
S30:根据距离亮度分布图,确定材质识别模型。
基于距离亮度分布图包括反射率不同的材质(例如第一材质和第二材质,第一材质的反射率小于第二材质的反射率)对应的激光点云的亮度在不同距离下的分布情况,同一距离下,反射率高的材质,其对应的激光点的亮度也越高,从而,可以根据距离亮度分布图,确定用于区分不同反应率材质的亮度阈值曲线,以区分材质的反射率,进而识别材质。可以理解的是,亮度阈值曲线作为材质识别模型,这里材质识别模型是一种数学模型。
在一些实施例中,可以对同一距离下各个材质对应的亮度进行聚类分析,以获取该距离下的亮度阈值。在上述多个标定的距离对应的亮度均进行聚类分析后,即可获得各个距离下的亮度阈值。这些亮度阈值的连线或由这些亮度阈值拟合成的曲线,即为亮度阈值曲线。在一些实施例中,可采用聚类算法实现上述聚类分析。示例性地,聚类算法可以是k-means算法或Canopy算法等。
考虑到材质识别的主要应用是用于识别基站以回到基站。在基站识别场景中,最近距离范围为10cm-20cm,最远距离范围为2m-3m,因此主要分析10cm-3m区间内的柱状分布(一个距离下一种材质的亮度分布)即可。可以理解的是,以上范围是由TOF测距属性以及实际应用场景共同决定的,由于激光雷达测距最近可达2cm内,但例如,从激光雷达的旋转中心到扫地机边沿可能存在10cm,因此获取10cm以内的数据无意义。由此可知,材质识别的范围其实可以为10cm到12m(量程距离)。
也就是说,可以对距离亮度分布图中10cm到12m范围内的亮度分布进行分析,确定材质识别模型。
在一些实施例中,前述步骤S30具体包括:
S31:从距离亮度分布图中提取第一材质的最大亮度曲线和第二材质的最小亮度曲线。
其中,第一材质和第二材质均为标板中任意两个不同的材质,第一材质的反射率小于第二材质的反射率。示例性地,标板包括白板材质、晶格材质和黑板材质,则第一材质为白板材质,第二材质为晶格材质;或者,第一材质为黑板材质,第二材质为白板材质。又示例性地,标板包括白板材质、3M材质和黑板材质,则第一材质为白板材质,第二材质为3M材质;或者,第一材质为黑板材质,第二材质为白板材质。也就是说,第二材质的反射率高于第一材质的反射率即可,在此不对第二材质和第一材质进行限定。
第一材质的最大亮度曲线为第一材质在各个距离下的最大亮度点构成的曲线。其中,最大亮度点为坐标点(距离,第一材质的最大亮度值)。第二材质的最小亮度曲线为第二材质在各个距离下的最小亮度点构成的曲线。其中,最小亮度点为坐标点(距离,第二材质的最小亮度值)。
S32:在任意距离下最小亮度曲线中亮度大于最大亮度曲线中亮度的情况下,根据最大亮度曲线和最小亮度曲线,确定用于区分第一材质和第二材质的亮度阈值曲线,以作为材质识别模型。
可以理解的是,最小亮度曲线和最大亮度曲线具有相同的坐标系,即距离亮度分布图的坐标系,横轴为距离,纵轴为亮度。在同一坐标系中,任意一个距离对应的最小亮度曲线中亮度大于最大亮度曲线中亮度,也就是说,在此坐标系中最小亮度曲线位于最大亮度曲线的上方,两者不存在相交的情况。从而,可以确定一条位于最小亮度曲线和最大亮度曲线之间的亮度阈值曲线。
亮度阈值曲线用于识别材质的反射率,进而识别材质。例如,在某一距离下(例如2m),若扫描到的物体对应的激光点云,该激光点云中一段点云的亮度大于亮度阈值曲线中该距离下的阈值,一段点云的亮度小于亮度阈值曲线中该距离下的阈值,说明该物体具有第一材质和第二材质。
在一些实施例中,前述步骤S32具体包括:获取最大亮度曲线对应的直线,根据直线和最小亮度曲线,确定亮度阈值曲线。
其中,直线是最大亮度曲线中两个顶点确定的直线,可以理解的是,直线位于最大亮度曲线的一侧。直线和最大亮度曲线具有相同的坐标系,即距离亮度分布图的坐标系,横轴为距离,纵轴为亮度。在同一坐标系中,任意一个距离对应的最大亮度曲线中亮度小于直线中亮度,也就是说,在此坐标系中最大亮度曲线位于直线的下方。
直线可以大致代表最大亮度曲线的边缘线。从而,可以根据直线和最小亮度曲线,确定亮度阈值曲线。
下面以第一材质为白板材质、第二材质为晶格材质、标定距离100mm-4000mm进行示例性说明。
如图6所示,图6为最大亮度曲线和直线的示意图。在图6中,标定距离包括100,200, 300, 400, 500, 600, 700, 800, 900, 1000, 2000, 4000,单位为mm。将这12个距离下晶格材质的最小亮度值放入数组mMinListPeak1,白板材质的最大亮度值放入数组wMmaxListPeak1。wMmaxListPeak1中各个最大亮度点(距离,最大亮度值)在距离亮度坐标系中的连线即为最大亮度曲线。在mMinListPeak1的各个最小亮度点均比wMaxListPeak1相应位置的最大亮度点大的情况下,即各距离下晶格材质的最小亮度值均大于白板材质的最大亮度值,则获取mMaxListPeak1内任意两个点做直线拟合,通过直线拟合确定直线。
具体地,对wMaxListPeak1内每两个最大亮度点进行直线拟合,得到直线函数y=k*x+b,其中x为距离,y为亮度值,k和b为分别为所求的斜率和截距。构建函数F(x,y)=y-k*x-b,除参与直线拟合的两点外,剩余的每个最大亮度点坐标代入函数F(x,y),若剩余的每个最大亮度点所求的F(x,y)<=0,则将该两个最大亮度点的确定的直线函数确定为直线。
将晶格材质的mMinListPeak1中各个最小亮度点(距离,最小亮度值)代入F(x,y),若存在F(x,y)小于0的情况,说明晶格材质的最小亮度点在坐标系中位于直线的下方。
请参阅图7,最大亮度曲线由wMaxListPeak1中各最大亮度点构成,直线由wMaxListPeak1确定。为了方便描述,将最大亮度曲线与直线相交的两点中高点记作点A,低点记作点B,点A可能是10cm处的点,点B也可能是2m处的点,由于在标定工位中,未设置3m处的标板,因此,将最大亮度曲线和直线均延长至4m进行相应的分析。
如图7所示,mMinListPeak1中存在一些最小亮度点位于直线的下方,即晶格材质的亮度值位于直线的下方,若以直线为曲线分割阈值,则会造成误判。从而,可以根据最小亮度曲线中最小亮度点位于直线下方的情况确定亮度阈值曲线。
在一些实施例中,前述根据直线和最小亮度曲线,确定亮度阈值曲线,具体包括:根据最小亮度曲线,调整直线,得到亮度阈值曲线,以使任意距离下亮度阈值曲线中亮度阈值小于最小亮度曲线中亮度且大于最大亮度曲线中亮度。
可以理解的是,亮度阈值曲线、最小亮度曲线和最大亮度曲线具有相同的坐标系,即距离亮度分布图的坐标系,横轴为距离,纵轴为亮度。在同一坐标系中,任意距离下亮度阈值曲线中亮度阈值小于最小亮度曲线中亮度,也就是说,在此坐标系中亮度阈值曲线位于最小亮度曲线的下方;任意距离下亮度阈值曲线中亮度阈值大于最大亮度曲线中亮度,也即在此坐标系中亮度阈值曲线位于最大亮度曲线的上方。
其中,亮度阈值曲线由直线调整得到。由前述可知,直线本身位于最大亮度曲线的上方,在最小亮度曲线中存在最小亮度点位于直线下方的情况下,可对直线进行局部微调(例如调整为折线),使得这些位于直线下方的最小亮度点在调整后,位于亮度阈值曲线的上方。值得说明的是,在局部微调过程中,亮度阈值曲线不得低于最大亮度曲线。从而,亮度阈值曲线位于最大亮度曲线和最小亮度曲线之间,不存在交集,因此,亮度阈值曲线能够基于亮度在各个距离下准确区分第一材质(例如白板材质)和第二材质(例如晶格材质)。
在此实施例中,根据最小亮度曲线中最小亮度点相对于直线的分布情况调整直线,能够快速得到准确的亮度阈值曲线,计算过程简单。
在一些实施例中,前述根据最小亮度曲线,调整直线,得到亮度阈值曲线,包括:将直线划分为预设个数的直线段;按与直线段对应的最小亮度曲线中的曲线段的走势,将直线段调整成折线段;预设个数的直线段调整完成后,得到预设个数的折线段,以构成所述亮度阈值曲线。
其中,预设个数可由本领域技术人员根据激光雷达的实际测量距离和应用场景而确定,例如,预设个数可以为2或3等。
请再次参阅图7,以点A和点B将直线划分为3个直线段。以直线段AB进行举例说明,按与直线段对应的最小亮度曲线中的曲线段的走势,将直线段调整成折线段。
直线段AB对应的距离为DA和DB,则根据最小亮度曲线在距离区间[DA,DB]对应曲线段与直线段AB之间的相对关系(例如在坐标系统的上下关系或相交关系等),将直线段调整成折线段,以使得折线段位于最大亮度曲线中曲线段[DA,DB]的上方、最小亮度曲线中曲线段[DA,DB]的下方。
其它直线段均可以采用与直线段AB相同的方式,将直线段调整成折线段,各个直线段调整完成后,得到预设个数的折线段,以构成亮度阈值曲线。
在此实施例中,分段调整,能够有效保证每个距离区间的折线段准确,进而使得亮度阈值曲线更加准确。
在一些实施例中,前述按与直线段对应的最小亮度曲线中的曲线段的走势,将直线段调整成折线段,包括:
(1)在任意距离下曲线段中亮度大于直线段中亮度的情况下,将直线段作为折线段;
(2)在存在某一距离下曲线段中亮度小于或等于直线段中亮度的情况下,根据曲线段中亮度值最小的最小亮度点和最大亮度曲线中与亮度值最小的最小亮度点同距离的最大亮度点,确定折点;
(3)采用折点对直线段进行折线调整,得到折线段。
可以理解的是,曲线段和折线段均在距离亮度分布图的坐标系中,对应相同的距离区间,例如[DA,DB]。在同一坐标系的距离区间[DA,DB]中,任意一个距离下曲线段中亮度大于直线段中亮度,也就是说,曲线段在坐标系中位于直线段的上方,两者不存在相交的情况。从而,该直线段可以区分最大亮度曲线和最小亮度直线,即区分第一材质和第二材质,从而,将该直线段作为折线段(亮度阈值曲线的一部分)。
在距离区间[DA,DB],若存在某一距离下曲线段中亮度小于或等于直线段中亮度,也就是说,在曲线段在坐标系中与直线段相交,该直线段无法区分最大亮度曲线和最小亮度曲线。在此实施例中,根据曲线段中亮度值最小的最小亮度点和最大亮度曲线中与该亮度值最小的最小亮度点同距离的最大亮度点,确定折点。
其中,亮度值最小的最小亮度点为曲线段在距离区间[DA,DB]中亮度值最小的点。若最小亮度点的坐标为(Dmin,最小亮度值),则最大亮度曲线中与该亮度值最小的最小亮度点同距离的最大亮度点为(Dmin,最大亮度值)。
为了区分距离Dmin下的曲线段(最小亮度曲线的一部分)中最小亮度点和最大亮度曲线中最大亮度点,在一些实施例中,可将最小亮度点和最大亮度点的中点作为折点,使得直线段以折点进行折线调整,得到折线段。
请再次参阅图7,距离区间[DA,DB]对应的曲线段存在部分最小亮度点位于直线段AB的下方,找到与该距离直线AB直线最低的最小亮度点,即为亮度值最小的最小亮度点K,点K的坐标为(Dmin,Pk),获取最大亮度曲线中与点K对应的点J,点J的坐标为(Dmin,PJ),则确定折点R的坐标为(Dmin,(Pk+PJ)/2)。分别连接点A与折点R,折点R与点B,得到折线段ARB。
可以理解的是,其它直线段(例如10cm到点A之间的直线段或点B到4m之间的直线段)均可以采用与直线段AB相同的上述方式,将直线段调整成折线段,在此不再重复赘述。
由上可知,经过上述步骤S30处理后,在10cm到4m之间,可获得区别第一材质(白板材质)与第二材质(晶格材质)的亮度阈值曲线(即材质识别模型)。将亮度阈值曲线的函数表达式写入激光雷达的存储器中,在激光雷达运行的实时测试中,通过获取雷达的实际测试距离及对应的亮度值,判断亮度值是否大于亮度阈值曲线中该实际测试距离下的亮度阈值,若大于,则将该时刻打在物体上的该点云判断为晶格材质,此时可认为该物体的材质为晶格材质。
考虑到激光雷达对晶格等高反材质的亮度值值不会随着距离改变而发生较大改变,在一些实施例中,若需要在4m外的距离区分材质,可将4m处最大亮度曲线中最大亮度点的水平延长线作为4m外的亮度阈值曲线。
在步骤S30的另一可以实现的方式中,将wMaxListPeak1中每相邻的两个点相连,求取相应的亮度阈值直线,并对每个距离以及相应的亮度阈值直线涉及的函数参数表达式写入激光雷达的存储器中。实际应用时,点云大于该距离下的亮度直线则认为是第一材质(晶格材质)。
在一些实施例中,前述根据距离亮度分布图,确定材质识别模型,还包括:
S33:在存在某一距离下最小亮度曲线中亮度小于或等于最大亮度曲线中亮度的情况下,获取激光雷达采集的若干个点云数据,每个点云数据标注有材质标签;
S34:采用若干个点云数据对神经网络进行迭代训练,直至收敛,得到材质识别模型。
可以理解的是,最小亮度曲线和最大亮度曲线具有相同的坐标系,即距离亮度分布图的坐标系,横轴为距离,纵轴为亮度。在同一坐标系中,若在存在某一距离下最小亮度曲线中亮度小于或等于最大亮度曲线中亮度,说明最小亮度曲线在坐标系中与最大亮度曲线相交。如图8所示,三种材质的点云亮度在某些距离下大小相同,最小亮度曲线和最大亮度曲线之间没有明显的区分曲线。也就是说,该激光雷达对于高反材质不敏感,同一距离下高反材质(也称为第二材质)对应的点云亮度可能接近或低于第一材质(反射率低于第二材质的反射率)对应的点云亮度,不同材质对应的点云亮度存在融合交叉的情况。
针对上述情况,为了使得该激光雷达能够有效区分不同反射率的材质以识别基站,不至于报废,在此实施例中,采用该激光雷达采集的若干个点云数据。采用这些点云数据对神经网络进行迭代训练,直至收敛,得到材质识别模型。将该材质识别模型写入激光雷达的存储器中,从而,激光雷达能够调用该材质识别模型识别材质,从而能够识别基站上的特点材质,以帮助机器人回到基站。这样,对于不同材质对应的点云亮度存在融合交叉的激光雷达,也能物尽其用。
具体地,采用该激光雷达多次扫描标定工位上的标板,得到多个点云。对于每个点云,将不同材质对应的点云段进行划分,得到点云数据。例如,若标板包括晶格材质,白板材质和黑板材质,则将点云划分为3段,得到3个点云数据,第1个点云数据对应晶格材质,第2个点云数据对应白板材质,第3个点云数据对应黑板材质。
如此,由于多个距离、多次扫描,可以得到若干个点云数据。对每个点云数据训练样本采用热编码标注材质标签,例如,晶格材质的点云数据的材质标签为[1, 0, 0],白板材质的点云数据的材质标签为[0, 1, 0],黑板材质的点云数据的材质标签为[0, 0, 1]。在一些实施例中,可将这若干个点云数据按一定比例进行划分,如训练集:验证集=8:2,训练集用于训练神经网络,验证集用于测试训练得到的材质识别模型,这属于机器学习领域的常规技术,在此不进行详细介绍。
在一些实施例中,可对点云数据进行数据预处理,以减少数据对神经网络学习重要特征的干扰。示例性地,选取有利于识别材质的多维特征,如距离、亮度Peak1、亮度Peak2、底噪Noise1和底噪Noise2。在一些实施例中,若对激光雷达抗强光的要求不高,则可选取距离、亮度Peak1和亮度Peak2这三个特征即可。可以理解的是,在上述确定亮度阈值曲线的实施例中,所采用的亮度值亮度Peak1。
在介绍训练神经网络前,先基于激光雷达的工作原理介绍距离、亮度Peak1、亮度Peak2、噪声Noise1和噪声Noise2这些特征。可以理解的是,对于激光雷达的TOF(time offlight)测距法,其原理为利用激光脉冲往返时间差的飞机时间来测量目标物体与激光雷达的距离。
采用SPAD(Single Photon Avalanche Diode,单光子雪崩二极管)作为DTOF激光雷达传感器的探测单元,一般而言,一颗DTOF芯片会包含若干的SPAD像素阵列,每一SPAD均会接收光信号,通过TDC(Time to Digit Converter,时间控制转换器)转换以及多次发射光脉冲累计形成直方图,将直方图进行平滑滤波,可获取TOF值(飞行时间)、材质反射率相关的亮度Peak值,以及环境噪声的底噪Noise值。可以理解的是,TOF值是计算距离的参数,可以转化为距离。
为了能够将不同反射率大小的材质能够达到较高的精度,可在若干阵列的SPAD芯片划分不同的区域,对于常规的反射率材质(如黑板材质、白板材质)可使用普通区域进行获取数据,而高反材质(如晶格材质)可使用衰减通道获取数据,区域的划分以及相应的数据使用可使不同材质在距离矫正中能够获得更高的精度。由于普通区域占据芯片面的主要感光部分,因此,将TOF值采用芯片的普通区域确定。而亮度Peak值与底噪Noise值各区域均可计算得到,芯片普通区域可计算得到亮度Peak1,底噪Noise1;芯片衰减通道可计算得到亮度Peak2,底噪Noise2。
在对点云数据进行数据预处理后,对上述各个选取的特征进行归一化处理,由于特征分布较大,因此,将特征归一化至[-1,1]的范围内。具体归一化公示如下:
其中可设置成1,/>可设置为-1,/>和/>分别为该维特征的最大值和最小值,X为该维特征的第i个样本,/>为该维特征的第i个样本归一化后的值。
可以理解的是,神经网络中各层神经元配置有、层数,迭代次数,学习率等参数,随机初始化权重参数。在一些实施例中,神经网络配置的激活函数为sigmoid函数,其函数表达式为:
其中z为输入数据与权重参数作卷积运算后输出的值,为经过激活函数后输出的概率值,其值大小在[0,1]范围内。
在此实施例中,神经网络执行分类任务,训练出的材质识别模型为一个分类模型。训练过程中,所采用的损失函数可以为MSE(Mean Squared Error)损失函数,其表达式如下:
其中,为第i个样本的预测材质,/>为第i个样本的材质标签,Err为N个样本遍历完之后的累加误差值。
训练完成后,保留损失最小的相应权重参数,神经网络配置该损失最小的权重参数后,即可得到材质识别模型。
在大量的激光雷达采集的点云数据完成训练之后,可统计各层的权重参数,根据各层中各个权重,得到高斯分布数据,取高斯分布累计最高对应的权重参数,对于后续每个激光雷达的训练过程中神经网络的初始化参数,可以不再使用随机的权重参数,而是选择上述各层各权重参数的统计值作为初始化参数,这样有益于神经网络快速收敛,能极大提高训练完成时间。
每台激光雷达训练完成后,均需要记录各维特征的最大值、最小值以及各层的权重参数,在实测过程中,获取该时刻的点云原始数据(如TOF值、Peak1、Peak2、Noise1和Noise2),通过各维度特征的最大值和最小值进行归一化,再将数据送入各层的神经元后,可对该激光点打在的某种材质作出材质判断。为了便于验证点云效果,可在上位机对不同材质的点云作颜色区分,便于实时查看效果。
综上所述,本申请实施例通过距离亮度分布图确定激光雷达对于不同反射率材质采集到的点云亮度是否存在融合交叉,以对激光雷达进行分类分批处理。对于不同反射率材质的点云亮度不存在融合交叉的激光雷达,通过分析距离亮度分布图中亮度分布情况确定亮度阈值曲线(一种数学模型,作为材质识别模型),考虑到了不同距离下阈值的特异性,使得不同距离下的阈值与距离相适配,亮度阈值曲线在各个距离下均可准确判断多种反射率的材质。对于不同反射率材质的点云亮度存在融合交叉的激光雷达,采用其采集到的点云数据训练神经网络,得到材质识别模型(这里材质识别模型为一种神经网络模型)。两种材质识别模型均达到了较好的识别效果。将与激光雷达对于的材质识别模型写入激光雷达的存储器中,从而,激光雷达能够调用该材质识别模型识别材质,从而能够识别基站上的特点材质,以帮助机器人回到基站。
本申请实施例提供的回到基站的方法可以由电子设备实施,例如由电子设备的一个或多个处理器实施执行。在一些实施例中,该电子设备可以为包括激光雷达的机器人,也可以为与机器人通信连接的具有算力的设备(例如服务器)。
以下以机器人中处理器执行该回到基站的方法为例进行示例性说明,如图9所示,该方法S200具体可以包括以下步骤:
S201:获取激光雷达采集到的点云数据。
其中,点云数据为激光雷达在工作环境(例如住房)中扫描得到的激光点云。当激光雷达扫描到基站时,则该点云数据能够反映基站的形状、距离以及材质。
在一些实施例中,基站上设置有特征码,特征码包括至少两种不同反射率的材质。例如,特征码包括在激光扫描面上交替设置的晶格材质和白板材质。或者,特征码包括在激光扫描面上交替设置的晶格材质和黑板材质。或者,特征码包括在激光扫描面上交替设置的3M材质和白板材质。或者,特征码包括在激光扫描面上交替设置的3M材质和黑板材质。可以理解的是,晶格材质、3M材质等高反射率的材质可以称为第二材质,白板材质和黑板材质可以称为第一材质。
S202:采用材质识别模型对点云数据进行处理,以识别特征码。
其中,材质识别模型是上述实施例中的材质识别模型,具有相同的结构参数和功能,在此不再赘述。
例如,若该机器人的存储器或其激光雷达的存储器中写入的材质识别模型为亮度阈值曲线时,采用该亮度阈值曲线对点云数据的亮度进行划分,若点云数据中一段点云的亮度大于亮度阈值曲线中该距离下的阈值,一段点云的亮度小于亮度阈值曲线中该距离下的阈值,说明该物体具有第一材质和第二材质,即具有特征码。在一些实施例中,也可结合基站的扫描面形状,可以确定扫描到的物体为基站。
再例如,若该该机器人的存储器或其激光雷达的存储器中写入的材质识别模型为神经网络训练得到的,将点云数据中各激光点的特征(例如距离、亮度Peak1和亮度Peak2)输入材质识别模型,材质识别模型输出材质类别。当输出的材质类别包括第一材质和第二材质时,即识别到特征码。在一些实施例中,也可结合基站的扫描面形状,确定扫描到的物体为基站。
S203:根据识别到的特征码的位置,控制机器人移动至基站。
识别到特征码后,可以获取特征码对应的特征点云。基于特征点云能够反映特征码的位置(例如特征码距离机器人的距离与角度),从而,机器人根据事先建立好的地图和特征码的位置,移动至基站。
在此实施例中,用激光雷达和上述材质识别模型配合识别基站上具有不同材质的特征码即可准确识别出基站。在软件上,材质识别模型能够准确识别材质,有益于识别准确识别基站,并且,材质识别模型具有较好的兼容性,写入机器人或激光雷达中存储器,即可被调用以识别材质,能被广泛应用于机器人以识别基站。在硬件上,采用机器人原有的激光雷达即可实现,无需新增其它传感器,能够简化硬件结构,并且相比于其它传感器,激光雷达采集数据稳定,使得识别并回到基站的过程更加可靠。
本申请实施例还提供了一种电子设备,请参阅图10,图10是本发明实施例提供的一种电子设备的硬件结构示意图。
如图10所示,该电子设备300包括通信连接的至少一个处理器301和存储器302(图10中以总线连接、一个处理器为例)。
其中,处理器301用于提供计算和控制能力,以控制电子设备300执行相应任务,例如,控制电子设备300执行上述任一方法实施例中确定材质识别模型的方法或回到基站的方法。
可以理解的是,在电子设备300执行确定材质识别模型的方法的场景下,电子设备300可以是计算机或服务器。在电子设备300执行回到基站的方法的场景下,电子设备300可以是包括激光雷达的机器人或与机器人通信连接的服务器。
处理器301可以是通用处理器,包括中央处理器(CentralProcessingUnit,CPU)、网络处理器(NetworkProcessor,NP)、硬件芯片或者其任意组合;还可以是数字信号处理器(DigitalSignalProcessing,DSP)、专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、可编程逻辑器件(programmable logic device,PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(complex programmable logic device,CPLD),现场可编程逻辑门阵列(field-programmable gate array,FPGA),通用阵列逻辑(generic array logic,GAL)或其任意组合。
存储器302作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态性计算机可执行程序以及模块,如本发明实施例中的确定材质识别模型的方法对应的程序指令/模块或回到基站的方法对应的程序指令/模块。处理器301通过运行存储在存储器302中的非暂态软件程序、指令以及模块,可以实现上述述任一方法实施例中确定材质识别模型的方法或回到基站的方法,为避免重复,这里不再赘述。
具体地,存储器302可以包括易失性存储器(volatile memory,VM),例如随机存取存储器(random access memory, RAM);存储器302也可以包括非易失性存储器(non-volatile memory,NVM),例如只读存储器(read-only memory, ROM),快闪存储器(flashmemory),硬盘(hard disk drive, HDD)或固态硬盘(solid-state drive, SSD)或其他非暂态固态存储器件;存储器302还可以包括上述种类的存储器的组合。
可以理解的是,本申请实施例示意的结构并不构成对电子设备的具体限定。在本申请另一些实施例中,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
本申请实施例还提供一种计算机存储介质,该计算机存储介质包括计算机指令,当计算机指令在电子设备上运行时,使得电子设备执行上述实施例中确定材质识别模型的方法的各个步骤或回到基站的方法的各个步骤。
本申请实施例还提供一种计算机程序产品,当计算机程序产品在电子设备上运行时,使得电子设备执行上述实施例中本申请实施例还提供一种计算机程序产品,当计算机程序产品在电子设备上运行时,使得电子设备执行上述实施例中第一设备执行的各个步骤。
需要说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域普通技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory, ROM)或随机存储记忆体(Random Access Memory, RAM)等。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;在本申请的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本申请的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
Claims (11)
1.一种确定材质识别模型的方法,其特征在于,包括:
获取激光雷达采集到的标定点云,所述标定点云包括不同距离下标板对应的点云数据,所述标板包括至少两种不同反射率的材质;
对所述标定点云进行统计,获取距离亮度分布图;
根据所述距离亮度分布图,确定所述材质识别模型。
2.根据权利要求1所述的方法,其特征在于,所述根据所述距离亮度分布图,确定所述材质识别模型,包括:
从所述距离亮度分布图中提取第一材质的最大亮度曲线和第二材质的最小亮度曲线;
在任意距离下所述最小亮度曲线中亮度大于所述最大亮度曲线中亮度的情况下,根据所述最大亮度曲线和所述最小亮度曲线,确定用于区分所述第一材质和所述第二材质的亮度阈值曲线,以作为所述材质识别模型;
其中,所述第一材质和所述第二材质均为所述标板中任意两个不同的材质,所述第一材质的反射率小于所述第二材质的反射率。
3.根据权利要求2所述的方法,其特征在于,所述根据所述最大亮度曲线和所述最小亮度曲线,确定用于区分所述第一材质和所述第二材质的亮度阈值曲线,包括:
获取所述最大亮度曲线对应的直线,其中,任意距离下所述最大亮度曲线中亮度小于所述直线中亮度;
根据所述直线和所述最小亮度曲线,确定所述亮度阈值曲线。
4.根据权利要求3所述的方法,其特征在于,所述根据所述直线和所述最小亮度曲线,确定所述亮度阈值曲线,包括:
根据所述最小亮度曲线,调整所述直线,得到所述亮度阈值曲线,以使任一距离下所述亮度阈值曲线中亮度小于所述最小亮度曲线中亮度且大于所述最大亮度曲线中亮度。
5.根据权利要求4所述的方法,其特征在于,根据所述最小亮度曲线,调整所述直线,得到所述亮度阈值曲线,包括:
将所述直线划分为预设个数的直线段;
按与所述直线段对应的所述最小亮度曲线中的曲线段的走势,将所述直线段调整成折线段;
所述预设个数的直线段调整完成后,得到预设个数的折线段,以构成所述亮度阈值曲线。
6.根据权利要求5所述的方法,其特征在于,所述按与所述直线段对应的所述最小亮度曲线中的曲线段的走势,将所述直线段调整成折线段,包括:
在任意距离下所述曲线段中亮度大于所述直线段中亮度的情况下,将所述直线段作为所述折线段;
在存在某一距离下曲线段中亮度小于或等于直线段中亮度的情况下,根据所述曲线段中亮度值最小的最小亮度点和所述最大亮度曲线中与所述亮度值最小的最小亮度点同距离的最大亮度点,确定折点;
采用所述折点对所述直线段进行折线调整,得到所述折线段。
7.根据权利要求6所述的方法,其特征在于,所述根据所述曲线段中亮度值最小的最小亮度点和所述最大亮度曲线中与所述亮度值最小的最小亮度点同距离的最大亮度点,确定折点,包括:
确定所述折点为所述最小亮度点和所述最大亮度点的中点。
8.根据权利要求2所述的方法,其特征在于,所述根据所述距离亮度分布图,确定所述材质识别模型,还包括:
在存在某一距离下所述最小亮度曲线中亮度小于或等于所述最大亮度曲线中亮度的情况下,获取所述激光雷达采集的若干个点云数据,每个所述点云数据标注有材质标签;
采用所述若干个点云数据对神经网络进行迭代训练,直至收敛,得到所述材质识别模型。
9.一种回到基站的方法,应用于包括激光雷达的机器人,其特征在于,所述基站上设置有特征码,所述特征码包括至少两种不同反射率的材质,所述方法包括:
获取所述激光雷达采集到的点云数据;
采用材质识别模型对所述点云数据进行处理,以识别所述特征码,其中,所述材质识别模型是采用如权利要求1-8中任意一项所述的确定材质识别模型的方法确定的;
根据识别到的特征码的位置,控制所述机器人移动至所述基站。
10.一种电子设备,其特征在于,包括:
至少一个处理器,以及
与所述至少一个处理器通信连接的存储器,其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9任一项所述的方法。
11.一种计算机存储介质,其特征在于,所述计算机存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机设备执行如权利要求1-9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311029416.1A CN116740581B (zh) | 2023-08-16 | 2023-08-16 | 确定材质识别模型的方法、回到基站的方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311029416.1A CN116740581B (zh) | 2023-08-16 | 2023-08-16 | 确定材质识别模型的方法、回到基站的方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116740581A true CN116740581A (zh) | 2023-09-12 |
CN116740581B CN116740581B (zh) | 2023-10-27 |
Family
ID=87917287
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311029416.1A Active CN116740581B (zh) | 2023-08-16 | 2023-08-16 | 确定材质识别模型的方法、回到基站的方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116740581B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040208373A1 (en) * | 2003-03-25 | 2004-10-21 | Takahiro Aoki | Image capture apparatus |
WO2020237480A1 (zh) * | 2019-05-27 | 2020-12-03 | 西门子股份公司 | 基于图像识别的控制方法与装置 |
CN113743525A (zh) * | 2021-09-14 | 2021-12-03 | 杭州电子科技大学 | 一种基于光度立体的面料材质识别系统及方法 |
CN116195934A (zh) * | 2023-02-27 | 2023-06-02 | 九阳股份有限公司 | 一种清洁机器人返回基站的方法 |
CN116501070A (zh) * | 2023-06-30 | 2023-07-28 | 深圳市欢创科技有限公司 | 回充方法、机器人及存储介质 |
-
2023
- 2023-08-16 CN CN202311029416.1A patent/CN116740581B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040208373A1 (en) * | 2003-03-25 | 2004-10-21 | Takahiro Aoki | Image capture apparatus |
WO2020237480A1 (zh) * | 2019-05-27 | 2020-12-03 | 西门子股份公司 | 基于图像识别的控制方法与装置 |
CN113743525A (zh) * | 2021-09-14 | 2021-12-03 | 杭州电子科技大学 | 一种基于光度立体的面料材质识别系统及方法 |
CN116195934A (zh) * | 2023-02-27 | 2023-06-02 | 九阳股份有限公司 | 一种清洁机器人返回基站的方法 |
CN116501070A (zh) * | 2023-06-30 | 2023-07-28 | 深圳市欢创科技有限公司 | 回充方法、机器人及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116740581B (zh) | 2023-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11720104B2 (en) | Systems and methods for adaptive property analysis via autonomous vehicles | |
CN112513679B (zh) | 一种目标识别的方法和装置 | |
WO2021104497A1 (zh) | 基于激光雷达的定位方法及系统、存储介质和处理器 | |
CN109870705B (zh) | 基于激光雷达的边界目标标识方法及装置 | |
WO2020243962A1 (zh) | 物体检测方法、电子设备和可移动平台 | |
EP4286892A1 (en) | Window occlusion detection method and apparatus | |
US20200233061A1 (en) | Method and system for creating an inverse sensor model and method for detecting obstacles | |
CN112051844B (zh) | 自移动机器人及其控制方法 | |
CN110443275B (zh) | 去除噪声的方法、设备及存储介质 | |
WO2022198637A1 (zh) | 点云滤噪方法、系统和可移动平台 | |
WO2020142939A1 (zh) | 回波信号处理方法、设备及存储介质 | |
IL236297A (en) | A method for processing a d3 data sensor to provide a section of space | |
US20210255289A1 (en) | Light detection method, light detection device, and mobile platform | |
CN116740581B (zh) | 确定材质识别模型的方法、回到基站的方法及电子设备 | |
CN117169848A (zh) | 过滤玻璃噪点的方法、激光雷达及机器人 | |
CN114252852A (zh) | 雷达俯仰角测量 | |
CN117289300A (zh) | 点云矫正方法、激光雷达及机器人 | |
CN115032618B (zh) | 应用于激光雷达的盲区修复方法、装置及激光雷达 | |
CN117836659A (zh) | 测距方法、波形检测方法、装置及相关设备 | |
WO2022055873A1 (en) | Automatic lidar performance monitoring and maintenance for autonomous driving | |
CN113610765A (zh) | 一种车辆轮廓检测方法、装置、电子设备和可读存储介质 | |
WO2023181948A1 (ja) | ノイズ除去装置、物体検出装置およびノイズ除去方法 | |
TWI843116B (zh) | 移動物體檢測方法、裝置、電子設備及存儲介質 | |
CN112083434B (zh) | 一种基于激光的机器人检测方法以及装置 | |
WO2024131976A1 (en) | Obstruction detection methods and obstruction detection devices for lidars, and lidars |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: 518000, Floor 1801, Block C, Minzhi Stock Commercial Center, North Station Community, Minzhi Street, Longhua District, Shenzhen City, Guangdong Province Patentee after: Shenzhen Huanchuang Technology Co.,Ltd. Address before: 518000, Floor 1801, Block C, Minzhi Stock Commercial Center, North Station Community, Minzhi Street, Longhua District, Shenzhen City, Guangdong Province Patentee before: SHENZHEN CAMSENSE TECHNOLOGIES Co.,Ltd. |
|
CP01 | Change in the name or title of a patent holder |