CN112001971A - 一种物体识别方法及系统 - Google Patents
一种物体识别方法及系统 Download PDFInfo
- Publication number
- CN112001971A CN112001971A CN202011003536.0A CN202011003536A CN112001971A CN 112001971 A CN112001971 A CN 112001971A CN 202011003536 A CN202011003536 A CN 202011003536A CN 112001971 A CN112001971 A CN 112001971A
- Authority
- CN
- China
- Prior art keywords
- dimensional image
- processed
- platform gap
- image
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000007781 pre-processing Methods 0.000 claims abstract description 50
- 238000004364 calculation method Methods 0.000 claims abstract description 44
- 238000012545 processing Methods 0.000 claims abstract description 13
- 230000003287 optical effect Effects 0.000 claims description 7
- 230000007547 defect Effects 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013075 data extraction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000009413 insulation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 229910001220 stainless steel Inorganic materials 0.000 description 1
- 239000010935 stainless steel Substances 0.000 description 1
- 229910052719 titanium Inorganic materials 0.000 description 1
- 239000010936 titanium Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
- G01N21/956—Inspecting patterns on the surface of objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本申请提供了一种物体识别方法及系统,首先,通过多个摄像头和扫描雷达获取所述站台缝隙的二维图像和三维图像,然后,利用第一预处理单元对各二维图像进行处理,得到处理后二维图像,最后通过边缘计算处理器对处理后二维图像和三维图像进行综合计算,识别到站台缝隙中的目标物体,并确定目标物体在站台缝隙中的位置,从而对目标物体进行相应的处理。本申请中将二维图像与三维图像相结合并进行对应分析,可以弥补两类图像各自的缺陷,不仅可以准确识别站台缝隙中的目标物体,还可以准确确定目标物体在站台缝隙中的位置。
Description
技术领域
本申请涉及侦测识别技术领域,尤其涉及一种物体识别方法及系统。
背景技术
随着高铁的迅猛发展,高铁的使用人群逐渐庞大,高铁的使用频次越趋提高,为了提高每日中高铁的使用次数,高铁在每一站的停靠时间缩短,相应的,乘客的换乘时间缩短,列车员的停靠检查时间变短。列车门与站台的安全门之间具有较宽的空隙,当列车高速经过时会产生巨大的负压,该负压足以将位于该空隙内的人或者物品卷入到轨道5中,但是,乘客在拥挤慌乱中容易被关在该空隙处,或者由于列车员检查不及时,容易令一些杂物被关在该空隙处,从而造成人身、财产的重大安全事故。
由此,需要在列车经过站台之前及时检查上述空隙处是否存在人员或者物品等目标物体,当存在目标物体时需要及时发出通知,以避免出现危险。通常,可以采用摄像头来拍摄站台缝隙处的图像,通过对拍摄得到的图像进行处理和分析,来判断缝隙处是否存在目标物体,但是,这种方式只能判断是否存在目标物体,却无法具体标定目标物体在站台内位置。为了可以准确标定目标物体的具体位置,可以通过激光、微波雷达等对站台缝隙处进行扫描,扫描可以获得目标物体的三维图像,从而确定目标物体的具体位置,但是,扫描所得到的目标物体的精度较低,且无法扫描远距离、尺寸较小的物体,对目标物体的辨识精度较低。
发明内容
本申请提供了一种物体识别方法及系统,以提高对目标物体的识别效率和识别精度。
本申请第一方面提供了一种物体识别方法,用于站台缝隙中的物体识别,所述方法包括:
通过多个摄像头沿所述站台缝隙中轨道方向拍摄,以获取所述站台缝隙的多张二维图像,所述多个摄像头的相机光心垂直对齐设置,用于拍摄轨道与站台安全门之间的站台缝隙处,每个摄像头对应不同的焦距,所述多张二维图像用于展示所述站台缝隙中各物体的具体形貌,其中,一个摄像头对应一张所述二维图像;通过第一预处理单元获取每一张所述二维图像中符合预设图像清晰度的子图像,并将各所述子图像做拼接处理,得到处理后二维图像,所述处理后二维图像包含所述站台缝隙中的各物体;通过扫描雷达沿所述站台缝隙中轨道方向扫描,以获取所述站台缝隙的三维图像,所述三维图像用于展示所述站台缝隙中各物体在所述站台缝隙中的位置;通过所述边缘计算处理器根据所述处理后二维图像与所述三维图像,识别所述站台缝隙中的目标物体,并确定所述目标物体在所述站台缝隙中的位置。
第二方面,本申请提供了一种物体识别系统,所述物体识别系统包括:多个摄像头、第一预处理单元、扫描雷达和边缘计算处理器;所述多个摄像头与所述第一预处理单元电连接;所述第一预处理单元和所述扫描雷达均与所述边缘计算处理器电连接;其中,所述多个摄像头的相机光心垂直对齐设置,所述多个摄像头对应不同的焦距。
本申请提供了一种物体识别方法及系统,首先,通过多个摄像头和扫描雷达获取所述站台缝隙的二维图像和三维图像,然后,利用第一预处理单元对各二维图像进行处理,得到处理后二维图像,最后通过边缘计算处理器对处理后二维图像和三维图像进行综合计算,识别到站台缝隙中的目标物体,并确定目标物体在站台缝隙中的位置,从而对目标物体进行相应的处理。本申请中将二维图像与三维图像相结合并进行对应分析,可以弥补两类图像各自的缺陷,不仅可以准确识别站台缝隙中的目标物体,还可以准确确定目标物体在站台缝隙中的位置。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请提供的一种高铁运行的示意图;
图2为本申请实施例提供的一种物体识别系统的结构示意图;
图3为本申请实施例提供的一种变焦摄像头的排列示意图;
图4为本申请实施例提供的一种二维图像的示意图;
图5为本申请实施例提供的一种定焦摄像头的排列示意图;
图6(1)为本申请实施例提供的站台缝隙的二维图像的示意图;
图6(2)为本申请实施例提供的站台缝隙的二维图像的示意图;
图6(3)为本申请实施例提供的站台缝隙的二维图像的示意图;
图7为本申请实施例提供的一种处理后二维图像的示意图;
图8为本申请实施例提供的一种三维图像的示意图;
图9为本申请实施例提供的一种多物体识别系统设置示意图。
图示说明:
其中,1-列车,2-站台,3-隧道,4-站台缝隙,5-轨道,6-安全门,100-物体识别系统,101-主体支架,102-摄像头,1021-第一预处理单元,103-扫描雷达,1031-第二预处理单元,104-边缘计算处理器,105-公共辅助系统,1051-电源模块,1052-通信模块,106-云台装置,107-云服务器。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本申请提供的一种高铁运行的示意图,列车1在隧道3中运行,当列车1高速运行的过程中,会产生巨大的负压,该负压足以将列车1周围一定距离内的人或者物品卷入到轨道5中,为了防止此类事件发生,则在站台2适当位置设置安全门6,以阻挡人或者事物过于靠近列车1。随着高铁的迅猛发展,高铁的使用人群逐渐庞大,高铁的使用频次越趋提高,为了提高每日中高铁的使用次数,高铁在每一站的停靠时间缩短,相应的,乘客的换乘时间缩短,列车员的停靠检查时间变短。列车1与站台2的安全门6之间具有较宽的空隙,如图1中阴影部分所示,可以称为站台缝隙4,一旦乘客在拥挤慌乱中容易被关在站台缝隙4处,或者由于列车员检查不及时,令一些杂物被关在站台缝隙4处,就极易造成人身、财产的重大安全事故。
由此,需要在列车1经过站台2之前及时检查站台缝隙4处是否存在人员或者物品等目标物体,当存在目标物体时需要及时发出通知,以避免出现危险。通常,可以采用摄像头来拍摄站台缝隙4处的图像,通过对拍摄得到的图像进行处理和分析,来判断缝隙处是否存在目标物体,但是,这种方式只能判断是否存在目标物体,却无法具体标定目标物体在站台2内的位置。为了可以准确标定目标物体的具体位置,可以通过激光、微波雷达等对站台缝隙4处进行扫描,扫描可以获得目标物体的三维图像,从而确定目标物体的具体位置,但是,扫描所得到的目标物体的精度较低,且无法扫描远距离、尺寸较小的物体,对目标物体的辨识精度较低。
为了解决上述问题,提高对目标物体的识别效率和识别精度,本申请实施例提供了一种物体识别系统,如图2所示,所述物体识别系统100包括:多个摄像头102、第一预处理单元1021、扫描雷达103和边缘计算处理器104。具体地,物体识别系统100可以设置于隧道3中的适当位置,例如隧道3的顶棚、侧壁或者站台2的地面上,由于本申请主要针对识别站台2上的目标物体,因此,需要将物体识别系统100设置于高于站台2的位置,尽量将物体识别系统100设置于高于人均身高的高度位置,避免人为破坏。优选地,将物体识别系统100设置于较高的位置,这样在拍摄物体时,不容易出现物体沿轨道5方向(纵向)遮挡的问题。
如图2所示,为了保证物体识别系统100的整体性,可以将物体识别系统100中各器件装设于主体支架101上,主体支架101以作支撑,其中,主体支架101可以采用不锈钢架、轻质铝架、钛等材质,不仅可以保证强度,而且当主体支架101需要设置于露天环境时,可以延缓表面腐蚀,延长使用寿命。
一个物体识别系统100相当于一个侦测点,为了保证侦测质量,可以在同一个区域设置多个侦测点,即设置多个物体识别系统100。
如图2所示,摄像头102、扫描雷达103、边缘计算处理器104均设置于所述主体支架101上。为了保证物体识别系统100的正常工作,如图2所示,物体识别系统100还包括公共辅助系统105,公共辅助系统105主要包括电源模块1051和通信模块1052。具体地,在本实施例中,电源模块1051可以采用本地的交直流电源或者环境能源(如太阳能电池)等,根据实际使用需要,公共辅助系统105还可以包括交直流或者直流电源转换模块,将电源模块1051提供的电能转化为需要的电能类型。同时,公共辅助系统105还可以包括防护部件,以配合现场实施环境做好抗干扰和绝缘防护。在本实施例中,通信模块1052可以为4G或者5G通信模块,这样,物体识别系统100可以通过通信模块1052与云服务器进行数据交互,例如从云服务器接收设备调整信号,或者向云服务器发送采集的数据信号。为了保证信号传输的速度与质量,通信模块1052优选高可靠、高通信容量的通信系统。
通过公共辅助系统105可以保证物体识别系统100中各用电器件(摄像头102、扫描雷达103、边缘计算处理器104等)的正常供电,可以通过外部电源开关开启公共辅助系统105对其它用电器件供电,也可以通过手机等控制设备向通信模块1052发送供电指令,指示公共辅助系统105对各用电器件供电。
当公共辅助系统105为物体识别系统100供电之后,物体识别系统100中的其它装置开始正常工作,具体如下:
站台2需要侦测的距离通常比较长,摄像头都有其对应的焦距,即摄像头可以清晰拍摄的距离或者范围,在摄像头的焦距或者靠近摄像头焦距的范围内的物体成像后就比较清晰,距离摄像头焦距较远的物体成像后就比较模糊。因此,为了保证所拍摄的图像的清晰度,就需要保证所识别的距离在摄像头的焦距范围内。
在一种实现方式中,多个摄像头102可以包括至少一个变焦摄像头,变焦摄像头可以根据所要拍摄的物体与相机光心的距离来调整摄像头的焦距,从而令所要拍摄的物体始终位于摄像头的焦点上,保证所拍摄的图像的清晰度。变焦摄像头通常会对应一个焦距范围,例如2~20m,如果所要拍摄的物体在该距离范围内,变焦摄像头就可以通过调节焦距来拍摄图像。进一步地,如果所要识别的距离超过变焦摄像头的焦距范围,例如侦测距离为10~100m,那么20~100m的距离也需要进行图像拍摄,此时,就可以使用对应其他焦距范围的变焦摄像头进行拍摄,例如变焦范围为20~200m,或者多个变焦摄像头,这些变焦摄像头的焦距范围组合起来可以覆盖20~200m。这样,由多个变焦摄像头组合在一起对应的整体焦距范围就可以符合识别距离的需求。需要注意的是,这些变焦摄像头按照相机光心垂直对齐的方式设置,这样,这些变焦摄像头计算焦距的起点位置相同,可以方便后续计算,同时可以避免视场矫正的过程,可以加快物体识别整体过程的计算速度。如图3所示,如果多个摄像头102包括三个变焦摄像头:摄像头A、摄像头B和摄像头C,摄像头A对应的焦距范围为2~10m,摄像头B对应的焦距范围为10~50m,摄像头对应的焦距范围为50~100m,可见,多个摄像头102对应的整体焦距范围为2~100m,如果识别距离为5~100m,那么,多个摄像头102对应的整体焦距范围可以覆盖识别距离。对于每一个摄像头,其在拍摄的过程中,需要在其对应的焦距范围内对每个所要拍摄的物体进行对焦,在每一次对焦完成后拍摄一张站台缝隙4的二维图像。以摄像头A为例,如果在3m的位置存在物体a,则摄像头A需要调焦至3m,然后拍摄第一张站台缝隙4的二维图像;如果在5m的位置存在物体b,则摄像头A需要调焦至5m,然后拍摄第二张站台缝隙4的二维图像;在8m的位置存在物体c,则摄像头A需要调焦至8m,然后拍摄第三张站台缝隙4的二维图像。可见,对于变焦摄像头来说,在拍摄站台缝隙4的平台图像时,需要根据物体所在位置不断地调焦,分多次进行拍摄,站台缝隙4的二维图像的拍摄时间是多次调焦和拍摄时间的累加值,虽然站台缝隙4的二维图像的清晰度很高,但是整体拍摄时间较长。
在另一种实现方式中,多个摄像头102可以包括至少两个定焦摄像头,定焦摄像头的焦距为一个定值,不可以根据物体所在位置进行调节,例如定焦摄像头的焦距为10m,那么,该定焦摄像头在拍摄位于10m处的物体的图像最为清晰,如图4所示,物体d位于10m的位置,物体e位于9m的位置,物体f位于3m的位置,则物体d的成像清晰度最高,而物体e和f的成像清晰度相对较差,但是,如果在距焦点5m以内的物体的成像清晰度并不会影响后续对图像的分析及处理,那么就可以认为焦距范围为5~15m,在这个焦距范围内的物体的成像清晰度都可以符合规定,即物体d和e的成像清晰度都符合规定。如果所要识别的距离超过定焦摄像头的焦距范围,例如识别距离为10~100m,那么15~100m的距离也需要进行图像拍摄,此时,就可以采用多个对应不同焦距的定焦摄像头进行组合式拍摄,例如,多个摄像头102包括焦距为10m的定焦摄像头;焦距为20m的定焦摄像头,其对应的焦距范围为15~25m;焦距为30m的定焦摄像头,其对应的焦距范围为25~35m;焦距为40m的定焦摄像头,其对应的焦距范围为35~45m;焦距为50m的定焦摄像头,其对应的焦距范围为45~55m;焦距为60m的定焦摄像头,其对应的焦距范围为55~65m;焦距为70m的定焦摄像头,其对应的焦距范围为65~75m;焦距为80m的定焦摄像头,其对应的焦距范围为75~85m;焦距为90m的定焦摄像头,其对应的焦距范围为85~95m;焦距为100m的定焦摄像头,其对应的焦距范围为95~105m。可见,这些定焦摄像头所对应的焦距范围为5~105m,可以覆盖识别距离,因此,可以拍摄到识别距离上清晰的站台缝隙4的平面图像。需要注意的是,如图5所示,这些定焦摄像头也需要按照相机光心垂直对齐的方式设置,这样,这些定焦摄像头计算焦距的起点位置相同,可以方便后续计算,同时可以避免视场矫正的过程,可以加快物体识别整体过程的计算速度。进一步地,当拍摄站台缝隙4识别距离上的二维图像时,摄像头装置102内的各个摄像头可以同时拍摄,通过一次拍摄就可以得到不同清晰度的二维图像,相较于变焦摄像头,可以无需调焦过程,且仅需一次拍摄,可以大大缩短整体拍摄时间。
在本实施例中,摄像头可以为可见光相机、红外相机、特殊光谱相机和多光谱相机等,摄像头装置102中的各个摄像头包括广角、中视距和超视距摄像头。
综合上述两种实现方式,如果按照焦距由小至大的顺序从上至下排列多个摄像头102,相应的,如图6(1)(2)(3)所示,为每个焦距的站台缝隙4的二维图像,这样,就可以利用这些二维图像进行后续图像计算。
进一步地,在对平面图像进行计算时,主要的参考参数为图像的清晰度,图像的清晰度越高,越具有参考价值。由上文可知,摄像头102所拍摄的二维图像中存在一些清晰度较低的部分,这些部分对于后续计算具有较少的参考价值,甚至会影响后续计算的准确度与速度。由此,可以在物体识别系统100中设置第一预处理单元1021,摄像头102与第一预处理单元1021电连接,第一预处理单元1021与边缘计算处理器104电连接,所述第一预处理单元1021具有图像裁剪和拼接功能,当各摄像头102拍摄得到二维图像之后,第一预处理单元1021可以裁剪出图像清晰度较高的部分,这样就可以剔除清晰度较低的部分,从而将每张二维图像替换为数据量相对较小的裁剪后二维图像,如图6(1)(2)(3)中每张二维图像的虚线部分所示。可见,经过第一预处理单元1021裁剪后得到的图像仅为站台缝隙4中部分物体的图像,因此,为了便于对站台缝隙4中全部物体进行分析,需要通过第一预处理单元1021将各个裁剪后二维图像拼接在一起,形成如图7所示的处理后二维图像,这样,就可以在一张处理后二维图像上清晰地展示站台缝隙4中各个物体。其中,为了避免站台缝隙4中物体的遗漏,需要保证每个裁剪后二维图像的尺寸拼接在一起可以与裁剪前二维图像的尺寸相等,或者每个裁剪后二维图像之间采用边缘重合式拼接方法,重合部分的物体可以以任一张裁剪后二维图像为准,或者以清晰度较高的裁剪后二维图像为准。
更进一步地,第一预处理单元1021可以包括色彩矫正、光线补强、有效数据提取等功能,这样,通过色彩矫正可以令图像的色彩对比度更鲜明、轮廓更加清晰、更加贴近物体的真实形貌;通过光线补强可以令光线较差的图像更加明亮,从而进一步提高图像的清晰度;通过有效数据提取可以提取图像中的指定物体,例如人脸、人眼等有效数据,进而利用这些有效数据来识别人物身份等。
通过摄像头102仅能获得站台缝隙4的二维图像,若以垂直于轨道5的水平方向为x轴,以垂直于轨道5的竖直方向为y轴,以沿轨道5的方向为z轴建立三维坐标系,那么站台缝隙4的二维图像只能反应站台缝隙4中各物体的x和y坐标,可见,站台缝隙4的二维图像仅能够展示物体的具体形貌特征,例如脸部特征、形体特征、物体上的花纹等具体细节信息,以及物体的横向位置(x和y坐标)。但是,不能够展示物体在站台缝隙4中的具体位置(包括z坐标)。由于站台缝隙4的宽度相对较小,而纵向深度较大,因此,在获知z坐标之后,就相当于确定了物体在站台缝隙4中的具体位置。
为了获得站台缝隙4中物体的纵向位置,可以利用扫描雷达103对站台缝隙4进行扫描,并为扫描到的物体进行3D建模,得到站台缝隙4的三维图像。在本实施例中,可采用单线或多线扫描雷达,包括但不限于激光雷达、微波雷达、毫米波雷达、超声波雷达等各类基于TOF原理进行测量的雷达。扫描图像反应了站台缝隙4的三维图像,此时,该三维图像可以反应站台缝隙4中各物体距离雷达扫描装置103的纵向距离,如图8所示,站台缝隙4的三维图像可以展示站台缝隙中的物体a、物体b和物体c的三维图像,并可以直接标定出物体a、物体b与物体c的纵向深度。
物体识别系统100还包括第二预处理单元1031,第二预处理单元1031具有距离计算和标定功能。在站台缝隙4中会存在一些基础环境对应的物体,例如站台2、安全门6等,这些属于站台2的预设固定设施,不会对列车1行驶产生影响,并且这些物体的设置位置(间隔、尺寸等)具有相对比较固定和严格的规定,具有一定的参考价值,因此,可以作为判断其它物体的位置的基准。例如,图8中物体a为站台,物体b为安全门,物体c为目标物体,此时,第二预处理单元1031可以根据物体b的位置来进一步标定物体c的位置,例如沿轨道5方向,物体c距离物体b1m。基准物体一般会包括安全门等这种标志性物体,便于相关人员识别,因为在确定目标物体的位置之后,通常需要相关人员去其所在位置进行处理,如果直接告知目标物体在站台缝隙4中的纵向深度,例如88m,则相关人员需要从雷达扫描装置103开始测量到88m的位置找到该目标物体,速度较慢、精度较低。但是,如果告知相关人员该目标物体对应的基准物体,由于基准物体比较容易辨认,那么相关人员可以快速找到该基准物体,此时,相关人员可以在该基准物体的基础上,根据目标物体与该基准物体之间标定的距离进一步找到目标物体,速度较快、精度较高。
站台缝隙4的三维图像展示的是一个比较粗糙的形体轮廓,不具有具体的形貌特征,因此,只能够通过外形轮廓大致辨认其对应的物体类别,例如人、狗、箱子等,但是无法确定其对应的具体物体。这样就不便于根据具体物体制定应对措施,例如,如果目标物体为人、狗、行李箱等物体,则需要相关人员马上采取疏散措施;如果目标物体为瓶状物体等,其既可以是塑料瓶,也可以是硬度较高(会影响列车1正常运行的材质)的瓶子,这类物体的具体信息是决定应对措施的重要依据,而仅通过外形轮廓并不能准确判断其对应的具体物体,也就无法准确制定应对措施。由于扫描图像中各个物体的外形轮廓过于粗糙,因此,只有尺寸较大、外形轮廓比较鲜明的物体才比较容易辨认其对应的类别,这一类可以通过外形轮廓确定物体类别的物体可以称为第一类物体,但是,这一类物体无法精确对应至某个具体的人或者物。对于尺寸较小、纵向距离较远的物体,则几乎无法通过扫描图像来分辨其对应的物体类别,这一类物体可以称为第二类物体。
第二预处理单元1031还可以具有有效数据筛选功能,由上文可知,对于第一类物体,可以通过外形轮廓判断出物体对应的类别,这样,如果针对仅从类别就可以制定出较为准确的应对措施时,就无需对第一类物体进行具体形貌的辨别,也就无需继续对第一类物体进行后续处理和计算,可以直接根据标定的距离准确找到第一类物体。此时,第二预处理单元1031可以从扫描图像中将第一类物体剔除,得到处理后三维图像,这样,可以有效减小三维图像包含的数据量,便于后续对三维图像的处理和计算。需要注意的是,对于需要进一步判断第一类物体的具体形貌的情况,则第二预处理单元1031无需进行有效数据筛选处理。
雷达扫描装置103可以周期性扫描站台缝隙4,得到多个三维图像,一旦出现移动物体,那么该移动物体在不同的三维图像上对应不同的纵向深度,此时,第二预处理单元1031可以对针对每张三维图像上的移动物体进行距离标定。
进一步地,为了完善二维图像与三维图像的拍摄质量、拍摄范围,可以在主体支架101上设置云台装置106,云台装置106可以采用六轴云台,摄像头102和扫描雷达103均设置于所述云台装置106上,并通过云台装置106的驱动实现垂直、上下俯仰与左右转动。云台装置106优选高速、静音的伺服电机系统,以达到快速、精准移动的目的。由于在100米距离上,1°偏差将导致1.72米的偏移,这个误差将直接导致扫描雷达103追踪目标的丢失,因此,云台装置106的角度转动偏差宜小于1°。云台装置106保证了摄像头102与扫描雷达103的广度覆盖能力,为后续远距离的运动目标跟踪和判别提供了基础。由上述分析可知,摄像头102与扫描雷达103拍摄得到的图像均具有各自需要完善的问题,此时,可以利用边缘计算处理器104对处理后二维图像与三维图像进行整合处理。
建立处理后二维图像中各物体与三维图像中各物体之间的对应关系,其中,如果需要对三维图像进行预处理,就是建立处理后二维图像中各物体与处理后三维图像中各第二类物体之间的对应关系。
在一种实现方式中,可以通过边缘计算处理器104根据处理后二维图像中物体的横向位置和外形轮廓以及处理后三维图像中各第二类物体的横向位置和外形轮廓,建立物体之间的对应关系。
具体地,可以将处理后二维图像中物体的横向位置(x坐标和y坐标)与扫描图像中物体的横向位置(x坐标和y坐标)相匹配,其中,横向位置相同的物体即为站台缝隙4中的同一个物体。基于上述,如果存在多个横向位置相同的物体,则可以根据物体的外形轮廓进行匹配,具体地,通过外形轮廓可以获知物体的类别,类别相同的物体即为站台缝隙4中的同一个物体。
在另一种实现方式中,可以通过第一预处理单元1021根据各物体所在子图像对应的摄像头的焦距以及各物体在所述子图像中的尺寸,计算各物体的第一轮廓尺寸。
第一预处理单元1021在处理各摄像头102拍摄得到的二维图像时,会对各个二维图像进行裁剪和拼接,其中,每个裁剪得到的裁剪后图像即为子图像,每个子图像均由一个摄像头102拍摄获得,因此,每个子图像对应一个焦距。物体的真实尺寸可以根据物体在二维图像上的尺寸以及该二维图像对应的焦距计算获得,因此,第一预处理单元1021可以根据各物体在子图像上的尺寸以及该子图像对应的焦距计算得到各物体的真实尺寸(第一轮廓尺寸)。
第二预处理单元1031根据第二类物体在处理后三维图像中的尺寸以及第二类物体在处理后三维图像中标定的纵向距离,计算第二类物体的第二轮廓尺寸。
第二类物体的真实尺寸、在处理后三维图像中的尺寸以及第二类物体在站台缝隙4中对应的纵向距离之间存在对应关系,因此,第二预处理单元1031可以根据第二类物体在处理后三维图像中的尺寸以及第二类物体在处理后三维图像中标定的纵向距离,计算出第二类物体的真实尺寸(第二轮廓尺寸)。
这样,边缘计算处理器104就可以根据第一轮廓尺寸与第二轮廓尺寸建立处理后二维图像中各物体与处理后三维图像中各第二类物体之间的对应关系。
具体的,边缘计算处理器104通过匹配各第一轮廓尺寸与各第二轮廓尺寸,并在第一轮廓尺寸与第二轮廓尺寸相匹配的物体之间建立对应关系。
综上,当确定了处理后二维图像与处理后三维图像中的同一个物体,即建立了处理后二维图像中物体与处理后三维图像中物体之间的对应关系。根据这种对应关系,就可以识别目标物体以及确定目标物体在站台缝隙4中的具体位置。例如,目标物体A,在处理后二维图像中目标物体A对应a,在处理后三维图像中目标物体对应a’,a与a’之间建立了对应关系,这样,就可以根据对应关系确定目标物体A的具体形貌(a),以及目标物体A在站台缝隙4中的具体位置(a’)。
如果扫描雷达103周期性拍摄三维图像,则边缘计算处理器104需要建立各个三维图像中物体之间的对应关系,例如根据物体的外形轮廓以及真实尺寸进行判定,可参见上文描述,此处不再赘述。当建立各扫描图像中物体之间的对应关系之后,就可以确定发送位移的目标物体,即移动物体。对于此类物体的侦测,通常需要确定移动物体的移动速度,按照上文中提供的物体位置的标定方法标定移动物体在每张扫描图像中的纵向深度,根据纵向深度的变化值以及该变化值对应的扫描周期,利用速度计算公式,可以计算得到移动物体的移动速度,同时,可以根据移动物体在各个三维图像中的位置,描绘出该移动物体对应的运行轨迹。可见,边缘计算处理器104已经完成对平面图像和扫描图像绝大部分的计算任务,这样,得到的计算结果相较于计算前的图像数据体量更小。
通过边缘计算处理器104可以确定站台缝隙4中各物体的位置,同时,可以确定每个物体对应的具体形貌,这样,就可以根据物体的具体形貌判断是否需要相关人员进行处理,还可以确定移动物体,便于相关人员进行追捕。
本申请中将摄像头102与扫描雷达103相结合,即将二维图像与三维图像相结合并进行对应分析,可以弥补两类图像各自的缺陷,不仅可以准确确定站台缝隙4中目标物体的位置,还可以准确确定站台缝隙4中目标物体的具体形貌。
进一步地,物体识别系统100还包括云服务器107,当边缘计算处理器104计算出目标物体的各项参数之后,通过公共辅助系统105中的通信模块1052将这些参数传输至云服务器107,由云服务器107对这些参数进行进一步地处理。例如,可以根据大数据对比,深度学习以及多网数据融合之后确定人脸对应的具体人物信息、确定爆炸物等危险品的具体信息、预测移动物体的预计运动轨迹等,并实现与公安等安保系统的对接。
综上,物体识别系统100在分析图像数据的过程中一共涉及三个图像数据处理过程,即第一预处理单元1021和第二预处理单元1031对二维图像和三维图像的预处理过程,边缘计算处理器104对二维图像和三维图像的整合处理过程,以及云服务器107对图像数据的深度学习和广泛对比的处理过程。图像数据经过每一级数据处理之后都会大大减少向下传递的数据量,这样可以有效减轻带宽压力,提高传输速度,而且也方便后续数据计算,令计算过程更贴近于感知层,更加符合边缘计算的理念,从而降低云服务器107的计算压力,可以令云服务器107同时服务更多的物体识别系统100提供云计算服务。
进一步地,可以将物体识别系统100用于识别整条轨道5沿线的情况,此时,由于主体支架101上装设有摄像头102、扫描雷达103、边缘计算处理器104和公共辅助系统,其主要依靠摄像头102和扫描雷达103对站台缝隙4内的物体进行拍摄和扫描,摄像头102基于光传播的基础进行图像拍摄,扫描雷达103基于电磁波的发射与接收进行物体扫描,当光或者电磁波受到阻挡都会影响摄像头102与扫描雷达103的正常拍摄工作。因此,为了保证摄像头102与扫描雷达103的正常工作,即保证两者拍摄或者扫描的图像质量,需要尽量避免两者工作范围内出现较大的障碍物。对应于列车1在隧道3中的运行场景,隧道的拐弯处即为上述不建议出现的障碍物,因此,可以如图9所示,将物体识别系统100设置于轨道5沿线的各个直线路段上,分段识别每一个直线路段上的目标物体。
由上述可知,本申请提供了一种物体识别方法及系统,首先,通过多个摄像头和扫描雷达获取所述站台缝隙的二维图像和三维图像,然后,利用第一预处理单元对各二维图像进行处理,得到处理后二维图像,最后通过边缘计算处理器对处理后二维图像和三维图像进行综合计算,识别到站台缝隙中的目标物体,并确定目标物体在站台缝隙中的位置,从而对目标物体进行相应的处理。本申请中将二维图像与三维图像相结合并进行对应分析,可以弥补两类图像各自的缺陷,不仅可以准确识别站台缝隙中的目标物体,还可以准确确定目标物体在站台缝隙中的位置。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (10)
1.一种物体识别方法,其特征在于,用于站台缝隙中的物体识别,所述方法包括:
通过多个摄像头沿所述站台缝隙中轨道方向拍摄,以获取所述站台缝隙的多张二维图像,所述多个摄像头的相机光心垂直对齐设置,用于拍摄轨道与站台安全门之间的站台缝隙处,每个摄像头对应不同的焦距,所述多张二维图像用于展示所述站台缝隙中各物体的具体形貌,其中,一个摄像头对应一张所述二维图像;
通过第一预处理单元获取每一张所述二维图像中符合预设图像清晰度的子图像,并将各所述子图像做拼接处理,得到处理后二维图像,所述处理后二维图像包含所述站台缝隙中的各物体;
通过扫描雷达沿所述站台缝隙中轨道方向扫描,以获取所述站台缝隙的三维图像,所述三维图像用于展示所述站台缝隙中各物体在所述站台缝隙中的位置;
通过边缘计算处理器根据所述处理后二维图像与所述三维图像,识别所述站台缝隙中的目标物体,并确定所述目标物体在所述站台缝隙中的位置。
2.根据权利要求1所述的方法,其特征在于,所述物体识别系统还包括云台装置,所述多个摄像头与所述扫描雷达均设置于所述云台装置上,所述方法还包括:
通过所述云台装置调整所述多个摄像头和所述扫描雷达的拍摄位置和拍摄角度,以使所述多个摄像头和所述扫描雷达在调整后的拍摄位置和拍摄角度获取所述站台缝隙的二维图像和三维图像。
3.根据权利要求1所述的方法,其特征在于,所述通过所述第一预处理单元获取每一张所述二维图像中符合预设图像清晰度的子图像,并将各所述子图像做拼接处理,得到处理后二维图像还包括:
通过所述第一预处理单元从所述处理后二维图像中提取有效图像,所述有效图像为与预设图像对应的图像。
4.根据权利要求1所述的方法,其特征在于,所述物体识别系统还包括第二预处理单元,所述扫描雷达与所述第二预处理单元电连接,所述第二预处理单元与所述边缘计算处理器电连接,所述通过所述扫描雷达沿所述站台缝隙中轨道方向扫描,以获取所述站台缝隙的三维图像还包括:
通过所述第二预处理单元标定所述三维图像中各物体在所述站台缝隙中对应的纵向距离,所述纵向距离为物体与所述扫描雷达之间的距离。
5.根据权利要求4所述的方法,其特征在于,所述通过所述扫描雷达沿所述站台缝隙中轨道方向扫描,以获取所述站台缝隙的三维图像还包括:
通过所述第二预处理单元确定所述三维图像中的基准物体和目标物体,所述基准物体为与预设固定设施对应的物体,所述目标物体为所述站台缝隙中除所述基准物体以外的物体;
通过所述第二预处理单元根据所述各物体在所述站台缝隙中对应的纵向距离,标定所述目标物体与所述基准物体之间的距离。
6.根据权利要求4所述的方法,其特征在于,所述通过所述扫描雷达沿所述站台缝隙中轨道方向扫描,以获取所述站台缝隙的三维图像还包括:
通过所述第二预处理单元确定所述三维图像中的第一类物体,所述第一类物体为除所述基准物体外,且可以通过外形轮廓确定物体类别,而无需确定具体形貌的物体;
通过所述第二预处理单元从所述三维图像中剔除所述第一类物体,得到处理后三维图像。
7.根据权利要求6所述的方法,其特征在于,所述通过所述边缘计算处理器根据所述处理后二维图像与所述三维图像,识别所述站台缝隙中的目标物体,并确定所述目标物体在所述站台缝隙中的位置包括:
通过所述第二预处理单元确定所述处理后三维图像中的第二类物体,所述第二类物体为所述处理后三维图像中除所述基准物体外的物体;
通过所述边缘计算处理器根据所述处理后二维图像中各物体的横向位置和外形轮廓以及所述处理后三维图像中各所述第二类物体的横向位置和外形轮廓,建立所述处理后二维图像中各物体与所述第二类物体之间的对应关系,以根据所述对应关系确定目标物体的具体形貌以及在所述站台缝隙中的位置,所述目标物体为所述第二类物体。
8.根据权利要求6所述的方法,其特征在于,所述通过所述边缘计算处理器根据所述处理后二维图像与所述三维图像,识别所述站台缝隙中的目标物体,并确定所述目标物体在所述站台缝隙中的位置包括:
通过所述第一预处理单元根据各物体所在所述子图像对应的摄像头的焦距以及所述各物体在所述子图像中的尺寸,计算所述各物体的第一轮廓尺寸;
通过所述第二预处理单元根据所述第二类物体在所述处理后三维图像中的尺寸以及所述第二类物体在所述处理后三维图像中标定的纵向距离,计算所述第二类物体的第二轮廓尺寸;
通过所述边缘计算处理器根据所述第一轮廓尺寸与所述第二轮廓尺寸建立所述处理后二维图像中各物体与所述处理后三维图像中各所述第二类物体之间的对应关系,以根据所述对应关系确定所述目标物体的具体形貌以及在所述站台缝隙中的位置,所述目标物体为所述第二类物体。
9.根据权利要求1所述的方法,其特征在于,所述物体识别系统还包括云服务器,所述云服务器与所述边缘计算处理器通信连接,所述方法还包括:
通过所述云服务器结合云端数据以及所述目标物体对应的二维图像,判断所述目标物体是否为预设搜寻物体。
10.一种物体识别系统,其特征在于,用于执行权利要求1-9所述的方法,所述物体识别系统包括:多个摄像头、第一预处理单元、扫描雷达和边缘计算处理器;
所述多个摄像头与所述第一预处理单元电连接;
所述第一预处理单元和所述扫描雷达均与所述边缘计算处理器电连接;
其中,所述多个摄像头的相机光心垂直对齐设置,所述多个摄像头对应不同的焦距。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011003536.0A CN112001971A (zh) | 2020-09-22 | 2020-09-22 | 一种物体识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011003536.0A CN112001971A (zh) | 2020-09-22 | 2020-09-22 | 一种物体识别方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112001971A true CN112001971A (zh) | 2020-11-27 |
Family
ID=73474750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011003536.0A Pending CN112001971A (zh) | 2020-09-22 | 2020-09-22 | 一种物体识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112001971A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112907728A (zh) * | 2021-01-27 | 2021-06-04 | 北京邮电大学 | 基于摄像头和边缘计算的船舶场景还原和定位方法及系统 |
CN114137517A (zh) * | 2022-02-07 | 2022-03-04 | 北京中科蓝图科技有限公司 | 道路的探地检测方法、装置及探地雷达装置 |
-
2020
- 2020-09-22 CN CN202011003536.0A patent/CN112001971A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112907728A (zh) * | 2021-01-27 | 2021-06-04 | 北京邮电大学 | 基于摄像头和边缘计算的船舶场景还原和定位方法及系统 |
CN114137517A (zh) * | 2022-02-07 | 2022-03-04 | 北京中科蓝图科技有限公司 | 道路的探地检测方法、装置及探地雷达装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11915470B2 (en) | Target detection method based on fusion of vision, lidar, and millimeter wave radar | |
US11320833B2 (en) | Data processing method, apparatus and terminal | |
CA2950791C (en) | Binocular visual navigation system and method based on power robot | |
EP2243125B1 (en) | Vision based real time traffic monitoring | |
JP5297078B2 (ja) | 車両の死角における移動物体を検知するための方法、および死角検知装置 | |
CN112001971A (zh) | 一种物体识别方法及系统 | |
CN106778713A (zh) | 一种动态人眼跟踪的虹膜识别装置及方法 | |
JP4102885B2 (ja) | 駐車車両検知方法及び駐車車両検知システム | |
CN117589129B (zh) | 一种车载式柔性接触网定位器坡度测量方法及系统 | |
JP6516012B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
Kamijo et al. | Pedestrian detection algorithm for on-board cameras of multi view angles | |
CN110806411A (zh) | 基于线结构光的无人机铁轨检测系统 | |
CN114415171A (zh) | 一种基于4d毫米波雷达的汽车可行驶区域检测方法 | |
CN115546738A (zh) | 一种铁轨异物检测方法 | |
CN213024491U (zh) | 一种物体识别系统 | |
CN113935379A (zh) | 一种基于毫米波雷达信号的人体活动分割方法及系统 | |
CN206489590U (zh) | 一种动态人眼跟踪的虹膜识别装置 | |
JP3629935B2 (ja) | 移動体の速度計測方法およびその方法を用いた速度計測装置 | |
CN116258718B (zh) | 基于3d相机的焊接质量检测方法、系统、设备及介质 | |
CN112733678A (zh) | 测距方法、装置、计算机设备和存储介质 | |
CN117197779A (zh) | 一种基于双目视觉的轨道交通异物检测方法、装置及系统 | |
JP4305073B2 (ja) | パンタグラフ支障物検出方法及び装置 | |
CN112697064B (zh) | 基于视觉和激光雷达的轨道变形智能识别系统 | |
JP2000046546A (ja) | 標識の認識及び測位装置 | |
CN111339840B (zh) | 人脸检测方法和监控系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |