CN116668804B - 一种视频图像分析处理方法、设备及存储介质 - Google Patents

一种视频图像分析处理方法、设备及存储介质 Download PDF

Info

Publication number
CN116668804B
CN116668804B CN202310705170.9A CN202310705170A CN116668804B CN 116668804 B CN116668804 B CN 116668804B CN 202310705170 A CN202310705170 A CN 202310705170A CN 116668804 B CN116668804 B CN 116668804B
Authority
CN
China
Prior art keywords
accident
shooting
accident scene
display
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310705170.9A
Other languages
English (en)
Other versions
CN116668804A (zh
Inventor
胡明征
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Henghui Software Co ltd
Original Assignee
Shandong Henghui Software Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Henghui Software Co ltd filed Critical Shandong Henghui Software Co ltd
Priority to CN202310705170.9A priority Critical patent/CN116668804B/zh
Publication of CN116668804A publication Critical patent/CN116668804A/zh
Application granted granted Critical
Publication of CN116668804B publication Critical patent/CN116668804B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording

Abstract

本发明属于视频图像处理技术领域,具体公开一种视频图像分析处理方法、设备及存储介质,通过在执法记录仪内设置跟随摄像头,由其代替普通摄像头,进而利用跟随摄像头锁定事故当事人人脸图像通过调整摄像角度对事故当事人进行跟随拍摄,实现了违法记录仪对事故现场视频拍摄的主动灵活性调整,提高了交通事故现场视频拍摄的完整全面性,无形之中提高了交通事故现场视频的拍摄使用价值度,与此同时通过在执法记录仪内设置光线传感器,由其在拍摄过程中实时监测外界环境光线亮度,进而据此进行跟随摄像头的主动针对性摄像亮度调整,大大提高了交通事故现场视频的拍摄呈现效果,在一定程度上影响了事故原因的推理效率。

Description

一种视频图像分析处理方法、设备及存储介质
技术领域
本发明属于视频图像处理技术领域,特别涉及交通事故现场视频处理技术,具体涉及一种视频图像分析处理方法、设备及存储介质。
背景技术
执法记录仪是一种可以录制警察执法过程的设备,安装在警察制服上,可以记录音频、视频和图像等信息,在处理交通事故时执法记录仪可以拍摄交通事故现场视频图像,能够提供对事故现场的视觉证据,有助于还原事故现场并推理事故原因和责任,提高交通管理效率。
由于执法记录仪一般安装在警察制服上,且本身无法灵活变动,执法记录仪对交通事故现场视频的拍摄完整性取决于警察的站位,另外为了能够全面还原事故现场,交通事故现场视频中必定要有事故当事人及事故车辆的入镜,而人不像车辆一直处于静止不动状态,这使得在利用执法记录仪拍摄交通事故现场视频中需要由警察根据事故当事人的位置变化不断调整自身站位以进行摄像角度手动调整,使得执法记录仪的拍摄范围能够实时覆盖到事故当事人,这种调整方式过于被动,很容易存在因警察忙于事故现场勘查从而疏于对自身站位的调整,进而影响执法记录仪对交通事故现场视频拍摄的完整性、及时性,无形之中降低了交通事故现场视频的拍摄使用价值度。
另一方面鉴于交通事故都是发生在室外,室外环境亮度直接影响了交通事故现场视频的拍摄呈现效果,例如清晰度、明亮度,但现有技术中由于对执法记录仪的摄像专业性追求不高,且警察在处理交通事故时基本无法腾出时间对执法记录仪的摄像状态进行针对性地调控,从而大大增加了交通事故现场视频拍摄呈现效果不佳的发生率,容易对事故原因的推理分析造成一定干扰,在一定程度上影响了事故原因的推理效率。
再一方面在拍摄得到交通事故现场视频后为了尽快进行交通事故处理结案,一般都是直接上传至交通事故处理中心,由相关人员处理,缺乏对交通事故现场视频的显示预处理,导致交通事故现场视频无法凸显重点,从而难以为事故原因推理提供有利参照依据,更加不利于交通事故的尽快结案。
发明内容
为了克服上述不足,本发明搭建了一种视频图像分析处理方法、设备及存储介质,能够有效解决相应的技术问题。
本发明的目的可以通过以下技术方案来实现:本发明的第一方面提供一种视频图像分析处理方法,包括以下步骤:A、在执法人员到达交通事故现场开启执法记录仪后由执法记录仪采集事故现场图像,进而锁定事故当事人人脸图像和事故当事车辆车牌号。
B、根据事故当事人人脸图像进行执法记录仪的摄像指征调控,由此进行事故现场视频拍摄。
C、对事故现场视频进行显示参数采集,并据此进行显示预处理,得到初步事故现场视频。
D、从初步事故现场视频中识别出关键物体,并进行特殊标记。
E、对标记后的初步事故现场视频进行时间戳添加,形成有效事故现场视频。
F、对形成的有效事故现场视频进行上传存储。
根据本发明第一方面的一种能够实现的方式,所述摄像指征包括摄像范围角、摄像焦距和摄像亮度,其中摄像范围角的具体调控过程如下:B1、在执法记录仪内设置跟随摄像头、定位仪和测距仪,并由跟随摄像头对事故当事人人脸图像进行记录锁定,此时统计锁定的事故当事人数量。
B2、若事故当事人只有一个,则由定位仪实时定位事故当事人当前所处位置,进而由执法记录仪中的跟随摄像头实时调整摄像范围角实现对事故当事人的跟随拍摄,若事故当事人为双方,则依据各事故当事人人脸图像由定位仪实时定位各事故当事人当前所处位置,进而通过线段分别连接双方事故当事人当前所处位置和执法记录仪所在位置,形成摄像三角形,与此同时利用测距仪分别测量各事故当事人当前所处位置与执法记录仪所在位置之间的距离、双方事故当事人当前所处位置之间的距离,得到摄像三角形的三边距离,并利用公式计算出执法记录仪中跟随摄像头的适配摄像范围角θ,其中a、b、c分别表示为每个事故当事人当前所处位置与执法记录仪所在位置之间的距离、双方事故当事人当前所处位置之间的距离,此时调控违法记录中跟随摄像头的摄像范围角,使其满足适配摄像范围角。
根据本发明第一方面的一种能够实现的方式,所述摄像焦距的具体调控过程如下:(1)若事故当事人只有一个,则直接由测距仪测量事故当事人当前所处位置与执法记录仪所在位置之间的距离,作为拍摄主体距离。
获取跟随摄像头的型号,进而将拍摄主体距离与摄像信息库中各种型号摄像头在各种拍摄主体距离下的有效摄像焦距进行匹配,从中匹配出执法记录仪中跟随摄像头的有效摄像焦距,由此调整跟随摄像头的摄像焦距,使其满足有效摄像焦距。
(2)若事故当事人为双方,此时利用测距仪分别测量各事故当事人当前所处位置与执法记录仪所在位置之间的距离,作为双方拍摄主体距离。
将双方拍摄主体距离进行作差对比,通过公式计算出双方拍摄主体距离差异度η,Δl表示为双光拍摄主体距离对比差,Δl0表示为参考距离对比差,e表示为自然常数。
将双方拍摄主体距离差异度与设置的限定距离差异度进行对比,并利用表达式得到有效拍摄主体距离l有效,其中l1、l2分别表示为双方拍摄主体距离,η0表示为设置的限定距离差异度。
将有效拍摄主体距离与摄像信息库中各种型号摄像头在各种拍摄主体距离下的有效摄像焦距进行匹配,从中匹配出执法记录仪中跟随摄像头的有效摄像焦距,由此调整跟随摄像头的摄像焦距,使其满足有效摄像焦距。
根据本发明第一方面的一种能够实现的方式,所述摄像亮度对应的调控过程如下:在执法记录仪内设置光线传感器,由其在执法记录仪开启过程中实时监测外界环境光线亮度。
将跟随摄像头的型号与摄像信息库中各种型号摄像头对应的适宜摄像外界环境光线亮度行比对,从中获取跟随摄像头对应的适宜摄像外界环境光线亮度。
将外界环境光线亮度与跟随摄像头对应的适宜摄像外界环境光线亮度进行对比,计算摄像亮度调控需求指数式中p表示为外界环境光线亮度,p0表示为跟随摄像头对应的适宜摄像外界环境光线亮度;
将摄像亮度调控需求指数导入摄像亮度调控判断算法分析得到执法记录仪内跟随摄像头的摄像亮度调控判断结果R,其中σ0表示为预先配置的摄像亮度调控需求指数最低限值。
根据本发明第一方面的一种能够实现的方式,所述显示参数包括显示亮度和显示饱和度,其中显示参数采集的具体实现过程如下:
将事故现场视频按照设定的视频侦数进行分解,得到若干事故现场图像。
从各事故现场图像中统计存在的呈现元素数量,并提取各呈现元素的边界轮廓,提取的边界轮廓将事故现场图像划分为若干区域,其中各区域对应一个呈现元素。
对各事故现场图像中划分的各区域进行显示参数采集。
根据本发明第一方面的一种能够实现的方式,所述显示预处理对应的处理过程如下:C1、从各事故现场图像中划分的各区域中筛选出呈现元素为人、车和事故碰撞物的区域,作为各事故现场图像对应的重点区域,并将各事故现场图像中除重点区域对应的其他区域记为背景区域。
C2、将各事故现场图像中重点区域对应的显示参数与背景区域对应的显示参数进行对比,计算各事故现场图像对应的重点区域与背景区域显示对比指数其中ξi表示为第i事故现场图像对应的重点区域与背景区域的显示对比指数,i表示为事故现场视频分解的事故现场图像编号,i=1,2,…,n,DC重点i、DS重点i分别表示为第i事故现场图像中重点区域对应的显示亮度、显示饱和度,DC背景i、DS背景i分别表示为第i事故现场图像中背景区域对应的显示亮度、显示饱和度,DCij、DSij分别表示为第i事故现场图像划分的第j区域对应的显示亮度、显示饱和度,j表示为各事故现场图像划分的区域编号,j=1,2,…,m,m表示为各事故现场图像划分的区域数量,α表示为预先配置的显示亮度对应的权值因子。
C3、将各事故现场图像对应的重点区域与背景区域显示对比指数与有效显示对比指数进行对比,利用显示预处理判断模型
,得到各事故现场图像对应的显示预处理判断结果Ui,ξ0表示为有效显示对比指数。
C4、将需要进行显示预处理的事故现场图像作为特定事故现场图像,进而调整特定事故现场图像对应重点区域的显示亮度和显示饱和度,使其高于背景区域的显示亮度和显示饱和度。
根据本发明第一方面的一种能够实现的方式,所述从初步事故现场视频中识别出关键物体,并进行特殊标记具体识别方式为:基于事故当事人人脸图像和事故当事车辆车牌号从初步事故现场视频分解得到的各事故现场图像中进行捕捉识别,若某事故现场图像中未能捕捉到事故当事人人脸图像或事故当事车辆车牌号,则不对该事故现场图像进行特殊标记,反之则将该事故现场图像中捕捉到的事故当事人人脸图像或事故当事车辆作为关键物体,并在该事故现场图像中对关键物体进行特殊标记。
本发明的第二方面提出一种设备,所述设备包括处理器、存储器及通信总线,所述存储器上存储有可被所述处理器执行的计算机可读程序。
所述通信总线实现处理器与存储器之间的连接通信。
所述处理器执行所述计算机可读程序时实现如本发明所述的一种视频图像分析处理方法中的步骤。
本发明的第三方面提出一种存储介质,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现本发明所述的一种视频图像分析处理方法。
结合上述的所有技术方案,本发明所具备的优点及积极效果为:
1、本发明通过在执法记录仪内设置跟随摄像头,由其代替普通摄像头,进而利用跟随摄像头锁定事故当事人人脸图像通过调整摄像角度对事故当事人进行跟随拍摄,实现了执法记录仪对事故现场视频拍摄的主动灵活性调整,不仅能够使执法记录仪拍摄范围能够实时覆盖到事故当事人,提高了交通事故现场视频拍摄的完整全面性,还有效避免出现警察因忙于事故现场勘查造成的滞后拍摄,最大化地实现对事故现场的全面及时还原,无形之中提高了交通事故现场视频的拍摄使用价值度。
2、本发明通过在执法记录仪内额外设置定位仪和测距仪,在由跟随摄像头追踪事故当事人进行事故现场视频拍摄时利用定位仪和测距仪实时了解事故当事人的位置距离变化,由此灵活主动地进行摄像焦距调整,扩展了执法记录仪对事故现场视频拍摄的调整指标,最大限度降低事故当事人的位置距离变化对事故现场视频拍摄清晰度的影响,为事故原因的准确推理提供观看辅助保障。
3、本发明通过在执法记录仪内设置光线传感器,由其在拍摄过程中实时监测外界环境光线亮度,进而据此进行跟随摄像头的主动针对性摄像亮度调整,大大提高了交通事故现场视频的拍摄呈现效果,同时不需要警察进行手动调整,使得警察能够全身心投入到事故现场勘查中,有效降低对事故原因推理分析造成的干扰,在一定程度上影响了事故原因的推理效率,体现了交通事故现场视频拍摄调整的人性化、智能化特点,使得实用价值更高。
4、本发明在拍摄得到交通事故现场视频后不是直接将其上传至交通事故处理中心,而是通过对其进行显示预处理和关键物体特殊标记,使得交通事故现场视频能够凸显重点对象,为事故原因推理提供直观、可靠的参照依据,有利于加快事故处理进程,同时提高了事故处理准确度,实现了事故处理效率及质量的双重提升。
5、本发明通过在拍摄得到的事故现场视频中添加时间戳,为将来的调取证据提供证明需要,有效保障了调取证据的真实性和可靠性。
附图说明
利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1为本发明的方法实施步骤流程图。
图2为本发明的摄像三角形构建示意图。
附图标记:1、2——双方事故当事人当前所处位置,3——执法记录仪所在位置。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
参见图1所示,本发明提供提供一种视频图像分析处理方法,包括以下步骤:A、在执法人员到达交通事故现场开启执法记录仪后由执法记录仪采集事故现场图像,进而锁定事故当事人人脸图像和事故当事车辆车牌号。
B、根据事故当事人人脸图像进行执法记录仪的摄像指征调控,由此进行事故现场视频拍摄。
优选地,摄像指征包括摄像范围角、摄像焦距和摄像亮度,其中摄像范围角的具体调控过程如下:B1、在执法记录仪内设置跟随摄像头、定位仪和测距仪,并由跟随摄像头对事故当事人人脸图像进行记录锁定,此时统计锁定的事故当事人数量。
作为本发明的进一步方案,一般的交通事故都是有双方当事人,但也只有一方当事人的交通事故,例如车辆与护栏相撞。
B2、若事故当事人只有一个,则由定位仪实时定位事故当事人当前所处位置,进而由执法记录仪中的跟随摄像头实时调整摄像范围角实现对事故当事人的跟随拍摄,若事故当事人为双方,则依据各事故当事人人脸图像由定位仪实时定位各事故当事人当前所处位置,进而通过线段分别连接双方事故当事人当前所处位置和执法记录仪所在位置,形成摄像三角形,参见图2所示,与此同时利用测距仪分别测量各事故当事人当前所处位置与执法记录仪所在位置之间的距离、双方事故当事人当前所处位置之间的距离,得到摄像三角形的三边距离,并利用公式计算出执法记录仪中跟随摄像头的适配摄像范围角θ,其中a、b、c分别表示为每个事故当事人当前所处位置与执法记录仪所在位置之间的距离、双方事故当事人当前所处位置之间的距离,此时调控违法记录中跟随摄像头的摄像范围角,使其满足适配摄像范围角。
本发明通过在执法记录仪内设置跟随摄像头,由其代替普通摄像头,进而利用跟随摄像头锁定事故当事人人脸图像通过调整摄像角度对事故当事人进行跟随拍摄,实现了执法记录仪对事故现场视频拍摄的主动灵活性调整,不仅能够使执法记录仪拍摄范围能够实时覆盖到事故当事人,提高了交通事故现场视频拍摄的完整全面性,还有效避免出现警察因忙于事故现场勘查造成的滞后拍摄,最大化地实现对事故现场的全面及时还原,无形之中提高了交通事故现场视频的拍摄使用价值度。
作为上述方案的优选,摄像焦距的具体调控过程如下:(1)若事故当事人只有一个,则直接由测距仪测量事故当事人当前所处位置与执法记录仪所在位置之间的距离,作为拍摄主体距离。
获取跟随摄像头的型号,进而将拍摄主体距离与摄像信息库中各种型号摄像头在各种拍摄主体距离下的有效摄像焦距进行匹配,从中匹配出执法记录仪中跟随摄像头的有效摄像焦距,由此调整跟随摄像头的摄像焦距,使其满足有效摄像焦距。
(2)若事故当事人为双方,此时利用测距仪分别测量各事故当事人当前所处位置与执法记录仪所在位置之间的距离,作为双方拍摄主体距离。
将双方拍摄主体距离进行作差对比,通过公式计算出双方拍摄主体距离差异度η,Δl表示为双光拍摄主体距离对比差,Δl0表示为参考距离对比差,e表示为自然常数,其中双光拍摄主体距离对比差越大,双方拍摄主体距离差异度越大。
将双方拍摄主体距离差异度与设置的限定距离差异度进行对比,并利用表达式得到有效拍摄主体距离l有效,其中l1、l2分别表示为双方拍摄主体距离,η0表示为设置的限定距离差异度。
需要理解的是,当拍摄主体不只一个时为了兼顾双方拍摄主体的摄像清晰度,保障每个拍摄主体都能够清晰入镜,此时利用双方拍摄主体距离之间的差异情况进行有效拍摄主体距离识别,具体为当双方拍摄主体距离差异度比较小时可以将平均拍摄主体距离作为有效拍摄主体距离,当双方拍摄主体距离差异度较大时考虑到距离执法记录仪所在位置越远,拍摄清晰度越受影响,因而以双方拍摄主体距离中最大拍摄主体距离作为有效拍摄主体距离,能够最大限度提高有效拍摄主体距离识别的合理度,为摄像焦距调整提供可靠依据。
将有效拍摄主体距离与摄像信息库中各种型号摄像头在各种拍摄主体距离下的有效摄像焦距进行匹配,从中匹配出执法记录仪中跟随摄像头的有效摄像焦距,由此调整跟随摄像头的摄像焦距,使其满足有效摄像焦距。
本发明通过在执法记录仪内额外设置定位仪和测距仪,在由跟随摄像头追踪事故当事人进行事故现场视频拍摄时利用定位仪和测距仪实时了解事故当事人的位置距离变化,由此灵活主动地进行摄像焦距调整,扩展了执法记录仪对事故现场视频拍摄的调整指标,最大限度降低事故当事人的位置距离变化对事故现场视频拍摄清晰度的影响,为事故原因的准确推理提供观看辅助保障。
进一步优选地,摄像亮度对应的调控过程如下:在执法记录仪内设置光线传感器,由其在执法记录仪开启过程中实时监测外界环境光线亮度。
将跟随摄像头的型号与摄像信息库中各种型号摄像头对应的适宜摄像外界环境光线亮度行比对,从中获取跟随摄像头对应的适宜摄像外界环境光线亮度。
将外界环境光线亮度与跟随摄像头对应的适宜摄像外界环境光线亮度进行对比,计算摄像亮度调控需求指数式中p表示为外界环境光线亮度,p0表示为跟随摄像头对应的适宜摄像外界环境光线亮度,当外界环境光线亮度与跟随摄像头对应的适宜摄像外界环境光线亮度相差越大时,摄像亮度调控需求指数越大,表明摄像亮度调控需求程度越高。
将摄像亮度调控需求指数导入摄像亮度调控判断算法分析得到执法记录仪内跟随摄像头的摄像亮度调控判断结果R,其中σ0表示为预先配置的摄像亮度调控需求指数最低限值。
进一步优化本技术方案,当判断摄像亮度需要调控时且外界环境光线亮度大于跟随摄像头对应的适宜摄像外界环境光线亮度,则摄像亮度调控方式为调低摄像亮度,当外界环境光线亮度小于跟随摄像头对应的适宜摄像外界环境光线亮度,则摄像亮度调控方式为调高摄像亮度。
本发明通过在执法记录仪内设置光线传感器,由其在拍摄过程中实时监测外界环境光线亮度,进而据此进行跟随摄像头的主动针对性摄像亮度调整,大大提高了交通事故现场视频的拍摄呈现效果,同时不需要警察进行手动调整,使得警察能够全身心投入到事故现场勘查中,有效降低对事故原因推理分析造成的干扰,在一定程度上影响了事故原因的推理效率,体现了交通事故现场视频拍摄调整的人性化、智能化特点,使得实用价值更高。
C、对事故现场视频进行显示参数采集,并据此进行显示预处理,得到初步事故现场视频,其中显示参数包括显示亮度和显示饱和度,显示参数采集的具体实现过程如下:将事故现场视频按照设定的视频侦数进行分解,得到若干事故现场图像。
从各事故现场图像中统计存在的呈现元素数量,并提取各呈现元素的边界轮廓,提取的边界轮廓将事故现场图像划分为若干区域,其中各区域对应一个呈现元素。
作为本发明的一个示例,呈现元素可以为人、车、地面、护栏、树等。
对各事故现场图像中划分的各区域进行显示参数采集。
需要解释的是,显示亮度代表图像各区域的亮度,当各区域的显示亮度差别越大时表明亮度对比越明显,越能够凸显显示最亮的区域,显示饱和度代表图像各区域的颜色鲜艳程度,当各区域的显示饱和度差别越大时表明颜色对比越明显,越能够凸显颜色越鲜艳的区域。
在上述方案基础上,显示预处理对应的处理过程如下:C1、从各事故现场图像中划分的各区域中筛选出呈现元素为人、车和事故碰撞物的区域,作为各事故现场图像对应的重点区域,并将各事故现场图像中除重点区域对应的其他区域记为背景区域。
需要理解的是,当事故当事人只有一个时事故碰撞物可以为护栏等被车辆碰撞的物体,当事故当事人为双方时事故碰撞物为车辆本身。
C2、将各事故现场图像中重点区域对应的显示参数与背景区域对应的显示参数进行对比,计算各事故现场图像对应的重点区域与背景区域显示对比指数其中ξi表示为第i事故现场图像对应的重点区域与背景区域的显示对比指数,i表示为事故现场视频分解的事故现场图像编号,i=1,2,…,n,DC重点i、DS重点i分别表示为第i事故现场图像中重点区域对应的显示亮度、显示饱和度,DC背景i、DS背景i分别表示为第i事故现场图像中背景区域对应的显示亮度、显示饱和度,DCij、DSij分别表示为第i事故现场图像划分的第j区域对应的显示亮度、显示饱和度,j表示为各事故现场图像划分的区域编号,j=1,2,…,m,m表示为各事故现场图像划分的区域数量,α表示为预先配置的显示亮度对应的权值因子,其中重点区域与背景区域的显示亮度与显示饱和度差别越大,显示对比指数越大,展现出来的凸显作用越大。
需要说明的是,当事故现场图像对应的重点区域与背景区域数量不只一个时需要对所有重点区域与背景区域的显示亮度与显示饱和度进行对比分析,形成重点区域与背景区域显示对比指数。
C3、将各事故现场图像对应的重点区域与背景区域显示对比指数与有效显示对比指数进行对比,利用显示预处理判断模型
,得到各事故现场图像对应的显示预处理判断结果Ui,ξ0表示为有效显示对比指数。
C4、将需要进行显示预处理的事故现场图像作为特定事故现场图像,进而调整特定事故现场图像对应重点区域的显示亮度和显示饱和度,使其高于背景区域的显示亮度和显示饱和度。
D、从初步事故现场视频中识别出关键物体,并进行特殊标记,具体实现过程如下:基于事故当事人人脸图像和事故当事车辆车牌号从初步事故现场视频分解得到的各事故现场图像中进行捕捉识别,若某事故现场图像中未能捕捉到事故当事人人脸图像或事故当事车辆车牌号,则不对该事故现场图像进行特殊标记,反之则将该事故现场图像中捕捉到的事故当事人人脸图像或事故当事车辆作为关键物体,并在该事故现场图像中对关键物体进行特殊标记。
本发明在拍摄得到交通事故现场视频后不是直接将其上传至交通事故处理中心,而是通过对其进行显示预处理和关键物体特殊标记,使得交通事故现场视频能够凸显重点对象,为事故原因推理提供直观、可靠的参照依据,有利于加快事故处理进程,同时提高了事故处理准确度,实现了事故处理效率及质量的双重提升。
E、对标记后的初步事故现场视频进行时间戳添加,形成有效事故现场视频。
本发明通过在拍摄得到的事故现场视频中添加时间戳,为将来的调取证据提供证明需要,有效保障了调取证据的真实性和可靠性。
F、对形成的有效事故现场视频进行上传存储。
本发明在实施过程中还用到了摄像信息库,用于存储各种型号摄像头在各种拍摄主体距离下的有效摄像焦距,存储各种型号摄像头对应的适宜摄像外界环境光线亮度。
实施例2
本发明提出一种设备,所述设备包括处理器、存储器及通信总线,所述存储器上存储有可被所述处理器执行的计算机可读程序。
所述通信总线实现处理器与存储器之间的连接通信。
所述处理器执行所述计算机可读程序时实现如本发明所述的一种视频图像分析处理方法中的步骤。
实施例3
本发明提出一种存储介质,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现本发明所述的一种视频图像分析处理方法。
本发明通过对执法记录仪的摄像指征进行动态主动灵活性调整实现了对交通事故现场视频的全面有效拍摄,与此同时对拍摄得到的交通事故现场视频进行显示预处理,实现了对交通事故现场视频的分析处理,大大提高了交通管理水平。
以上内容仅仅是对本发明结构所作的举例和说明,所属本技术领域的技术人员对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,只要不偏离发明的结构或者超越本发明所定义的范围,均应属于本发明的保护范围。

Claims (7)

1.一种视频图像分析处理方法,其特征在于,包括以下步骤:
A、在执法人员到达交通事故现场开启执法记录仪后由执法记录仪采集事故现场图像,进而锁定事故当事人人脸图像和事故当事车辆车牌号;
B、根据事故当事人人脸图像进行执法记录仪的摄像指征调控,由此进行事故现场视频拍摄;
C、对事故现场视频进行显示参数采集,并据此进行显示预处理,得到初步事故现场视频;
D、从初步事故现场视频中识别出关键物体,并进行特殊标记;
E、对标记后的初步事故现场视频进行时间戳添加,形成有效事故现场视频;
F、对形成的有效事故现场视频进行上传存储;
所述显示预处理对应的处理过程如下:
C1、从各事故现场图像中划分的各区域中筛选出呈现元素为人、车和事故碰撞物的区域,作为各事故现场图像对应的重点区域,并将各事故现场图像中除重点区域对应的其他区域记为背景区域;
C2、将各事故现场图像中重点区域对应的显示参数与背景区域对应的显示参数进行对比,计算各事故现场图像对应的重点区域与背景区域显示对比指数,其中/>表示为第i事故现场图像对应的重点区域与背景区域的显示对比指数,i表示为事故现场视频分解的事故现场图像编号,/>,/>、/>分别表示为第i事故现场图像中重点区域对应的显示亮度、显示饱和度,/>、/>分别表示为第i事故现场图像中背景区域对应的显示亮度、显示饱和度,/>、/>分别表示为第i事故现场图像划分的第j区域对应的显示亮度、显示饱和度,j表示为各事故现场图像划分的区域编号,/>,m表示为各事故现场图像划分的区域数量,/>表示为预先配置的显示亮度对应的权值因子;
C3、将各事故现场图像对应的重点区域与背景区域显示对比指数与有效显示对比指数进行对比,利用显示预处理判断模型,得到各事故现场图像对应的显示预处理判断结果/>,/>表示为有效显示对比指数;
C4、将需要进行显示预处理的事故现场图像作为特定事故现场图像,进而调整特定事故现场图像对应重点区域的显示亮度和显示饱和度,使其高于背景区域的显示亮度和显示饱和度;
所述从初步事故现场视频中识别出关键物体,并进行特殊标记具体识别方式为:基于事故当事人人脸图像和事故当事车辆车牌号从初步事故现场视频分解得到的各事故现场图像中进行捕捉识别,若某事故现场图像中未能捕捉到事故当事人人脸图像或事故当事车辆车牌号,则不对该事故现场图像进行特殊标记,反之则将该事故现场图像中捕捉到的事故当事人人脸图像或事故当事车辆作为关键物体,并在该事故现场图像中对关键物体进行特殊标记。
2.根据权利要求1所述的一种视频图像分析处理方法,其特征在于:所述摄像指征包括摄像范围角、摄像焦距和摄像亮度,其中摄像范围角的具体调控过程如下:
B1、在执法记录仪内设置跟随摄像头、定位仪和测距仪,并由跟随摄像头对事故当事人人脸图像进行记录锁定,此时统计锁定的事故当事人数量;
B2、若事故当事人只有一个,则由定位仪实时定位事故当事人当前所处位置,进而由执法记录仪中的跟随摄像头实时调整摄像范围角实现对事故当事人的跟随拍摄,若事故当事人为双方,则依据各事故当事人人脸图像由定位仪实时定位各事故当事人当前所处位置,进而通过线段分别连接双方事故当事人当前所处位置和执法记录仪所在位置,形成摄像三角形,与此同时利用测距仪分别测量各事故当事人当前所处位置与执法记录仪所在位置之间的距离、双方事故当事人当前所处位置之间的距离,得到摄像三角形的三边距离,并利用公式,计算出执法记录仪中跟随摄像头的适配摄像范围角,其中a、b、c分别表示为每个事故当事人当前所处位置与执法记录仪所在位置之间的距离、双方事故当事人当前所处位置之间的距离,此时调控违法记录中跟随摄像头的摄像范围角,使其满足适配摄像范围角。
3.根据权利要求2所述的一种视频图像分析处理方法,其特征在于:所述摄像焦距的具体调控过程如下:
(1)若事故当事人只有一个,则直接由测距仪测量事故当事人当前所处位置与执法记录仪所在位置之间的距离,作为拍摄主体距离;
获取跟随摄像头的型号,进而将拍摄主体距离与摄像信息库中各种型号摄像头在各种拍摄主体距离下的有效摄像焦距进行匹配,从中匹配出执法记录仪中跟随摄像头的有效摄像焦距,由此调整跟随摄像头的摄像焦距,使其满足有效摄像焦距;
(2)若事故当事人为双方,此时利用测距仪分别测量各事故当事人当前所处位置与执法记录仪所在位置之间的距离,作为双方拍摄主体距离;
将双方拍摄主体距离进行作差对比,通过公式计算出双方拍摄主体距离差异度/>,/>表示为双光拍摄主体距离对比差,/>表示为参考距离对比差,e表示为自然常数;
将双方拍摄主体距离差异度与设置的限定距离差异度进行对比,并利用表达式得到有效拍摄主体距离/>,其中/>、/>分别表示为双方拍摄主体距离,/>表示为设置的限定距离差异度;
将有效拍摄主体距离与摄像信息库中各种型号摄像头在各种拍摄主体距离下的有效摄像焦距进行匹配,从中匹配出执法记录仪中跟随摄像头的有效摄像焦距,由此调整跟随摄像头的摄像焦距,使其满足有效摄像焦距。
4.根据权利要求2所述的一种视频图像分析处理方法,其特征在于:所述摄像亮度对应的调控过程如下:
在执法记录仪内设置光线传感器,由其在执法记录仪开启过程中实时监测外界环境光线亮度;
将跟随摄像头的型号与摄像信息库中各种型号摄像头对应的适宜摄像外界环境光线亮度行比对,从中获取跟随摄像头对应的适宜摄像外界环境光线亮度;
将外界环境光线亮度与跟随摄像头对应的适宜摄像外界环境光线亮度进行对比,计算摄像亮度调控需求指数,式中p表示为外界环境光线亮度,/>表示为跟随摄像头对应的适宜摄像外界环境光线亮度;
将摄像亮度调控需求指数导入摄像亮度调控判断算法,分析得到执法记录仪内跟随摄像头的摄像亮度调控判断结果/>,其中/>表示为预先配置的摄像亮度调控需求指数最低限值。
5.根据权利要求1所述的一种视频图像分析处理方法,其特征在于:所述显示参数包括显示亮度和显示饱和度,其中显示参数采集的具体实现过程如下:
将事故现场视频按照设定的视频侦数进行分解,得到若干事故现场图像;
从各事故现场图像中统计存在的呈现元素数量,并提取各呈现元素的边界轮廓,提取的边界轮廓将事故现场图像划分为若干区域,其中各区域对应一个呈现元素;
对各事故现场图像中划分的各区域进行显示参数采集。
6.一种视频图像分析处理设备,其特征在于,所述设备包括处理器、存储器及通信总线,所述存储器上存储有可被所述处理器执行的计算机可读程序;
所述通信总线实现处理器与存储器之间的连接通信;
所述处理器执行所述计算机可读程序时实现如权利要求1-5任意一项所述的一种视频图像分析处理方法中的步骤。
7.一种存储介质,其特征在于:所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1-5任意一项所述的一种视频图像分析处理方法中的步骤。
CN202310705170.9A 2023-06-14 2023-06-14 一种视频图像分析处理方法、设备及存储介质 Active CN116668804B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310705170.9A CN116668804B (zh) 2023-06-14 2023-06-14 一种视频图像分析处理方法、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310705170.9A CN116668804B (zh) 2023-06-14 2023-06-14 一种视频图像分析处理方法、设备及存储介质

Publications (2)

Publication Number Publication Date
CN116668804A CN116668804A (zh) 2023-08-29
CN116668804B true CN116668804B (zh) 2023-12-22

Family

ID=87720554

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310705170.9A Active CN116668804B (zh) 2023-06-14 2023-06-14 一种视频图像分析处理方法、设备及存储介质

Country Status (1)

Country Link
CN (1) CN116668804B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100835085B1 (ko) * 2008-02-11 2008-06-10 (주)한진전력 무인교통사고기록장치를 이용한 실시간 교통사고처리시스템 및 방법
CN103945186A (zh) * 2014-04-14 2014-07-23 李兴海 巡警执法现场多角度视频信息联网记录装置
CN104284081A (zh) * 2014-05-14 2015-01-14 深圳警翼数码科技有限公司 一种执法记录仪及其控制方法
CN105070045A (zh) * 2015-08-20 2015-11-18 南京安通杰科技实业有限公司 一种交通事故处理方法及其系统
CN105357443A (zh) * 2015-11-28 2016-02-24 绵阳少军信息科技有限公司 一种用于执法车辆的一体化自主对焦车载摄像模块及其视频记录系统
CN106296118A (zh) * 2016-08-03 2017-01-04 深圳市永兴元科技有限公司 基于图像识别的车辆定损方法及装置
CN108024057A (zh) * 2017-11-30 2018-05-11 广东欧珀移动通信有限公司 背景虚化处理方法、装置及设备
CN114339062A (zh) * 2021-12-29 2022-04-12 盯盯拍(深圳)技术股份有限公司 一种提升特定区域图像清晰度的方法、装置及电子设备
WO2022113196A1 (ja) * 2020-11-25 2022-06-02 日本電気株式会社 交通イベント再現システム、サーバ、交通イベント再現方法、及び非一時的なコンピュータ可読媒体
CN115665354A (zh) * 2022-07-18 2023-01-31 周凯 一种基于区块链的执法现场数据存证的方法及系统

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100835085B1 (ko) * 2008-02-11 2008-06-10 (주)한진전력 무인교통사고기록장치를 이용한 실시간 교통사고처리시스템 및 방법
CN103945186A (zh) * 2014-04-14 2014-07-23 李兴海 巡警执法现场多角度视频信息联网记录装置
CN104284081A (zh) * 2014-05-14 2015-01-14 深圳警翼数码科技有限公司 一种执法记录仪及其控制方法
CN105070045A (zh) * 2015-08-20 2015-11-18 南京安通杰科技实业有限公司 一种交通事故处理方法及其系统
CN105357443A (zh) * 2015-11-28 2016-02-24 绵阳少军信息科技有限公司 一种用于执法车辆的一体化自主对焦车载摄像模块及其视频记录系统
CN106296118A (zh) * 2016-08-03 2017-01-04 深圳市永兴元科技有限公司 基于图像识别的车辆定损方法及装置
CN108024057A (zh) * 2017-11-30 2018-05-11 广东欧珀移动通信有限公司 背景虚化处理方法、装置及设备
WO2022113196A1 (ja) * 2020-11-25 2022-06-02 日本電気株式会社 交通イベント再現システム、サーバ、交通イベント再現方法、及び非一時的なコンピュータ可読媒体
CN114339062A (zh) * 2021-12-29 2022-04-12 盯盯拍(深圳)技术股份有限公司 一种提升特定区域图像清晰度的方法、装置及电子设备
CN115665354A (zh) * 2022-07-18 2023-01-31 周凯 一种基于区块链的执法现场数据存证的方法及系统

Also Published As

Publication number Publication date
CN116668804A (zh) 2023-08-29

Similar Documents

Publication Publication Date Title
CN106952477B (zh) 基于多相机图像联合处理的路侧停车管理方法
CN109271921B (zh) 一种多光谱成像的智能识别方法及系统
CN108319926A (zh) 一种工地现场的安全帽佩戴检测系统及检测方法
US20160260306A1 (en) Method and device for automated early detection of forest fires by means of optical detection of smoke clouds
CN110660222A (zh) 一种智能环保道路黑烟车辆电子抓拍系统
CN106503622A (zh) 一种车辆反跟踪方法及装置
CN113516076A (zh) 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法
CN114785960B (zh) 一种基于无线传输技术的360度全景行车记录仪系统
CN112287827A (zh) 基于智慧灯杆的复杂环境行人口罩佩戴检测方法及系统
CN105608209B (zh) 一种视频标注方法和视频标注装置
CN103929592A (zh) 全方位智能监控设备及方法
CN107241572A (zh) 学员实训视频追踪评价系统
CN112637550B (zh) 多路4k准实时拼接视频的ptz动目标跟踪方法
CN106585530A (zh) 一种车载抓拍装置及其控制方法
CN116416579B (zh) 一种园区安防监控存储信息智能分析管理系统
CN115546742A (zh) 一种基于单目热红外摄像头的铁轨异物识别方法及系统
CN106372566A (zh) 一种基于数字标牌紧急疏散系统及方法
CN117408757B (zh) 一种用于广告投放效果监测的智能评估系统
CN115035668A (zh) 一种基于视频监控的社区安防系统
CN116668804B (zh) 一种视频图像分析处理方法、设备及存储介质
CN109274945A (zh) 一种自适应进行图像真彩色还原的方法及系统
CN108073873A (zh) 基于高清智能摄像机的人脸检测与识别系统
CN210515650U (zh) 一种智能环保道路黑烟车辆电子抓拍系统
CN105225254B (zh) 一种自动追踪局部目标的曝光方法及系统
CN114969435A (zh) 智慧安防的监控查看系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant