CN113408380A - 视频图像调整方法、设备及存储介质 - Google Patents
视频图像调整方法、设备及存储介质 Download PDFInfo
- Publication number
- CN113408380A CN113408380A CN202110634259.1A CN202110634259A CN113408380A CN 113408380 A CN113408380 A CN 113408380A CN 202110634259 A CN202110634259 A CN 202110634259A CN 113408380 A CN113408380 A CN 113408380A
- Authority
- CN
- China
- Prior art keywords
- image
- video image
- monitoring object
- display data
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012544 monitoring process Methods 0.000 claims abstract description 130
- 238000012545 processing Methods 0.000 claims abstract description 54
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 238000004422 calculation algorithm Methods 0.000 claims description 28
- 238000013527 convolutional neural network Methods 0.000 claims description 15
- 238000003062 neural network model Methods 0.000 claims description 15
- 230000000306 recurrent effect Effects 0.000 claims description 10
- 238000012806 monitoring device Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 6
- 238000005286 illumination Methods 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 13
- 238000004590 computer program Methods 0.000 description 7
- 238000012937 correction Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明公开了视频图像调整方法、设备及存储介质,该方法包括:接收待处理的视频图像,并对视频图像进行预处理得到预处理图像;提取预处理图像的特征图像信息;根据特征图像信息确定图像显示数据;根据图像显示数据调整视频图像,并输出调整后的视频图像。本发明实现了每帧视频图像的实时处理,不仅提高了视频图像的处理速度,同时还有利于在不同的光照条件下提高拍摄的监控目标的清晰度。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种视频图像调整方法、设备及存储介质。
背景技术
目前的安防摄像机中用于处理监控图像的图像信号处理算法和参数计算单元是分开设置在主控芯片以及外置的嵌入式神经网络处理器(NPU)上的,在进行监控图像处理时,需要主控芯片和嵌入式神经网络处理器需要进行大量的数据传输来完成监控图像的处理,从而导致监控图像处理滞后,影响图像处理的速度。
发明内容
本申请实施例通过提供一种视频图像调整方法、设备及存储介质,旨在解决目前的安防摄像机中的图像信号处理算法和参数计算单元是分开设置的,导致监控图像处理滞后,影响图像处理的速度的技术问题。
本申请实施例提供了一种视频图像调整方法,所述视频图像调整方法,包括:
接收待处理的视频图像,并对所述视频图像进行预处理得到预处理图像;
提取所述预处理图像的特征图像信息,所述特征图像信息包括监控场景的目标场景类型和目标监控对象;
根据所述特征图像信息确定图像显示数据;所述图像显示数据至少包括图像调整算法和图像调整参数;
根据所述图像显示数据调整所述视频图像,并输出调整后的所述视频图像。
在一实施例中,所述对所述视频图像进行预处理得到预处理图像的步骤,包括:
获取预设图像显示数据;所述预设图像显示数据至少包括默认图像调整算法和默认图像调整参数;
根据所述预设图像显示数据调整所述视频图像,得到所述预处理图像。
在一实施例中,所述获取预设图像显示数据的步骤,包括:
获取所述待处理的视频图像对应的曝光参数;
获取与所述曝光参数匹配的预设图像显示数据。
在一实施例中,所述提取所述预处理图像的特征图像信息的步骤,包括:
对所述预处理图像进行归一化处理,得到归一化图像;
采用预设的卷积神经网络模型对所述归一化图像进行卷积处理,得到所述特征图像;
根据所述特征图像确定所述特征图像信息。
在一实施例中,所述根据所述特征图像确定所述特征图像信息的步骤,包括:
采用所述卷积神经网络模型中的场景类型识别模型识别所述特征图像,以得到第一识别结果;
根据所述第一识别结果确定所述目标场景类型;
采用所述卷积神经网络模型中的对象识别模型识别所述特征图像,以得到第二识别结果;
根据所述第二识别结果确定所述目标监控对象。
在一实施例中,所述根据所述第一识别结果确定所述场景类型的步骤,包括:
获取所述第一识别结果中包括的参考场景类型和所述参考场景类型对应的预测概率,所述参考场景类型在预设的场景类型中选取得到;
将最大预测概率对应的参考场景类型确定为所述目标场景类型。
在一实施例中,所述根据所述第二识别结果确定所述监控对象的步骤,包括:
获取采集所述视频图像时接收到的采集指令;
获取所述采集指令中携带的第一监控对象类型;
比对所述第一监控对象类型与所述第二识别结果中的待识别监控对象的第二监控对象类型;
获取所述第二监控对象类型中与所述第一监控对象类型匹配的所述第二监控对象类型;
将匹配的所述第二监控对象类型对应的所述待识别监控对象作为所述目标监控对象。
在一实施例中,所述根据所述特征图像信息确定图像显示数据的步骤,包括:
将所述目标场景类型和所述目标监控对象输入预设的循环神经网络模型,以输出与所述目标场景类型和所述目标监控对象匹配的所述图像显示数据。
此外,为实现上述目的,本发明还提供了一种监控设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的视频图像调整程序,所述视频图像调整程序被所述处理器执行时实现上述的视频图像调整方法的步骤。
此外,为实现上述目的,本发明还提供了一种存储介质,其上存储有视频图像调整程序,所述视频图像调整程序被处理器执行时实现上述的视频图像调整方法的步骤。
本申请实施例中提供的一种视频图像调整方法、设备及存储介质的技术方案,至少具有如下技术效果或优点:
本申请由于采用了通过对接收到的待处理的视频图像进行预处理得到预处理图像之后,提取预处理图像的特征图像信息,并根据特征图像信息确定出的图像显示数据对视频图像进行调整,以输出调整后的视频图像的技术方案,解决了目前的安防摄像机中的图像信号处理算法和参数计算单元是分开设置的,导致监控图像处理滞后,影响图像处理的速度的技术问题,实现了每帧视频图像的实时处理,不仅提高了视频图像的处理速度,同时还有利于在不同的光照条件下提高拍摄的监控目标的清晰度。
附图说明
图1为本发明实施例方案涉及的硬件运行环境的结构示意图;
图2为本发明视频图像调整方法第一实施例的流程示意图;
图3为图像信号处理算法和本发明处理同一张视频图像的一种对照示意图;
图4为图像信号处理算法和本发明处理同一张视频图像的又一种对照示意图;
图5为本发明视频图像调整方法第二实施例的流程示意图;
图6为本发明视频图像调整方法第三实施例的流程示意图。
具体实施方式
为了更好的理解上述技术方案,下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
如图1所示,图1为本发明实施例方案涉及的硬件运行环境的结构示意图。
需要说明的是,图1即可为监控设备的硬件运行环境的结构示意图。
如图1所示,该监控设备可以包括:处理器1001,例如CPU,存储器1005,用户接口1003,网络接口1004,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的监控设备结构并不构成对监控设备限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及视频图像调整程序。其中,操作系统是管理和控制监控设备硬件和软件资源的程序,视频图像调整程序以及其它软件或程序的运行。
在图1所示的监控设备中,用户接口1003主要用于连接终端,与终端进行数据通信;网络接口1004主要用于后台服务器,与后台服务器进行数据通信;处理器1001可以用于调用存储器1005中存储的视频图像调整程序。
在本实施例中,监控设备包括:存储器1005、处理器1001及存储在所述存储器1005上并可在所述处理器上运行的视频图像调整程序,其中:
处理器1001调用存储器1005中存储的视频图像调整程序时,执行以下操作:
接收待处理的视频图像,并对所述视频图像进行预处理得到预处理图像;
提取所述预处理图像的特征图像信息,所述特征图像信息包括监控场景的目标场景类型和目标监控对象;
根据所述特征图像信息确定图像显示数据;所述图像显示数据至少包括图像调整算法和图像调整参数;
根据所述图像显示数据调整所述视频图像,并输出调整后的所述视频图像。
处理器1001调用存储器1005中存储的视频图像调整程序时,还执行以下操作:
获取预设图像显示数据;所述预设图像显示数据至少包括默认图像调整算法和默认图像调整参数;
根据所述预设图像显示数据调整所述视频图像,得到所述预处理图像。
处理器1001调用存储器1005中存储的视频图像调整程序时,还执行以下操作:
获取所述待处理的视频图像对应的曝光参数;
获取与所述曝光参数匹配的预设图像显示数据。
处理器1001调用存储器1005中存储的视频图像调整程序时,还执行以下操作:
对所述预处理图像进行归一化处理,得到归一化图像;
采用预设的卷积神经网络模型对所述归一化图像进行卷积处理,得到所述特征图像;
根据所述特征图像确定所述特征图像信息。
处理器1001调用存储器1005中存储的视频图像调整程序时,还执行以下操作:
采用所述卷积神经网络模型中的场景类型识别模型识别所述特征图像,以得到第一识别结果;
根据所述第一识别结果确定所述目标场景类型;
采用所述卷积神经网络模型中的对象识别模型识别所述特征图像,以得到第二识别结果;
根据所述第二识别结果确定所述目标监控对象。
处理器1001调用存储器1005中存储的视频图像调整程序时,还执行以下操作:
获取所述第一识别结果中包括的参考场景类型和所述参考场景类型对应的预测概率,所述参考场景类型在预设的场景类型中选取得到;
将最大预测概率对应的参考场景类型确定为所述目标场景类型。
处理器1001调用存储器1005中存储的视频图像调整程序时,还执行以下操作:
获取采集所述视频图像时接收到的采集指令;
获取所述采集指令中携带的第一监控对象类型;
比对所述第一监控对象类型与所述第二识别结果中的待识别监控对象的第二监控对象类型;
获取所述第二监控对象类型中与所述第一监控对象类型匹配的所述第二监控对象类型;
将匹配的所述第二监控对象类型对应的所述待识别监控对象作为所述目标监控对象。
处理器1001调用存储器1005中存储的视频图像调整程序时,还执行以下操作:
将所述目标场景类型和所述目标监控对象输入预设的循环神经网络模型,以输出与所述目标场景类型和所述目标监控对象匹配的所述图像显示数据。
本发明实施例提供了视频图像调整方法的实施例,需要说明的是,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,该视频图像调整方法应用于监控设备,例如监控摄像头。其中,监控设备通过该视频图像调整方法对采集到的视频图像进行处理,并输出处理后的视频图像。具体的是,所述监控设备至少包括图像传感器、图像处理单元、主控单元(CPU)、视频数据编码单元以及显示单元。图像传感器用于采集视频图像,图像处理单元包括智能图像处理器和神经网络处理单元(NPU),智能图像处理器是将图像信号处理器(Image Signal Processing,简称ISP)和人工智能(AI)集成在一起后形成的。ISP与NPU之间通过内部总线进行数据交换和调用,无需CPU的参与。AI与ISP进行交互时,需要通过预设的固件进行交互,本申请将预设的固件称为AIISP固件。进一步的,监控设备的系统在启动时,CPU通过调用API接口将AIISP固件加载到图像处理单元中,通过图像处理单元运行AIISP固件以使AI与ISP进行交互。在监控设备的系统运行起来之后,图像传感器将采集到的视频图像传输给图像处理单元,图像处理单元对视频图像进行两次处理,其中,图像处理单元中的智能图像处理器先对接收到的视频图像进行第一次处理,NPU根据第一次处理后的视频图像得到用于对视频图像进行调整的图像显示数据,进而智能图像处理器采用图像显示数据对接收到的视频图像进行第二次处理,然后输出第二次处理的视频图像给CPU,CPU将接收到的视频图像处理后,发送给视频数据编码单元进行编码处理,显示单元将来自视频数据编码单元发送的视频图像进行显示。
如图2所示,在本申请的第一实施例中,本申请的视频图像调整方法,包括以下步骤:
步骤S210:接收待处理的视频图像,并对所述视频图像进行预处理得到预处理图像。
在本实施例中,待处理的视频图像是未经过处理的原始视频图像,其是由图像传感器采集得到的。在接收到待处理的视频图像之后,对待处理的视频图像进行预处理,实际也可以理解为对待处理的视频图像进行第一次处理,从而得到预处理图像。其中,对待处理的视频图像的处理包括有对待处理的视频图像进行黑电平补偿、镜头矫正、坏像素矫正、颜色插值、噪声去除、白平衡矫正、色彩矫正、伽马(gamma)矫正、色彩空间转换(RGB空间转换为YUV空间)等。
步骤S220:提取所述预处理图像的特征图像信息。
在本实施例中,对待处理的视频图像进行预处理之后,可以消除图像中无关的信息,增强有关信息的真实性和可检测性以及最大限度地简化图像中的数据。得到预处理图像之后,从预处理图像中提取特征图像信息,所述特征图像信息包括监控场景的目标场景类型和目标监控对象,监控场景是指采集视频图像时所对应的环境信息,例如天气(晴天、阴天)、光照、光线方向等,例如,当监控场景是晴天时,监控场景的目标场景类型是晴天类型。目标监控对象是指移动或静止的事物,例如行人、动物、植物、车辆等。
步骤S230:根据所述特征图像信息确定图像显示数据。
在本实施例中,预先储存了不同的特征图像信息,以及与每个特征图像信息关联的图像显示数据,该图像显示数据至少包括图像调整算法和图像调整参数,其中,图像调整算法例如自动曝光算法、自动白平衡算法等,图像调整参数例如伽马值、亮度值、对比度值、锐度值等参数。在提取到特征图像信息之后,从存储的特征图像信息中查找与提取到的特征图像信息相同的特征图像信息,从而查找到与提取到的特征图像信息匹配的图像显示数据。
进一步的,步骤S230根据特征图像信息确定图像显示数据具体是:将目标场景类型和目标监控对象输入预设的循环神经网络模型,以输出与目标场景类型和目标监控对象匹配的图像显示数据。其中,循环神经网络模型是通过大量的预设的监控场景、监控对象、图像调整算法和图像调整参数训练得到的,其用于得到用于调整待处理的视频图像的图像显示数据。循环神经网络模型训练完成之后,循环神经网络模型中存储有不同预设的监控场景和监控对象以及预设的监控场景和监控对象关联的图像调整算法和图像调整参数。其中,存储的预设的监控场景和监控对象记为模型特征图像信息,那么,预设的监控场景和监控对象关联的图像调整算法和图像调整参数记为模型图像显示数据。具体的,将目标场景类型和目标监控对象输入预设的循环神经网络模型,循环神经网络模型通过模型特征图像信息与目标场景类型和目标监控对象进行比对,获取与目标场景类型和目标监控对象相同的模型特征图像信息,获取到与目标场景类型和目标监控对象相同的模型特征图像信息之后,根据模型特征图像信息和模型图像显示数据的关联关系,与获取到的模型特征图像信息关联的模型图像显示数据也就可以得到,即也就得到了与目标场景类型和目标监控对象匹配的图像显示数据。
步骤S240:根据所述图像显示数据调整所述视频图像,并输出调整后的所述视频图像。
在本实施例中,得到与提取到的特征图像信息匹配的图像显示数据之后,采用该图像显示数据重新对待处理的视频图像进行调整。例如,使用自动曝光算法增加或者减小待处理的视频图像的曝光参数,使用伽马值、亮度值、对比度值对应增加或者减小待处理的视频图像当前的伽马值、亮度、对比度。在对待处理的视频图像重新调整完成之后,输出调整后的待处理的视频图像进行显示。如图3和图4所示,图3是典型逆光场景下采集的待处理的视频图像,图A是标准的图像信号处理算法对待处理的视频图像处理后的结果,其中,由于在视频图像采集时有大范围的高光照度区域,通过标准的图像信号处理算法对待处理的视频图像处理后,出现了室外清晰,室内以及人脸区域欠曝的情况,无法清楚的显示人脸信息的情况。图像B是本发明对同一待处理的视频图像处理后得到的结果,在提取到人脸信息之后,通过得到的图像显示数据对待处理的视频图像进行调整后,突显出了人脸信息,提高了人脸显示的清晰度。图4是典型低光照度场景下采集的待处理的视频图像,图A是标准的图像信号处理算法对待处理的视频图像处理后的结果,其中,由于采集场景光照度低,监控设备通过开启补光灯进行视频图像采集,从而在经过标准的图像信号处理算法对待处理的视频图像处理后,出现整体图像清楚,但车辆车牌区域因反光导致无法看清的情况。图像B是本发明对同一待处理的视频图像处理后得到的结果,在提取到车牌信息之后,通过得到的图像显示数据对待处理的视频图像进行调整后,降低了整体图像的亮度,但突显出了车牌信息,提高了车牌显示的清晰度。
进一步的,本实施例是对同一张待处理的视频图像进行调整,然后输出显示。举例说明,例如,当前采集的待处理的视频图像是第1帧视频图像,根据步骤S210-步骤240,首先,对第1帧视频图像进行预处理,得到第1帧预处理图像,接着提取第1帧预处理图像中的特征图像信息,记为第1特征图像信息,接着将第1特征图像信息输入循环神经网络模型,得到与第1特征图像信息匹配的图像显示数据,记为第1图像显示数据,然后根据第1图像显示数据调整第1帧视频图像,进而输出调整后的第1帧视频图像进行显示。需要说明的是,后续处理第2帧视频图像、第3帧视频图像、......、第n帧视频图像的过程均与第1帧视频图像的处理过程相同。当当前帧视频图像调整完成后,由当前帧视频图像所得到的图像显示数据,会被由下一帧视频图像得到的图像显示数据进行覆盖。
本实施例根据上述技术方案,由于采用了接收待处理的视频图像,并对视频图像进行预处理得到预处理图像,提取预处理图像的特征图像信息,根据特征图像信息确定图像显示数据,根据图像显示数据调整视频图像,并输出调整后的视频图像的技术手段,实现了每帧视频图像的实时处理,不仅提高了视频图像的处理速度,同时还有利于在不同的光照条件下提高拍摄的监控目标的清晰度。
如图5所示,在本申请的第二实施例中,步骤S210中所述的对所述视频图像进行预处理得到预处理图像的步骤,包括:
步骤S211:获取预设图像显示数据。
在本实施例中,预设图像显示数据至少包括默认图像调整算法和默认图像调整参数,默认图像调整算法例如白平衡算法、色彩矫正算法、去噪算法等,默认图像调整参数例如对比度、亮度、伽马值等参数。该预设图像显示数据是预先储存的,其作为对待处理的视频图像进行预处理时所使用的处理数据。
具体的,获取预设图像显示数据时,需要获取待处理的视频图像对应的曝光参数,然后再获取与曝光参数匹配的预设图像显示数据。其中,在储存预设图像显示数据时,将采集待处理的视频图像时使用的曝光参数与预设图像显示数据进行了关联,即不同的曝光参数关联不同的预设图像显示数据,在采集处理的视频图像时,会记录每一张待处理的视频图像所对应的曝光参数,并根据当前采集待处理的视频图像时的曝光参数,获取与其关联的预设图像显示数据。
步骤S212:根据所述预设图像显示数据调整所述视频图像,得到所述预处理图像。
在本实施例中,获取与曝光参数关联的预设图像显示数据之后,使用该预设图像显示数据调整待处理的视频图像,例如使用色彩矫正算法进行待处理的视频图像的色彩矫正,使用去噪算法进行待处理的视频图像去噪,使用对比度增大或减小待处理的视频图像的对比度,如待处理的视频图像的对比度小于预设图像显示数据中的对比度,则增大待处理的视频图像的对比度至预设图像显示数据中的对比度,等等。使用预设图像显示数据调整完成待处理的视频图像之后,得到预处理图像。
本实施例根据上述技术方案,通过对待处理的视频图像进行预处理,有利于增强图像中有关信息的真实性和可检测性。
如图6所示,在本申请的第三实施例中,步骤S220包括以下步骤:
步骤S221:对所述预处理图像进行归一化处理,得到归一化图像。
在本实施例中,得到预处理图像后,对预处理图像进行归一化处理,即将待处理的视频图像转换成相应的唯一标准形式,从而得到归一化图像。
步骤S222:采用预设的卷积神经网络模型对所述归一化图像进行卷积处理,得到所述特征图像。
在本实施例中,所述卷积神经网络模型是通过大量预设的监控场景和监控对象训练得到,其用于识别归一化图像。其中,卷积神经网络模型训练完成之后,卷积神经网络模型中存储有不同的预设信息,每组预设信息包括预设的监控场景、场景类型以及监控对象。具体的,采用卷积神经网络模型对归一化图像进行n×n卷积,从而得到特征图像,其中,n为设定值。
步骤S223:根据所述特征图像确定所述特征图像信息。
在本实施例中,卷积神经网络模型包括场景类型识别模型、对象识别模型,场景类型识别模型用于识别得到目标场景类型,对象识别模型用于识别得到目标监控对象。
具体的,根据特征图像确定特征图像信息包括以下步骤:
步骤(1):采用所述卷积神经网络模型中的场景类型识别模型识别所述特征图像,以得到第一识别结果。
采用卷积神经网络模型中的场景类型识别模型识别特征图像,即将特征图像输入场景类型识别模型,场景类型识别模型通过不同预设的监控场景和场景类型与特征图像进行对比,得到第一识别结果,第一识别结果包括多组通过特征图像对比得到的比对信息,每组比对信息包括预设的场景类型以及场景类型对应的预测概率,本实施例将每组比对信息中预设的场景类型称为参考场景类型,即每组比对信息的参考场景类型在预设的场景类型中选取得到,预设的场景类型对应的预测概率即为参考场景类型对应的预测概率。
步骤(2):根据所述第一识别结果确定所述目标场景类型。
具体的,获取第一识别结果中包括的参考场景类型和参考场景类型对应的预测概率,将最大预测概率对应的参考场景类型确定为目标场景类型。例如,第一识别结果包括比对信息1、比对信息2和比对信息3,其中,比对信息1中的参考场景类型对应的预测概率是P1,比对信息1中的参考场景类型对应的预测概率是P2,比对信息1中的参考场景类型对应的预测概率是P3,比对这三组比对信息中参考场景类型对应的预测概率的大小后,P1<P2<P3,那么,将P3对应的参考场景类型确定为目标场景类型。
步骤(3):采用所述卷积神经网络模型中的对象识别模型识别所述特征图像,以得到第二识别结果。
采用卷积神经网络模型中的对象识别模型识别特征图像,即将特征图像输入对象识别模型,对象识别模型通过不同预设的监控对象与特征图像进行对比,得到第二识别结果,第二识别结果也包括多组通过特征图像对比得到的比对信息,且每组比对信息包括预设的监控对象以及监控对象的监控对象类型。
步骤(4):根据所述第二识别结果确定所述目标监控对象。
具体的,根据第二识别结果确定目标监控对象具体如下:
获取采集视频图像时接收到的采集指令;
获取采集指令中携带的第一监控对象类型;
比对第一监控对象类型与第二识别结果中的待识别监控对象的第二监控对象类型;
获取第二监控对象类型中与第一监控对象类型匹配的第二监控对象类型;
将匹配的第二监控对象类型对应的待识别监控对象作为目标监控对象。
其中,采集指令通过用户输入,用户根据实际的监控需要设置采集指令,例如,用户需要通过监控设备监控行人,那么用户需要输入携带监控行人相关信息的采集指令,监控设备根据接收到的采集指令进行视频图像采集。具体的,得到第二识别结果之后,先获取采集指令,以及采集指令中携带的第一监控对象类型。例如,如果采集指令携带的是监控行人的相关信息,那么第一监控对象类型为行人。为了便于理解,本实施例将每组比对信息中预设的监控对象称为待识别监控对象,预设的监控对象的监控对象类型称为第二监控对象类型。在获取到第一监控对象类型之后,将第一监控对象类型与第二识别结果中的待识别监控对象的第二监控对象类型进行比对,如果第二识别结果中存在与第一监控对象类型相同的第二监控对象类型,则确定第二识别结果中存在与第一监控对象类型匹配的第二监控对象类型,获取与第一监控对象类型匹配的第二监控对象类型,然后将与第一监控对象类型匹配的第二监控对象类型对应的待识别监控对象作为目标监控对象。
本实施例通过采用上述对预处理图像进行归一化处理,得到归一化图像,采用预设的卷积神经网络模型对归一化图像进行卷积处理,得到特征图像,根据特征图像确定特征图像信息的技术方案,提高了获取目标场景类型和目标监控对象的准确性。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
应当注意的是,在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的部件或步骤。位于部件之前的单词“一”或“一个”不排除存在多个这样的部件。本发明可以借助于包括有若干不同部件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种视频图像调整方法,其特征在于,所述视频图像调整方法,包括:
接收待处理的视频图像,并对所述视频图像进行预处理得到预处理图像;
提取所述预处理图像的特征图像信息,所述特征图像信息包括监控场景的目标场景类型和目标监控对象;
根据所述特征图像信息确定图像显示数据;所述图像显示数据至少包括图像调整算法和图像调整参数;
根据所述图像显示数据调整所述视频图像,并输出调整后的所述视频图像。
2.如权利要求1所述的视频图像调整方法,其特征在于,所述对所述视频图像进行预处理得到预处理图像的步骤,包括:
获取预设图像显示数据;所述预设图像显示数据至少包括默认图像调整算法和默认图像调整参数;
根据所述预设图像显示数据调整所述视频图像,得到所述预处理图像。
3.如权利要求2所述的视频图像调整方法,其特征在于,所述获取预设图像显示数据的步骤,包括:
获取所述待处理的视频图像对应的曝光参数;
获取与所述曝光参数匹配的预设图像显示数据。
4.如权利要求2所述的视频图像调整方法,其特征在于,所述提取所述预处理图像的特征图像信息的步骤,包括:
对所述预处理图像进行归一化处理,得到归一化图像;
采用预设的卷积神经网络模型对所述归一化图像进行卷积处理,得到所述特征图像;
根据所述特征图像确定所述特征图像信息。
5.如权利要求4所述的视频图像调整方法,其特征在于,所述根据所述特征图像确定所述特征图像信息的步骤,包括:
采用所述卷积神经网络模型中的场景类型识别模型识别所述特征图像,以得到第一识别结果;
根据所述第一识别结果确定所述目标场景类型;
采用所述卷积神经网络模型中的对象识别模型识别所述特征图像,以得到第二识别结果;
根据所述第二识别结果确定所述目标监控对象。
6.如权利要求5所述的视频图像调整方法,其特征在于,所述根据所述第一识别结果确定所述场景类型的步骤,包括:
获取所述第一识别结果中包括的参考场景类型和所述参考场景类型对应的预测概率,所述参考场景类型在预设的场景类型中选取得到;
将最大预测概率对应的参考场景类型确定为所述目标场景类型。
7.如权利要求5所述的视频图像调整方法,其特征在于,所述根据所述第二识别结果确定所述监控对象的步骤,包括:
获取采集所述视频图像时接收到的采集指令;
获取所述采集指令中携带的第一监控对象类型;
比对所述第一监控对象类型与所述第二识别结果中的待识别监控对象的第二监控对象类型;
获取所述第二监控对象类型中与所述第一监控对象类型匹配的所述第二监控对象类型;
将匹配的所述第二监控对象类型对应的所述待识别监控对象作为所述目标监控对象。
8.如权利要求1所述的视频图像调整方法,其特征在于,所述根据所述特征图像信息确定图像显示数据的步骤,包括:
将所述目标场景类型和所述目标监控对象输入预设的循环神经网络模型,以输出与所述目标场景类型和所述目标监控对象匹配的所述图像显示数据。
9.一种监控设备,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的视频图像调整程序,所述视频图像调整程序被所述处理器执行时实现如权利要求1-8中任一项所述的视频图像调整方法的步骤。
10.一种存储介质,其特征在于,其上存储有视频图像调整程序,所述视频图像调整程序被处理器执行时实现权利要求1-8中任一项所述的视频图像调整方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110634259.1A CN113408380B (zh) | 2021-06-07 | 2021-06-07 | 视频图像调整方法、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110634259.1A CN113408380B (zh) | 2021-06-07 | 2021-06-07 | 视频图像调整方法、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113408380A true CN113408380A (zh) | 2021-09-17 |
CN113408380B CN113408380B (zh) | 2023-07-07 |
Family
ID=77676793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110634259.1A Active CN113408380B (zh) | 2021-06-07 | 2021-06-07 | 视频图像调整方法、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113408380B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114170553A (zh) * | 2021-12-09 | 2022-03-11 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置和电子设备 |
CN114222188A (zh) * | 2021-12-28 | 2022-03-22 | 深圳小湃科技有限公司 | 基于旋转屏的全屏显示方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108900769A (zh) * | 2018-07-16 | 2018-11-27 | Oppo广东移动通信有限公司 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
CN111416950A (zh) * | 2020-03-26 | 2020-07-14 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、存储介质及电子设备 |
CN113177438A (zh) * | 2021-04-02 | 2021-07-27 | 深圳小湃科技有限公司 | 图像处理方法、设备及存储介质 |
-
2021
- 2021-06-07 CN CN202110634259.1A patent/CN113408380B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108900769A (zh) * | 2018-07-16 | 2018-11-27 | Oppo广东移动通信有限公司 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
CN111416950A (zh) * | 2020-03-26 | 2020-07-14 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、存储介质及电子设备 |
CN113177438A (zh) * | 2021-04-02 | 2021-07-27 | 深圳小湃科技有限公司 | 图像处理方法、设备及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114170553A (zh) * | 2021-12-09 | 2022-03-11 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置和电子设备 |
CN114222188A (zh) * | 2021-12-28 | 2022-03-22 | 深圳小湃科技有限公司 | 基于旋转屏的全屏显示方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113408380B (zh) | 2023-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110572573B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
WO2019233355A1 (en) | Method and apparatus for training, classification model, mobile terminal, and readable storage medium | |
US11700457B2 (en) | Flicker mitigation via image signal processing | |
CN113766125B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
CN108805103A (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN110580428A (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
CN104200431A (zh) | 图像灰度化的处理方法及处理装置 | |
CN110610463A (zh) | 一种图像增强方法及装置 | |
US11301711B2 (en) | Systems and methods for enhancing real-time image recognition | |
CN111770285B (zh) | 一种曝光亮度控制方法、装置、电子设备和存储介质 | |
CN113408380B (zh) | 视频图像调整方法、设备及存储介质 | |
CN112818732B (zh) | 一种图像处理方法、装置、计算机设备和存储介质 | |
CN112819858B (zh) | 基于视频增强的目标跟踪方法、装置、设备及存储介质 | |
CN113781421A (zh) | 基于水下的目标识别方法、装置及系统 | |
CN113297880A (zh) | 指纹采集方法、装置、终端及存储介质 | |
CN108881740B (zh) | 图像方法和装置、电子设备、计算机可读存储介质 | |
CN112949423B (zh) | 物体识别方法、物体识别装置及机器人 | |
CN115334250A (zh) | 一种图像处理方法、装置及电子设备 | |
CN114821318A (zh) | 一种基于Darkdet-Net的低照度小样本目标检测方法 | |
CN113177438B (zh) | 图像处理方法、设备及存储介质 | |
CN112907454A (zh) | 获取图像的方法、装置、计算机设备和存储介质 | |
CN113177438A (zh) | 图像处理方法、设备及存储介质 | |
CN111147693A (zh) | 一种全尺寸拍照图像的降噪方法及装置 | |
CN114663842B (zh) | 图像融合处理方法、装置、电子设备及存储介质 | |
CN117440108B (zh) | 一种用于液态镜头的成像优化方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |