CN110222577A - 一种目标监控方法、装置、计算机设备及存储介质 - Google Patents
一种目标监控方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN110222577A CN110222577A CN201910378346.8A CN201910378346A CN110222577A CN 110222577 A CN110222577 A CN 110222577A CN 201910378346 A CN201910378346 A CN 201910378346A CN 110222577 A CN110222577 A CN 110222577A
- Authority
- CN
- China
- Prior art keywords
- behavioural characteristic
- target monitoring
- frame picture
- monitoring method
- identity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000012544 monitoring process Methods 0.000 title claims abstract description 59
- 238000003860 storage Methods 0.000 title claims abstract description 17
- 230000003542 behavioural effect Effects 0.000 claims abstract description 94
- 230000000694 effects Effects 0.000 claims abstract description 24
- 238000012806 monitoring device Methods 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims abstract description 14
- 238000012549 training Methods 0.000 claims description 59
- 238000013527 convolutional neural network Methods 0.000 claims description 38
- 230000006870 function Effects 0.000 claims description 38
- 238000004590 computer program Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 15
- 230000006399 behavior Effects 0.000 claims description 11
- 230000037406 food intake Effects 0.000 claims description 8
- 235000012631 food intake Nutrition 0.000 claims description 8
- 230000001815 facial effect Effects 0.000 claims description 7
- 239000000203 mixture Substances 0.000 claims description 6
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 241000283690 Bos taurus Species 0.000 description 47
- 239000008267 milk Substances 0.000 description 41
- 210000004080 milk Anatomy 0.000 description 41
- 235000013336 milk Nutrition 0.000 description 41
- 230000009471 action Effects 0.000 description 17
- 238000013528 artificial neural network Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 230000035945 sensitivity Effects 0.000 description 9
- 238000000605 extraction Methods 0.000 description 7
- 235000013305 food Nutrition 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000000474 nursing effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000017105 transposition Effects 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种目标监控方法,首先获取目标群体的媒体信息,目标群体包括N个目标物,N为正整数;再利用预设的身份识别模型对媒体信息进行识别确定所述目标群体中每个目标物的身份;然后根据每个目标物的身份从媒体信息中选取每个目标物对应的帧画面集;通过预设的行为识别模型对帧画面集进行识别确定帧画面集的每一帧画面中目标物的行为特征;如果目标物的行为特征满足预设条件,则执行对应的策略计算目标物的行为特征满足预设条件的持续时间。可自动识别出视频中目标物的身份并进行区分,对每个目标物的行为习惯进行监控管理。本发明还公开了一种目标监控装置、相关计算机设备及存储介质。
Description
技术领域
本申请涉及图像识别领域,尤其涉及一种目标监控方法、装置、计算机设备及存储介质。
背景技术
近年来卷积神经网络(Convolutional Neural Network,CNN)在多个方向持续发力,CNN是一种模仿人类大脑神经网络的前馈神经网络,在语音识别、图像识别、运动分析、自然语言处理甚至脑电波分析方面均有很大突破,尤其是在图像识别方面有着重大的革命意义。
人类和动物的大脑很容易识别物体,当我们看着像树木、汽车的东西时,我们通常能够很快判断它是什么,那是因为我们从一出生开始就一直在不断地学习当中。同样,计算机为了识别图像也需要进行大量的学习和训练,经过不断地探索和创新,人们提出了一种利用CNN建立有效的识别模型进行图像识别的方法,基本原理是:利用大量的训练样本和算法对于CNN不断的进行学习和训练,根据CNN得到的预测结果和真实结果建立误差函数,通过对该误差函数的处理可更新卷积神经网络中的权重和偏置等参数,以此建立识别模型,在应用时将测试样本输入该识别模型时会自动输出对应的识别结果。
CNN通过学习、训练建立的识别模型可以对生物体进行识别,例如当输入具有奶牛的图片或视频时该模型可以自动识别出目标物是奶牛,但是现有的视频监控仅能对目标进行浅层次地观察,并不能进一步通过视频进行数据收集、分析行为等过程,无法对目标物的行为习惯进行记录和分析。
发明内容
本申请实施例提供一种目标监控方法、装置、计算机设备及存储介质,可自动识别出视频中目标物的身份并进行区分,通过视频监控对每个目标物的行为习惯进行实时记录和智能分析,大大增强了视频监控的实用性。
一种目标监控方法,包括:
获取目标群体的媒体信息,所述目标群体包括N个目标物,N为正整数;
利用预设的身份识别模型对所述媒体信息进行识别确定所述目标群体中每个目标物的身份;
根据每个目标物的身份从所述媒体信息中选取每个目标物对应的帧画面集;
通过预设的行为识别模型对所述帧画面集进行识别确定所述帧画面集的每一帧画面中目标物的行为特征;
若所述目标物的行为特征满足预设条件,则执行对应的策略计算所述目标物的行为特征满足预设条件的持续时间。
一种目标监控装置,包括:
获取模块,用于获取目标群体的媒体信息,所述目标群体包括N个目标物,所述N为正整数;
识别模块,用于利用身份识别模型对所述媒体信息进行识别确定所述目标群体中每个目标物的身份信息;
处理模块,用于根据每个目标物的身份信息从所述媒体信息中确定每个目标物对应的帧画面集;
所述处理模块,还用于通过行为识别模型对所述帧画面集进行识别确定每一帧画面中目标物的行为特征;
计算模块,用于若所述目标物的行为特征满足预设条件,则执行对应的策略计算所述目标物的行为特征满足预设条件的持续时间。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述目标监控方法。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述目标监控方法。
上述目标监控方法、装置、计算机设备及存储介质中,在获取目标群体的媒体信息之后,利用预设的身份识别模型对所述媒体信息进行识别确定所述目标群体中每个目标物的身份,然后根据每个目标物的身份从所述媒体信息中选取每个目标物对应的帧画面集,通过预设的行为识别模型对所述帧画面集进行识别确定所述帧画面集的每一帧画面中目标物的行为特征,如果所述目标物的行为特征满足预设条件,则执行对应的策略计算所述目标物的行为特征满足预设条件的持续时间。通过上述方式可识别视频中每个目标物的身份,并可通过视频对其行为特征进行智能化监控和管理,分析视频中每个目标物的行为特征,并自动收集有关数据,体现了视频监控的智能性和实用性。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例中目标监控方法的一应用环境示意图;
图2是本申请一实施例中目标监控方法的一流程图;
图3是本申请一实施例中目标监控方法的另一流程图;
图4是本申请一实施例中目标监控方法的另一流程图;
图5是本申请一实施例中目标监控方法的另一流程图;
图6是本申请一实施例中目标监控方法的另一流程图;
图7是本申请一实施例中目标监控方法的另一流程图;
图8是本申请一实施例中目标监控装置的一模块示意图;
图9是本申请一实施例中目标监控装置的另一模块示意图;
图10是本申请一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供的目标监控方法可应用于如图1所示的应用环境中。其中,客户端(计算机设备)与服务端通过网络进行通信,用于识别视频中的目标物,并通过视频对其行为习惯进行监控和管理,具体应用到农场时可用来监控每头奶牛的进食量,以便根据该数据更好地制定喂养计划,达到科学饲养的目的。具体地,计算机设备负责获取获取目标群体的媒体信息,所述目标群体包括N个目标物,N为正整数,服务端利用预设的身份识别模型对所述媒体信息进行识别确定所述目标群体中每个目标物的身份,再根据每个目标物的身份从媒体信息中选取每个目标物对应的帧画面集,服务端还可通过预设的行为识别模型对所述帧画面集进行识别确定所述帧画面集的每一帧画面中目标物的行为特征,如果所述目标物的行为特征满足预设条件,则执行对应的策略计算所述目标物的行为特征满足预设条件的持续时间。需要说明的是,客户端可安装在但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备上。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图2所示,提供一种目标监控方法,以该方法应用在图1中的服务端为例进行说明,包括:
S10:获取目标群体的媒体信息,所述目标群体包括N个目标物,N为正整数;
目标群体是指需要监控的某一类生物或者物体,目标群体包括N个目标物,每一个目标物之间具有一定相同的生物特征,但同时又是世界上唯一的个体,本申请可通过获取的视频或多张照片对不同的目标物进行识别区分。相应地,针对于目标群体的媒体信息包括的形式可以是视频或图片,对于动态的视频,可通过抓帧的方式提取多张静态的帧画面进行识别。
S20:利用预设的身份识别模型对所述媒体信息进行识别确定所述目标群体中每个目标物的身份;
识别模型是利用卷积神经网络通过大量训练样本得到的能够自动识别图像的模型。利用卷积神经网络训练的原理是:输入层的数据经过多个神经元传递后输出,输出值应尽量接近给出的期望值,如果输出值与期望值之间的误差较大,则反复修改神经元的权值,直到输出值与期望值的误差在可接受范围内。在对大量训练样本进行训练之后得到合适的权值和偏置等参数,通过这些参数建立识别能力较强的识别模型,这些模型便具备了识别图像的能力。
具体地,身份识别模型利用深度神经网络进行身份识别时首先提取图像中的面部特征,对生物的面部特征进行特征提取时一般包含两部分,一种是纹理信息,比如奶牛脸部的花纹,另一种是高层次的抽象特征,例如轮廓等。深度神经网络除了具有特征提取的功能,还具有分类器的作用,即将提取的特征映射到提前设定的标签上,例如通过提取的某头奶牛的面部特征可对应到该奶牛的身份,此时,每头奶牛的身份是作为一个分类的标签。
上述过程描述的是通过目标物的面部特征识别身份的过程,该过程可利用DEEPID深度神经网络具体实现。可以理解的是,在进行面部特征识别前,为了得到更好地提取面部特征,可以先对图像进行结构检测,从媒体信息中着重标注出每一目标物的面部,以便后续更好地确定目标群体中每个目标物的身份,身份的表现方式可以是名字,例如每个人的名字可以唯一指代其自身,也可以通过标识码指代目标物的身份,例如标识码0001可以用来指代某一具体目标物。其中,目标物的结构检测模型具体可采用YOLOV3深度神经网络实现。
S30:根据每个目标物的身份从所述媒体信息中选取每个目标物对应的帧画面集;
本申请实施例中的目标监控方法在确定每个目标物的身份后,根据目标物的不同将媒体信息进行分类,即将媒体信息划分成多个目标物的帧画面集,如果要对某个具体的目标物进行监控,那么从媒体信息中挑选出属于该目标物的帧画面集,在此帧画面集中根据该目标物的行为特征作后续相应处理。
无论是采用视频拍摄还是图像拍照的方式,每个镜头或照片不可能完整记录下所有目标物及其对应的特征,例如第一张和第八张照片中可能由于某种原因无法拍摄到0001号目标物,如果直接进行身份识别,那么很可能会发生遗漏目标物的情况,而本申请实施例中的目标监控方法会首先根据确定的身份信息提取与该目标物对应的所有帧画面,组成帧画面集,通过检测识别帧画面集实现对指定目标物的实时监控。
S40:通过预设的行为识别模型对所述帧画面集进行识别确定所述帧画面集每一帧画面中目标物的行为特征;
行为识别模型可通过InceptionV4神经网络进行训练获得,具体利用目标物的行为特征与是否正在进食的预测结果之间的关系进行训练,如果目标物的行为特征符合进食动作的设定条件,那么得到的预测结果应为正在进食,反之如不符合,则预测结果为未进食。
建立行为识别模型后,在通过步骤S30得到的帧画面集的范围内利用行为识别模型识别目标物的行为特征,例如识别动物的行为是正在进食或者是未进食。
在判断目标物的行为特征是否满足条件例如奶牛是否正在进食时,可根据多方面的判断标准进行判定,例如可以先判断与奶牛嘴巴接触的物体是否是食物,如果确定是食物,接下来可以判断奶牛与食物接触的动作是否符合预设好的进食动作,若是,则可以确定该奶牛正在进食。需要说明的是,本方案对奶牛进食动作的判定标准不作具体限定。
S50:若所述目标物的行为特征满足预设条件,则执行对应的策略计算所述目标物的行为特征满足预设条件的持续时间。
进一步地,对执行相应策略过程中获取的有关数据可进行显示,例如计算出行为特征满足预设条件的持续时间后可将其显示在监测系统的终端显示屏上,方便用户进行查看。
本申请中行为特征是指目标物的动作或者状态,例如目标物正在进食或未进食,目标物是处于睡眠状态还是运动状态等等。不同的行为特征对应有不同的预设条件,适用不同的执行策略。假设本申请的目标监控方法被适用于监控奶牛的进食量,那么对应的预设条件可以设为进食动作,相应的执行策略则为计算奶牛的进食时间。通过上述方式,该目标监控方法可通过视频识别目标物的身份、准确分析其行为特征,并在该过程中自动记录与目标物有关的数据,体现了视频监控的智能性。
在一个实施例中,如图3所示,若所述目标物的行为特征满足预设条件,则执行对应的策略计算所述目标物的行为特征满足预设条件的持续时间,包括:
S501:若所述目标物的行为特征满足进食状态的条件,则记录当前帧画面发生的第一时间点;
预设条件以进食状态为例进行说明,如果通过行为识别模型检测出目标物的动作属于正在进食的范围,那么执行策略是用来计算目标物的进食时间,进食状态的持续时间可以根据检测到进食动作时帧画面的时间点以及状态发生变化的时间点共同确定。
S502:若所述第一时间点之后所述目标物的行为特征发生变化,则记录第二时间点,所述第二时间点为所述目标物的行为特征发生变化的时间点;
第一时间点是目标物的行为特征满足预设条件的时间点,即奶牛开始进食的时间点,以该时间点为起点开始计时计算进行状态持续的时间,当目标物的行为特征发生变化即说明奶牛的进食动作停止了,因此需要记录行为特征发生变化时帧画面的时间点。
S503:根据所述第二时间点和所述第一时间点之间的时间差计算所述目标物的进食时间。
当行为识别模型检测出目标物的进食状态发生变化时,通过记录帧画面的时间点计算进食状态持续的时间。以具体的应用场景为例进行说明:当行为识别模型根据有关0001号奶牛的帧画面集检测出该奶牛在第三帧画面时发生进食动作时,记录该画面出现的时间点,并且在随后的第二十帧画面中检测到该奶牛的进食状态发生变化(即表明此时进食动作停止)时,记录当前帧画面的时间点即第二时间点,该次进食状态持续的时间为第二时间点和第一时间点之间的时间差。
若检测到奶牛发生进食动作后一直保持着进食的状态,那么就以发生进食动作时帧画面的时间点为起点开始计时,获得所述目标物的进食状态持续时间。
需要说明的是,除了可以采用实时记录帧画面时间点的方式计算进食时间,还可以通过帧画面之间的间隔时间计算进食时间,首选需要提前设置好固定的帧画面间隔时间,假设每一帧画面之间的间隔时间固定是0.1秒,视频信息中识别码为0001的奶牛的进食动作从第三帧画面持续到第五十帧画面,在设定好固定的时间间隔之后只需记录进食动作持续存在的帧画面即可,根据上述数据可以计算出进食时间为4.7秒。
本申请的目标监控方法可通过视频识别目标物的行为特征,并自动计算行为特征持续的时间例如分别记录每个目标物进食动作持续的时间,可将这些进食时间显示在终端屏幕上,这些数据可以客观地反映目标物的生活习性乃至健康状态。
在一个实施例中,如图4所示,若所述目标物的行为特征满足预设条件,则执行对应的策略计算所述目标物的行为特征满足预设条件的持续时间之后,所述目标监控方法还包括:
S504:若所述行为识别模型识别出所述目标物的行为特征再次满足所述预设条件,则计算此次目标物的进食时间,并调取所述目标物的历史进食时间;
奶牛的进食状态一直都在进食和未进食之间不断地发生变化,本申请的目标监控方法可追踪奶牛的进食行为,对奶牛的进食时间进行累加。以行为识别模型检测到奶牛的进食动作为起点,以奶牛进食状态的变化为终结点,计算一次进食时间,在检测到该奶牛又发生进食时,计算此次目标物的进食时间并调取关于该奶牛的历史进食时间。
S505:将所述此次目标物的进食时间与所述历史进食时间相加得到更新的进食时间;
在行为识别模型再次检测到奶牛的进食动作时,会先调取的历史进食时间,然后在此基础上继续累加此次进食时间得到更新的进食时间,并且累加得到的更新进食时间将作为下次计算的历史进食时间。
S506:根据所述更新的进食时间计算所述目标物的进食量。
在此之前,我们会利用大量样本进行统计,得出单位时间内的进食量,然后根据获取到的进食时间和单位时间内的进食量推算奶牛的进食量。
本申请实施例中的目标监控方法会根据目标物的身份对生物进行针对性地实时监控,并对其进行专门的管理,建立单独的管理信息,例如记录关于某头奶牛从头至尾的进食时间,可在奶牛进食状态发生变化时,及时更新进食时间,更准确地对该奶牛的生活数据进行监控。
在一个实施例中,如图5所示,在所述获取目标群体的媒体信息之前,所述目标监控方法还包括:
S60:获取训练样本,所述训练样本包含的信息为训练样本中的每个目标物的面部特征和行为参数;
获取训练样本的目的是为了对卷积神经网络进行训练,使其具备学习能力。本申请中的训练样本是针对奶牛的视频或通过视频提取的一系列图像等,视频或图像中记录的内容是多头奶牛的面部特征和行为参数,其中的行为参数是指能够描述或者反映目标物的动作类别的的参数,例如,若目标物的行为参数预设的动作类别的参数阈值区间内,则可以根据该行为参数确定目标物的动作类别,本实施例中的动作类别可以为正在进食和非进食。首先将对应于每头牛的图像进行分类,例如将某一头奶牛的图像从中筛选出来组成一图像集,有关另一头奶牛的图像组成另一图像集。
S70:将所述训练样本通过卷积神经网络进行处理得到预测结果,所述预测结果为通过所述卷积神经网络预测得到的每个目标物的身份以及行为特征;
卷积神经网络的结构和工作原理如下:
卷积神经网络具有一定的识别能力,而对卷积神经网络进行训练的最终目的是为了将该模型中的各项参数进行优化得到一个识别能力更强、准确率更高的识别模型。其中,可以将模型中的初始学习率设置为0.005,批大小batchsize设置为64,学习率反映的是误差在反向传递时占的权重,即误差参与计算过程中的比例,而batchsize是指每一次训练的样本数量,该指标将影响到模型的优化程度和速度。
卷积神经网络是一种前馈神经网络,它的人工神经元可以响应周围单元,从而进行大型图像的处理。常见的卷积神经网络的结构包括输入层、卷积层、池化层和全连接层,当图像进入到输入层时,计算机会将图像理解为若干个像素矩阵,卷积层通过感受野与输入图像的卷积来进行特征的提取,具体的,假设输入图像是7*7*3,3是输入图像的深度,假设卷积层是一个5*5*3的filter即感受野,需要说明的是:感受野的深度必须和输入图像的深度相同,一个filter与输入图像利用预设步长(假设是1)的移动进行卷积可以得到一个3*3*1的特征图,实际上还可以通过多层卷积层得到更深层次的特征图。
卷积层还有一个特性就是“权值共享”原则,即一个特征图上每个神经元对应的权值参数被每个神经元共享,这样所需的权值参数就会大大减少。通俗的说,所谓的权值共享就是用一个感受野去扫给出的输入图片,感受野里面的数就叫权重,这张图每个位置都是被同样的感受野扫描的,所以权重是一样的,也就是所谓的共享。
池化层的作用是对输入的特征图进行压缩,一方面使特征图变小,简化网络计算复杂度;一方面进行特征压缩,提取主要特征。池化操作最常用的一种是max Pooling,maxPooling是将感受野与输入的图像进行卷积,然后通过在每一个区域中寻找最大值来提取主要特征,例如用一个感受野与输入图像进行卷积,以步长进行移动,得到的第一个矩阵包含的元素为那么该区域中的最大值是6,以此最大值来提取特征。
全连接层可用来连接所有特征,并使用激活函数来做图像识别的分类。
需要说明的是,卷积层+池化层的组合可以在隐藏层出现很多次,次数可以根据模型的需要而来。当然也可以灵活使用卷积层+卷积层,或者卷积层+卷积层+池化层的组合,这些在构建模型的时候没有限制。
将获取的训练样本通过卷积神经网络各层,经过特征的提取和分类器的分类,会输出对应的分类结果即预测结果,即把带有某个目标物的视频或图像化成像素矩阵的方式输入到卷积神经网络中,通过与识别要素相关的函数和模型处理得到反映目标物的身份和行为特征的预测结果。
S80:根据所述训练样本对应的真实结果和所述预测结果得到构建误差函数;
预测结果是指利用卷积神经网络得到的反映奶牛身份和行为动作的信息,并不一定跟实际的真实情况完全符合,例如输入一段视频或连续的图像,那么我们期望输出的(或者说是真实结果)是标识码为0002号奶牛,但是可能利用识别模型识别出来的却是标识码为0003的奶牛,这就是预测结果跟期望输出结果的差距,该差距可以用误差函数或损失函数来表示。
损失函数分为经验风险损失函数和结构风险损失函数。经验风险损失函数指预测结果和实际结果的差别,结构风险损失函数是指经验风险损失函数加上正则项。通常误差函数的表达式可如下定义:
其中,前面的均值项表示经验风险函数,L表示误差函数,误差函数有很多很多,比如平方损失函数,指数损失函数等等。平方损失的损失函数可表示为:指数损失函数的标准形式为:L(Y,f(X))=exp(-Yf(X))。
仅仅有误差函数作为目标函数是不够的,因此加入的第二项就是正则项(regularizer)或惩罚项(penalty term),λ代表了正则项的影响因子,λ取值越大,模型复杂度对最终代价函数的惩罚力度就越大。
我们的目的就是要想法设法让这个数学模型在训练集中得到的结果与实际结果,带入到我们先前定义的误差函数中,让这个误差函数的值越小。
S90:采用梯度下降法和反向传导法则通过所述误差函数更新所述卷积神经网络的权重和偏置;
本实施例中,在构建合适的误差函数后,采用基于批量梯度下降的反向传播算法更新网络参数,并将更新后的卷积神经网络作为识别模型。具体地,反向传播法则的原理是根据每一层的实际情况进行后向传播,对网络参数进行更新。在反向传播过程中,首先对输出层的权值和偏置进行计算,采用误差函数分别对权值W和偏置b进行求偏导的运算,能够得到公共的因子,即输出层的灵敏度δL(L表示输出层),由该灵敏度δL能够依次求出第l层的灵敏度δl,根据δl求得神经网络中第l层的梯度,再利用梯度更新卷积神经网络的权值和偏置。上述内容体现了从输出层往前推导的反向传播过程。
其中,具体地根据后一层的灵敏度求前一层灵敏度的公式如下:
若当前为全连接层,则其中,Wl+1表示l+1层的权值,T表示矩阵转置运算,δl+1表示l+1层的灵敏度,表示两个矩阵对应元素相乘的运算(Hadamard积),σ表示激活函数,zl表示在计算前向传播过程中未采用激活函数处理前的输出。
若当前为卷积层,则其中,*表示卷积运算,rot180表示将矩阵翻转180度的运算,公式中其余参数的含义参见上文度参数含义进行解释的内容,在此不再赘述。
若当前为池化层,则upsample表示上采样运算。
然后根据灵敏度δl更新层l的权值和偏置的公式如下所示:
关于更新权值:
在卷积神经网络的模型结构中,卷积层和全连接层是有权值和偏置的,而池化层则没有权值和偏置,因此:
卷积层中更新权值的公式为:
全连接层中更新权值的公式为:
其中,Wl'表示更新后的权值,Wl表示更新前的权值,α表示学习率,m表示图像识别的训练样本,i表示输入的第i个训练样本,δi,l表示输入的第i个样本在第l层的灵敏度,ai ,l-1表示输入的第i个样本在第l-1层的输出,T表示矩阵转置运算,*表示卷积运算,rot180表示将矩阵翻转180度的运算;
关于更新偏置:
在卷积层中更新偏置的公式为:
在全连接层中更新偏置的公式为:
其中,bl'表示更新后的偏置,bl表示更新前的偏置,α表示学习率,m表示图像识别的训练样本,i表示输入的第i个样本,δi,l表示输入的第i个样本在第l层的灵敏度,(u,v)是指进行卷积运算时获取的卷积特征图中每一个卷积特征图中的小块位置。
S100:根据所述卷积神经网络中更新的权重和更新的偏置得到识别模型,所述识别模型包括身份识别模型和行为识别模型。
本实施例中,在构建合适的误差函数后,采用基于批量梯度下降的反向传播算法更新权值和偏置等网络参数,并将更新后的卷积神经网络作为识别模型,参数更新的卷积神经网络识别能力更强,准确率更高。
在一个实施例中,如图6所示,获取训练样本之后,将所述训练样本通过卷积神经网络进行处理得到预测结果之前,所述目标监控方法还包括:
S101:给所述训练样本中的每个目标物分配唯一的身份标识码,所述身份标识码用于区别和表明所述目标物的身份;
本申请实施例获取的视频或一系列相关图像中包含多个目标物,需要对每个目标物分配唯一的身份标识码以区分每个目标物的身份。利用每个目标物的外貌特征和身份(标识码)的关系对卷积神经网络进行训练得到优化的识别模型,在监控系统投入使用时,可以通过识别模型对视频或图像中的目标物进行识别区分,对其进行一系列的跟踪处理、收集数据,实现对目标物的单独管理和实时监控。
S102:为所述目标物的行为特征分配标志位,所述行为特征包括正在进食和未进食,所述标志位用于区分所述目标物正在进食和未进食的行为特征。
本申请实施例中的行为识别模型可以识别目标物的行为特征,在针对行为特征进行训练时可以为其分配对应的标志位,例如为奶牛的进食动作分配标志位1,奶牛未进食时分配标志位0等等。训练目标物行为特征和对应标志位的关系是为了让能够自动识别目标物的动作,以此达到监控目标物行为习惯的目的。
本申请实施例利用卷积神经网络等图像识别模型对拍摄收集的视频或图像进行识别,自动区分每个目标物的身份,识别目标物的行为,并根据其各自的身份建立单独的管理信息,如此一来可以有针对性地对目标物进行跟踪管理,因物而异地制定喂养计划,提高产能。
在一实施例中,如图7所示,所述获取训练样本之后,所述目标监控方法还包括:
S103:从所述训练样本中针对每个目标物确定对应的图像集;
训练样本是具有多个目标物的多张图像,为了对每个目标物进行针对性地训练,监控系统需要从中挑选出针对某个目标物的多张备选图像,例如希望针对0001号奶牛的图像进行训练时,从训练样本中挑选出有关0001号奶牛的图像。
S104:从所述图像集中选取满足预设条件的图像组成待训练图像集,所述预设条件用于限定待训练图像的数量和挑选比例,所述挑选比例为针对目标物的行为特征设置的比例。
步骤102中已对目标物的行为特征进行了分类,并为不同行为特征分配了对应的标志位,监控系统可以从图像集中根据行为特征比例提取一定数量的图像组成待训练图像集。具体地,假设需挑选出关于0001号奶牛的待训练图像8张,控制正在进食和未进食的照片数量比例即行为特征比例是1:1,那么根据待训练图像的数量和行为特征比例应从0001号奶牛的图像集中选取4张奶牛正在进食的照片和4张未进食的照片组成待训练图像集。
本申请中对用于训练卷积神经网络的训练样本具有数量和内容上的要求,数量合理的训练样本有助于提高训练的效率,另一方面,根据目标物的行为特征设定挑选比例有助于筛选出有用的待训练图像,更具针对性地进行训练,提高训练的针对性和效率,在提高了训练效率和准确性的基础上,识别模型的图像识别能力也会大大提高。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
在一实施例中,提供一种目标监控装置,该目标监控装置与上述实施例中目标监控方法一一对应。如图8所示,该目标监控装置包括获取模块10、识别模块20、处理模块30、计算模块40。各功能模块详细说明如下:
获取模块10,用于获取目标群体的媒体信息,所述目标群体包括N个目标物,所述N为正整数;
识别模块20,用于利用身份识别模型对所述媒体信息进行识别确定所述目标群体中每个目标物的身份信息;
处理模块30,用于根据每个目标物的身份信息从所述媒体信息中确定每个目标物对应的帧画面集;
所述处理模块30,还用于通过行为识别模型对所述帧画面集进行识别确定每一帧画面中目标物的行为特征;
计算模块40,用于若所述目标物的行为特征满足预设条件,则执行对应的策略计算所述目标物的行为特征满足预设条件的持续时间。
优选地,如图9所示,所述计算模块40记录单元401和计算单元402:
记录单元401,用于当所述目标物的行为特征满足进食状态的条件时,记录当前帧画面发生的第一时间点;
所述记录单元401,还用于当所述第一时间点之后所述目标物的行为特征发生变化时,记录第二时间点,所述第二时间点为所述目标物的行为特征发生变化的时间点;
计算单元402,用于根据所述第二时间点和所述第一时间点之间的时间差计算所述目标物的进食时间。
优选地,所述目标监控装置还包括:
所述计算模块,还用于若所述行为识别模型识别出所述目标物的行为特征再次满足所述预设条件,则计算此次目标物的进食时间并调取所述目标物的历史进食时间;
所述计算模块,还用于将所述此次目标物的进食时间与所述历史进食时间相加得到更新的进食时间;
所述计算模块,还用于根据所述更新的进食时间计算所述目标物的进食量。
优选地,所述目标监控装置还包括:
所述获取模块,还用于获取训练样本,所述训练样本包含的信息为训练样本中的每个目标物的面部特征和行为参数;
预测模块,用于将所述训练样本通过卷积神经网络进行处理得到预测结果,所述预测结果为通过所述卷积神经网络预测得到的每个目标物的身份以及行为;
处理模块,用于根据所述训练样本对应的真实结果和所述预测结果确定误差函数;
更新模块,用于采用梯度下降法和反向传导法则通过所述误差函数更新所述卷积神经网络的权重和偏置;
所述处理模块,还用于根据所述更新的权重和偏置得到识别模型,所述识别模型包括身份识别模型和行为识别模型。
优选地,所述目标监控装置还包括:
分配模块,用于给所述训练样本中的每个目标物分配唯一的身份标识码,所述身份标识码用于区别和表明所述目标物的身份;
所述分配模块,还用于为所述目标物的行为特征分配标志位,所述行为特征包括正在进食和未进食,所述标志位用于区分所述目标物正在进食和未进食的行为特征。
优选地,所述目标监控装置还包括:
所述处理模块,还用于从所述训练样本中针对每个目标物确定对应的图像集;
挑选模块,用于从所述图像集中选取满足预设条件的图像组成待训练图像集,所述预设条件用于限定待训练图像的数量和挑选比例,所述挑选比例为针对目标物的行为特征设置的比例。
关于目标监控装置的具体限定可以参见上文中对于目标监控方法的限定,在此不再赘述。上述目标监控装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图10所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储上述实施例中的目标监控方法中使用到的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种目标监控方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中的目标监控方法。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行上述实施例中的目标监控方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种目标监控方法,其特征在于,包括:
获取目标群体的媒体信息,所述目标群体包括N个目标物,N为正整数;
利用预设的身份识别模型对所述媒体信息进行识别确定所述目标群体中每个目标物的身份;
根据每个目标物的身份从所述媒体信息中选取每个目标物对应的帧画面集;
通过预设的行为识别模型对所述帧画面集进行识别确定所述帧画面集的每一帧画面中目标物的行为特征;
若所述目标物的行为特征满足预设条件,则执行对应的策略计算所述目标物的行为特征满足预设条件的持续时间。
2.如权利要求1所述的目标监控方法,其特征在于,所述若所述目标物的行为特征满足预设条件,则执行对应的策略计算所述目标物的行为特征满足预设条件的持续时间,包括:
若所述目标物的行为特征满足进食状态的条件,则记录当前帧画面发生的第一时间点;
若所述第一时间点之后所述目标物的行为特征发生变化,则记录第二时间点,所述第二时间点为所述目标物的行为特征发生变化的时间点;
根据所述第二时间点和所述第一时间点之间的时间差计算所述目标物的进食时间。
3.如权利要求2所述的目标监控方法,其特征在于,所述若所述目标物的行为特征满足预设条件,则执行对应的策略计算所述目标物的行为特征满足预设条件的持续时间之后,所述目标监控方法还包括:
若所述行为识别模型识别出所述目标物的行为特征再次满足所述预设条件,则计算此次目标物的进食时间并调取所述目标物的历史进食时间;
将所述此次目标物的进食时间与所述历史进食时间相加得到更新的进食时间;
根据所述更新的进食时间计算所述目标物的进食量。
4.如权利要求1所述的目标监控方法,其特征在于,在所述获取目标群体的媒体信息之前,所述目标监控方法还包括:
获取训练样本,所述训练样本包含的信息为训练样本中的每个目标物的面部特征和行为参数;
将所述训练样本通过卷积神经网络进行处理得到预测结果,所述预测结果为通过所述卷积神经网络预测得到的每个目标物的身份以及行为特征;
根据所述训练样本对应的真实结果和所述预测结果构建误差函数;
采用梯度下降法和反向传导法则通过所述误差函数更新所述卷积神经网络的权重和偏置;
根据所述卷积神经网络中更新的权重和更新的偏置得到识别模型,所述识别模型包括身份识别模型和行为识别模型。
5.如权利要求4所述的目标监控方法,其特征在于,所述获取训练样本之后,所述将所述训练样本通过卷积神经网络进行处理得到预测结果之前,所述目标监控方法还包括:
给所述训练样本中的每个目标物分配唯一的身份标识码,所述身份标识码用于区别和表明所述目标物的身份;
为所述目标物的行为特征分配标志位,所述行为特征包括正在进食和未进食,所述标志位用于区分所述目标物正在进食和未进食的行为特征。
6.如权利要求4所述的目标监控方法,其特征在于,所述获取训练样本之后,所述目标监控方法还包括:
从所述训练样本中针对每个目标物确定对应的图像集;
从所述图像集中选取满足预设条件的图像组成待训练图像集,所述预设条件用于限定待训练图像的数量和挑选比例,所述挑选比例为针对目标物的行为特征设置的比例。
7.一种目标监控装置,其特征在于,包括:
获取模块,用于获取目标群体的媒体信息,所述目标群体包括N个目标物,所述N为正整数;
识别模块,用于利用身份识别模型对所述媒体信息进行识别确定所述目标群体中每个目标物的身份信息;
处理模块,用于根据每个目标物的身份信息从所述媒体信息中确定每个目标物对应的帧画面集;
所述处理模块,还用于通过行为识别模型对所述帧画面集进行识别确定每一帧画面中目标物的行为特征;
计算模块,用于若所述目标物的行为特征满足预设条件,则执行对应的策略计算所述目标物的行为特征满足预设条件的持续时间。
8.如权利要求7所述的目标监控装置,其特征在于,所述计算模块包括:
记录单元,用于当所述目标物的行为特征满足进食状态的条件时,记录当前帧画面发生的第一时间点;
所述记录单元,还用于当所述第一时间点之后所述目标物的行为特征发生变化时,记录第二时间点,所述第二时间点为所述目标物的行为特征发生变化的时间点;
计算单元,用于根据所述第二时间点和所述第一时间点之间的时间差计算所述目标物的进食时间。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述目标监控方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述的目标监控方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910378346.8A CN110222577A (zh) | 2019-05-08 | 2019-05-08 | 一种目标监控方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910378346.8A CN110222577A (zh) | 2019-05-08 | 2019-05-08 | 一种目标监控方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110222577A true CN110222577A (zh) | 2019-09-10 |
Family
ID=67820835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910378346.8A Pending CN110222577A (zh) | 2019-05-08 | 2019-05-08 | 一种目标监控方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110222577A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553718A (zh) * | 2020-05-18 | 2020-08-18 | 江苏华丽智能科技股份有限公司 | 一种交互式远程监管方法及装置 |
CN111887175A (zh) * | 2020-07-30 | 2020-11-06 | 北京小米移动软件有限公司 | 喂食监测方法、装置、设备及存储介质 |
CN112016740A (zh) * | 2020-08-18 | 2020-12-01 | 北京海益同展信息科技有限公司 | 数据处理方法和装置 |
CN112218046A (zh) * | 2020-09-27 | 2021-01-12 | 杭州海康威视系统技术有限公司 | 对象监控方法及装置 |
CN112613543A (zh) * | 2020-12-15 | 2021-04-06 | 重庆紫光华山智安科技有限公司 | 增强策略验证方法、装置、电子设备及存储介质 |
CN112700344A (zh) * | 2020-12-22 | 2021-04-23 | 成都睿畜电子科技有限公司 | 一种养殖场管理方法、装置、介质及设备 |
CN114418203A (zh) * | 2022-01-06 | 2022-04-29 | 清华大学 | 基于碰撞关键特征数据的乘员损伤预测方法及装置 |
CN114708613A (zh) * | 2022-03-25 | 2022-07-05 | 平安科技(深圳)有限公司 | 行为识别方法、行为识别装置、计算机设备和存储介质 |
CN115844426A (zh) * | 2023-02-28 | 2023-03-28 | 深圳市心流科技有限公司 | 基于肌电信号的进食监测方法、进食监测设备和存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106781282A (zh) * | 2016-12-29 | 2017-05-31 | 天津中科智能识别产业技术研究院有限公司 | 一种智能行车驾驶员疲劳预警系统 |
CN107292298A (zh) * | 2017-08-09 | 2017-10-24 | 北方民族大学 | 基于卷积神经网络和分类器模型的牛脸识别方法 |
CN107910020A (zh) * | 2017-10-24 | 2018-04-13 | 深圳和而泰智能控制股份有限公司 | 鼾声检测方法、装置、设备及存储介质 |
CN108508782A (zh) * | 2018-01-29 | 2018-09-07 | 江苏大学 | 基于arm的猪只行为跟踪识别监控装置及方法 |
CN109190477A (zh) * | 2018-08-02 | 2019-01-11 | 平安科技(深圳)有限公司 | 基于牛脸识别的保险理赔方法、装置、计算机设备及存储介质 |
CN109271886A (zh) * | 2018-08-29 | 2019-01-25 | 武汉大学 | 一种教育考试监控视频的人体行为分析方法及系统 |
CN109726652A (zh) * | 2018-12-19 | 2019-05-07 | 杭州叙简科技股份有限公司 | 一种基于卷积神经网络检测值班人员睡觉行为的方法 |
-
2019
- 2019-05-08 CN CN201910378346.8A patent/CN110222577A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106781282A (zh) * | 2016-12-29 | 2017-05-31 | 天津中科智能识别产业技术研究院有限公司 | 一种智能行车驾驶员疲劳预警系统 |
CN107292298A (zh) * | 2017-08-09 | 2017-10-24 | 北方民族大学 | 基于卷积神经网络和分类器模型的牛脸识别方法 |
CN107910020A (zh) * | 2017-10-24 | 2018-04-13 | 深圳和而泰智能控制股份有限公司 | 鼾声检测方法、装置、设备及存储介质 |
CN108508782A (zh) * | 2018-01-29 | 2018-09-07 | 江苏大学 | 基于arm的猪只行为跟踪识别监控装置及方法 |
CN109190477A (zh) * | 2018-08-02 | 2019-01-11 | 平安科技(深圳)有限公司 | 基于牛脸识别的保险理赔方法、装置、计算机设备及存储介质 |
CN109271886A (zh) * | 2018-08-29 | 2019-01-25 | 武汉大学 | 一种教育考试监控视频的人体行为分析方法及系统 |
CN109726652A (zh) * | 2018-12-19 | 2019-05-07 | 杭州叙简科技股份有限公司 | 一种基于卷积神经网络检测值班人员睡觉行为的方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553718A (zh) * | 2020-05-18 | 2020-08-18 | 江苏华丽智能科技股份有限公司 | 一种交互式远程监管方法及装置 |
CN111887175B (zh) * | 2020-07-30 | 2022-03-18 | 北京小米移动软件有限公司 | 喂食监测方法、装置、设备及存储介质 |
CN111887175A (zh) * | 2020-07-30 | 2020-11-06 | 北京小米移动软件有限公司 | 喂食监测方法、装置、设备及存储介质 |
CN112016740A (zh) * | 2020-08-18 | 2020-12-01 | 北京海益同展信息科技有限公司 | 数据处理方法和装置 |
CN112016740B (zh) * | 2020-08-18 | 2024-06-18 | 京东科技信息技术有限公司 | 数据处理方法和装置 |
CN112218046A (zh) * | 2020-09-27 | 2021-01-12 | 杭州海康威视系统技术有限公司 | 对象监控方法及装置 |
CN112218046B (zh) * | 2020-09-27 | 2023-10-24 | 杭州海康威视系统技术有限公司 | 对象监控方法及装置 |
CN112613543B (zh) * | 2020-12-15 | 2023-05-30 | 重庆紫光华山智安科技有限公司 | 增强策略验证方法、装置、电子设备及存储介质 |
CN112613543A (zh) * | 2020-12-15 | 2021-04-06 | 重庆紫光华山智安科技有限公司 | 增强策略验证方法、装置、电子设备及存储介质 |
CN112700344A (zh) * | 2020-12-22 | 2021-04-23 | 成都睿畜电子科技有限公司 | 一种养殖场管理方法、装置、介质及设备 |
CN114418203A (zh) * | 2022-01-06 | 2022-04-29 | 清华大学 | 基于碰撞关键特征数据的乘员损伤预测方法及装置 |
CN114418203B (zh) * | 2022-01-06 | 2022-09-16 | 清华大学 | 基于碰撞关键特征数据的乘员损伤预测方法及装置 |
CN114708613A (zh) * | 2022-03-25 | 2022-07-05 | 平安科技(深圳)有限公司 | 行为识别方法、行为识别装置、计算机设备和存储介质 |
CN115844426A (zh) * | 2023-02-28 | 2023-03-28 | 深圳市心流科技有限公司 | 基于肌电信号的进食监测方法、进食监测设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110222577A (zh) | 一种目标监控方法、装置、计算机设备及存储介质 | |
Zhuang et al. | Detection of sick broilers by digital image processing and deep learning | |
Shovon et al. | Plantdet: A robust multi-model ensemble method based on deep learning for plant disease detection | |
Surya et al. | Cassava leaf disease detection using convolutional neural networks | |
Agossou et al. | IoT & AI based system for fish farming: case study of Benin | |
Rajasekar et al. | Detection of Cotton Plant Diseases Using Deep Transfer Learning. | |
CN114167922A (zh) | 一种基于多传感器数据采集的农牧智能分析的方法及系统 | |
Liu et al. | Research progress of computer vision technology in abnormal fish detection | |
Li et al. | Performance analysis of fine-tune transferred deep learning | |
Mohan et al. | Animal disease diagnosis expert system using convolutional neural networks | |
Tiwari | A deep learning approach to recognizing bees in video analysis of bee traffic | |
Aishwarya et al. | Aquatic plant disease detection using deep learning | |
Samhitha et al. | Dwarf Mongoose Optimization with Transfer Learning-Based Fish Behavior Classification Model | |
Molapo et al. | Management and monitoring of livestock in the farm using deep learning | |
CN115713807A (zh) | 行为识别方法、存储介质及电子设备 | |
Kumar et al. | Feature selection and recognition of muzzle point image pattern of cattle by using hybrid chaos bfo and pso algorithms | |
Moni et al. | A smart aquaculture monitoring system with automated fish disease identification | |
CN114386682A (zh) | 一种基于环境建模的鱼类生长率预测方法及系统 | |
Ahmed et al. | Performance improvement of convolutional neural network architectures for skin disease detection | |
Patel et al. | Advancing Aquaculture with Artificial Intelligence | |
Kuseh et al. | A Survey of Deep learning techniques for maize leaf disease detection: Trends from 2016 to 2021 and Future Perspectives | |
Kumar et al. | Automated Fish Species Detection | |
KR102662987B1 (ko) | 손톱주름 모세혈관 속 백혈구의 수를 산출하기 위한 뉴로모픽 컴퓨팅 장치 | |
Prabu et al. | Combining Deep Learning Techniques for Enhanced Human Activity Recognition: A Hybrid CNN-LSTM Fusion Approach | |
Manoj et al. | Automated Plant Disease Detection Using Efficient Deep Ensemble Learning Model for Smart Agriculture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190910 |
|
RJ01 | Rejection of invention patent application after publication |