CN111062436B - 蟑螂交配行为的分析方法、装置、计算机设备及存储介质 - Google Patents
蟑螂交配行为的分析方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN111062436B CN111062436B CN201911287905.0A CN201911287905A CN111062436B CN 111062436 B CN111062436 B CN 111062436B CN 201911287905 A CN201911287905 A CN 201911287905A CN 111062436 B CN111062436 B CN 111062436B
- Authority
- CN
- China
- Prior art keywords
- cockroach
- analyzed
- cockroaches
- image
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 241001674044 Blattodea Species 0.000 title claims abstract description 390
- 230000007758 mating behavior Effects 0.000 title claims abstract description 87
- 238000004458 analytical method Methods 0.000 title claims abstract description 61
- 230000006399 behavior Effects 0.000 claims abstract description 76
- 230000000638 stimulation Effects 0.000 claims abstract description 44
- 230000002159 abnormal effect Effects 0.000 claims abstract description 10
- 238000000034 method Methods 0.000 claims description 36
- 230000009471 action Effects 0.000 claims description 35
- 238000003062 neural network model Methods 0.000 claims description 21
- 230000013011 mating Effects 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 11
- 229940079593 drug Drugs 0.000 claims description 9
- 239000003814 drug Substances 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000003709 image segmentation Methods 0.000 claims description 7
- 230000005484 gravity Effects 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 5
- 230000007480 spreading Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 description 14
- 230000011218 segmentation Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000012535 impurity Substances 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000011273 social behavior Effects 0.000 description 2
- 230000008925 spontaneous activity Effects 0.000 description 2
- 241000577457 Lestidae Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Catching Or Destruction (AREA)
Abstract
本发明公开了一种蟑螂交配行为的分析方法,该分析方法包括:获取蟑螂在设定刺激条件下交配时的待分析图像序列;针对待分析图像序列中的每一帧待分析图像,进行该待分析图像中蟑螂的识别,得到对应于该待分析图像的蟑螂识别图像;从对应于该待分析图像的蟑螂识别图像中提取得到对应于该待分析图像的蟑螂身体信息;基于蟑螂行为识别模型,根据待分析图像序列中所有待分析图像对应的蟑螂身体信息进行蟑螂行为分类,得到所述蟑螂的预测行为数据;比较蟑螂的预测行为数据与蟑螂正常行为数据之间的差异性,根据差异性比较结果分析蟑螂在设定刺激条件下的交配行为是否异常。采用本发明解决了现有技术中蟑螂交配行为的分析的准确率不高的问题。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种蟑螂交配行为的分析方法、装置、计算机设备及存储介质。
背景技术
蟑螂交配行为,能够定量地反映出蟑螂对于外界给定环境和/或给定药物的反应,对生物医学领域中研究动物自发的活动行为、社会行为等特征有着极为重要的意义。
目前,蟑螂交配行为的分析,主要通过实验室中实验人员人工分析的方式实现,不仅存在效率低下的问题,而且对于蟑螂交配行为中的某些动作而言,由于发生速度过快,如果单纯依赖于人工分析,尚不足以准确的判断出行为发生的时间、频率等。
由此可见,现有的蟑螂交配行为的分析,仍存在准确率不高的缺陷。
发明内容
本发明各实施例提供一种蟑螂交配行为的分析方法、装置、计算机设备及存储介质,以此解决相关技术中存在的蟑螂交配行为的分析的准确率不高的问题。
其中,本发明所采用的技术方案为:
根据本发明的一个方面,一种蟑螂交配行为的分析方法,包括:获取蟑螂在设定刺激条件下交配时的待分析图像序列,所述待分析图像序列包含若干帧待分析图像;针对所述待分析图像序列中的每一帧待分析图像,进行该待分析图像中蟑螂的识别,得到对应于该待分析图像的蟑螂识别图像;从对应于该待分析图像的蟑螂识别图像中提取得到对应于该待分析图像的蟑螂身体信息;基于蟑螂行为识别模型,根据所述待分析图像序列中所有待分析图像对应的蟑螂身体信息进行蟑螂行为分类,得到所述蟑螂的预测行为数据,所述蟑螂的预测行为数据用于指示所述蟑螂在所述设定刺激条件下交配时的各种动作及对应时长、频率;比较所述蟑螂的预测行为数据与蟑螂正常行为数据之间的差异性,根据差异性比较结果分析所述蟑螂在所述设定刺激条件下的交配行为是否异常,所述蟑螂正常行为数据用于指示所述蟑螂正常交配时的各种动作及对应时长、频率。
根据本发明的一个方面,一种蟑螂交配行为的分析装置,包括:图像获取模块,用于获取蟑螂在设定刺激条件下交配时的待分析图像序列,所述待分析图像序列包含若干帧待分析图像;图像识别模块,用于针对所述待分析图像序列中的每一帧待分析图像,进行该待分析图像中蟑螂的识别,得到对应于该待分析图像的蟑螂识别图像;信息提取模块,用于从对应于该待分析图像的蟑螂识别图像中提取得到对应于该待分析图像的蟑螂身体信息;行为识别模块,用于基于蟑螂行为识别模型,对所述待分析图像序列中所有待分析图像对应的蟑螂身体信息进行蟑螂行为分类,得到所述蟑螂的预测行为数据,所述蟑螂的预测行为数据用于指示所述蟑螂在所述设定刺激条件下交配时的各种动作及对应时长、频率;差异比较模块,用于比较所述蟑螂的预测行为数据与蟑螂正常行为数据之间的差异性,根据差异性比较结果分析所述蟑螂在所述设定刺激条件下的交配行为是否异常,所述蟑螂正常行为数据用于指示所述蟑螂正常交配时的各种动作及对应时长、频率。
根据本发明的一个方面,一种计算机设备,包括处理器及存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现如上所述的蟑螂交配行为的分析方法。
根据本发明的一个方面,一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的蟑螂交配行为的分析方法。
在上述技术方案中,实现了依赖于计算机设备自动分析蟑螂交配行为的方案,能够有效地提高蟑螂交配行为分析的准确率。
具体地,首先进行待分析图像序列中待分析图像关于蟑螂个体的识别,然后基于识别到的识别图像提取蟑螂身体信息,进而通过蟑螂行为识别模型,进行待分析图像序列中待分析图像关于蟑螂行为的识别,得到蟑螂的预测行为数据,并比较蟑螂的预测行为数据与蟑螂正常行为数据之间的差异性,最终根据差异性比较结果分析蟑螂在设定刺激条件下的交配行为是否异常。
由此,整个蟑螂交配行为的分析过程中,仅需要将蟑螂在设定刺激条件下交配时的待分析图像序列输入至计算机设备,便能够依赖于计算机设备实现自动分析,完全避免单纯依赖于人工分析,从而解决了现有技术中蟑螂交配行为的分析的准确率不高的问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并于说明书一起用于解释本发明的原理。
图1是根据本发明所涉及的实施环境的示意图。
图2是根据一示例性实施例示出的一种计算机设备的硬件结构框图。
图3是根据一示例性实施例示出的一种蟑螂交配行为的分析方法的流程图。
图4是图3对应实施例中步骤330在一个实施例的流程图。
图5是图4对应实施例中步骤333在一个实施例的流程图。
图6是图3对应实施例中步骤350在一个实施例的流程图。
图7是图6对应实施例所涉及的图像分割以及椭圆拟合的示意图。
图8是图6对应实施例中步骤351在一个实施例的流程图。
图9是根据一示例性实施例示出的另一种蟑螂交配行为的分析方法的流程图。
图10是根据一示例性实施例示出的一种蟑螂交配行为的分析装置的框图。
图11是根据一示例性实施例示出的一种计算机设备的框图。
通过上述附图,已示出本发明明确的实施例,后文中将有更详细的描述,这些附图和文字描述并不是为了通过任何方式限制本发明构思的范围,而是通过参考特定实施例为本领域技术人员说明本发明的概念。
具体实施方式
这里将详细地对示例性实施例执行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1为一种蟑螂交配行为的分析方法所涉及的实施环境的示意图。该实施环境包括采集端110和服务端130。
具体地,采集端110,部署于实验室等场所,用于在蟑螂交配过程中拍摄并采集该蟑螂在设定刺激条件下交配时的待分析图像。该采集端110可以是摄像机、录像机、或者其他具有拍摄功能的电子设备,例如智能手机、平板电脑等,在此不构成具体限定。
服务端130,该服务端130可以是台式电脑、笔记本电脑、平板电脑、计算机设备等等计算机设备,还可以是由多台计算机设备构成的计算机设备集群,甚至是由多台计算机设备构成的云计算中心。其中,计算机设备是为用户提供后台服务的电子设备,例如,后台服务包括但不限于蟑螂交配行为的分析服务等等。
服务端130与采集端110之间预先建立通信连接,并通过通信连接实现与采集端110的数据传输。传输的数据包括但不限于:蟑螂的待分析图像等等。
通过采集端110与服务端130的交互,采集端110在蟑螂交配过程中拍摄并采集蟑螂在设定刺激条件下交配时的待分析图像,并将该待分析图像上传至服务端130,以使服务端130提供蟑螂交配行为的分析服务。
对于服务端130而言,在接收到采集端110上传的待分析图像之后,便能够调用蟑螂交配行为的分析服务,基于包含了若干帧待分析图像的待分析图像序列分析出蟑螂在设定刺激条件下的交配行为是否异常。
图2是根据一示例性实施例示出的一种计算机设备的硬件结构框图。该种计算机设备适用于图1所示出实施环境的服务端130。
需要说明的是,该种计算机设备只是一个适配于本发明的示例,不能认为是提供了对本发明的使用范围的任何限制。该种计算机设备也不能解释为需要依赖于或者必须具有图2中示出的示例性的计算机设备200中的一个或者多个组件。
计算机设备200的硬件结构可因配置或者性能的不同而产生较大的差异,如图2所示,计算机设备200包括:电源210、接口230、至少一存储器250、以及至少一中央处理器(CPU,Central Processing Units)270。
具体地,电源210用于为计算机设备200上的各硬件设备提供工作电压。
接口230包括至少一有线或无线网络接口,用于与外部设备交互。例如,进行图1所示出实施环境中采集端110与服务端130之间的交互。
当然,在其余本发明适配的示例中,接口230还可以进一步包括至少一串并转换接口233、至少一输入输出接口235以及至少一USB接口237等,如图2所示,在此并非对此构成具体限定。
存储器250作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作系统251、应用程序253及数据255等,存储方式可以是短暂存储或者永久存储。
其中,操作系统251用于管理与控制计算机设备200上的各硬件设备以及应用程序253,以实现中央处理器270对存储器250中海量数据255的运算与处理,其可以是WindowsServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTM等。
应用程序253是基于操作系统251之上完成至少一项特定工作的计算机程序,其可以包括至少一模块(图2中未示出),每个模块都可以分别包含有对计算机设备200的一系列计算机可读指令。例如,蟑螂交配行为的分析装置可视为部署于计算机设备200的应用程序253。
数据255可以是存储于磁盘中的照片、图片等,还可以是待分析图像等,存储于存储器250中。
中央处理器270可以包括一个或多个以上的处理器,并设置为通过至少一通信总线与存储器250通信,以读取存储器250中存储的计算机可读指令,进而实现对存储器250中海量数据255的运算与处理。例如,通过中央处理器270读取存储器250中存储的一系列计算机可读指令的形式来完成蟑螂交配行为的分析方法。
此外,通过硬件电路或者硬件电路结合软件也能同样实现本发明,因此,实现本发明并不限于任何特定硬件电路、软件以及两者的组合。
请参阅图3,在一示例性实施例中,一种蟑螂交配行为的分析方法应用于计算机设备,例如,该计算机设备适用于图1所示实施环境的服务端130,该计算机设备的结构可以如图2所示。
该种蟑螂交配行为的分析方法可以由计算机设备执行,也可以理解为由计算机设备中运行的应用程序(即蟑螂交配行为的分析装置)执行。在下述方法实施例中,为了便于描述,以各步骤的执行主体为计算机设备加以说明,但是并不对此构成限定。
该种蟑螂交配行为的分析方法可以包括以下步骤:
步骤310,获取蟑螂在设定刺激条件下交配时的待分析图像序列。
其中,所述待分析图像序列包含若干帧待分析图像。
首先,设定刺激条件,是指外界给定环境和/或给定药物,那么,蟑螂在该设定刺激条件下的交配行为,方能够定量地反映出蟑螂对于外界给定环境和/或给定药物的反应,以利于生物医学领域中对动物自发的活动行为、社会行为等特征的研究。
例如,不同的设定刺激条件,对蟑螂交配行为存在不同程度的影响,有利于寻找到阻断蟑螂交配的方法,进而有利于达到小区域(例如餐饮、住宿等环境)内消除蟑螂的目的。
其次,待分析图像,是采集端在蟑螂交配过程中对该蟑螂在设定刺激条件下交配时进行拍摄生成的。其中,采集端可固定部署于该蟑螂四周,例如,采集端为独立摄像头,或者,采集端在实验人员手持前提下灵活移动,例如,采集端为内嵌摄像头的智能手机。
可以理解,拍摄可以是单次拍摄,还可以是连续性拍摄,那么,对于连续性拍摄而言,待分析图像序列实质是包含若干帧待分析图像的一段视频,而就单次拍摄来说,待分析图像序列则是包含若干帧待分析图像的多张图片。基于此,本实施例中进行蟑螂交配行为的分析可以是基于一段视频进行,也可以基于多张图片进行。
换而言之,待分析图像序列可以是一段视频,还可以是多张图片,本实施例并未对此加以限定。应当说明的是,无论待分析图像序列是一段视频亦或者多张图片,后续的蟑螂交配行为的分析均是按照一帧待分析图像处理的,例如,该一帧待分析图像是一段视频中的其中一个视频帧,或者多张图片中的其中一张图片。
在此补充说明的是,为了减少蟑螂交配行为分析的时间,计算机设备可通过多核技术实现多帧待分析图像的并行处理,以此提高计算机设备的处理效率,进而提升蟑螂交配行为分析的效率。
关于待分析图像序列的获取,可以是来自于采集端实时拍摄的若干帧待分析图像,并由采集端实时上传至计算机设备,还可以是预先存储于计算机设备的一历史时间段由采集端拍摄的若干帧待分析图像。
那么,后续的蟑螂交配行为的分析,既可以基于实时拍摄的若干帧待分析图像,以此提高蟑螂交配行为分析的实时性,还可以基于预先存储的若干帧待分析图像,以此提高蟑螂交配行为分析的效率,例如,在计算机设备CPU占用率较低时进行,或者,按照实验人员的操作指令进行,本实施例在此并未加以限定。
步骤330,针对所述待分析图像序列中的每一帧待分析图像,进行该待分析图像中蟑螂的识别,得到对应于该待分析图像的蟑螂识别图像。
发明人意识到,如果待分析图像中存在多只蟑螂交叉,再因为拍摄环境中杂质过多,可能影响待分析图像中蟑螂识别的精准度,故而,本实施例中,对待分析图像中蟑螂的识别,是基于yolo(you only look once)网络实现的。
其中,yolo网络属于端到端的深度学习模型,其模型结构包括输入层、卷积层、池化层、全连接层和输出层,不仅识别的准确率高达99%,而且能够满足实时处理的速度,例如,每秒处理40帧图像,从而实现待分析图像序列中多帧待分析图像的并行处理,大大提高了蟑螂交配行为分析的效率。
步骤350,从对应于该待分析图像的蟑螂识别图像中提取得到对应于该待分析图像的蟑螂身体信息。
其中,所述蟑螂身体信息包括但不限于:所述蟑螂的重心位置、身体长度、移动速度、移动方向和身体方向等等。
发明人发现,蟑螂交配行为包括抖动、展翅、伸展身体、交尾等动作,而该些动作均可通过蟑螂的重心位置、身体长度、移动速度、身体方向判断得到。例如,当蟑螂的身体方向与移动方向平行且移动速度很大时,判定蟑螂存在抖动动作。
由此,在分析蟑螂在设定刺激条件下的交配行为之前,需要提取出对应于待分析图像的蟑螂身体信息,以此分析出蟑螂在该待分析图像拍摄时刻下交配时的动作。
进一步地,针对待分析图像序列中所有待分析图像而言,各待分析图像对应的蟑螂身体信息,方能够分析出蟑螂在设定刺激条件下交配时各种动作发生的时间、频率,从而有利于分析出蟑螂在设定刺激条件下的交配行为。
步骤370,基于蟑螂行为识别模型,根据所述待分析图像序列中所有待分析图像对应的蟑螂身体信息进行蟑螂行为分类,得到所述蟑螂的预测行为数据。
其中,所述蟑螂的预测行为数据用于指示所述蟑螂在所述设定刺激条件下交配时的各种动作及对应时长、频率。
蟑螂行为识别模型,是由神经网络模型经过模型训练生成的,实质是基于蟑螂身体信息,统计蟑螂交配时各种动作发生的时间、频率,以此构建数学映射关系来反映蟑螂交配行为的规律。
那么,在获得待分析图像序列中所有待分析图像对应的蟑螂身体信息之后,便可基于上述数学映射关系所反映的蟑螂交配行为的规律,统计得到蟑螂在设定刺激条件下交配时各种动作发生的时间、频率,进而得到蟑螂的预测行为数据。
在此说明的是,蟑螂行为分类,是基于蟑螂行为识别模型中的分类器实现的。
以分类器为softmax函数为例对蟑螂行为分类过程加以说明。
假设蟑螂交配行为包括抖动动作、展翅动作、伸展身体动作、交尾动作等四个类别。
根据蟑螂身体信息,通过分类器softmax函数,计算该蟑螂在交配时动作所属上述四个类别的概率分别为P1、P2、P3、P4。
那么,如果P1最大,则认为该蟑螂在交配时动作属于抖动动作。
同理,如果P2最大,则认为该蟑螂在交配时动作属于展翅动作;如果P3最大,则认为该蟑螂在交配时动作属于伸展身体动作;如果P4最大,则认为该蟑螂在交配时动作属于交尾动作。
当待分析图像序列中所有待分析图像分析完毕,便分析出了该蟑螂在各待分析图像拍摄时刻下交配时的动作,进而通过统计分析,方得到蟑螂的预测行为数据,即蟑螂在设定刺激条件下交配时的各种动作及对应时长、频率。
步骤390,比较所述蟑螂的预测行为数据与蟑螂正常行为数据之间的差异性,根据差异性比较结果分析所述蟑螂在所述设定刺激条件下的交配行为是否异常。
其中,所述蟑螂正常行为数据用于指示所述蟑螂正常交配时的各种动作及对应时长、频率。
首先,差异性比较,包括但不限于:ROC曲线、运动时间路程的直方图、各种动作的对比等。
那么,通过差异性比较得到的差异性比较结果,便能够分析出蟑螂在正常交配时与设定刺激条件下交配时之间的差异性,以此分析出蟑螂在设定刺激条件下的交配行为是否异常,进而分析出蟑螂对于外界给定环境和/或给定药物的反应。
通过如上所述的过程,整个蟑螂交配行为的分析过程中,仅需要将蟑螂在设定刺激条件下交配时的待分析图像序列输入至计算机设备,便能够依赖于计算机设备实现蟑螂交配行为的自动分析,完全避免单纯依赖于人工分析,有效地提高了蟑螂交配行为分析的准确率。
此外,通过yolo网络与蟑螂行为识别模型的结合,不仅克服了对于一些交叉、变体行为进行识别时准确率偏低的缺陷,同时还克服了样本不均衡而导致识别效率低的问题。
请参阅图4,在一示例性实施例中,步骤330可以包括以下步骤:
步骤331,针对所述待分析图像序列中的每一帧待分析图像,将当前一帧待分析图像输入蟑螂个体识别模型进行蟑螂识别。
也就是说,对于待分析图像序列中的每一帧待分析图像而言,将按照拍摄顺序,依次输入蟑螂个体识别模型进行蟑螂识别。
那么,就当前在蟑螂个体识别模型中进行蟑螂识别的待分析图像来说,即视为当前一帧待分析图像,而与该当前一帧待分析图像相邻的两帧待分析图像,分别为前一帧待分析图像、后一帧待分析图像。
发明人意识到,如果待分析图像中存在多只蟑螂交叉,再因为拍摄环境中杂质过多,还可能导致蟑螂个体识别模型识别不出待分析的蟑螂,换而言之,在待分析图像序列中,针对待分析的该蟑螂,可能跟踪失败,例如,前一帧待分析图像还识别出该蟑螂,而当前一帧待分析图像中却识别不到该蟑螂,进而导致无法继续分析该蟑螂在设定刺激条件下的交配行为。
为此,本实施例中,针对无法识别出蟑螂的待分析图像,将通过跟踪算法加以辅助,以此保证待分析图像序列的所有待分析图像中均能够识别出同一只蟑螂,从而有利于对该蟑螂在设定刺激条件的交配行为进行分析。
如果所述当前一帧待分析图像中识别不到蟑螂,则执行步骤333。
反之,如果所述当前一帧待分析图像中识别到蟑螂,则返回执行步骤331,即将后一帧待分析图像输入蟑螂个体识别模型进行蟑螂识别。
步骤333,采用匈牙利匹配算法进行所述当前一帧待分析图像与前一帧待分析图像中的蟑螂个体匹配,得到对应于所述当前一帧待分析图像的蟑螂识别图像。
本实施例中,采用匈牙利匹配算法作为跟踪算法,在待分析图像序列的所有待分析图像中,进行同一只蟑螂的跟踪。
下面对匈牙利匹配算法加以说明。
具体地,在一实施例的实现中,如图5所示,步骤333可以包括以下步骤:
步骤3331,确定识别出蟑螂的前一帧待分析图像。
步骤3333,将对应于所述前一帧待分析图像的蟑螂识别图像,作为对应于所述当前一帧待分析图像的蟑螂识别图像。
也就是说,如果当前一帧待分析图像中没有识别出蟑螂,就会用前一帧待分析图像中识别出的蟑螂来替代并进行匹配,以此保证前一帧待分析图像与当前一帧待分析图像中识别出了同一只蟑螂。
在上述实施例的配合下,实现了在不同待分析图像中对同一只蟑螂的跟踪,使得后续基于同一只蟑螂进行交配行为的分析得以实现,以此保障蟑螂交配行为的分析的准确性。
请参阅图6,在一示例性实施例中,步骤350可以包括以下步骤:
步骤351,对所述蟑螂识别图像中识别出的蟑螂进行图像分割,得到包含蟑螂区域的分割图像。
图像分割目的在于,将蟑螂识别图像划分为蟑螂区域和背景区域。也即是,分割图像,实质是划分出蟑螂区域和背景区域的蟑螂识别图像。
如图7所示,图像A为蟑螂识别图像,图像B为包含蟑螂区域的分割图像,在图像B中,白色区域即表示蟑螂区域。
可选地,图像分割包括:普通分割、语义分割、实例分割等等。其中,普通分割进一步包括:阈值分割、区域分割、边缘分割、直方图分割等等,本实施例并未对此作出具体限定。
步骤353,对所述分割图像中的蟑螂区域进行椭圆拟合,得到将所述蟑螂区域包围的最小椭圆。
椭圆拟合,实质上就是针对分割图像中构成蟑螂区域的一系列像素点,在分割图像中找寻一个椭圆,即最小椭圆,使得该最小椭圆能够尽量靠近构成蟑螂区域的该些像素点,也可以认为,该最小椭圆将构成蟑螂区域的该些像素点包围其中。
如图7所示,图像C中,白色区域表示蟑螂区域,而最小椭圆401则将构成蟑螂区域的一系列像素点包围其中。
可选地,椭圆拟合的算法包括但不限于:最小二乘法、二次多项式拟合法、标准方程拟合法等等,本实施例对此并未加以限定。
步骤355,由包围所述蟑螂区域的最小椭圆计算得到所述蟑螂身体信息。
如前所述,蟑螂身体信息包括但不限于:蟑螂的重心位置、身体长度、移动速度、移动方向和身体方向等等。
那么,在得到包围蟑螂区域的最小椭圆之后,便可计算出上述蟑螂身体信息。例如,最小椭圆的中心作为蟑螂在分割图像中的重心位置,或者,最小椭圆首尾之间的距离作为蟑螂在分割图像中的身体长度,再者,结合最小椭圆左右之间的距离,便可确定蟑螂在分割图像中的身体方向。
又譬如,对于待分析图像序列中各待分析图像而言,相应地将能够得到多个分割图像,那么,不同分割图像中形成的最小椭圆在不同分割图像中的位置,相当于形成了蟑螂在拍摄过程中的移动轨迹,由此便可计算出蟑螂的移动速度、移动方向。
在上述实施例的作用下,实现了蟑螂身体信息的获取,以此作为蟑螂行为识别的依据,进而使得蟑螂交配行为的分析得以实现。
请参阅图8,在一示例性实施例中,步骤351可以包括以下步骤:
步骤3511,对所述蟑螂识别图像进行去噪处理。
发明人意识到,拍摄过程中,因拍摄环境杂质过多,或者其他因素,还可能导致待分析图像不够清晰,进而造成蟑螂识别图像不仅包含了蟑螂区域,还可能存在部分噪声。
为此,在进行图像分割之前,还可以针对蟑螂识别图像进行去噪处理。
其中,去噪处理,包括但不限于膨胀腐蚀、去边、开运算等一系列形态学处理方法。
通过如此设置,方能够将蟑螂识别图像中的噪声消除,亦即消除了蟑螂识别图像中蟑螂区域中的噪声,从而有利于得到更加纯净的分割图像,以此有利于进一步地提升蟑螂交配行为的分析的准确率。
步骤3513,计算去噪后蟑螂识别图像中各个像素点的灰度值。
步骤3515,根据计算得到的灰度值,进行去噪后蟑螂识别图像的二值化处理,得到包含蟑螂区域和背景区域的分割图像。
可以理解,对于去噪后蟑螂识别图像而言,是由像素点阵列组成的,即包含多个像素点,故而,本实施例中,图像分割主要包括两个方面:一是计算像素点的灰度值,二是根据像素点的灰度值进行二值化。
其中,二值化,实质上是设置一灰度阈值,如果计算得到的灰度值大于该灰度阈值,则将该像素点的灰度值设置为第一灰度值,反之,如果计算得到的灰度值小于等于该灰度阈值,则将该像素点的灰度值设置为第二灰度值。
当然,该灰度阈值,可以根据应用场景的实际需要灵活地设置,本实施例并未对此加以限定。
待去噪后蟑螂识别图像中的各个像素点均完成二值化,那么,灰度值为第一灰度值的所有像素点所在区域即为蟑螂区域,而灰度值为第二灰度值的所有像素点所在区域即为背景区域,最终得到包含了蟑螂区域和背景区域的分割图像。
举例来说,第一灰度值为255,第二灰度值为0,此时,蟑螂区域为白色区域,而背景区域为黑色区域,如图7中图像B所示。
通过上述实施例的配合,实现了蟑螂区域和背景区域的分割,使得基于蟑螂区域计算蟑螂身体信息得以实现,也有利于保障蟑螂身体信息的计算精准度。
请参阅图9,在一示例性实施例中,步骤370之前,如上所述的方法还可以包括以下步骤:
步骤610,获取训练样本集。
其中,所述训练样本集包含若干帧携带标记的已分析图像。所述标记用于指示蟑螂正常交配时的动作。
需要说明的是,已分析图像的产生过程,首先由采集端在蟑螂交配过程中对该蟑螂在外界正常环境且没有给定药物下交配时进行拍摄,然后针对拍摄得到的各图像,通过人工分析所获知的该些图像中蟑螂是否存在抖动、展翅、伸展身体、交尾等动作,在该些图像中对该蟑螂正常交配时的上述动作进行标记,最终形成已分析图像。
在此补充说明的是,标记,仅是针对蟑螂正常交配时的动作进行,并不需要关注各种动作发生的时间、频率,故而,此处即使依赖于人工分析,也不至于影响蟑螂交配行为分析的准确性。
步骤630,创建神经网络模型,并根据所述训练样本集训练所述神经网络模型的参数。
如前所述,蟑螂行为识别模型,是能够根据蟑螂身体信息进行蟑螂行为分类,也就是说,蟑螂行为识别模型,实质是基于蟑螂身体信息,统计蟑螂交配时各种动作发生的时间、频率,以此构建数学映射关系来反映蟑螂交配行为的规律。
由此,训练,实质是通过优化神经网络模型的参数,使得神经网络模型构建的数学映射关系达到最优,并最终由神经网络模型收敛得到蟑螂行为识别模型,进而精准地反映蟑螂交配行为的规律。
下面对训练过程加以说明。
具体而言,随机初始化神经网络模型的参数。
根据训练样本集中的第一个已分析图像和随机初始化的参数,计算神经网络模型相关的损失函数的损失值。
如果该损失值达到最小,则执行步骤650,此时,神经网络模型收敛,视为完成训练。
反之,如果该损失值未达到最小,则通过神经网络模型的反向传播,更新神经网络模型的参数。
根据训练样本集中的第二个已分析图像和更新的参数,重新计算神经网络模型相关的损失函数的损失值。
如此循环迭代,直至损失值达到最小,执行步骤650,此时,神经网络模型收敛,视为完成训练。
当然,此处还可以设置一个迭代阈值,那么,只要迭代次数达到迭代阈值,即使损失值未达到最小,仍执行步骤650,视为训练已完成,以此充分保障训练效率。
步骤650,当所述神经网络模型的参数使得所述神经网络模型收敛,由所述神经网络模型收敛得到所述蟑螂行为识别模块。
通过上述过程,蟑螂行为识别模型便具有了蟑螂交配行为的预测能力,实质是能够根据蟑螂身体信息进行蟑螂行为分类得到蟑螂的预测行为数据,进而使得基于蟑螂的预测行为数据的蟑螂交配行为的分析得以实现。
下述为本发明装置实施例,可以用于执行本发明所涉及的蟑螂交配行为的分析方法。对于本发明装置实施例中未披露的细节,请参照本发明所涉及的蟑螂交配行为的分析方法的方法实施例。
请参阅图10,在一示例性实施例中,一种蟑螂交配行为的分析装置900包括但不限于:图像获取模块910、图像识别模块930、信息提取模块950、行为识别模块970和差异比较模块990。
其中,图像获取模块910,用于获取蟑螂在设定刺激条件下交配时的待分析图像序列,所述待分析图像序列包含若干帧待分析图像。
图像识别模块930,用于针对所述待分析图像序列中的每一帧待分析图像,进行该待分析图像中蟑螂的识别,得到对应于该待分析图像的蟑螂识别图像。
信息提取模块950,用于从对应于该待分析图像的蟑螂识别图像中提取得到对应于该待分析图像的蟑螂身体信息。
行为识别模块970,用于基于蟑螂行为识别模型,对所述待分析图像序列中所有待分析图像对应的蟑螂身体信息进行蟑螂行为分类,得到所述蟑螂的预测行为数据,所述蟑螂的预测行为数据用于指示所述蟑螂在所述设定刺激条件下交配时的各种动作及对应时长、频率。
差异比较模块990,用于比较所述蟑螂的预测行为数据与蟑螂正常行为数据之间的差异性,根据差异性比较结果分析所述蟑螂在所述设定刺激条件下的交配行为是否异常,所述蟑螂正常行为数据用于指示所述蟑螂正常交配时的各种动作及对应时长、频率。
需要说明的是,上述实施例所提供的蟑螂交配行为的分析装置在进行蟑螂交配行为的分析时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即蟑螂交配行为的分析装置的内部结构将划分为不同的功能模块,以完成以上描述的全部或者部分功能。
另外,上述实施例所提供的蟑螂交配行为的分析装置与蟑螂交配行为的分析方法的实施例属于同一构思,其中各个模块执行操作的具体方式已经在方法实施例中进行了详细描述,此处不再赘述。
请参阅图11,在一示例性实施例中,一种计算机设备1000,包括至少一处理器1001、至少一存储器1002、以及至少一通信总线1003。
其中,存储器1002上存储有计算机可读指令,处理器1001通过通信总线1003读取存储器1002中存储的计算机可读指令。
该计算机可读指令被处理器1001执行时实现上述各实施例中的蟑螂交配行为的分析方法。
在一示例性实施例中,一种存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各实施例中的蟑螂交配行为的分析方法。
上述内容,仅为本发明的较佳示例性实施例,并非用于限制本发明的实施方案,本领域普通技术人员根据本发明的主要构思和精神,可以十分方便地进行相应的变通或修改,故本发明的保护范围应以权利要求书所要求的保护范围为准。
Claims (7)
1.一种蟑螂交配行为的分析方法,其特征在于,包括:
获取蟑螂在设定刺激条件下交配时的待分析图像序列,所述待分析图像序列包含若干帧待分析图像;所述设定刺激条件包括外界给定环境和/或给定药物;
针对所述待分析图像序列中的每一帧待分析图像,进行该待分析图像中蟑螂的识别,得到对应于该待分析图像的蟑螂识别图像;其中,所述识别包括:将当前一帧待分析图像输入蟑螂个体识别模型进行蟑螂识别;如果所述当前一帧待分析图像中识别不到蟑螂,则采用匈牙利算法进行所述当前一帧待分析图像与前一帧待分析图像中的蟑螂个体匹配,确定识别出蟑螂的前一帧待分析图像所对应的蟑螂识别图像;将确定的蟑螂识别图像,作为对应于所述当前一帧待分析图像的蟑螂识别图像;
从对应于该待分析图像的蟑螂识别图像中提取得到对应于该待分析图像的蟑螂身体信息;所述蟑螂身体信息包括所述蟑螂的重心位置、身体长度、移动速度、移动方向和身体方向;
基于蟑螂行为识别模型,根据所述待分析图像序列中所有待分析图像对应的蟑螂身体信息,对所述蟑螂在设定刺激条件下交配时各种动作发生的时间、频率进行统计,得到所述蟑螂的预测行为数据,所述蟑螂的预测行为数据用于指示所述蟑螂在所述设定刺激条件下交配时的各种动作及对应时长、频率;
比较所述蟑螂的预测行为数据与蟑螂正常行为数据之间的差异性,根据差异性比较结果分析所述蟑螂在所述设定刺激条件下的交配行为是否异常,以分析所述蟑螂对于外界给定环境和/或给定药物的反应;所述蟑螂正常行为数据用于指示所述蟑螂正常交配时的各种动作及对应时长、频率;所述交配行为至少包括以下一种动作:抖动、展翅、伸展身体或交尾。
2.如权利要求1所述的方法,其特征在于,所述从对应于该待分析图像的蟑螂识别图像中提取得到对应于该待分析图像的蟑螂身体信息,包括:
对所述蟑螂识别图像中识别出的蟑螂进行图像分割,得到包含蟑螂区域的分割图像;
对所述分割图像中的蟑螂区域进行椭圆拟合,得到将所述蟑螂区域包围的最小椭圆;
由包围所述蟑螂区域的最小椭圆计算得到所述蟑螂身体信息。
3.如权利要求2所述的方法,其特征在于,所述对所述蟑螂识别图像中识别出的蟑螂进行图像分割,得到包含蟑螂区域的分割图像,包括:
对所述蟑螂识别图像进行去噪处理;
计算去噪后蟑螂识别图像中各个像素点的灰度值;
根据计算得到的灰度值,进行去噪后蟑螂识别图像的二值化处理,得到包含蟑螂区域和背景区域的分割图像。
4.如权利要求1至3任一项所述的方法,其特征在于,所述基于蟑螂行为识别模型,根据所述待分析图像序列中所有待分析图像对应的蟑螂身体信息,对所述蟑螂在设定刺激条件下交配时各种动作发生的时间、频率进行统计,得到所述蟑螂的预测行为数据之前,所述方法还包括:
获取训练样本集,所述训练样本集包含若干帧携带标记的已分析图像,所述标记用于指示蟑螂正常交配时的动作;
创建神经网络模型,并根据所述训练样本集训练所述神经网络模型的参数;
当所述神经网络模型的参数使得所述神经网络模型收敛,由所述神经网络模型收敛得到所述蟑螂行为识别模块。
5.一种蟑螂交配行为的分析装置,其特征在于,包括:
图像获取模块,用于获取蟑螂在设定刺激条件下交配时的待分析图像序列,所述待分析图像序列包含若干帧待分析图像;所述设定刺激条件包括外界给定环境和/或给定药物;
图像识别模块,用于针对所述待分析图像序列中的每一帧待分析图像,进行该待分析图像中蟑螂的识别,得到对应于该待分析图像的蟑螂识别图像;其中,所述识别包括:将当前一帧待分析图像输入蟑螂个体识别模型进行蟑螂识别;如果所述当前一帧待分析图像中识别不到蟑螂,则采用匈牙利算法进行所述当前一帧待分析图像与前一帧待分析图像中的蟑螂个体匹配,确定识别出蟑螂的前一帧待分析图像所对应的蟑螂识别图像;将确定的蟑螂识别图像,作为对应于所述当前一帧待分析图像的蟑螂识别图像;
信息提取模块,用于从对应于该待分析图像的蟑螂识别图像中提取得到对应于该待分析图像的蟑螂身体信息;所述蟑螂身体信息包括所述蟑螂的重心位置、身体长度、移动速度、移动方向和身体方向;
行为识别模块,用于基于蟑螂行为识别模型,根据所述待分析图像序列中所有待分析图像对应的蟑螂身体信息,对所述蟑螂在设定刺激条件下交配时各种动作发生的时间、频率进行统计,得到所述蟑螂的预测行为数据,所述蟑螂的预测行为数据用于指示所述蟑螂在所述设定刺激条件下交配时的各种动作及对应时长、频率;
差异比较模块,用于比较所述蟑螂的预测行为数据与蟑螂正常行为数据之间的差异性,根据差异性比较结果分析所述蟑螂在所述设定刺激条件下的交配行为是否异常,以分析所述蟑螂对于外界给定环境和/或给定药物的反应;所述蟑螂正常行为数据用于指示所述蟑螂正常交配时的各种动作及对应时长、频率;所述交配行为至少包括以下一种动作:抖动、展翅、伸展身体或交尾。
6.一种计算机设备,其特征在于,包括:
处理器;及
存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现如权利要求1至4中任一项所述的蟑螂交配行为的分析方法。
7.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述的蟑螂交配行为的分析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911287905.0A CN111062436B (zh) | 2019-12-15 | 2019-12-15 | 蟑螂交配行为的分析方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911287905.0A CN111062436B (zh) | 2019-12-15 | 2019-12-15 | 蟑螂交配行为的分析方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111062436A CN111062436A (zh) | 2020-04-24 |
CN111062436B true CN111062436B (zh) | 2024-04-16 |
Family
ID=70301690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911287905.0A Active CN111062436B (zh) | 2019-12-15 | 2019-12-15 | 蟑螂交配行为的分析方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111062436B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6678413B1 (en) * | 2000-11-24 | 2004-01-13 | Yiqing Liang | System and method for object identification and behavior characterization using video analysis |
KR20090095083A (ko) * | 2008-03-04 | 2009-09-09 | 주식회사 세스코 | 바퀴벌레 추적장치 및 이를 이용한 바퀴벌레 방제방법 |
CN104318244A (zh) * | 2014-10-16 | 2015-01-28 | 深圳锐取信息技术股份有限公司 | 一种基于教学视频的行为检测方法及装置 |
CN108596014A (zh) * | 2018-01-30 | 2018-09-28 | 邓昌顺 | 牲畜行为分析方法及装置 |
CN109712171A (zh) * | 2018-12-28 | 2019-05-03 | 上海极链网络科技有限公司 | 一种基于相关滤波器的目标跟踪系统及目标跟踪方法 |
CN110363103A (zh) * | 2019-06-24 | 2019-10-22 | 仲恺农业工程学院 | 虫害识别方法、装置、计算机设备及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8634635B2 (en) * | 2008-10-30 | 2014-01-21 | Clever Sys, Inc. | System and method for stereo-view multiple animal behavior characterization |
EP4198926A1 (en) * | 2012-05-10 | 2023-06-21 | President And Fellows Of Harvard College | Method and apparatus for automatically discovering, characterizing, classifying and semi-automatically labeling animal behavior and quantitative phenotyping of behaviors in animals |
US10658080B2 (en) * | 2015-11-13 | 2020-05-19 | Wipro Limited | Method for monitoring behaviour of a patient in real-time using patient monitoring device |
-
2019
- 2019-12-15 CN CN201911287905.0A patent/CN111062436B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6678413B1 (en) * | 2000-11-24 | 2004-01-13 | Yiqing Liang | System and method for object identification and behavior characterization using video analysis |
KR20090095083A (ko) * | 2008-03-04 | 2009-09-09 | 주식회사 세스코 | 바퀴벌레 추적장치 및 이를 이용한 바퀴벌레 방제방법 |
CN104318244A (zh) * | 2014-10-16 | 2015-01-28 | 深圳锐取信息技术股份有限公司 | 一种基于教学视频的行为检测方法及装置 |
CN108596014A (zh) * | 2018-01-30 | 2018-09-28 | 邓昌顺 | 牲畜行为分析方法及装置 |
CN109712171A (zh) * | 2018-12-28 | 2019-05-03 | 上海极链网络科技有限公司 | 一种基于相关滤波器的目标跟踪系统及目标跟踪方法 |
CN110363103A (zh) * | 2019-06-24 | 2019-10-22 | 仲恺农业工程学院 | 虫害识别方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111062436A (zh) | 2020-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108922622B (zh) | 一种动物健康监测方法、装置及计算机可读存储介质 | |
Yousif et al. | Fast human-animal detection from highly cluttered camera-trap images using joint background modeling and deep learning classification | |
CN110175549B (zh) | 人脸图像处理方法、装置、设备及存储介质 | |
WO2019033525A1 (zh) | Au特征识别方法、装置及存储介质 | |
CN108228696B (zh) | 人脸图像检索方法和系统、拍摄装置、计算机存储介质 | |
US8873840B2 (en) | Reducing false detection rate using local pattern based post-filter | |
US10388009B2 (en) | Machine-learning measurements of quantitative feature attributes | |
WO2021179471A1 (zh) | 一种人脸模糊度检测方法、装置、计算机设备及存储介质 | |
JP6823449B2 (ja) | 画像検出デバイスを動作させる方法およびコンピュータ・プログラム製品(サッカードを使用する視覚オブジェクトおよびイベントの検出および予測システム) | |
WO2019033569A1 (zh) | 眼球动作分析方法、装置及存储介质 | |
CN105160318A (zh) | 基于面部表情的测谎方法及系统 | |
WO2020238353A1 (zh) | 数据处理方法和装置、存储介质及电子装置 | |
WO2019033570A1 (zh) | 嘴唇动作分析方法、装置及存储介质 | |
CN108133197B (zh) | 用于生成信息的方法和装置 | |
WO2019033568A1 (zh) | 嘴唇动作捕捉方法、装置及存储介质 | |
US20210089825A1 (en) | Systems and methods for cleaning data | |
Li et al. | A lightweight deep learning model for cattle face recognition | |
CN112016527A (zh) | 基于深度学习的大熊猫行为识别方法、系统、终端及介质 | |
CN106056083A (zh) | 一种信息处理方法及终端 | |
Xue et al. | Open set sheep face recognition based on Euclidean space metric | |
CN108399401B (zh) | 用于检测人脸图像的方法和装置 | |
CN114120242A (zh) | 一种基于时序特征的监控视频行为分析方法、系统及终端 | |
Venkatesvara Rao et al. | Real-time video object detection and classification using hybrid texture feature extraction | |
CN105809183A (zh) | 基于视频的人头跟踪方法及其装置 | |
Mar et al. | Cow detection and tracking system utilizing multi-feature tracking algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |