CN112949400A - 一种基于深度学习的动物智能实验系统与方法 - Google Patents

一种基于深度学习的动物智能实验系统与方法 Download PDF

Info

Publication number
CN112949400A
CN112949400A CN202110134014.2A CN202110134014A CN112949400A CN 112949400 A CN112949400 A CN 112949400A CN 202110134014 A CN202110134014 A CN 202110134014A CN 112949400 A CN112949400 A CN 112949400A
Authority
CN
China
Prior art keywords
experimental
obtaining
image
experimental body
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110134014.2A
Other languages
English (en)
Other versions
CN112949400B (zh
Inventor
胡晓兵
李航
杜磊
邢彩虹
樊虹岐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute Of Yibin Sichuan University
Sichuan University
Original Assignee
Industrial Technology Research Institute Of Yibin Sichuan University
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute Of Yibin Sichuan University, Sichuan University filed Critical Industrial Technology Research Institute Of Yibin Sichuan University
Priority to CN202110134014.2A priority Critical patent/CN112949400B/zh
Publication of CN112949400A publication Critical patent/CN112949400A/zh
Application granted granted Critical
Publication of CN112949400B publication Critical patent/CN112949400B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Geometry (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的动物智能实验方法,包括采集实验体视频信息,对采集到的实验体视频信息,进行图像处理,得到处理后的图像Fi,通过预测模型得到图像中框选出的实验体的图像框的中心点位置坐标pi(x,y)和图像框的面积大小si;通过聚类算法,得到K个点集,获取各个点集的密集程度,得到各个实验区域适应度;获取中心坐标集合P中相邻两个点的欧式距离,得到距离集合Di,根据处理时间th内m个点,得到这m‑1段距离之和L,通过状态指数得到实验体状态;设定阈值并与S中的元素进行比较,得到元素对应的图片中实验体的姿态;根据各个实验区域适应度、实验体的姿态和实验体状态,得到实验体在各个环境下的适应程度。通过本发明,显著提升实验数据处理的效率。

Description

一种基于深度学习的动物智能实验系统与方法
技术领域
本发明涉及动物实验数据处理领域,具体是一种基于深度学习的动物智能实验系统与方法。
背景技术
动物实验作为各项生命科学学科的重要基础,越来越受到科研人员的重视。准确高效的动物实验数据是后续各项研究的重要基础。因此,合理设计实验环境,及时获取实验数据以及建立一套完整可靠的数据评估系统是目前动物实验的研究重点。传统的动物实验中,研究人员将实验体放置在所设定的特定实验环境中,再经过长时间的观察,手工记录实验数据,这种方式既费时又费力。为了解决该问题,同时随着机器视觉技术的发展,开发出了采用摄像机拍摄实验体各项行为,并通过后续采用相关图像算法对所拍摄的视频进行处理,得到实验体的各项数据。这种方法虽然一定程度上节省了人力、物力,但是对硬件配置、实验环境以及处理算法都提出了更为严苛的要求。随着深度学习技术的不断发展,对图像、视频的实时处理又迈入了新的阶段。目前深度学习中的目标检测技术可以精确地将图片或视频中的目标快速检测并框选出来,整个过程快速且高效,系统占用内存低,并且鲁棒性极高,能够适应各种不同环境,显著提升系统的工作效率,解决了摄像机拍摄进行动物实验的各项技术难点。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于深度学习的动物智能实验方法,包括如下步骤:
步骤一,采集实验体视频信息,对采集到的实验体视频信息,进行图像处理,得到处理后的图像Fi,根据处理后的图像Fi,通过预测模型得到图像中框选出的实验体的图像框的中心点位置坐标pi(x,y)和图像框的面积大小si
步骤二,根据中心点位置坐标pi(x,y)得到中心坐标集合P,根据图像框的面积大小si得到面积集合S;
步骤三,根据中心坐标集合P,通过K-MEANS聚类算法,得到K个点集,获取各个点集的密集程度,根据各个点集的密集程度,得到各个实验区域适应度;
步骤四,获取中心坐标集合P中相邻两个点的欧式距离,得到距离集合Di,根据处理时间th内m个点,得到这m-1段距离之和L,通过状态指数
Figure BDA0002917210970000011
得到实验体状态;
步骤五,将集合S中所有元素按照时间的顺序进行排列,设定阈值并与S中的元素进行比较,得到元素对应的图片中实验体的姿态;
步骤五,根据各个实验区域适应度、实验体的姿态和实验体状态,得到实验体在各个环境下的适应程度。
进一步的,步骤二所述的采集实验体视频信息,对采集到的实验体视频信息,包括将视频信息处理为一帧一帧的图像,对每一帧图像进行去噪处理,并进行图像增强,得到处理后的图像Fi,所有处理后的图像组成图像集合F。
进一步的,所述的根据处理后的图像Fi,通过预测模型得到图像中实验体的位置信息pi和图像框的面积大小si,包括将Fi送入训练好的预测模型进行预测,将实验体在图像中框选出来,并同时得到图像框中心点位置坐标pi(x,y)和图像框的面积大小si
进一步的,所述的所述的中心点位置坐标pi(x,y)包括时间信息。
进一步的,步骤三所述的根据中心坐标集合P,通过K-MEANS聚类算法,得到K个点集,获取各个点集的密集程度,根据各个点集的密集程度,得到各个实验区域适应度,包括:将所有点pi(x,y)的位置信息(xi,yi)全部在坐标系中表示出来,根据不同点之间的距离关系,通过K-MEANS聚类算法,将所有点进行划分得到n个点集,n为设定的实验区域数量,统计每个点集中点的数量Ni(i=1,…k),得到各个点集的密集程度
Figure BDA0002917210970000021
进一步的,步骤四所述的获取中心坐标集合P中相邻两个点的欧式距离,得到距离集合Di,根据处理时间th内m个点,得到这m-1段距离之和L,通过状态指数
Figure BDA0002917210970000022
得到实验体状态,包括,集合P中所有元素按照时间顺序进行排列,计算点集P中相邻两点之间的欧氏距离,将结果记录得到距离集合Di(i=1,…n-1),设定时间为th,在th的时间内一共有m个点,则有m-1段距离,得到m-1段距离之和L,通过状态指数
Figure BDA0002917210970000023
得到实验体的生存状态。
一种基于深度学习的动物智能实验系统,包括PLC控制器、照明装置、通风装置、环境参数采集装置、图像采集装置、图像处理模块、预警装置、通信装置、显示装置;所述的照明装置、通风装置、环境参数采集装置、图像处理模块、预警装置、通信装置、显示装置分别于所述的PLC控制器连接;所述的图像采集装置于所述的图像处理模块连接。
优选的,所述的环境参数采集装置包括氧气浓度传感器、二氧化碳浓度传感器、温度传感器,湿度传感器、气压传感器、模数转换器;所述的氧气浓度传感器、二氧化碳浓度传感器、温度传感器,湿度传感器、气压传感器分别与所述的模数转换器连接;所述的模数转换器与所述的PLC控制器连接。
本发明的有益效果是:本发明能够适应各种不同环境,显著提升实验数据处理的效率,解决了摄像机拍摄进行动物实验的各项技术难点。
附图说明
图1为一种基于深度学习的动物智能实验方法的原理示意图;
图2为一种基于深度学习的动物智能实验系统的结构示意图;
图3为图像处理过程示意图;
图4为实验区域适应度分析流程示意图;
图5为实验体生存状态分析流程示意图;
图6为实验体姿态分析流程示意图。
具体实施方式
下面结合附图进一步详细描述本发明的技术方案,但本发明的保护范围不局限于以下所述。
如图1所示,一种基于深度学习的动物智能实验方法,包括如下步骤:
步骤一,采集实验体视频信息,对采集到的实验体视频信息,进行图像处理,得到处理后的图像Fi,根据处理后的图像Fi,通过预测模型得到图像中框选出的实验体的图像框的中心点位置坐标pi(x,y)和图像框的面积大小si
步骤二,根据中心点位置坐标pi(x,y)得到中心坐标集合P,根据图像框的面积大小si得到面积集合S;
步骤三,根据中心坐标集合P,通过K-MEANS聚类算法,得到K个点集,获取各个点集的密集程度,根据各个点集的密集程度,得到各个实验区域适应度;
步骤四,获取中心坐标集合P中相邻两个点的欧式距离,得到距离集合Di,根据处理时间th内m个点,得到这m-1段距离之和L,通过状态指数
Figure BDA0002917210970000031
得到实验体状态;
步骤五,将集合S中所有元素按照时间的顺序进行排列,设定阈值并与S中的元素进行比较,得到元素对应的图片中实验体的姿态;
步骤五,根据各个实验区域适应度、实验体的姿态和实验体状态,得到实验体在各个环境下的适应程度。
步骤二所述的采集实验体视频信息,对采集到的实验体视频信息,包括将视频信息处理为一帧一帧的图像,对每一帧图像进行去噪处理,并进行图像增强,得到处理后的图像Fi,所有处理后的图像组成图像集合F。
所述的根据处理后的图像Fi,通过预测模型得到图像中实验体的位置信息pi和图像框的面积大小si,包括将Fi送入训练好的预测模型进行预测,将实验体在图像中框选出来,并同时得到图像框中心点位置坐标pi(x,y)和图像框的面积大小si
所述的所述的中心点位置坐标pi(x,y)包括时间信息。
步骤三所述的根据中心坐标集合P,通过K-MEANS聚类算法,得到K个点集,获取各个点集的密集程度,根据各个点集的密集程度,得到各个实验区域适应度,包括:将所有点pi(x,y)的位置信息(xi,yi)全部在坐标系中表示出来,根据不同点之间的距离关系,通过K-MEANS聚类算法,将所有点进行划分得到n个点集,n为设定的实验区域数量,统计每个点集中点的数量Ni(i=1,…k),得到各个点集的密集程度
Figure BDA0002917210970000041
步骤四所述的获取中心坐标集合P中相邻两个点的欧式距离,得到距离集合Di,根据处理时间th内m个点,得到这m-1段距离之和L,通过状态指数
Figure BDA0002917210970000042
得到实验体状态,包括,集合P中所有元素按照时间顺序进行排列,计算点集P中相邻两点之间的欧氏距离,将结果记录得到距离集合Di(i=1,…n-1),设定时间为th,在th的时间内一共有m个点,则有m-1段距离,得到m-1段距离之和L,通过状态指数
Figure BDA0002917210970000043
得到实验体的生存状态。
一种基于深度学习的动物智能实验系统,包括PLC控制器、照明装置、通风装置、环境参数采集装置、图像采集装置、图像处理模块、预警装置、通信装置、显示装置;所述的照明装置、通风装置、环境参数采集装置、图像处理模块、预警装置、通信装置、显示装置分别于所述的PLC控制器连接;所述的图像采集装置于所述的图像处理模块连接。
所述的环境参数采集装置包括氧气浓度传感器、二氧化碳浓度传感器、温度传感器,湿度传感器、气压传感器、模数转换器;所述的氧气浓度传感器、二氧化碳浓度传感器、温度传感器,湿度传感器、气压传感器分别与所述的模数转换器连接;所述的模数转换器与所述的PLC控制器连接。
具体的,系统包括:实验箱体,图像处理模块、数据处理模块、控制模块和远程监控模块。其中实验箱体包括密闭的实验箱体,氧气浓度传感器、二氧化碳浓度传感器、温度传感器,湿度传感器、气压传感器、进气系统、照明系统、风扇(用于将箱内气体混合均匀)、喂食系统、饮水系统、工业相机和镜头。图像处理模块包括有图像预处理算法,基于实验环境与实验体预训练的深度学习模型。数据处理模块主要是对上一阶段得到的所有实验体信息进行处理,包括实验区域适应度分析,实验体生存状态分析、实验体姿态分析。控制模块包括plc控制系统、外接显示屏以及实验箱体部件的开关控制。远程监控模块包括有状态监测、数据显示和远程控制三个部分。plc控制所有传感器的工作状态和数据读取,将数据记录并在显示屏上显示。plc控制系统照明和风扇的工作状态,控制进气系统中进气阀的开闭程度大小从而控制进气量。按照实验要求,若需要混合气体,plc控制各种气体进气阀门的开闭从而保证得到符合要求的混合气体。同时对于实验结果分析,对于生存状态,若实验体处于虚弱甚至死亡状态,plc及时向外部发出预警;对于姿态,若长时间处于非正常的姿态,说明箱体内部气体存在不均匀的现象,需要plc按照需要控制气体浓度,再向箱体内部充入适量的气体。同时整个实验过程中plc中所有数据实时上传回上位机,再通过局域网实现远程监测。
数据主要来源是plc(传感器数据,系统状态数据)和上位机(三种分析结果),通过局域网使得其他主机或者移动端设备能够实现对箱体内部的实时监测和控制
实验箱体作为基础的实验环境,为了监视实验体的各项指标情况,需要在箱体内部安装必要的传感器用以检测各项环境指标,其中包括气体浓度传感器检测箱体内部各项气体浓度(包括有氧气浓度和二氧化碳浓度)、温度传感器检测箱体内部温度,湿度传感器检测箱体内部湿度、气压传感器检测箱体内部气压大小。箱体内部安装有光源,便于科研人员监测实验过程,同时也为工业相机提供辅助的光源支撑。工业相机安装在箱体的顶部,并且需要保证拍摄的视频中不会出现箱体的死角,避免出现实验体不在相机视场的情况。工业相机将实验体在箱内的全部拍摄下来并送到上位机进行后续图像处理。箱体顶部装有风扇,是为了将箱体内部的气体混合均匀,稳定实验环境。箱体外侧装有进气控制系统,该系统主要负责调解进气量的大小,以及若涉及到混合气体,负责调解混合气体各部分的浓度。最终气体经由两个进气孔进入箱体内部。箱体离底部一部分距离的位置设置了一块隔板,隔板是网状结构,实验体在隔板上进行生存实验,过程中产生的废物可以经由隔板落至实验箱底部,再由废物处理口将废物移出箱体。隔板上放置有实验体必须的位置装置和饮水装置。为了验证不同条件对实验体的影响,在箱体底部设定k个实验区域,每个实验区域按照实验要求进行设置(比如放置不同的食物,不同的光照等),最后分析实验体在各个环境下的适应程度。
1、深度学习模型训练过程:
首先需要提前拍摄本次实验体的视频材料用于训练深度学习模型。拍摄不同大小、不同形态的实验体在不同环境、不同光照条件下的视频素材。
对视频素材截图并对截取的图片中实验体进行框选和标记,得到训练模型所用的训练集与验证集,采用深度学习模型算法进行模型训练,得到最终的预测模型。
2、图像处理过程:
箱体内部相机放置在箱体正上方,确保相机视场能够拍摄到箱体的所有角落,不会存在视野盲区。
相机实时拍摄实验体的状态,并上传给上位机,上位机接收到信息之后,设置时间间隔ti,首先将视频处理为一帧一帧的图片,对每一帧图片进行处理。
针对其中一帧图片Fi,首先进行图像预处理算法,去掉图像中夹杂的噪声,并增强图像的其他信息。在图片上建立图像坐标系U,规定图片的左上角为坐标系零点,往右为图像坐标系X轴方向,往下为图像坐标系y轴方向。
将Fi送入训练好的深度学习模型进行预测,将实验体在图像中框选出来,并同时得到图像框中心点位置坐标pi(x,y)和图像框的面积大小si。用中心点位置pi表示实验体当前所处的位置。记录下位置坐标与面积大小后按照同样的方法处理下一帧图片。最后将所有帧图像中所得到的信息储存,记为中心坐标集合P和面积集合S,从而进行下一步行为学的分析过程。
3、实验数据处理过程:将上一步得到的所有图像中的实验体位置与面积信息导入。假定一共处理了n张图片,即集合P与集合S中各自存在n个元素,将两个集合按照时间先后顺序进行编号,因此,对其中某个点i,有Pi(i=1,2…n),Si(i=1,2…n)
1)实验区域适应度分析:建立坐标系U1,以左上角为坐标系原点,往右为图像坐标系X轴方向,往下为图像坐标系y轴方向(与上一阶段在图像处理过程中在图像左上角建立的坐标系相同),将所有点Pi的位置信息(xi,yi)全部在坐标系U1中表示出来,观察不同点之间的距离关系,使用K-MEANS聚类算法,将所有点进行划分得到k个点集(n的数量与之前设定的实验区域数量相同),统计每个点集中点的数量Ni(i=1,…k),最后计算各个点集的密集程度
Figure BDA0002917210970000061
密集程度反映了实验体在实验过程中对各个区域的适应程度,密集程度越高,说明实验体对该区域越适应。
2)实验体生存状态分析:点集P中所有元素已按照时间顺序进行排列。计算点集P中相邻两点之间的欧氏距离(即两点之间的直线距离),将结果记录得到距离集合Di(i=1,…n-1)。设定处理时间为th,在th的时间内一共有m个点,一共有m-1段距离,得到这m-1段距离之和L,为了表征实验体的生存状态,用状态指数
Figure BDA0002917210970000062
将实验体的状态分为亢奋、稳定、虚弱以及死亡这四种状态。在th时间内,设定四种状态的阈值,与P进行比较,判断这一阶段实验体所处的状态。(补充:实验过程中,最重要的是要保证实验体的存活率,因此实时显示实验体的生存状态就显得尤为重要。将实验体生存状态分为四种:亢奋、稳定、虚弱以及死亡。前文中使用深度学习模型所得到的检测框的中心点位置表示实验体所处的位置。一段时间内,若实验体越亢奋,则中心点移动的距离L就越长,反之,同样长的一段时间内,若实验体越虚弱,越不会动,中心点移动的距离L就越短。为了表征这一状态,采用状态指数
Figure BDA0002917210970000063
其中分母为设定的采样时间,分子则是th时间内中心点移动的距离之和。式中要求th>=1,同时为了避免L过大,需要对L进行归一化处理,将其映射到(0,1)区间之中。这样处理后得到的状态参数P也会是(0,1)之间的某个数,并且当L越大,实验体越亢奋,P越会趋近于1,当L越小,实验体越虚弱,P越会趋近于0。选定三个阈值,1>T1>T2>T3>0,将(0,1)划分为四个区间,计算得到的P落入哪个区间就代表实验体在这个时间段处于该种状态。(1,T1)亢奋,(T1,T2)稳定,(T2,T3)虚弱,(T3,0)死亡。)
3)实验体姿态分析:将集合S中所有元素按照时间的顺序进行排列,面积大小也就意味着框选的实验体的大小,可以用其代表实验体当时的姿态(卧倒、站立以及其他)。设定阈值并与S进行比较,得到该图片中实验体的具体姿态。若长时间实验体处于站立状态,说明箱体内部气体环境出现问题,实验体需要长时间站立才能进行呼吸。
以上所述仅是本发明的优选实施方式,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

Claims (8)

1.一种基于深度学习的动物智能实验方法,其特征在于,包括如下步骤:
步骤一,采集实验体视频信息,对采集到的实验体视频信息,进行图像处理,得到处理后的图像Fi,根据处理后的图像Fi,通过预测模型得到图像中框选出的实验体的图像框的中心点位置坐标pi(x,y)和图像框的面积大小si
步骤二,根据中心点位置坐标pi(x,y)得到中心坐标集合P,根据图像框的面积大小si得到面积集合S;
步骤三,根据中心坐标集合P,通过K-MEANS聚类算法,得到K个点集,获取各个点集的密集程度,根据各个点集的密集程度,得到各个实验区域适应度;
步骤四,获取中心坐标集合P中相邻两个点的欧式距离,得到距离集合Di,根据处理时间th内m个点,得到这m-1段距离之和L,通过状态指数
Figure FDA0002917210960000011
得到实验体状态;
步骤五,将集合S中所有元素按照时间的顺序进行排列,设定阈值并与S中的元素进行比较,得到元素对应的图片中实验体的姿态;
步骤五,根据各个实验区域适应度、实验体的姿态和实验体状态,得到实验体在各个环境下的适应程度。
2.根据权利要求1所述的一种基于深度学习的动物智能实验方法,其特征在于,步骤二所述的采集实验体视频信息,对采集到的实验体视频信息,包括将视频信息处理为一帧一帧的图像,对每一帧图像进行去噪处理,并进行图像增强,得到处理后的图像Fi,所有处理后的图像组成图像集合F。
3.根据权利要求1所述的一种基于深度学习的动物智能实验方法,其特征在于,所述的根据处理后的图像Fi,通过预测模型得到图像中实验体的位置信息pi和图像框的面积大小si,包括将Fi送入训练好的预测模型进行预测,将实验体在图像中框选出来,并同时得到图像框中心点位置坐标pi(x,y)和图像框的面积大小si
4.根据权利要求1所述的一种基于深度学习的动物智能实验方法,其特征在于,所述的所述的中心点位置坐标pi(x,y)包括时间信息。
5.根据权利要求1所述的一种基于深度学习的动物智能实验方法,其特征在于,步骤三所述的根据中心坐标集合P,通过K-MEANS聚类算法,得到K个点集,获取各个点集的密集程度,根据各个点集的密集程度,得到各个实验区域适应度,包括:将所有点pi(x,y)的位置信息(xi,yi)全部在坐标系中表示出来,根据不同点之间的距离关系,通过K-MEANS聚类算法,将所有点进行划分得到n个点集,n为设定的实验区域数量,统计每个点集中点的数量Ni(i=1,…k),得到各个点集的密集程度
Figure FDA0002917210960000012
6.根据权利要求1所述的一种基于深度学习的动物智能实验方法,其特征在于,步骤四所述的获取中心坐标集合P中相邻两个点的欧式距离,得到距离集合Di,根据处理时间th内m个点,得到这m-1段距离之和L,通过状态指数
Figure FDA0002917210960000021
得到实验体状态,包括,集合P中所有元素按照时间顺序进行排列,计算点集P中相邻两点之间的欧氏距离,将结果记录得到距离集合Di(i=1,…n-1),设定时间为th,在th的时间内一共有m个点,则有m-1段距离,得到m-1段距离之和L,通过状态指数
Figure FDA0002917210960000022
得到实验体的生存状态。
7.一种基于深度学习的动物智能实验系统,其特征在于,包括PLC控制器、照明装置、通风装置、环境参数采集装置、图像采集装置、图像处理模块、预警装置、通信装置、显示装置;所述的照明装置、通风装置、环境参数采集装置、图像处理模块、预警装置、通信装置、显示装置分别于所述的PLC控制器连接;所述的图像采集装置于所述的图像处理模块连接。
8.根据权利要求7所述的一种基于深度学习的动物智能实验系统,其特征在于,所述的环境参数采集装置包括氧气浓度传感器、二氧化碳浓度传感器、温度传感器,湿度传感器、气压传感器、模数转换器;所述的氧气浓度传感器、二氧化碳浓度传感器、温度传感器,湿度传感器、气压传感器分别与所述的模数转换器连接;所述的模数转换器与所述的PLC控制器连接。
CN202110134014.2A 2021-01-26 2021-01-26 一种基于深度学习的动物智能实验系统与方法 Active CN112949400B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110134014.2A CN112949400B (zh) 2021-01-26 2021-01-26 一种基于深度学习的动物智能实验系统与方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110134014.2A CN112949400B (zh) 2021-01-26 2021-01-26 一种基于深度学习的动物智能实验系统与方法

Publications (2)

Publication Number Publication Date
CN112949400A true CN112949400A (zh) 2021-06-11
CN112949400B CN112949400B (zh) 2022-07-08

Family

ID=76240380

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110134014.2A Active CN112949400B (zh) 2021-01-26 2021-01-26 一种基于深度学习的动物智能实验系统与方法

Country Status (1)

Country Link
CN (1) CN112949400B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040021666A1 (en) * 2002-08-01 2004-02-05 University Of Iowa Research Foundation System and method for dynamically analyzing a mobile object
JP2008287367A (ja) * 2007-05-15 2008-11-27 Univ Nihon 車両検出システム
WO2013018068A1 (en) * 2011-08-03 2013-02-07 Yeda Research And Development Co. Ltd. Systems and methods of monitoring social interactions in a group of organisms over a period of at least 24 hours in a semi-natural environment
US20150092978A1 (en) * 2013-09-27 2015-04-02 Konica Minolta Laboratory U.S.A., Inc. Method and system for recognition of abnormal behavior
US20170134401A1 (en) * 2015-11-05 2017-05-11 Radware, Ltd. System and method for detecting abnormal traffic behavior using infinite decaying clusters
US20190138801A1 (en) * 2017-08-28 2019-05-09 Nutech Ventures Systems for tracking individual animals in a group-housed environment
WO2019101220A1 (zh) * 2017-12-11 2019-05-31 珠海大横琴科技发展有限公司 基于深度学习网络和均值漂移的船只自动跟踪方法及系统
US20190291723A1 (en) * 2018-03-26 2019-09-26 International Business Machines Corporation Three-dimensional object localization for obstacle avoidance using one-shot convolutional neural network
CN110457999A (zh) * 2019-06-27 2019-11-15 广东工业大学 一种基于深度学习和svm的动物姿态行为估计与心情识别方法
CN111008566A (zh) * 2019-11-06 2020-04-14 湖北工业大学 一种基于深度学习的针对校车学生下车遗漏检测装置及方法
CN111582214A (zh) * 2020-05-15 2020-08-25 中国科学院自动化研究所 基于孪生网络的笼养动物行为分析方法、系统、装置
US20200380274A1 (en) * 2019-06-03 2020-12-03 Nvidia Corporation Multi-object tracking using correlation filters in video analytics applications
CN112183420A (zh) * 2020-10-09 2021-01-05 杭州电子科技大学 基于减背景、帧差和Meanshift算法的果蝇攀爬检测、跟踪方法
CN112184734A (zh) * 2020-09-30 2021-01-05 南京景瑞康分子医药科技有限公司 一种基于红外图像和穿戴式光纤的动物长时间姿态识别系统

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040021666A1 (en) * 2002-08-01 2004-02-05 University Of Iowa Research Foundation System and method for dynamically analyzing a mobile object
JP2008287367A (ja) * 2007-05-15 2008-11-27 Univ Nihon 車両検出システム
WO2013018068A1 (en) * 2011-08-03 2013-02-07 Yeda Research And Development Co. Ltd. Systems and methods of monitoring social interactions in a group of organisms over a period of at least 24 hours in a semi-natural environment
US20150092978A1 (en) * 2013-09-27 2015-04-02 Konica Minolta Laboratory U.S.A., Inc. Method and system for recognition of abnormal behavior
US20170134401A1 (en) * 2015-11-05 2017-05-11 Radware, Ltd. System and method for detecting abnormal traffic behavior using infinite decaying clusters
US20190138801A1 (en) * 2017-08-28 2019-05-09 Nutech Ventures Systems for tracking individual animals in a group-housed environment
WO2019101220A1 (zh) * 2017-12-11 2019-05-31 珠海大横琴科技发展有限公司 基于深度学习网络和均值漂移的船只自动跟踪方法及系统
US20190291723A1 (en) * 2018-03-26 2019-09-26 International Business Machines Corporation Three-dimensional object localization for obstacle avoidance using one-shot convolutional neural network
US20200380274A1 (en) * 2019-06-03 2020-12-03 Nvidia Corporation Multi-object tracking using correlation filters in video analytics applications
CN110457999A (zh) * 2019-06-27 2019-11-15 广东工业大学 一种基于深度学习和svm的动物姿态行为估计与心情识别方法
CN111008566A (zh) * 2019-11-06 2020-04-14 湖北工业大学 一种基于深度学习的针对校车学生下车遗漏检测装置及方法
CN111582214A (zh) * 2020-05-15 2020-08-25 中国科学院自动化研究所 基于孪生网络的笼养动物行为分析方法、系统、装置
CN112184734A (zh) * 2020-09-30 2021-01-05 南京景瑞康分子医药科技有限公司 一种基于红外图像和穿戴式光纤的动物长时间姿态识别系统
CN112183420A (zh) * 2020-10-09 2021-01-05 杭州电子科技大学 基于减背景、帧差和Meanshift算法的果蝇攀爬检测、跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JONES等: "Automated Measurement of Resolution Acuity in Infants Using Remote Eye-Tracking", 《INVESTIGATIVE OPHTHALMOLOGY & VISUAL SCIENCE》 *
杨威等: "基于机器视觉的圈养豪猪检测与基本行为识别方法研究", 《福建农业学报》 *

Also Published As

Publication number Publication date
CN112949400B (zh) 2022-07-08

Similar Documents

Publication Publication Date Title
CN111104816B (zh) 一种目标物的姿态识别方法、装置及摄像机
CN111178197B (zh) 基于Mask R-CNN和Soft-NMS融合的群养粘连猪实例分割方法
JP7303793B2 (ja) 長期間の継続的な動物行動モニタリング
CN108830144B (zh) 一种基于改进Faster-R-CNN的哺乳母猪姿态识别方法
JP6063967B2 (ja) 細胞画像取得および遠隔モニタリングシステム
CN102789672A (zh) 一种婴儿睡姿智能识别方法及装置
CN105894536A (zh) 基于视频跟踪的禽畜行为分析方法及系统
CN108829762B (zh) 基于视觉的小目标识别方法和装置
CN111310596A (zh) 一种动物患病状态监测系统及方法
CN107480607A (zh) 一种智能录播系统中站立人脸检测定位的方法
CN111797831A (zh) 基于bim和人工智能的家禽进食并行异常检测方法
CN114596448A (zh) 一种肉鸭健康管理方法及其管理系统
CN110893399A (zh) 基于视觉识别的智能烟叶分级分拣设备及分拣方法
CN114898405B (zh) 基于边缘计算的便携式肉鸡异常监测系统
CN117029673A (zh) 一种基于人工智能实现的鱼类体表多尺寸测量方法
CN116843236A (zh) 一种基于人工智能的食品存储监管系统
CN112949400B (zh) 一种基于深度学习的动物智能实验系统与方法
CN105761244A (zh) 一种线虫致死率确定方法、装置及系统
CN113390806A (zh) 基于多尺度图像的生菜重金属含量检测方法
CN209655389U (zh) 一种能与健康营食资料库比对的自动烟灶系统
CN109631111B (zh) 一种能与健康营食资料库比对的自动烟灶系统
CN114022907B (zh) 一种基于深度学习的猪只体表测温装置及方法
CN116051512A (zh) 一种焦炭粒度识别检测方法及检测系统
CN115359412A (zh) 一种盐酸中和实验评分方法、装置、设备及可读存储介质
CN111096252A (zh) 一种笼内鸡只识别装置及其识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant