CN113205032A - 基于深度学习的小鼠悬挂实验的自动化分析系统和方法 - Google Patents
基于深度学习的小鼠悬挂实验的自动化分析系统和方法 Download PDFInfo
- Publication number
- CN113205032A CN113205032A CN202110460274.9A CN202110460274A CN113205032A CN 113205032 A CN113205032 A CN 113205032A CN 202110460274 A CN202110460274 A CN 202110460274A CN 113205032 A CN113205032 A CN 113205032A
- Authority
- CN
- China
- Prior art keywords
- mouse
- suspension
- module
- suspension experiment
- experiment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/22—Ergometry; Measuring muscular strength or the force of a muscular blow
- A61B5/224—Measuring muscular strength
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Physical Education & Sports Medicine (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于深度学习的小鼠悬挂实验的自动化分析系统和方法,涉及啮齿动物悬尾实验技术领域,包括悬挂实验模块、数据传输模块、视频分析模块、存储模块以及预测模块,通过悬挂实验模块中的视频数据采集单元获取小鼠的追踪视频数据,将追踪视频数据通过视频分析模块进行分析,并将分析结果进行输出和保存;同时还设置有预测模块,能够使得在身体关键点出现被遮挡的情况时,能够对被遮挡的身体关键点的位置进行预测,并输出被遮挡的身体关键点的预测数据,从而降低了实验数据的人为因素影响,使得实验数据更加准确。
Description
技术领域
本发明属于啮齿动物悬尾实验技术领域,具体是基于深度学习的小鼠悬挂实验的自动化分析系统和方法。
背景技术
悬挂实验是一种测量啮齿动物肌肉力量与平衡能力的常用方法,在悬挂实验中,实验人员将小鼠两前肢放置在铁丝上,随后放开,再盖上透明的塑料板,小鼠也因此不能翻身站在铁丝上。并且铁丝距离地面有一定高度,小鼠不会让自身轻易掉落,只能尽力抓取铁丝保持悬挂状态。在实验开始到动物掉落的这段时间内,记录动物的悬挂评分和悬挂时间,分别用来评估动物的平衡力与肌肉力量。
传统悬挂实验中,实验人员采取人工记录观察方法,存在费时费力、主观性强、精准度低等明显缺点。随着计算机科学、数学等学科的快速发展,我们也首次将计算机视觉技术已经运用于悬挂实验中,实现了半自动化或全自动化悬挂行为分析,大大提高了实验的效率与准确性。以往的悬挂实验中,实验人员只能通过使用秒表记录动物悬挂时间,用眼睛观察实验中动物抓取铁丝的最多肢数来评分。例如:两条后肢抓住铁丝,评分4分、一只后肢抓住铁丝,评分3分、两只前肢抓住铁丝,评分2分、一只前肢抓住铁丝,评分1分。由于小鼠在悬挂过程中存在转向、翻转身体的现象,导致实验人员在观察小鼠肢体时被小鼠的背部所遮挡,以及小鼠肢体快速触碰铁丝后又迅速放下的情况存在,使得实验人员观察得到的现象和数据并不准确,现提供基于深度学习的小鼠悬挂实验的自动化分析系统和方法。
发明内容
本发明的目的在于提供基于深度学习的小鼠悬挂实验的自动化分析系统和方法。
本发明所要解决的技术问题为:如何降低小鼠悬挂实验中,人为因素对实验结果的影响,同时使得小鼠悬挂实验所获得的数据更加的准确。
本发明的目的可以通过以下技术方案实现:基于深度学习的小鼠悬挂实验的自动化分析系统,包括悬挂实验模块、数据传输模块、视频分析模块、存储模块以及预测模块;
所述视频分析模块用于对小鼠的追踪视频数据进行分析,具体分析过程包括以下步骤:
步骤S1:获取追踪视频数据中的追踪视频,对追踪视频中的铁丝进行标记,并将铁丝的一端记为原点,然后设置X、Y轴坐标系;对悬挂实验的区域转化为像素点,获取小鼠的每个身体关键点的身体关键点像素值;
步骤S2:获取小鼠抓取铁丝未在水平方向上移动的时间,并将小鼠抓取铁丝未在水平方向上移动的时间记为悬挂时间XT;
获取小鼠抓取铁丝在水平方向上移动的时间,并将小鼠抓取铁丝在水平方向上移动的时间记为爬行时间PT;当小鼠在0.5s的时间内在X轴方向上移动超过nA个像素点距离时,记为爬行了一次,获取小鼠的爬行次数PC;获取小鼠的移动轨迹的长度,并将小鼠的移动轨迹的长度记为爬行距离PL;
步骤S3:将追踪视频分解为M帧照片,筛选符合悬挂实验的区域的帧数中四肢分别抓取铁丝的帧数与四肢抓取铁丝的总帧数,并分别记为ZSi和ZS,通过公式ZLi=ZSi/ZS获得四肢抓取准确率ZLi;
步骤S4:获取小鼠在实验期间的最大运动速度以及平均运动速度,并分别记为峰值速度VMAX和平均速度VP;将峰值速度VMAX和平均速度VP通过数据传输模块发送至存储模块进行保存。
进一步地,所述悬挂实验模块包括视频数据采集单元和悬挂实验场景,悬挂实验模块用于完成悬挂实验过程,通过将小鼠放置在悬挂实验场景内,通过视频数据采集单元获取小鼠悬挂实验数据,具体过程包括以下步骤:
步骤X1:搭建悬挂实验场景,然后将小鼠放入悬挂实验场景中;
步骤X2:选取小鼠身上的13个身体关键点;连接小鼠的身体关键点从而获得小鼠的骨架线,如鼻尖-尾根、鼻尖-躯干中心、躯干中心-尾根等;
步骤X3:通过视频数据采集单元获得小鼠的追踪视频数据,将小鼠的追踪视频数据通过数据传输模块发送至视频分析模块,追踪视频数据包括相机拍摄的追踪视频以及追踪视频的拍摄时间。
进一步地,所述步骤X1中的悬挂实验场景包括悬挂箱和相机,悬挂箱内水平设置有一根铁丝,内壁黑化处理,相机位于悬挂箱斜上方45°,相距悬挂箱30cm处,相机拍摄范围覆盖整个铁丝长度,实验开始由相机全程录像。
进一步地,所述像素点的换算方式为:1cm=A个像素点。
进一步地,所述预测模块用于在身体关键点被遮挡时,对被遮挡的身体关键点位置进行预测,并给出被遮挡的身体关键点的预测数据值。
基于深度学习的小鼠悬挂实验的自动化分析方法,具体包括以下步骤:
步骤一:搭建悬挂实验场景,然后将小鼠放入悬挂实验场景中;
步骤二:建立X、Y轴二维坐标系;
步骤三:获取小鼠的追踪视频数据,并发送至视频分析模块;
步骤四:通过视频分析模块对小鼠的追踪视频数据进行分析,并输出分析结果。
本发明的有益效果:本发明基于计算机视觉与深度学习技术实现全自动化追踪与精细行为指标提取,无需依靠实验人员实时记录,大大减少了实验时长,同时还提高了实验准确度;且在实验时无需对小鼠进行处理,即可实现13点身体关键点识别与追踪,大大降低了人为因素对实验结果的影响,同时基于13点身体关键点识别与追踪,可以检测小鼠在二维空间的相对位置,进而识别爬行次数、各肢抓取准确率、运动轨迹等更加精细指标,还将传统的悬挂时间进一步划分为爬行时间和悬挂时间,同时还设置有预测模块,能够使得在身体关键点出现被遮挡的情况时,对被遮挡的身体关键点的位置进行预测,并输出被遮挡的身体关键点的预测数据,从而降低了实验数据的人为因素影响,使得实验数据更加准确。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为基于深度学习的小鼠悬挂实验的自动化分析系统的原理框图。
具体实施方式
如图1所示,基于深度学习的小鼠悬挂实验的自动化分析系统,包括悬挂实验模块、数据传输模块、视频分析模块、存储模块以及预测模块;
实施例1
所述悬挂实验模块包括视频数据采集单元和悬挂实验场景,悬挂实验模块用于完成悬挂实验过程,通过将小鼠放置在悬挂实验场景内,通过视频数据采集单元获取小鼠悬挂实验数据,具体过程包括以下步骤:
步骤X1:搭建悬挂实验场景,然后将小鼠放入悬挂实验场景中;
步骤X2:选取小鼠身上的13个身体关键点;身体关键点包括鼻尖、眼睛、耳朵、头部中心、四肢、尾根、尾中以及尾尖;连接小鼠的身体关键点从而获得小鼠的骨架线,如鼻尖-尾根、鼻尖-躯干中心、躯干中心-尾根等;
步骤X3:通过视频数据采集单元获得小鼠的追踪视频数据,将小鼠的追踪视频数据通过数据传输模块发送至视频分析模块,追踪视频数据包括相机拍摄的追踪视频以及追踪视频的拍摄时间。
所述步骤X1中的悬挂实验场景包括悬挂箱和相机(型号:SONY HDR-CX680帧数:60帧分辨率:1280×720)。悬挂箱高37cm,底边长45cm,宽20cm;悬挂箱内水平设置有一根铁丝,悬挂箱中铁丝长45cm,直径3mm,内壁黑化处理。相机位于悬挂箱斜上方45°,相距悬挂箱30cm处,相机拍摄范围覆盖整个铁丝长度;实验开始由相机全程录像。
所述视频分析模块用于对小鼠的追踪视频数据进行分析,具体分析过程包括以下步骤:
步骤S1:获取追踪视频数据中的追踪视频,对追踪视频中的铁丝进行标记,并将铁丝的一端记为原点,然后设置X、Y轴坐标系;对悬挂实验的区域转化为像素点,其中X轴像素点范围为Q-W;Y轴像素点范围为E-R;其Q、W、E、R均为整数,且Q<W,E<R;1cm=A个像素点,A为整数且A>0;获取小鼠的每个身体关键点的身体关键点像素值,所述身体关键点像素值为小鼠身体关键点所对应的X、Y轴的坐标值;并将身体关键点像素值通过数据传输模块发送至存储模块进行保存;
步骤S2:获取小鼠抓取铁丝未在水平方向上移动的时间,并将小鼠抓取铁丝未在水平方向上移动的时间记为悬挂时间XT;
获取小鼠抓取铁丝在水平方向上移动的时间,并将小鼠抓取铁丝在水平方向上移动的时间记为爬行时间PT;当小鼠在0.5s的时间内在X轴方向上移动超过nA个像素点距离时,记为爬行了一次,获取小鼠的爬行次数PC;n>0且n为整数;获取小鼠的移动轨迹的长度,并将小鼠的移动轨迹的长度记为爬行距离PL;
通过获得小鼠的运动数据,并根据小鼠的运动数据,生成小鼠的运动轨迹图,将小鼠运动数据和小鼠的运动轨迹图发送至存储模块进行保存;
步骤S3:将追踪视频分解为M帧照片,筛选符合悬挂实验的区域的帧数中四肢分别抓取铁丝的帧数与四肢抓取铁丝的总帧数,并分别记为ZSi和ZS,通过公式ZLi=ZSi/ZS获得四肢抓取准确率ZLi,其中i=1,2,3,4,分别表示小鼠的四肢;将小鼠的四肢抓取准确率通过数据传输模块发送至存储模块进行保存;
步骤S4:获取小鼠在实验期间的最大运动速度以及平均运动速度,并分别记为峰值速度VMAX和平均速度VP;将峰值速度VMAX和平均速度VP通过数据传输模块发送至存储模块进行保存;
步骤S5:获取骨架线的长度,并将骨架线的长度通过数据传输模块发送至存储模块进行保存;获取骨架线的方向,将骨架线的方向记为骨架方向,具体获取过程包括以下步骤:
步骤SS1:以骨架线两个身体关键点之一为原点O,将原点O与另外一个身体关键点P相连,形成身体关键点O到身体关键点P方向的矢量线;
步骤SS2:将所获得的矢量线与X轴正方向相交,获得矢量线与X轴正方向的夹角;
步骤SS3:将所获得的矢量线与X轴正方向的夹角记为骨架方向。
实施例2
小鼠在运动的过程中,身体关键点可能会出现被遮挡现象,所述预测模块用于在身体关键点被遮挡时,对被遮挡的身体关键点位置进行预测,并给出被遮挡的身体关键点的预测数据值;
相比较传统的悬挂实验,由于小鼠在悬挂过程中存在转向、翻转身体的现象,导致实验人员在观察小鼠肢体时被小鼠的背部所遮挡,以及小鼠肢体快速触碰铁丝后又迅速放下的情况存在,使得实验人员观察得到的现象和数据并不准确,本发明通过设置有预测模块,能够在小鼠的身体关键点被遮挡时,能够准确的预测被遮挡的身体关键点的位置,并给出预测数据值,从而降低了实验数据的人为因素影响,使得实验数据更加准确。
基于深度学习的小鼠悬挂实验的自动化分析方法,具体包括以下步骤:
步骤一:搭建悬挂实验场景,然后将小鼠放入悬挂实验场景中;
步骤二:建立X、Y轴二维坐标系;
步骤三:获取小鼠的追踪视频数据,并发送至视频分析模块;
步骤四:通过视频分析模块对小鼠的追踪视频数据进行分析,并输出分析结果。
上述公式均是去除量纲取其数值计算,公式是由采集大量数据进行软件模拟得到最接近真实情况的一个公式,公式中的预设参数和预设阈值由本领域的技术人员根据实际情况设定或者大量数据模拟获得。
以上内容仅仅是对本发明结构所作的举例和说明,所属本技术领域的技术人员对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,只要不偏离发明的结构或者超越本权利要求书所定义的范围,均应属于本发明的保护范围,此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
Claims (6)
1.基于深度学习的小鼠悬挂实验的自动化分析系统,其特征在于,包括悬挂实验模块、数据传输模块、视频分析模块、存储模块以及预测模块;
所述视频分析模块用于对小鼠的追踪视频数据进行分析,具体分析过程包括以下步骤:
步骤S1:获取追踪视频数据中的追踪视频,对追踪视频中的铁丝进行标记,并将铁丝的一端记为原点,然后设置X、Y轴坐标系;将悬挂实验的区域转化为像素点,获取小鼠的每个身体关键点的身体关键点像素值;
步骤S2:获取小鼠抓取铁丝未在水平方向上移动的时间,并将小鼠抓取铁丝未在水平方向上移动的时间记为悬挂时间XT;
获取小鼠抓取铁丝在水平方向上移动的时间,并将小鼠抓取铁丝在水平方向上移动的时间记为爬行时间PT;当小鼠在0.5s的时间内在X轴方向上移动超过nA个像素点距离时,记为爬行了一次,获取小鼠的爬行次数PC;获取小鼠的移动轨迹的长度,并将小鼠的移动轨迹的长度记为爬行距离PL;
步骤S3:将追踪视频分解为M帧照片,筛选符合悬挂实验的区域的帧数中四肢分别抓取铁丝的帧数与四肢抓取铁丝的总帧数,并分别记为ZSi和ZS,通过公式ZLi=ZSi/ZS获得四肢抓取准确率ZLi;
步骤S4:获取小鼠在实验期间的最大运动速度以及平均运动速度,并分别记为峰值速度VMAX和平均速度VP;将峰值速度VMAX和平均速度VP通过数据传输模块发送至存储模块进行保存。
2.根据权利要求1所述的基于深度学习的小鼠悬挂实验的自动化分析系统,其特征在于,所述悬挂实验模块包括视频数据采集单元和悬挂实验场景,悬挂实验模块用于完成悬挂实验过程,通过将小鼠放置在悬挂实验场景内,通过视频数据采集单元获取小鼠悬挂实验数据,具体过程包括以下步骤:
步骤X1:搭建悬挂实验场景,然后将小鼠放入悬挂实验场景中;
步骤X2:选取小鼠身上的13个身体关键点;连接小鼠的身体关键点从而获得小鼠的骨架线,如鼻尖-尾根、鼻尖-躯干中心、躯干中心-尾根等;
步骤X3:通过视频数据采集单元获得小鼠的追踪视频数据,将小鼠的追踪视频数据通过数据传输模块发送至视频分析模块,追踪视频数据包括相机拍摄的追踪视频以及追踪视频的拍摄时间。
3.根据权利要求2所述的基于深度学习的小鼠悬挂实验的自动化分析系统,其特征在于,所述步骤X1中的悬挂实验场景包括悬挂箱和相机,悬挂箱内水平设置有一根铁丝,内壁黑化处理,相机位于悬挂箱斜上方45°,相距悬挂箱30cm处,相机拍摄范围覆盖整个铁丝长度,实验开始由相机全程录像。
4.根据权利要求1所述的基于深度学习的小鼠悬挂实验的自动化分析系统,其特征在于,所述像素点的换算方式为:1cm=A个像素点。
5.根据权利要求1所述的基于深度学习的小鼠悬挂实验的自动化分析系统,其特征在于,所述预测模块用于在身体关键点被遮挡时,对被遮挡的身体关键点位置进行预测,并给出被遮挡的身体关键点的预测数据值。
6.基于深度学习的小鼠悬挂实验的自动化分析方法,其特征在于,具体包括以下步骤:
步骤一:搭建悬挂实验场景,然后将小鼠放入悬挂实验场景中;
步骤二:建立X、Y轴二维坐标系;
步骤三:获取小鼠的追踪视频数据,并发送至视频分析模块;
步骤四:通过视频分析模块对小鼠的追踪视频数据进行分析,并输出分析结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110460274.9A CN113205032B (zh) | 2021-04-27 | 2021-04-27 | 基于深度学习的小鼠悬挂实验的自动化分析系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110460274.9A CN113205032B (zh) | 2021-04-27 | 2021-04-27 | 基于深度学习的小鼠悬挂实验的自动化分析系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113205032A true CN113205032A (zh) | 2021-08-03 |
CN113205032B CN113205032B (zh) | 2022-11-01 |
Family
ID=77026903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110460274.9A Active CN113205032B (zh) | 2021-04-27 | 2021-04-27 | 基于深度学习的小鼠悬挂实验的自动化分析系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113205032B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6678413B1 (en) * | 2000-11-24 | 2004-01-13 | Yiqing Liang | System and method for object identification and behavior characterization using video analysis |
CN101526996A (zh) * | 2009-02-23 | 2009-09-09 | 华旭 | 一种小鼠自发行为运动监测与体态图象识别的方法 |
CN111178172A (zh) * | 2019-12-13 | 2020-05-19 | 北京工业大学 | 实验鼠嗅探动作识别方法、模块及系统 |
CN111727905A (zh) * | 2020-06-22 | 2020-10-02 | 安徽正华生物仪器设备有限公司 | 基于深度学习的大小鼠旷场实验自动化分析系统和方法 |
CN111832531A (zh) * | 2020-07-24 | 2020-10-27 | 安徽正华生物仪器设备有限公司 | 基于深度学习适用于啮齿动物社交实验的分析系统和方法 |
CN111866575A (zh) * | 2019-04-24 | 2020-10-30 | 北京力动科技有限公司 | 一种实时动作视频智能捕捉与反馈方法及系统 |
CN111903607A (zh) * | 2020-08-11 | 2020-11-10 | 安徽正华生物仪器设备有限公司 | 基于深度学习啮齿动物悬尾实验的自动化分析系统和方法 |
-
2021
- 2021-04-27 CN CN202110460274.9A patent/CN113205032B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6678413B1 (en) * | 2000-11-24 | 2004-01-13 | Yiqing Liang | System and method for object identification and behavior characterization using video analysis |
CN101526996A (zh) * | 2009-02-23 | 2009-09-09 | 华旭 | 一种小鼠自发行为运动监测与体态图象识别的方法 |
CN111866575A (zh) * | 2019-04-24 | 2020-10-30 | 北京力动科技有限公司 | 一种实时动作视频智能捕捉与反馈方法及系统 |
CN111178172A (zh) * | 2019-12-13 | 2020-05-19 | 北京工业大学 | 实验鼠嗅探动作识别方法、模块及系统 |
CN111727905A (zh) * | 2020-06-22 | 2020-10-02 | 安徽正华生物仪器设备有限公司 | 基于深度学习的大小鼠旷场实验自动化分析系统和方法 |
CN111832531A (zh) * | 2020-07-24 | 2020-10-27 | 安徽正华生物仪器设备有限公司 | 基于深度学习适用于啮齿动物社交实验的分析系统和方法 |
CN111903607A (zh) * | 2020-08-11 | 2020-11-10 | 安徽正华生物仪器设备有限公司 | 基于深度学习啮齿动物悬尾实验的自动化分析系统和方法 |
Non-Patent Citations (2)
Title |
---|
JOSHUA T. VOGELSTEIN ET AL.: ""Discovery of Brainwide Neural-Behavioral Maps via Multiscale Unsupervised Structure Learning"", 《SCIENCE》 * |
毕瑛璞: ""基于OptiTrack的大鼠行为高精度定量表征方法研究"", 《中国优秀硕士学位论文全文数据库 基础科学辑》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113205032B (zh) | 2022-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109376589B (zh) | 基于卷积核筛选ssd网络的rov形变小目标识别方法 | |
CN107844797A (zh) | 一种基于深度图像的哺乳母猪姿态自动识别的方法 | |
CN112257564B (zh) | 水产品数量统计方法、终端设备及存储介质 | |
CN109784200B (zh) | 基于双目视觉的奶牛行为图像获取与体况智能监测系统 | |
CN112232978B (zh) | 水产品体长和重量检测方法、终端设备及存储介质 | |
CN206863817U (zh) | 摄像机图像自动采集装置及摄像机标定系统 | |
CN112580552A (zh) | 一种鼠类行为分析方法及装置 | |
CN108829762A (zh) | 基于视觉的小目标识别方法和装置 | |
CN108229678A (zh) | 网络训练方法、操作控制方法、装置、存储介质和设备 | |
CN113664828A (zh) | 一种基于深度强化学习的机器人抓取-抛掷方法 | |
CN114271103A (zh) | 一种基于人工智能识别的蔬果采摘机器人系统及结构 | |
CN111832531A (zh) | 基于深度学习适用于啮齿动物社交实验的分析系统和方法 | |
CN113989538A (zh) | 基于深度图像的鸡群均匀度估测方法、装置、系统及介质 | |
CN111178172A (zh) | 实验鼠嗅探动作识别方法、模块及系统 | |
CN113205032B (zh) | 基于深度学习的小鼠悬挂实验的自动化分析系统和方法 | |
CN113569675A (zh) | 一种基于ConvLSTM网络的小鼠旷场实验行为分析方法 | |
CN1464466A (zh) | 动物行为视频分析系统 | |
CN111223125B (zh) | 一种基于Python环境下的目标运动视频跟踪方法 | |
CN115937314B (zh) | 一种油茶果生长姿态检测方法 | |
CN101021948A (zh) | 人体对称性运动图像中关节的自动识别装置及方法 | |
CN117409368A (zh) | 基于密度分布的鱼群聚集行为和鱼群饥饿行为实时分析方法 | |
CN105447901B (zh) | 图像处理方法和装置 | |
CN113627255A (zh) | 一种小鼠行为量化分析方法、装置、设备及可读存储介质 | |
CN114463845A (zh) | 一种基于人体骨骼关节点位的运动识别方法 | |
CN206863221U (zh) | 一种气象观测站地面观测场探测环境自动评估系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |