CN111563465A - 一种动物行为学自动分析系统 - Google Patents
一种动物行为学自动分析系统 Download PDFInfo
- Publication number
- CN111563465A CN111563465A CN202010397787.5A CN202010397787A CN111563465A CN 111563465 A CN111563465 A CN 111563465A CN 202010397787 A CN202010397787 A CN 202010397787A CN 111563465 A CN111563465 A CN 111563465A
- Authority
- CN
- China
- Prior art keywords
- behavior
- animal
- person
- dimensional scene
- human
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63J—DEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
- A63J11/00—Labyrinths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Abstract
本发明公开了一种动物行为学自动分析系统,包括:感官状态模拟模块,通过三维场景模拟装置模拟出设定的感官场景。行为动作录制模块,当动物进入三维场景模拟装置的时候对其进行设定时长的视频的录制,并从该视频中提取出动物的行为动作。当人进入三维场景模拟装置的时候对其进行同样设定时长的视频的录制,并从该视频中提取出人的行为动作。行为状态判断模块,根据人的行为动作得到人的行为状态,并将该人的行为状态作为该动物的行为动作所对应的动物的行为状态。本发明通过让动物和人的感知处于同样的感官状态下,通过短视频的形式得到人和动物的行为动作,并根据人的行为动作得到人的行为状态,在由人的行为状态类比得到动物的行为状态。
Description
技术领域
本发明涉及分析系统领域,特别涉及一种动物行为学自动分析系统。
背景技术
在动物行为学是就是研究动物不同的行为所表示出来的意思,例如,小狗摇尾巴表示小狗当前非常的开心,而小猫摇尾巴表示当前不开心,其中,摇尾巴就是小狗和小猫的行为动作,针对这一行为动作,小狗的行为状态是开心,而小猫的行为状态是不开心。在研究动物行为学的时候,通常需要较长的时间进行动物行为的初步探索,这样才能会后面的动物行为有深入的研究。
发明内容
本发明的目的是克服上述现有技术中存在的问题,提供一种动物行为学自动分析系统,通过让动物和人的感知处于同样的感官状态下,通过短视频的形式得到人和动物的行为动作,并根据人的行为动作得到人的行为状态,在由人的行为状态类比得到动物的行为状态。
为此,本发明提供一种动物行为学自动分析系统,包括:
感官状态模拟模块,通过三维场景模拟装置模拟出设定的感官场景。
行为动作录制模块,当动物进入所述三维场景模拟装置的时候对其进行设定时长的视频的录制,并从该视频中提取出动物的行为动作。当人进入所述三维场景模拟装置的时候对其进行同样设定时长的视频的录制,并从该视频中提取出人的行为动作。
行为状态判断模块,根据人的行为动作得到人的行为状态,并将该人的行为状态作为该动物的行为动作所对应的动物的行为状态。
进一步,所述三维场景模拟装置包括封闭空间以及在封闭空间内顶部设置的3D投影仪,所述3D投影仪用于播放三维场景或者切换当前三维场景,所述封闭空间的相对的两侧面分别设有一能够自动开启的自动门,其中一个自动门用于放入动物或者人,另一个自动门用于放出动物或者人,当用于放入动物或者人的自动门开启之后,所述3D投影仪切换当前三维场景并播放切换后的三维场景,当行为动作录制模块录制完成后,用于放出动物或者人的自动门开启。
更进一步,用于放入动物或者人的自动门的门外面上设有用于检测动物或者人到来的第一人员检测装置,该自动门的门里面上设有用于检测动物或者人通过的第一流动监测装置,当第一人员检测装置检测到动物或者人到来的时候,该自动门开启,当第一流动监测装置检测到人员通过之后,该自动门关闭。用于放出动物或者人的自动门的门里面上设有用于检测动物或者人到来的第二人员检测装置,该自动门的门外面上设有用于检测动物或者人通过的第二流动监测装置,当第二人员检测装置检测到动物或者人到来的时候,该自动门开启,当第二流动监测装置检测到人员通过之后,该自动门关闭。
进一步,所述行为状态判断模块在得到根据人的行为动作得到人的行为状态的时候,通过进入所述三维场景模拟装置在录入装置中进行录入得到。
进一步,所述行为状态判断模块在得到根据人的行为动作得到人的行为状态的时候,通过提取所述人的行为动作中人的面部表情,并在表情数据库中查找得到人的行为状态,所述表情数据库用于存储面部表情以及面部表情所对应的行为状态。
更进一步,提取所述人的行为动作中人的面部表情,包括:
视频定位模块,用于根据人脸的面部特征从人的行为动作中提取出人脸的图像。
图像处理模块,用于将提取出的人脸的图像进行正位处理。
像素定位模块,用于将正位处理后的人脸的图像中设定点的位置进行提取,并将提取的点的位置进行连线,同时获取各个点的坐标。
表情提取模块,根据提取的点的连线的倾斜度以及各个点的坐标在表情数据库中查找得到人的行为状态。
进一步,所述行为动作录制模块从该视频中提取出行为动作的时候,通过物体识别提取技术将视频中的动物或者人的轮廓提取出来,并将视频中的背景虚化。
进一步,将所述三维场景模拟装置设置在迷宫中,三维场景模拟装置将迷宫内的通道进行封闭。
更进一步,所述三维场景模拟装置的数量有多个,多个三维场景模拟装置分别均匀的分布在所述迷宫的通道中,每一个三维场景模拟装置对应一个行为动作录制模块,每一个三维场景模拟装置对应的行为动作录制模块将其得到的人的行为动作和动物的行为动作发送到监控终端,所述监控终端包含所述行为状态判断模块。
更进一步,所述监控终端包括显示终端,显示终端用于显示每一个三维场景模拟装置对应的行为动作录制模块所发送的人的行为动作和动物的行为动作。
本发明提供的一种动物行为学自动分析系统,具有如下有益效果:
1、通过让动物和人的感知处于同样的感官状态下,通过短视频的形式得到人和动物的行为动作,并根据人的行为动作得到人的行为状态,在由人的行为状态类比得到动物的行为状态;
2、通过视频处理技术在人的行为动作的短视频中提取出人的面部图像,在根据人的面部图像提取出人的情绪作为人的行为状态,这样就可以使得快速的得到动物的行为状态和对应的行为动作;
3、使用迷宫让动物在其中进行行走,迷宫中的通道上通过三维场景模拟装置模拟出设定的感官状态,这样就可以使得动物在依次实验中依次的经历多种感官状态,并且在中间行走的过程中进行过度,使得动物的感知恢复到原始的状态。
附图说明
图1为本发明提供的一种动物行为学自动分析系统的整体连接示意框图;
图2为本发明提供的一种动物行为学自动分析系统中提取所述人的行为动作中人的面部表情的连接示意框图。
具体实施方式
下面结合附图,对本发明的多个具体实施方式进行详细描述,但应当理解本发明的保护范围并不受具体实施方式的限制。
在本申请文件中,未经明确的部件型号以及结构,均为本领域技术人员所公知的现有技术,本领域技术人员均可根据实际情况的需要进行设定,在本申请文件的实施例中不做具体的限定。
实施例1
本实施例提供了一种动物行为学自动分析系统,通过基本的必要技术特征实现本发明,以解决本申请文件中技术背景部分所提出的问题。
具体的,如图1所示,本发明实施例提供了一种动物行为学自动分析系统,包括:
感官状态模拟模块,通过三维场景模拟装置模拟出设定的感官场景。所述感官场景,是使得人过动物在该场景下产生相应的感官的行为状态,从而做出对应的行为动作的场景。例如,场景中具有令人产生感官为恐惧的感官场景,当人和动物在该感官场景内,其行为状态为恐怖,其行为动作为相应所做出的动作。该感官场景通过三维场景模拟装置进行模拟,三维场景模拟装置可以使用3D全系投影技术将设定的感官进行模拟,可以使用3D视频的形式通过3D全系投影技术进行播放,使之有三维的体验效果。
行为动作录制模块,当动物进入所述三维场景模拟装置的时候对其进行设定时长的视频的录制,并从该视频中提取出动物的行为动作。当人进入所述三维场景模拟装置的时候对其进行同样设定时长的视频的录制,并从该视频中提取出人的行为动作。当人或者动物进入上述设定好的三维场景模拟装置的时候,由于是初次在未知的情况下,因此会产生相应感官的行为状态,从而做出该行为状态下的行为动作。在本实施例中,通过摄像头对行为动作进行拍摄,在通过视频处理的提取技术提取出行为动作。
行为状态判断模块,根据人的行为动作得到人的行为状态,并将该人的行为状态作为该动物的行为动作所对应的动物的行为状态。根据人的行为动作得到人的行为状态,可以通过使用数据库中进行存储病支持查找调用的功能,也可以使得通过人工通过观看人的行为动作之后对人的行为状态进行录入,此时就得到人的行为状态。此时,将该人的行为状态作为该动物的行为动作所对应的动物的行为状态,就可以得到动物的行为状态。
实施例2
本实施例是基于实施例1并对实施例1中的实施方案进行优化,使得本实施例在运行的过程中更加的稳定,性能更加的良好,但是并不仅限于本实施例所描述的一种实施方式。
具体的,在本实施例中,所述三维场景模拟装置包括封闭空间以及在封闭空间内顶部设置的3D投影仪,所述3D投影仪用于播放三维场景或者切换当前三维场景,所述封闭空间的相对的两侧面分别设有一能够自动开启的自动门,其中一个自动门用于放入动物或者人,另一个自动门用于放出动物或者人,当用于放入动物或者人的自动门开启之后,所述3D投影仪切换当前三维场景并播放切换后的三维场景,当行为动作录制模块录制完成后,用于放出动物或者人的自动门开启。
在人或者动物准备进入三维场景模拟装置的时候,用于放入动物或者人的自动门开启,此时,3D投影仪切换当前三维场景并播放切换后的三维场景,使得每一次进入的时候,都可以使得变换为新的三维场景,使得人或者动物在三维场景模拟装置中产生行为动作,在录制完毕之后,用于放出动物或者人的自动门开启,使得人祸动物可以从三维场景模拟装置中出来。
同时,在本实施例中,用于放入动物或者人的自动门的门外面上设有用于检测动物或者人到来的第一人员检测装置,该自动门的门里面上设有用于检测动物或者人通过的第一流动监测装置,当第一人员检测装置检测到动物或者人到来的时候,该自动门开启,当第一流动监测装置检测到人员通过之后,该自动门关闭。用于放出动物或者人的自动门的门里面上设有用于检测动物或者人到来的第二人员检测装置,该自动门的门外面上设有用于检测动物或者人通过的第二流动监测装置,当第二人员检测装置检测到动物或者人到来的时候,该自动门开启,当第二流动监测装置检测到人员通过之后,该自动门关闭。
第一人员检测装置、第一流动监测装置、第二人员检测装置以及第二流动监测装置均为红外传感器,经过不同的运动规律,实现第一人员检测装置、第一流动监测装置、第二人员检测装置以及第二流动监测装置所要求的功能。其中第一人员检测装置和第二人员检测装置的红外传感器在检测到有人员到来的时候,即距离红外传感器的距离越来越近的时候,就可以判断人员到来,第一流动监测装置和第二流动监测装置的红外传感器在检测到有人员到来之后又远去的时候,即使距离红外传感器的距离越来越近之后又越来越远的时候,就可以判断人员通过。
在本实施例中,所述行为状态判断模块在得到根据人的行为动作得到人的行为状态的时候,通过进入所述三维场景模拟装置在录入装置中进行录入得到。通过录入可以使得对于人的行为状态判断的更加的精准,不会产生判断方面的误差。
在本实施例中,所述行为状态判断模块在得到根据人的行为动作得到人的行为状态的时候,通过提取所述人的行为动作中人的面部表情,并在表情数据库中查找得到人的行为状态,所述表情数据库用于存储面部表情以及面部表情所对应的行为状态。根据人的表情对人的行为状态进行识别,从人的行为动作中的视频进行处理,得到人的面部表情,并且根据人员的面部表情对人员的行为状态进行判断,这样就可以自动的从人的行为动作的视频中自动的得到人的面部表情,从而自动的获得人的行为状态。
同时,在本实施例中,提取所述人的行为动作中人的面部表情,如图2所示,包括:
视频定位模块,用于根据人脸的面部特征从人的行为动作中提取出人脸的图像。
图像处理模块,用于将提取出的人脸的图像进行正位处理。
像素定位模块,用于将正位处理后的人脸的图像中设定点的位置进行提取,并将提取的点的位置进行连线,同时获取各个点的坐标。
表情提取模块,根据提取的点的连线的倾斜度以及各个点的坐标在表情数据库中查找得到人的行为状态。
上述的技术方案中,首先使用视频定位模块将根据人脸的面部特征从人的行为动作中提取出人脸的图像,在将得到的人脸的图像使用图像处理模块进行正位处理,使得人脸的图像在方向上正位,没有角度的偏差,之后再使用像素定位模块通过设定点的位置提取出人的脸部的特征,该特征通过提取的点连线表示,最后使用表情提取模块根据提取的点的连线的倾斜度以及各个点的坐标在表情数据库中查找得到人的行为状态。
实施例3
本实施例是基于实施例1并对实施例1中的实施方案进行优化,使得本实施例在运行的过程中更加的稳定,性能更加的良好,但是并不仅限于本实施例所描述的一种实施方式。
具体的,在本实施例中,所述行为动作录制模块从该视频中提取出行为动作的时候,通过物体识别提取技术将视频中的动物或者人的轮廓提取出来,并将视频中的背景虚化。这样在对后期的行为动作的视频继续处理的时候,就可以对视频处理的更加的方便,节约了图像处理的步骤。
在本实施例中,将所述三维场景模拟装置设置在迷宫中,三维场景模拟装置将迷宫内的通道进行封闭。即三维场景模拟装置位于迷宫的道路中间,使得人或者动物在迷宫中行走的时候,一定为经过三维场景模拟装置,这样就一定可以达到行为状态的释放,而且在迷宫中行走的时候,由于迷宫的特性,人或者动物在其中并不容易走出去,会有一个长时间的消耗,因此,在迷宫中,会使得人或者动物在每一次进入三维场景模拟装置的时候,就可以使得都是第一次进去所产生的新鲜感,这样所采集到的数据更加的真实。
同时,在本实施例中,所述三维场景模拟装置的数量有多个,多个三维场景模拟装置分别均匀的分布在所述迷宫的通道中,每一个三维场景模拟装置对应一个行为动作录制模块,每一个三维场景模拟装置对应的行为动作录制模块将其得到的人的行为动作和动物的行为动作发送到监控终端,所述监控终端包含所述行为状态判断模块。
同时,在本实施例中,所述监控终端包括显示终端,显示终端用于显示每一个三维场景模拟装置对应的行为动作录制模块所发送的人的行为动作和动物的行为动作。这样,研究人员就可在实验室中使用显示终端对人或者动物进行监视观看,从而达到研究数据采集的目的。
以上公开的仅为本发明的几个具体实施例,但是,本发明实施例并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。
Claims (10)
1.一种动物行为学自动分析系统,其特征在于,包括:
感官状态模拟模块,通过三维场景模拟装置模拟出设定的感官场景;
行为动作录制模块,当动物进入所述三维场景模拟装置的时候对其进行设定时长的视频的录制,并从该视频中提取出动物的行为动作;当人进入所述三维场景模拟装置的时候对其进行同样设定时长的视频的录制,并从该视频中提取出人的行为动作;
行为状态判断模块,根据人的行为动作得到人的行为状态,并将该人的行为状态作为该动物的行为动作所对应的动物的行为状态。
2.如权利要求1所述的一种动物行为学自动分析系统,其特征在于,所述三维场景模拟装置包括封闭空间以及在封闭空间内顶部设置的3D投影仪,所述3D投影仪用于播放三维场景或者切换当前三维场景,所述封闭空间的相对的两侧面分别设有一能够自动开启的自动门,其中一个自动门用于放入动物或者人,另一个自动门用于放出动物或者人,当用于放入动物或者人的自动门开启之后,所述3D投影仪切换当前三维场景并播放切换后的三维场景,当行为动作录制模块录制完成后,用于放出动物或者人的自动门开启。
3.如权利要求2所述的一种动物行为学自动分析系统,其特征在于,用于放入动物或者人的自动门的门外面上设有用于检测动物或者人到来的第一人员检测装置,该自动门的门里面上设有用于检测动物或者人通过的第一流动监测装置,当第一人员检测装置检测到动物或者人到来的时候,该自动门开启,当第一流动监测装置检测到人员通过之后,该自动门关闭;用于放出动物或者人的自动门的门里面上设有用于检测动物或者人到来的第二人员检测装置,该自动门的门外面上设有用于检测动物或者人通过的第二流动监测装置,当第二人员检测装置检测到动物或者人到来的时候,该自动门开启,当第二流动监测装置检测到人员通过之后,该自动门关闭。
4.如权利要求1所述的一种动物行为学自动分析系统,其特征在于,所述行为状态判断模块在得到根据人的行为动作得到人的行为状态的时候,通过进入所述三维场景模拟装置在录入装置中进行录入得到。
5.如权利要求1所述的一种动物行为学自动分析系统,其特征在于,所述行为状态判断模块在得到根据人的行为动作得到人的行为状态的时候,通过提取所述人的行为动作中人的面部表情,并在表情数据库中查找得到人的行为状态,所述表情数据库用于存储面部表情以及面部表情所对应的行为状态。
6.如权利要求5所述的一种动物行为学自动分析系统,其特征在于,提取所述人的行为动作中人的面部表情,包括:
视频定位模块,用于根据人脸的面部特征从人的行为动作中提取出人脸的图像;
图像处理模块,用于将提取出的人脸的图像进行正位处理;
像素定位模块,用于将正位处理后的人脸的图像中设定点的位置进行提取,并将提取的点的位置进行连线,同时获取各个点的坐标;
表情提取模块,根据提取的点的连线的倾斜度以及各个点的坐标在表情数据库中查找得到人的行为状态。
7.如权利要求1所述的一种动物行为学自动分析系统,其特征在于,所述行为动作录制模块从该视频中提取出行为动作的时候,通过物体识别提取技术将视频中的动物或者人的轮廓提取出来,并将视频中的背景虚化。
8.如权利要求1所述的一种动物行为学自动分析系统,其特征在于,将所述三维场景模拟装置设置在迷宫中,三维场景模拟装置将迷宫内的通道进行封闭。
9.如权利要求8所述的一种动物行为学自动分析系统,其特征在于,所述三维场景模拟装置的数量有多个,多个三维场景模拟装置分别均匀的分布在所述迷宫的通道中,每一个三维场景模拟装置对应一个行为动作录制模块,每一个三维场景模拟装置对应的行为动作录制模块将其得到的人的行为动作和动物的行为动作发送到监控终端,所述监控终端包含所述行为状态判断模块。
10.如权利要求9所述的一种动物行为学自动分析系统,其特征在于,所述监控终端包括显示终端,显示终端用于显示每一个三维场景模拟装置对应的行为动作录制模块所发送的人的行为动作和动物的行为动作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010397787.5A CN111563465B (zh) | 2020-05-12 | 2020-05-12 | 一种动物行为学自动分析系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010397787.5A CN111563465B (zh) | 2020-05-12 | 2020-05-12 | 一种动物行为学自动分析系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111563465A true CN111563465A (zh) | 2020-08-21 |
CN111563465B CN111563465B (zh) | 2023-02-07 |
Family
ID=72071973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010397787.5A Active CN111563465B (zh) | 2020-05-12 | 2020-05-12 | 一种动物行为学自动分析系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111563465B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114693576A (zh) * | 2022-03-28 | 2022-07-01 | 浙江大学 | 一种实验动物行为学三维数据记录方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5729471A (en) * | 1995-03-31 | 1998-03-17 | The Regents Of The University Of California | Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene |
WO2018103220A1 (zh) * | 2016-12-09 | 2018-06-14 | 武汉斗鱼网络科技有限公司 | 一种图像处理的方法及装置 |
CN111079465A (zh) * | 2018-10-18 | 2020-04-28 | 北京入思技术有限公司 | 一种基于三维成像分析的情绪状态综合判定方法 |
-
2020
- 2020-05-12 CN CN202010397787.5A patent/CN111563465B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5729471A (en) * | 1995-03-31 | 1998-03-17 | The Regents Of The University Of California | Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene |
WO2018103220A1 (zh) * | 2016-12-09 | 2018-06-14 | 武汉斗鱼网络科技有限公司 | 一种图像处理的方法及装置 |
CN111079465A (zh) * | 2018-10-18 | 2020-04-28 | 北京入思技术有限公司 | 一种基于三维成像分析的情绪状态综合判定方法 |
Non-Patent Citations (1)
Title |
---|
彭斌等: "基于三维场景的电力设施安全区域预警方法", 《电子设计工程》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114693576A (zh) * | 2022-03-28 | 2022-07-01 | 浙江大学 | 一种实验动物行为学三维数据记录方法 |
CN114693576B (zh) * | 2022-03-28 | 2023-07-18 | 浙江大学 | 一种实验动物行为学三维数据记录方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111563465B (zh) | 2023-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kong et al. | Mmact: A large-scale dataset for cross modal human action understanding | |
US11443557B2 (en) | Monitoring and analyzing body language with machine learning, using artificial intelligence systems for improving interaction between humans, and humans and robots | |
CN109176535B (zh) | 基于智能机器人的交互方法及系统 | |
CN108446585A (zh) | 目标跟踪方法、装置、计算机设备和存储介质 | |
CN109272108A (zh) | 基于神经网络算法的移动控制方法、系统和计算机设备 | |
CN110942006A (zh) | 运动姿态识别方法、运动姿态识别装置、终端设备及介质 | |
CN111563465B (zh) | 一种动物行为学自动分析系统 | |
KR20200134502A (ko) | 이미지 인식을 통한 3차원 인체 관절 각도 예측 방법 및 시스템 | |
Khan et al. | Classification of human's activities from gesture recognition in live videos using deep learning | |
JP7026105B2 (ja) | サービス提供システム | |
Rusdi et al. | Student attendance using face recognition technology | |
Ge et al. | Co-saliency-enhanced deep recurrent convolutional networks for human fall detection in E-healthcare | |
CN114120382B (zh) | 一种人脸识别系统的测试方法、装置、电子设备及介质 | |
CN109255310A (zh) | 动物情绪识别方法、装置、终端及可读存储介质 | |
CN116868912A (zh) | 检测动物社交障碍行为的装置及其方法、电子设备、介质 | |
CN108197593B (zh) | 基于三点定位方法的多尺寸人脸表情识别方法及装置 | |
CN113269079B (zh) | 基于视频层次化比对分析和等级行为范式的儿童孤独症早期评估装置及系统 | |
CN115442519A (zh) | 视频处理方法、装置及计算机可读存储介质 | |
CN113837112A (zh) | 一种视频数据处理方法及电子设备 | |
US11558545B2 (en) | Electronic apparatus, controlling method of electronic apparatus, and computer readable medium | |
CN112818838A (zh) | 表情识别方法、装置和电子设备 | |
CN106778537B (zh) | 一种基于图像处理的动物社交网络结构采集及分析系统及其方法 | |
KR101807201B1 (ko) | 영상분석을 이용한 공감 감성 추론 방법 및 시스템 | |
Gonzàlez et al. | Hermes: A research project on human sequence evaluation | |
Seewald | Revisiting End-to-end Deep Learning for Obstacle Avoidance: Replication and Open Issues. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |