CN109657571B - 一种分娩监控方法和装置 - Google Patents

一种分娩监控方法和装置 Download PDF

Info

Publication number
CN109657571B
CN109657571B CN201811472963.6A CN201811472963A CN109657571B CN 109657571 B CN109657571 B CN 109657571B CN 201811472963 A CN201811472963 A CN 201811472963A CN 109657571 B CN109657571 B CN 109657571B
Authority
CN
China
Prior art keywords
frame
color
delivery part
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811472963.6A
Other languages
English (en)
Other versions
CN109657571A (zh
Inventor
陈奕名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JD Digital Technology Holdings Co Ltd
Jingdong Technology Holding Co Ltd
Original Assignee
JD Digital Technology Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JD Digital Technology Holdings Co Ltd filed Critical JD Digital Technology Holdings Co Ltd
Priority to CN201811472963.6A priority Critical patent/CN109657571B/zh
Publication of CN109657571A publication Critical patent/CN109657571A/zh
Application granted granted Critical
Publication of CN109657571B publication Critical patent/CN109657571B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种分娩监控方法和装置,涉及计算机技术领域。该方法的一具体实施方式包括:采集指定区域的多帧图像,在多帧图像中识别目标对象的分娩部位,确定分娩部位所处的位置,并进行分娩部位图像提取;根据预定切片处理方式,对分娩部位图像进行切片处理,得到彩色图片切片以及帧差图片切片;输入彩色图片切片和帧差图片切片至预定行为识别网络中,得到目标对象所处分娩阶段。该实施方式对于待分娩的目标对象,仅对其分娩部位进行监控,以减少不必要因素的干扰;改进传统的3DCNN网络,增加视频帧差的输入,极大程度上提高整体方式的鲁棒性,整体代替现有人为看管方式,降低了投入成本。

Description

一种分娩监控方法和装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种分娩监控方法和装置。
背景技术
随着我国养殖产业的逐步规模化发展,养殖对人类生活水平的提高有很大影响。以养猪行业为例,母猪产仔量是养殖过程中最上游的环节,也是决定猪场利润的关键点。
但母猪生产过程中,如不能及时发现报警,就会出现母猪压住小猪或者寒冷导致小猪死亡的现象。为了避免这种情况,目前通常依赖人工日夜守候、及时处理,耗费大量的人力成本。
为解决上述人力成本过大问题,现有普遍采用视频监控产仔方式,以结合机器视觉,检测出母猪臀部区域,并通过团序列或者圆弧匹配方法,检测出小猪。
在实现本发明的过程中,发明人发现现有技术至少存在如下问题:
1)现有算法均假设在完美摄像头角度、相同光照条件下进行的,当场景切换时,这些条件都会发生变化,因此算法不具备泛化性;
2)不能够监控生产多只小猪的情况,一般情况下,母猪不会只生产一只小猪,当有其他小猪出现在摄像头/图像区域时,不能够有效排除;
3)现有方式都是基于一张图片进行检测,然而母猪分娩是一个过程,一帧图片无法代表整个过程。
发明内容
有鉴于此,本发明实施例提供一种分娩监控方法和装置,至少能够解决现有技术中对环境设备要求较高,主要依赖人为监控目标对象产仔导致成本投入较高的情况。
为实现上述目的,根据本发明实施例的一个方面,提供了一种分娩监控方法,包括:
采集指定区域的多帧图像,在所述多帧图像中识别目标对象的分娩部位,确定所述分娩部位所处的位置,并进行分娩部位图像提取;
根据预定切片处理方式,对所述分娩部位图像进行切片处理,得到彩色图片切片以及帧差图片切片;其中,所述帧差图片切片的数量比所述彩色图片切片少一张;
输入所述彩色图片切片和所述帧差图片切片至预定行为识别网络中,得到所述目标对象所处分娩阶段。
可选的,在识在所述多帧图像中识别目标对象的分娩部位,确定所述分娩部位所处位置之前,还包括:
在所述多帧图像中识别暖房装置,确定所述暖房装置所处的位置,在所确定的位置中识别所述暖房装置的质心;
若所述质心距离所述多帧图像左右两侧的间距不等,则在间距较大的一侧边缘处增加蒙板;其中,所述蒙板的宽度等于所述质心距离所述多帧图像左右两侧间距的差值、或者所述差值与预定倍数的乘积。
可选的,所述在所述多帧图像中识别暖房装置,确定所述暖房装置所处的位置,包括:
根据所述暖房装置的实际颜色,确定预定色彩空间中与所述实际颜色相应的色彩通道、以及所述色彩通道中的颜色分割阈值;
利用所述色彩通道,对所述多帧图像进行颜色偏移色度判别,以将所述多帧图像中颜色值大于等于所述颜色分割阈值的区域分割为所述暖房装置。
可选的,所述在所述多帧图像中识别目标对象的分娩部位,确定所述分娩部位所处的位置,并进行分娩部位图像提取,包括:
根据预定位置分析网络,确定目标对象在所述多帧图像中所处的区域,构建区域框;
对所述多帧图像进行裁剪处理,识别所述目标对象的分娩部位,将所述区域框中与所述分娩部位相邻最近的顶点确定为分娩部位点;
确定所述分娩部位点在预定坐标系中的坐标,结合预定分娩部位区域定义方式,定义所述多帧图像中所述目标对象的分娩部位区域并进行截图操作,得到分娩部位图像。
可选的,所述确定所述分娩部位点在预定坐标系中的坐标,结合预定分娩部位区域定义方式,定义所述多帧图像中所述目标对象的分娩部位区域并进行截图操作,得到分娩部位图像,包括:
分析所述目标对象在所述多帧图像中的躺向,分配所述分娩部位点坐标在各坐标轴上的偏移量,并结合所述分娩部位点的坐标,定义分娩部位区域。
可选的,所述根据预定切片处理方式,对所述分娩部位图像进行切片处理,得到彩色图片切片以及帧差图片切片,包括:
按照多帧顺序,对所述分娩部位图像进行叠加,形成彩色图片切片;以及
对于相邻两帧的彩色图片切片,以前一帧彩色图片切片做背景,提取后一帧彩色图片切片较之所述前一帧彩色图片切片的运动区域,保留所述运动区域,生成帧差图片切片。
可选的,所述预定行为识别网络为3D-TSCNN网络;所述分娩阶段为正在分娩、分娩完毕以及无动作。
为实现上述目的,根据本发明实施例的另一方面,提供了一种分娩监控装置,包括:
图像采集模块,用于采集指定区域的多帧图像,在所述多帧图像中识别目标对象的分娩部位,确定所述分娩部位所处的位置,并进行分娩部位图像提取;
切片处理模块,用于根据预定切片处理方式,对所述分娩部位图像进行切片处理,得到彩色图片切片以及帧差图片切片;其中,所述帧差图片切片的数量比所述彩色图片切片少一张;
行为识别模块,用于输入所述彩色图片切片和所述帧差图片切片至预定行为识别网络中,得到所述目标对象所处分娩阶段。
可选的,所述图像采集模块,还用于:
在所述多帧图像中识别暖房装置,确定所述暖房装置所处的位置,在所确定的位置中识别所述暖房装置的质心;
若所述质心距离所述多帧图像左右两侧的间距不等,则在间距较大的一侧边缘处增加蒙板;其中,所述蒙板的宽度等于所述质心距离所述多帧图像左右两侧间距的差值、或者所述差值与预定倍数的乘积。
可选的,所述图像采集模块,还用于:
根据所述暖房装置的实际颜色,确定预定色彩空间中与所述实际颜色相应的色彩通道、以及所述色彩通道中的颜色分割阈值;
利用所述色彩通道,对所述多帧图像进行颜色偏移色度判别,以将所述多帧图像中颜色值大于等于所述颜色分割阈值的区域分割为所述暖房装置。
可选的,所述图像采集模块,用于:
根据预定位置分析网络,确定目标对象在所述多帧图像中所处的区域,构建区域框;
对所述多帧图像进行裁剪处理,识别所述目标对象的分娩部位,将所述区域框中与所述分娩部位相邻最近的顶点确定为分娩部位点;
确定所述分娩部位点在预定坐标系中的坐标,结合预定分娩部位区域定义方式,定义所述多帧图像中所述目标对象的分娩部位区域并进行截图操作,得到分娩部位图像。
可选的,所述图像采集模块,用于:分析所述目标对象在所述多帧图像中的躺向,分配所述分娩部位点坐标在各坐标轴上的偏移量,并结合所述分娩部位点的坐标,定义分娩部位区域。
可选的,所述切片处理模块,用于:
按照多帧顺序,对所述分娩部位图像进行叠加,形成彩色图片切片;以及
对于相邻两帧的彩色图片切片,以前一帧彩色图片切片做背景,提取后一帧彩色图片切片较之所述前一帧彩色图片切片的运动区域,保留所述运动区域,生成帧差图片切片。
可选的,所述预定行为识别网络为3D-TSCNN网络;所述分娩阶段为正在分娩、分娩完毕以及无动作。
为实现上述目的,根据本发明实施例的再一方面,提供了一种分娩监控电子设备。
本发明实施例的电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述任一所述的分娩监控方法。
为实现上述目的,根据本发明实施例的再一方面,提供了一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现上述任一所述的分娩监控方法。
根据本发明所述提供的方案,上述发明中的一个实施例具有如下优点或有益效果:对于待分娩的母体,仅对其分娩部位进行监控,以减少不必要因素的干扰;改进传统的3DCNN网络,增加视频帧差的输入,很大程度上提高整体方式的鲁棒性。同时可以实现对母猪生产的全方位监控,替代原有人工看守方式,具有普适性,极大地节约了运营与人力成本,提高产仔成活率以及养殖经济效益。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是根据本发明实施例的一种分娩监控方法的主要流程示意图;
图2是摄像头所采集的两只母猪图像示意图;
图3是所提取的母猪分娩部位图像示意图;
图4是所叠加的彩色图片切片示意图;
图5是帧差图片切片示意图;
图6是所采用的行为识别网络结构示意图;
图7是根据本发明实施例的一种可选的分娩监控方法的流程示意图;
图8是所分割的育婴暖房位置;
图9是对图2增加蒙板后的图像示意图;
图10是根据本发明实施例的另一种可选的分娩监控方法的流程示意图;
图11是对图9所分割得到的母猪所处区域的示意图;
图12是根据本发明实施例的一种分娩监控装置的主要模块示意图;
图13是本发明实施例可以应用于其中的示例性系统架构图;
图14是适于用来实现本发明实施例的移动设备或服务器的计算机系统的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,本发明实施例可适用于监控哺乳类动物产仔的场景,例如,母羊、母牛、母猪,且前提需要将其固定在固定场所,本发明主要以母猪产仔为例进行说明,由于其分娩部位位于其臀部位置,因此本发明主要以臀部位置进行说明。
对于本发明所涉及的词语,做解释如下:
YCbCr或Y'CbCr:是色彩空间的一种,通常会用于影片中的影像连续处理,或是数字摄影系统中。Y'为颜色的亮度(luma)成分、而Cb和Cr则为蓝色和红色的浓度偏移量成份。Y'和Y是不同的,而Y就是所谓的流明,表示光的浓度且为非线性,使用伽马修正编码处理。
召回率:是机器学习领域检测模型经常使用的统计指标。例如,图像中有100个目标,检测出来120个,其中80个为真目标,召回率就是80/100;检测出来150个,其中真目标为10个,那么召回率就是10/100。
切片:在制图软件或网页制作软件中,把图像切成几部分,一片一片往上传,这样上传的速度比较快。
帧差法:最为常用的运动目标检测和分割方法之一,基本原理就是在图像序列相邻两帧或三帧间采用根据像素的时间差分通过闭值化来提取出图像中的运动区域。
首先,将相邻帧图像对应像素值相减得到差分图像,然后对差分图像二值化,在环境亮度变化不大的情况下,如果对应像素值变化小于事先确定的阂值时,可认为此处为背景像素;如果变化很大,可认为这是由于图像中运动物体引起的,将这些区域标记为前景像素,利用标记的像素区域可以确定运动目标在图像中的位置。由于相邻两帧间的时间间隔非常短,用前一帧图像作为当前帧的背景模型具有较好的实时性,其背景不积累,且更新速度快、算法简单、计算量小。
参见图1,示出的是本发明实施例提供的一种分娩监控方法的主要流程图,包括如下步骤:
S101:采集指定区域的多帧图像,在所述多帧图像中识别目标对象的分娩部位,确定所述分娩部位所处的位置,并进行分娩部位图像提取;
S102:根据预定切片处理方式,对所述分娩部位图像进行切片处理,得到彩色图片切片以及帧差图片切片;其中,所述帧差图片切片的数量比所述彩色图片切片少一张;
S103:输入所述彩色图片切片和所述帧差图片切片至预定行为识别网络中,得到所述目标对象所处分娩阶段。
上述实施方式中,对于步骤S101,本发明主要采用摄像装置(以后称为摄像头)采集目标对象在指定区域内的图像,这里的目标对象数量可以是一个,也可以是多个,只要能够清晰无遮挡地展现其产仔过程即可。且在部署摄像头时,会对其视角、高度等进行相应调整,避免出现指定区域内目标对象没拍全的情况。
理想条件是一个摄像头只对应于一个目标对象,但成本较高。为节约成本,通常是一个摄像头对应于多个目标对象,本发明以一个摄像头对应于两个目标对象为例进行说明。例如,参见图2所示,每只母猪被限制在固定的脚架中,摄像头正对两只猪中间的分割栏,每个摄像头同时监控两只母猪的生产情况。
本发明对于摄像头配置没有特殊要求,只要清晰度足够(例如1080p),设备稳定,没有明显噪声即可。
通常一帧的图片无法代表整个产仔过程,本发明采集为固定张数的连续帧图像。例如,目前视频是一秒30帧,经过实验统计,母猪产仔过程一般从小猪露出一点到产仔结束,平均为0.5s采集一次,这里取16张。图像数量可以根据不同目标对象实际产仔过程的长短,进行适应性修改,本发明举例对象为母猪,因此以16张为例进行说明,这16张可以为连续帧,也可以是间断的。
进一步的,摄像头对于目标对象的图像采集,可以没有触发机制。只要目标对象进入待产期,被转移到摄像头所对应的产房,摄像头就开始采集图像,或者工作人员开启摄像头后就开始工作。且摄像头所采集的图像,实际均应为彩色,且可以为多帧图像。
分娩监控,需要对目标对象生产过程进行全程监控,例如,生产一个小猪:无动作、开始生、正在生、分娩完毕。无论指定区域只有一个目标对象还是多个,都需要确定其在该指定区域的实际位置。类似于大屏幕采集信息,然后从所采集的信息中挑选出所需要的特征信息。
实际操作中,若监测目标对象整体,可能对于分娩部位无法识别清楚。而哺乳类动物的分娩部位,通常位于其臀部位置。因此,对于其分娩的监控,可以简化为对其臀部位置的监控。本发明对于目标对象臀部区域图像的截取,具体为:
步骤一:根据预定位置分析网络,确定目标对象在多帧图像中所处的区域,构建区域框;
步骤二:对所述多帧图像进行裁剪处理,识别目标对象的分娩部位,将区域框中与分娩部位相邻最近的顶点确定为分娩部位点;
步骤三:确定分娩部位点在预定坐标系中的坐标,结合预定分娩部位区域定义方式,定义多帧图像中目标对象的分娩部位区域并进行截图操作,得到分娩部位图像。
具体描述参见后续图10所示,在此仅做简略描述。依据所定义的臀部区域,对图像进行臀部位置截图,以具体反映其产仔过程,便于监控。对于其16张多帧图片,就需要对每张图片进行臀部区域截图,具体参见图3所示。
对于步骤S102,以图3为例,为了制作更适合于本发明行为识别网络输入的图片,输入张量维度为(16,175,350,3),即16张多帧图片,175*350大小区域,3通道(彩色)图片。制作输入切片可理解为将图片按照连续帧顺序进行叠加,形成(16,175,350,3)的输入张量,并完成了切片制作,一个切片制作一个样本,如图4所示。
类似的,帧差图片处理,就是将相连两帧彩色图片进行相减,只有图片间不同之处会保留下来,规则为相同通道(R,G或者B)相减后如果差为负,则置0,显示为黑色,结果如图5所示。值得注意的是,因为做差运算的关系,制作帧差图片切片时,只有15张,即帧差图片切片数量比彩色图片切片的数量少一张。
对于步骤S103,本发明提出一种新的网络结构3D-TSCNN(3D-Temporal SegmentConvolutional Neural Networks,3维时间分割卷积神经网络结构),整体结构类似于3DCNN(3D Convolutional Neural Networks,3维卷积神经网络结构),不过输入从单一传统的连续多帧彩色图像,增加为连续多帧彩色图像与连续多帧彩色差值图像的同时输入,具体结构参见图6所示。
3DCNN是处理视频连续帧的网络,等价于在传统CNN的基础上增加时间维度。具体地讲,是将输入增加为多帧视频图像。本发明使用默认的16张图片作为一组输入数据。
通常,对于不同场景下、不同用途、不同数据来源的神经网络,在其投入使用之前,需经过反复不断的训练、测试,直到测试结果符合预期结果、或者误差值低于预定误差值时停止。
本发明的训练过程与深度学习网络的训练过程一样,传统的深度学习网络输入图片为3通道,这里把输入的n张图像切片叠加在一起,变为3*n个通道,对于步骤S101所获取的16张连续帧图像,即为3*16个通道。训练的本质、过程都不会变,因此其具体训练过程,本发明在此不再赘述。
对于图6所示网络结构,左右两侧同时分别输入彩色图片切片与帧差图片切片,通过相同的3DCNN网络后,在全连接层融合,最后经过softmax分类输出,得到分类结果分别为:产仔、所产对象路过(例如,小猪路过)、无动作。其中,全连接层和softmax分类,也是本领域技术人员所公知的,在此不再赘述。
若检测到目标对象正在产仔或者产仔完毕,可以发出预警通知,告知工作人员,以及时对所产的小猪、小羊或小牛等进行处理,比如,放置于暖箱中、远离目标对象,防止母体压住其子或者寒冷导致其死亡的现象,以此提高养殖成活率。
上述实施例所提供的方法,对于待分娩的母体,仅对其分娩部位进行监控,以减少不必要因素的干扰;改进传统的3DCNN网络,增加视频帧差的输入,很大程度上提高整体方式的鲁棒性,且对环境变换要求不高,具有普适性。同时可以有效地检测产仔,替代原有人工看守方式,极大地节约了运营与人力成本。
参见图7,示出了根据本发明实施例的一种可选的分娩监控方法流程示意图,包括如下步骤,
S701:采集指定区域的多帧图像;
S702:在所述多帧图像中识别暖房装置,确定所述暖房装置所处的位置,在所确定的位置中识别所述暖房装置的质心;
S703:若所述质心距离所述多帧图像左右两侧的间距不等,则在间距较大的一侧边缘处增加蒙板;其中,所述蒙板的宽度等于所述质心距离所述多帧图像左右两侧间距的差值、或者所述差值与预定倍数的乘积;
S704:确定所述分娩部位所处的位置,并进行分娩部位图像提取;
S705:根据预定切片处理方式,对所述分娩部位图像进行切片处理,得到彩色图片切片以及帧差图片切片;其中,所述帧差图片切片的数量比所述彩色图片切片少一张;
S706:输入所述彩色图片切片和所述帧差图片切片至预定行为识别网络中,得到所述目标对象所处分娩阶段。
若摄像头所采集的图像中仅仅包括目标对象,则这些图像是不需要调整的。但摄像头通常由人为安装,即不可避免存在安装高度、角度不当的问题,导致所采集的图像中可能包含有不必要的对象,例如图2中最右侧的母猪。
因此,在识别目标对象臀部之前,需要先对所采集的图像进行图像预处理,以删除不必要的因素,降低干扰,提高后续产仔监控准确性。以图2为例,可能后续分娩监控也会监控到最右侧母猪的生产,但本摄像头仅负责两头猪的生产监控。
上述实施方式中,对于步骤S701、S704~S706,可具体参见图1所示步骤S101~S103的描述,在此不再赘述。
上述实施方式中,对于步骤S702,同样参见图2所示,白色框框出区域为暖房装置(由于图片限制,只显示黑白,但实际可为红色),本发明称其为育婴暖房,也可以为其他名称或其他较为明显的颜色,不做限制。育婴暖房类似于小孩刚出生时的保温室,以防止刚出生的小动物被冻着。
对于育婴暖房在图像中的位置识别,可以基于其颜色进行,具体地:
步骤一:根据所述暖房装置的实际颜色,确定预定色彩空间中与所述实际颜色相应的色彩通道、以及所述色彩通道中的颜色分割阈值;
步骤二:利用所述色彩通道,对所述多帧图像进行颜色偏移色度判别,以将所述多帧图像中颜色值大于等于所述颜色分割阈值的区域分割为所述暖房装置。
由于育婴暖房呈现较明显的红色,特征明显,因此可以利用YCbCr色彩空间中的Cr,即红色偏移色度来进行判别。这个色彩空间是RGB色彩空间的线性变换,其中Cr通道表现的是红色的偏移量,即该区域越红,该区域的Cr值就越大。如果育婴房是其他颜色,就需要换成其他的算法,但通常情况下,育婴房都是红色的。
YCrCb色彩空间中每个通道的数值范围都是0-255,本发明设定颜色分割阈值为170(也可以是其他值),将Cr通道中,大于170的分割为育婴暖房区域,具体参见图8所示。这里的170流是数值,没有单位,可以理解为是颜色值、色彩值、色度。
另外,需要说明的是,刚生出来的小猪等可能带有红色因子,因此可能会检测数来,但主要栏位检测的是,在部署摄像头时候矫正进行的,只运行一次该算法即可。
对于步骤S703,本发明以分割出的暖房区域的质心横坐标做垂线,当作两个栏的理想分割线,通过判断分割线到图像左右两端的距离给图像加蒙板(也可理解为质心到图像左右两端的距离)。例如,分割线距离左侧500个像素点,距离右侧600个像素点,那么最右侧100个像素点宽的区域被加上蒙板。
进一步的,为尽可能多的去除多干扰因素,再基于分割线距离左右两侧差值的基础上,可以适当调整蒙板宽度。例如,两次距离差的1.1倍,结合上述例子,实际为110个像素点宽区域,加蒙板后的图片具体参见图9所示。
更进一步的,上述倍数(1.1倍),可以是根据正式监控工作前的摄像头所获取的图像,取得一个较好的平均值,也可以根据不同栏位,不同场景进行设定。
上述实施例所提供的方法,针对每一张图像,先确定育婴暖房的位置,然后再通过育婴暖房质心的分割线对每个图像进行图像预处理,以减少不必要因素的干扰。
参见图10,示出的是本发明实施例提供的另一种分娩监控方法的主要流程图,包括如下步骤:
S1001:采集指定区域的多帧图像,根据预定位置分析网络,确定目标对象在所述多帧图像中所处的区域,构建区域框;
S1002:对所述多帧图像进行裁剪处理,识别所述目标对象的分娩部位,将所述区域框中与所述分娩部位相邻最近的顶点确定为分娩部位点;
S1003:确定所述分娩部位点在预定坐标系中的坐标,结合预定分娩部位区域定义方式,定义所述多帧图像中所述目标对象的分娩部位区域并进行截图操作,得到分娩部位图像;
S1004:根据预定切片处理方式,对所述分娩部位图像进行切片处理,得到彩色图片切片以及帧差图片切片;其中,所述帧差图片切片的数量比所述彩色图片切片少一张;
S1005:输入所述彩色图片切片和所述帧差图片切片至预定行为识别网络中,得到所述目标对象所处分娩阶段。
上述实施方式中,对于步骤S1004、S1005可分别参见图1所示步骤S102、S103的描述,在此不再赘述。
上述实施方式中,对于步骤S1001,对于目标对象在图像/指定区域位置的检测,已经是本领域所知的普遍技术,所采用的网络可以为多种,本发明主要使用Yolov3-tiny网络检测目标对象的位置,且可以直接用已经打标训练好的网络,对于网络的训练过程暂不考虑。
Yolov3-tiny是Yolov3网络的简化版,去除了reorg层(重构层)与route层(融合层),主要功能未减少,在模型体积与训练成本上降低了许多。同时由于YOLO网络(一种典型检测模型的网络)可以在不同尺度下训练每一组batch,因而YOLO具有较好的尺度不变性,即有较高的召回率。
另外,Yolov3-tiny网络较小,当场景变化特别大时,可能需要完全重新训练,才具有较高的泛化性能。因此,对于目前场景,本发明主要设置有12个产仔栏位(不同场景可以适当调整),只需要训练一个栏位,剩余栏位均可适用。
通过打标训练好的Yolov3-tiny网络,对所采集的图像进行目标对象位置检测。以图2为例,结合图7所示去除干扰因素,中间框取母猪位置如图11所示。且由于母猪场景除光线变化,栏位形状、大小与位置等均为同一标准,因此Yolov3-tiny网络可以较为准确地能够检测出母猪位置。
需要说明的是,这里所获取的目标对象的位置为大致位置,网络实际测出来目标对象的位置不会完美的精准,但是通过目标对象的位置,能够大致推算出其臀部产仔区域的位置。
对于步骤S1002,对于分娩监控,主要监控其分娩部位生子过程的监控。因此,在确定目标对象所处区域后,还需要进一步确定其分娩部位所处区域。
母体的分娩部位,通常位于其臀部位置。前一步检测目标对象框位置相对都较难,因此直接确定臀部所处坐标等也不容易,本发明根据上一步骤中目标对象所处区域框中的臀部点,进而定义所截取的臀部区域。
这里的臀部点,可定义为目标对象所处区域框的四个顶点中,距离其臀部距离最近的点。以图3为例,臀部点即为区域框的左下点。
由于对象所躺位置不一定是图中位置,因此,对于其臀部点的确定方式,可以有:
1)根据动物的躺向,确定其臀部点。以图3为例,动物向右躺(即面向右侧),则其臀部点位于左侧;若动物向左躺,则其臀部点位于右侧。
2)直接利用图像边缘化方式、裁剪方式等,分析其臀部点。例如,臀部呈现圆弧形状,则较为圆滑区域即为其臀部。
另外,当摄像头的位置发生改变时,确定臀部点的逻辑相对就需要修改。但摄像头通常不会放置于育婴暖房上部,因为可能无法看清母体产仔的区域。
对于步骤S1003,确定臀部点之后,可以定义臀部区域。具体为:
1)首先确定臀部点在预定坐标系中的坐标(x,y);其中,该坐标系可以为图像最左下点/左上点/右下点/右上点为原点所建立,也可以为摄像头所正对分割栏为原点所建立,还可以为育婴暖室的质心为原点所建立,或者其他方式,本发明在此不做限制。
2)根据臀部点的坐标,定义臀部区域。以图3为例,定义臀部区域为(x-25,x+150;y,y+350),形成一个高175、宽350的区域。需要说明的是,这里的xy坐标,不是传统意义上的坐标,而是图像坐标。
对于2)中的臀部区域定义,所采用的数据是根据实际使用场景确定的。但可能摄像头离得很近,那么臀部区域在图像中占比就很大。且该理论为完美假设,比如光线不变、对象位置不变、臀部呈现完美圆弧、场景地面与动物皮肤颜色相差很大,能够进行完美臀部的分割。
上述实施例所提供的方法,通过臀部点的确定,结合臀部区域的定义,便于对臀部区域图像的截取。该方式可以较为准确地检测出母体所处位置、以及其臀部位置,为后续的分娩监控做了基础。
本发明实施例所提供的方法,摒弃现有一张图片的处理方式,将多帧图像变成一个集合,每次算法都处理这个集合,即基于多张图片进行检测;基于臀部点确定臀部区域,提高臀部区域提取的准确性;改进传统的3DCNN网络,增加视频帧差的输入,极大提高整体监控的鲁棒性,且对环境变换要求不高,具有普适性。同时可以有效地检测产仔,替代原有人工看守方式,极大地节约了运营与人力成本。
参见图12,示出了本发明实施例提供的一种分娩监控装置1200的主要模块示意图,包括:
图像采集模块1201,用于采集指定区域的多帧图像,在所述多帧图像中识别目标对象的分娩部位,确定所述分娩部位所处的位置,并进行分娩部位图像提取;
切片处理模块1202,用于根据预定切片处理方式,对所述分娩部位图像进行切片处理,得到彩色图片切片以及帧差图片切片;其中,所述帧差图片切片的数量比所述彩色图片切片少一张;
行为识别模块1203,用于输入所述彩色图片切片和所述帧差图片切片至预定行为识别网络中,得到所述目标对象所处分娩阶段。
本发明实施装置中,所述图像采集模块1201,还用于:
在所述多帧图像中识别暖房装置,确定所述暖房装置所处的位置,在所确定的位置中识别所述暖房装置的质心;
若所述质心距离所述多帧图像左右两侧的间距不等,则在间距较大的一侧边缘处增加蒙板;其中,所述蒙板的宽度等于所述质心距离所述多帧图像左右两侧间距的差值、或者所述差值与预定倍数的乘积。
本发明实施装置中,所述图像采集模块1201,还用于:根据所述暖房装置的实际颜色,确定预定色彩空间中与所述实际颜色相应的色彩通道、以及所述色彩通道中的颜色分割阈值;利用所述色彩通道,对所述多帧图像进行颜色偏移色度判别,以将所述多帧图像中颜色值大于等于所述颜色分割阈值的区域分割为所述暖房装置。
本发明实施装置中,所述图像采集模块1201,用于:根据预定位置分析网络,确定目标对象在所述多帧图像中所处的区域,构建区域框;对所述多帧图像进行裁剪处理,识别所述目标对象的分娩部位,将所述区域框中与所述分娩部位相邻最近的顶点确定为分娩部位点;确定所述分娩部位点在预定坐标系中的坐标,结合预定分娩部位区域定义方式,定义所述多帧图像中所述目标对象的分娩部位区域并进行截图操作,得到分娩部位图像。
本发明实施装置中,所述图像采集模块1201,用于:分析所述目标对象在所述多帧图像中的躺向,分配所述分娩部位点坐标在各坐标轴上的偏移量,并结合所述分娩部位点的坐标,定义分娩部位区域。
本发明实施装置中,所述切片处理模块1202,用于:
按照多帧顺序,对所述分娩部位图像进行叠加,形成彩色图片切片;以及
对于相邻两帧的彩色图片切片,以前一帧彩色图片切片做背景,提取后一帧彩色图片切片较之所述前一帧彩色图片切片的运动区域,保留所述运动区域,生成帧差图片切片。
本发明实施装置中,所述预定行为识别网络为3D-TSCNN网络;所述分娩阶段为正在分娩、分娩完毕以及无动作。
另外,在本发明实施例中所述的分娩监控装置的具体实施内容,在上面所述分娩监控方法中已经详细说明了,故在此重复内容不再说明。
本发明实施例所提供的装置,摒弃现有一张图片的处理,将多帧图像变成一个集合,每次算法都处理这个集合,即基于多张图片进行检测;基于臀部点确定臀部区域,提高臀部区域提取的准确性;改进传统的3DCNN网络,增加视频帧差的输入,极大提高整体监控的鲁棒性。同时可以有效地检测产仔,替代原有人工看守方式,极大地节约了运营与人力成本。
图13示出了可以应用本发明实施例的示例性系统架构1300。
如图13所示,系统架构1300可以包括终端设备1301、1302、1303,网络1304和服务器1305(仅仅是示例)。网络1304用以在终端设备1301、1302、1303和服务器1305之间提供通信链路的介质。网络1304可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备1301、1302、1303通过网络1304与服务器1305交互,以接收或发送消息等。终端设备1301、1302、1303上可以安装有各种通讯客户端应用。
终端设备1301、1302、1303可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器1305可以是提供各种服务的服务器,例如对用户利用终端设备1301、1302、1303所浏览的类网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的信息请求等数据进行分析等处理,并将处理结果反馈给终端设备。
需要说明的是,本发明实施例所提供的分娩监控方法一般由服务器1305执行,相应地,分娩监控装置一般设置于服务器1305中。
应该理解,图13中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图14,其示出了适于用来实现本发明实施例的终端设备的计算机系统1400的结构示意图。图14示出的终端设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图14所示,计算机系统1400包括中央处理单元(CPU)1401,其可以根据存储在只读存储器(ROM)1402中的程序或者从存储部分1408加载到随机访问存储器(RAM)1403中的程序而执行各种适当的动作和处理。在RAM 1403中,还存储有系统1400操作所需的各种程序和数据。CPU 1401、ROM 1402以及RAM 1403通过总线1404彼此相连。输入/输出(I/O)接口1405也连接至总线1404。
以下部件连接至I/O接口1405:包括键盘、鼠标等的输入部分1406;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1407;包括硬盘等的存储部分1408;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1409。通信部分1409经由诸如因特网的网络执行通信处理。驱动器1410也根据需要连接至I/O接口1405。可拆卸介质1411,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1410上,以便于从其上读出的计算机程序根据需要被安装入存储部分1408。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1409从网络上被下载和安装,和/或从可拆卸介质1411被安装。在该计算机程序被中央处理单元(CPU)1401执行时,执行本发明的系统中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括图像采集模块、切片处理模块、行为识别模块。其中,这些模块的名称在某种情况下并不构成对该模块本身的限定,例如,切片处理模块还可以被描述为“彩色图片切片和帧差图片切片处理模块”。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:
利用摄像装置采集指定区域的连续帧图像,识别所述目标对象的臀部在所述连续帧图像中的位置,并进行臀部图像提取;根据预定切片处理方式,对所述臀部图像进行切片处理,得到彩色图片切片以及帧差图片切片;其中,所述帧差图片切片的数量比所述彩色图片切片少一张;输入所述彩色图片切片和所述帧差图片切片至预定行为识别网络中,得到所述目标对象所处分娩阶段。
根据本发明实施例的技术方案,摒弃现有一张图片的处理方式,将多帧图像变成一个集合,每次算法都处理这个集合,即基于多张图片进行检测;基于臀部点确定臀部区域,提高臀部区域提取的准确性;改进传统的3DCNN网络,增加视频帧差的输入,极大提高整体监控的鲁棒性。同时可以有效地检测产仔,替代原有人工看守方式,极大地节约了运营与人力成本。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (14)

1.一种分娩监控方法,其特征在于,包括:
采集指定区域的多帧图像,根据预定位置分析网络,确定目标对象在所述多帧图像中所处的区域,构建区域框;
对所述多帧图像进行裁剪处理,识别所述目标对象的分娩部位,将所述区域框中与所述分娩部位相邻最近的顶点确定为分娩部位点;
确定所述分娩部位点在预定坐标系中的坐标,结合预定分娩部位区域定义方式,定义所述多帧图像中所述目标对象的分娩部位区域并进行截图操作,得到分娩部位图像;
根据预定切片处理方式,对所述分娩部位图像进行切片处理,得到彩色图片切片以及帧差图片切片;其中,所述帧差图片切片的数量比所述彩色图片切片少一张;
输入所述彩色图片切片和所述帧差图片切片至预定行为识别网络中,得到所述目标对象所处分娩阶段。
2.根据权利要求1所述的方法,其特征在于,在所述根据预定位置分析网络,确定目标对象在所述多帧图像中所处的区域之前,还包括:
在所述多帧图像中识别暖房装置,确定所述暖房装置所处的位置,在所确定的位置中识别所述暖房装置的质心;
若所述质心距离所述多帧图像左右两侧的间距不等,则在间距较大的一侧边缘处增加蒙板;其中,所述蒙板的宽度等于所述质心距离所述多帧图像左右两侧间距的差值、或者所述差值与预定倍数的乘积。
3.根据权利要求2所述的方法,其特征在于,所述在所述多帧图像中识别暖房装置,确定所述暖房装置所处的位置,包括:
根据所述暖房装置的实际颜色,确定预定色彩空间中与所述实际颜色相应的色彩通道、以及所述色彩通道中的颜色分割阈值;
利用所述色彩通道,对所述多帧图像进行颜色偏移色度判别,以将所述多帧图像中颜色值大于等于所述颜色分割阈值的区域分割为所述暖房装置。
4.根据权利要求1所述的方法,其特征在于,所述确定所述分娩部位点在预定坐标系中的坐标,结合预定分娩部位区域定义方式,定义所述多帧图像中所述目标对象的分娩部位区域并进行截图操作,得到分娩部位图像,包括:
分析所述目标对象在所述多帧图像中的躺向,分配所述分娩部位点坐标在各坐标轴上的偏移量,并结合所述分娩部位点的坐标,定义分娩部位区域。
5.根据权利要求1所述的方法,其特征在于,所述根据预定切片处理方式,对所述分娩部位图像进行切片处理,得到彩色图片切片以及帧差图片切片,包括:
按照多帧顺序,对所述分娩部位图像进行叠加,形成彩色图片切片;以及
对于相邻两帧的彩色图片切片,以前一帧彩色图片切片做背景,计算后一帧彩色图片像素点与前一帧彩色图片像素点在同一颜色通道的差值,若差值为负则显示为黑色,以此提取后一帧彩色图片切片较之所述前一帧彩色图片切片的运动区域,保留所述运动区域,生成帧差图片切片。
6.根据权利要求1所述的方法,其特征在于,所述预定行为识别网络为三维时间分割卷积神经网络结构3D-TSCNN网络,所述3D-TSCNN网络包括两个独立的3DCNN网络;所述分娩阶段为正在分娩、分娩完毕以及无动作。
7.一种分娩监控装置,其特征在于,包括:
图像采集模块,用于采集指定区域的多帧图像,根据预定位置分析网络,确定目标对象在所述多帧图像中所处的区域,构建区域框;
对所述多帧图像进行裁剪处理,识别所述目标对象的分娩部位,将所述区域框中与所述分娩部位相邻最近的顶点确定为分娩部位点;
确定所述分娩部位点在预定坐标系中的坐标,结合预定分娩部位区域定义方式,定义所述多帧图像中所述目标对象的分娩部位区域并进行截图操作,得到分娩部位图像;
切片处理模块,用于根据预定切片处理方式,对所述分娩部位图像进行切片处理,得到彩色图片切片以及帧差图片切片;其中,所述帧差图片切片的数量比所述彩色图片切片少一张;
行为识别模块,用于输入所述彩色图片切片和所述帧差图片切片至预定行为识别网络中,得到所述目标对象所处分娩阶段。
8.根据权利要求7所述的装置,其特征在于,所述图像采集模块,还用于:
在所述多帧图像中识别暖房装置,确定所述暖房装置所处的位置,在所确定的位置中识别所述暖房装置的质心;
若所述质心距离所述多帧图像左右两侧的间距不等,则在间距较大的一侧边缘处增加蒙板;其中,所述蒙板的宽度等于所述质心距离所述多帧图像左右两侧间距的差值、或者所述差值与预定倍数的乘积。
9.根据权利要求8所述的装置,其特征在于,所述图像采集模块,还用于:
根据所述暖房装置的实际颜色,确定预定色彩空间中与所述实际颜色相应的色彩通道、以及所述色彩通道中的颜色分割阈值;
利用所述色彩通道,对所述多帧图像进行颜色偏移色度判别,以将所述多帧图像中颜色值大于等于所述颜色分割阈值的区域分割为所述暖房装置。
10.根据权利要求7所述的装置,其特征在于,所述图像采集模块,用于:
分析所述目标对象在所述多帧图像中的躺向,分配所述分娩部位点坐标在各坐标轴上的偏移量,并结合所述分娩部位点的坐标,定义分娩部位区域。
11.根据权利要求7所述的装置,其特征在于,所述切片处理模块,用于:
按照多帧顺序,对所述分娩部位图像进行叠加,形成彩色图片切片;以及
对于相邻两帧的彩色图片切片,以前一帧彩色图片切片做背景,计算后一帧彩色图片像素点与前一帧彩色图片像素点在同一颜色通道的差值,若差值为负则显示为黑色,以此提取后一帧彩色图片切片较之所述前一帧彩色图片切片的运动区域,保留所述运动区域,生成帧差图片切片。
12.根据权利要求8所述的装置,其特征在于,所述预定行为识别网络为三维时间分割卷积神经网络结构3D-TSCNN网络,所述3D-TSCNN网络包括两个独立的3DCNN网络;所述分娩阶段为正在分娩、分娩完毕以及无动作。
13.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
14.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
CN201811472963.6A 2018-12-04 2018-12-04 一种分娩监控方法和装置 Active CN109657571B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811472963.6A CN109657571B (zh) 2018-12-04 2018-12-04 一种分娩监控方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811472963.6A CN109657571B (zh) 2018-12-04 2018-12-04 一种分娩监控方法和装置

Publications (2)

Publication Number Publication Date
CN109657571A CN109657571A (zh) 2019-04-19
CN109657571B true CN109657571B (zh) 2020-09-29

Family

ID=66112771

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811472963.6A Active CN109657571B (zh) 2018-12-04 2018-12-04 一种分娩监控方法和装置

Country Status (1)

Country Link
CN (1) CN109657571B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110895694A (zh) * 2019-11-20 2020-03-20 北京海益同展信息科技有限公司 产仔监测方法、装置、电子设备及计算机可读存储介质
CN111249029A (zh) * 2020-02-28 2020-06-09 上海明略人工智能(集团)有限公司 对象检测方法、装置、存储介质以及电子装置
CN113763402A (zh) * 2020-06-04 2021-12-07 Oppo(重庆)智能科技有限公司 一种检测方法、检测装置、电子设备和存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102073863B (zh) * 2010-11-24 2012-08-15 中国科学院半导体研究所 基于深度指纹获取远距离视频监控目标特征尺寸的方法
CN103617436B (zh) * 2013-12-17 2017-01-25 山东大学 基于差分切片能量图和Gabor变换的微表情识别方法
WO2016139323A1 (en) * 2015-03-03 2016-09-09 Farrowtech Aps System, device and method for observing piglet birth
CN108830157B (zh) * 2018-05-15 2021-01-22 华北电力大学(保定) 基于注意力机制和3d卷积神经网络的人体行为识别方法

Also Published As

Publication number Publication date
CN109657571A (zh) 2019-04-19

Similar Documents

Publication Publication Date Title
CN108921105B (zh) 识别目标数量的方法、装置及计算机可读存储介质
CN108765278B (zh) 一种图像处理方法、移动终端及计算机可读存储介质
CN109657571B (zh) 一种分娩监控方法和装置
KR101167567B1 (ko) 어류 모니터링을 위한 영상감시장치 및 방법
CN106163381B (zh) 信息处理设备、信息处理系统和程序
WO2020006899A1 (zh) 牲畜体重测量方法及装置
CN106296738B (zh) 一种基于fpga的母猪分娩智能检测系统以及方法
CN111666920B (zh) 目标物品佩戴检测方法、装置、存储介质及电子装置
CN110598658A (zh) 一种母猪哺乳行为的卷积网络识别方法
CN110826371A (zh) 一种动物识别方法、装置、介质及电子设备
CN111507997B (zh) 图像分割方法、装置、设备及计算机存储介质
CN106815575A (zh) 人脸检测结果集的优选系统及其方法
CN110287902B (zh) 畜禽存活检测方法、装置、设备及计算机程序产品
CN110176024A (zh) 在视频中对目标进行检测的方法、装置、设备和存储介质
CN109086696B (zh) 一种异常行为检测方法、装置、电子设备及存储介质
CN116188331B (zh) 一种建设工程施工状态变化监测方法及系统
CN113191222A (zh) 水下鱼类目标检测方法及装置
CN110363114A (zh) 一种人员工作状态检测方法、装置及终端设备
Allen et al. Analyzing visual signals as visual scenes
CA3230401A1 (en) Systems and methods for the automated monitoring of animal physiological conditions and for the prediction of animal phenotypes and health outcomes
Muñoz-Benavent et al. Impact evaluation of deep learning on image segmentation for automatic bluefin tuna sizing
CN113963162A (zh) 安全帽佩戴识别方法、装置、计算机设备和存储介质
CN112218005B (zh) 一种基于人工智能的视频剪辑方法
CN109272464A (zh) 一种基于指数运算的低照度视频实时增强方法与装置
CN114943929B (zh) 基于图像融合技术的鱼类异常行为实时检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant after: JINGDONG DIGITAL TECHNOLOGY HOLDINGS Co.,Ltd.

Address before: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant before: BEIJING JINGDONG FINANCIAL TECHNOLOGY HOLDING Co.,Ltd.

GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Patentee after: Jingdong Technology Holding Co.,Ltd.

Address before: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Patentee before: Jingdong Digital Technology Holding Co.,Ltd.

Address after: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Patentee after: Jingdong Digital Technology Holding Co.,Ltd.

Address before: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Patentee before: JINGDONG DIGITAL TECHNOLOGY HOLDINGS Co.,Ltd.