CN115994905B - 用于畜类开膛的定位检测方法 - Google Patents

用于畜类开膛的定位检测方法 Download PDF

Info

Publication number
CN115994905B
CN115994905B CN202310280227.5A CN202310280227A CN115994905B CN 115994905 B CN115994905 B CN 115994905B CN 202310280227 A CN202310280227 A CN 202310280227A CN 115994905 B CN115994905 B CN 115994905B
Authority
CN
China
Prior art keywords
point
coordinate
livestock
track
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310280227.5A
Other languages
English (en)
Other versions
CN115994905A (zh
Inventor
陈超
朱忠成
周莎莎
滕晓飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zibo Tekaize Automation Engineering Co ltd
Original Assignee
Zibo Tekaize Automation Engineering Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zibo Tekaize Automation Engineering Co ltd filed Critical Zibo Tekaize Automation Engineering Co ltd
Priority to CN202310280227.5A priority Critical patent/CN115994905B/zh
Publication of CN115994905A publication Critical patent/CN115994905A/zh
Application granted granted Critical
Publication of CN115994905B publication Critical patent/CN115994905B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/70Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry

Landscapes

  • Image Processing (AREA)

Abstract

本发明属于畜类屠宰开膛技术领域,具体是涉及用于畜类开膛的定位检测方法,包括以下步骤:步骤一:获取待开膛畜类表面轮廓数据;步骤二:基于表面轮廓数据获取畜类完整的点云数据;步骤三:基于点云数据规划切割轨迹,进行切割作业,该方法能够实时扫描畜类的体态特征,根据畜类的实际大小,计算开膛轨迹,为开膛机器人自动化作业提供数据基础。

Description

用于畜类开膛的定位检测方法
技术领域
本发明属于畜类屠宰开膛技术领域,具体是涉及用于畜类开膛的定位检测方法。
背景技术
随着生活水平的提高,居民对猪、牛、羊等畜类肉食的需求逐步增大。目前畜类屠宰行业对人工的依赖还是很严重,用工荒逐步凸显,亟需进行自动化升级。目前畜类屠宰开膛工位,依赖人工手提切割锯进行开膛,主要原因是要保护内脏,不能损伤,避免切坏肠道,造成肉质污染,而现有的机器人技术由于缺乏合适的检测方法,无法做到畜类开膛位置的精确定位。以猪为例,一般屠宰场一天要屠宰上万头,需要员工长时间站立手提切割锯工作,长时间会严重影响身体健康。因为疲劳也会出现切坏内脏或肠道的情况,给生产带来一定的损失。由于畜类的体型存在较大差异,所以比较成熟的示教机器人是无法完成此任务,故畜类屠宰行业中亟需一种能够提高柔性及效率、降低成本、稳定性高的屠宰开膛技术。
发明内容
本发明要解决的技术问题是:克服现有技术的不足,提供一种能够提高柔性及效率、降低成本、稳定性高的畜类开膛的定位检测方法。
本发明为解决其技术问题所采用的技术方案为:用于畜类开膛的定位检测方法包括以下步骤:
步骤一:获取待开膛畜类表面轮廓数据;
步骤二:基于表面轮廓数据获取畜类完整的点云数据;
步骤三:基于点云数据规划切割轨迹,进行切割作业。
所述步骤一中待开膛畜类通过运输装置进行输送,运输装置的同一侧设置开膛机器人及轮廓获取装置,开膛机器人与运输装置及轮廓获取装置电性连接,所述运输装置上设置有编码器,步骤一包括以下子步骤:
1-1:将待开膛畜类的两个后腿分开倒挂在运输装置上并固定,待开膛畜类肚皮朝向轮廓获取装置设置;
1-2:待开膛畜类随运输装置移动至轮廓获取装置,轮廓获取装置获取待开膛畜类的表面轮廓数据;
1-3:将表面轮廓数据发送至开膛机器人,待开膛畜类随运输装置移动至开膛机器人处。
所述轮廓获取装置为3D视觉相机,待开膛畜类随运输装置移动至轮廓获取装置,3D视觉相机扫描畜类,获取畜类单帧激光原始数据,将该激光原始数据发送至开膛机器人处。
所述开膛机器人搭载有XYZ空间坐标系,所述步骤二中包括以下子步骤:
2-1:开膛机器人接收激光原始数据,将激光原始数据进行空间坐标变换后,导入XYZ空间坐标系内,获取完整点云数据;
2-2: 对点云数据进行滤波处理。
所述步骤2-1包括以下子步骤:
2-1-1:激光雷达获取的激光原始数据为单帧激光原始数据,将单帧激光原始数据转换到直角坐标系,获得可利用的单帧点云数据;
2-1-2:将可利用的单帧点云数据的z坐标进行比例缩放,得到数据Fi
2-1-3:对缩放后的单帧点云数据Fi 根据变换矩阵,进行空间坐标变换,得到对应某一帧的点云数据Fi
2-1-4:根据每一帧的点云数据Fi的z坐标,在z轴方向上根据从小到大的顺序进行排序拼接,组装成完整表述已扫描过场景的完整有序点云,即为完整点云数据。
所述步骤2-1-2中,单帧点云数据的z坐标进行比例缩放的缩放比例为r,r=编码器分辨率,则:
Fi ’=
式中,x表示横坐标,y表示纵坐标,z表示竖坐标,θ表示点云数据的极坐标。
所述步骤三包括以下子步骤:
3-1:对完整点云数据z方向进行参考点变换;
3-2:提取畜类后腿部位到中部位置点云数据,寻找畜类两后腿之间的凹轮廓,该凹轮廓的最低点记为轨迹点1;
3-3:沿轨迹点1朝向畜类头部方向下移a1距离定为轨迹点2,轨迹点2朝向远离畜类的方向移动a2距离定为轨迹点3;此处距离视刀具切割点相对刀具旋转中心的位置、刀具半径、切口大小而定,目的是能放入刀具护罩,避免往下切割时损伤内脏。
3-4:沿轨迹点3朝向轨迹点2方向移动a3距离,且沿朝向畜类头部方向下移a4距离定为轨迹点4;目的是用刀具护罩勾住猪的肚皮,使刀具仅与肚皮接触。
3-5:根据数据的分布形态可以计算出点云的表面质心即为轨迹点6,再利用轨迹点4,对坐标进行比例插值,得到轨迹点5;目的是利用轨迹点4、5、6拟合圆弧运动,扯着肚皮进行切割,避免损坏肠道和内脏。
3-6:截取畜类中间部位到远离畜类后腿部位的数据并向x-z平面投影,利用800×100搜索框从右往左搜索出畜类前脚区域;最先搜索到的一定是畜类前腿,可利用搜索到的区域面积进行筛选,避免噪点的干扰;
3-7:基于搜索到的区域,计算中心坐标,将其Y坐标替换成对应位置的肚皮坐标即为轨迹点8,利用轨迹点6对坐标进行比例差值,得到轨迹点7;这一步的目的是为了切割胸骨;
3-8:从轨迹点8往畜类后腿部位方向移动a9距离得到轨迹点9,从轨迹点9往远离畜类方向移动a10距离得到轨迹点10;
3-9:将轨迹点1-轨迹点10顺序连接,即为切割轨迹,开膛机器人沿切割轨迹进行切割作业。
所述3-1中,从完整点云数据z坐标进行分割,将分割出的z坐标从场景坐标系转换到畜类局部坐标系,得到zi,其计算公式为:
zi=zi - z0
其中,zi 为畜类在场景坐标系中的全局z坐标;zi为畜类在自身坐标系中的局部z坐标;z0 为畜类在场景坐标系中最左侧边缘的z坐标。
所述3-5中,轨迹点6的计算步骤如下:
3-5-1:将畜类点云数据投影到x-z平面;
3-5-2:计算每一帧在x方向的长度li
3-5-3:计算在x方向的总长度L=∑li
3-5-4:计算轨迹点6在x方向的质心x6=L/m;其中m为畜类点云的帧数。
所述轨迹点5的计算步骤如下:
3-5-5:计算轨迹点4与轨迹点6在x方向的长度l46
3-5-6:轨迹点5在x方向的坐标为x5=x4+l46/2,x6和x4为对应轨迹点位置的x坐标;
所述3-7中,中心坐标计算步骤如下:
3-7-1:计算搜索到的畜类前腿区域在x方向的长度l8a
3-7-2:区域中心坐标在x方向的坐标为x8=xau+l8a/2;其中xau为畜类前腿区域在x方向的上边缘的x坐标;
轨迹点7的计算步骤如下:
3-7-3:计算轨迹点6与轨迹点8在x方向的长度l68
3-7-4:轨迹点7在x方向的坐标为x7=x6+l68/2。
与现有技术相比,本发明具有以下有益效果:
1.解放了劳动力,改善了用工荒问题,节约了企业的用工成本。
2.实时扫描畜类的体态特征,根据畜类的实际大小,计算开膛轨迹,为开膛机器人自动化作业提供数据基础。
3.该方法提高了屠宰柔性及效率、降低成本、稳定性高。
附图说明
图1为本发明结构示意图。
图2为以猪为例生成完整点云数据的示意图。
图3为以猪为例生成切割路径的示意图。
具体实施方式
下面结合附图对本发明实施例做进一步描述:
参照图1至图3,用于畜类开膛的定位检测方法包括以下步骤:
步骤一:获取待开膛畜类表面轮廓数据;所述步骤一中待开膛畜类通过现有的运输装置进行输送,运输装置的同一侧设置开膛机器人及轮廓获取装置,开膛机器人与运输装置及轮廓获取装置电性连接,所述运输装置上设置有编码器,步骤一包括以下子步骤:
1-1:将待开膛畜类的两个后腿分开倒挂在运输装置上并固定,待开膛畜类肚皮朝向轮廓获取装置设置;
1-2:待开膛畜类随运输装置移动至轮廓获取装置,轮廓获取装置获取待开膛畜类的表面轮廓数据;
1-3:将表面轮廓数据发送至开膛机器人,待开膛畜类随运输装置移动至开膛机器人处。本申请对于运输装置采用现有技术的运输线结构(如链板输送机等),运输线上安装有编码器,从而为开膛机器人及轮廓获取装置发送位置信息,使得轮廓获取装置准确获取待开膛畜类表面轮廓信息后,畜类随即能够准确行进至开膛机器人处。输送线上可以设置现有的稳定固定带,用于将畜类身体稳固,避免畜类乱晃,同时保证畜类的肚子始终朝向轮廓获取装置。轮廓获取装置可以是激光雷达、3D相机等空间测量设备。
所述轮廓获取装置为3D视觉相机,待开膛畜类随运输装置移动至轮廓获取装置,3D视觉相机扫描畜类,获取畜类单帧激光原始数据,将该激光原始数据发送至开膛机器人处。3D视觉包括2D激光雷达、3D激光雷达、3D线扫相机、3D面扫相机等激光测量设备。开膛机器人包括串联、并联的多自由度自动运行设备。3D视觉和开膛机器人的空间坐标系的对齐校准。
步骤二:基于表面轮廓数据获取畜类完整的点云数据;所述开膛机器人搭载有XYZ空间坐标系,所述步骤二中包括以下子步骤:
2-1:开膛机器人接收激光原始数据,将激光原始数据进行空间坐标变换后,导入XYZ空间坐标系内,获取完整点云数据;所述步骤2-1包括以下子步骤:
2-1-1:激光雷达获取的激光原始数据为单帧激光原始数据,将单帧激光原始数据转换到直角坐标系,获得可利用的单帧点云数据;
2-1-2:将可利用的单帧点云数据的z坐标进行比例缩放,得到数据Fi ;所述步骤2-1-2中,单帧点云数据的z坐标进行比例缩放的缩放比例为r,r=编码器分辨率,则:
Fi ’=
式中,x表示横坐标,y表示纵坐标,z表示竖坐标,θ表示点云数据的极坐标。
具体地说,编码器分辨率r的计算公式如下:
r=l/n;
其中:n为编码器一圈的脉冲数。l为编码器一圈的输送线距离。
2-1-3:对缩放后的单帧点云数据Fi 根据变换矩阵,进行空间坐标变换,得到对应某一帧的点云数据Fi;/>为从视觉坐标系到机器人工具坐标系的其次变换矩阵,具体形式视机器人结构及动作行式而定。
2-1-4:根据每一帧的点云数据Fi的z坐标,在z轴方向上根据从小到大的顺序进行排序拼接,组装成完整表述已扫描过场景的完整有序点云,即为完整点云数据。
参照图2,以一头猪为例,,Fi 为上图每一列的所对应的数据,Fi 中每一列数据的x,y坐标加上/>中对应x、y坐标的标定值,最终求得机器人工具坐标系下的Fi,相当于坐标平移。
2-2:对点云数据进行滤波处理。主要目的是剔除测量时产生的杂点、离群点、噪点等。滤波处理一般包括体素滤波、统计滤波、条件滤波、半径滤波、高斯滤波、双边滤波等。
步骤三:基于点云数据规划切割轨迹,进行切割作业。所述步骤三包括以下子步骤:
3-1:对完整点云数据z方向进行参考点变换;在数据分布中是凹肚皮,变换的目的是把数据变为凸肚皮,为后面数据分析做准备,参考点可选择输送带上的某一位置即可。所述3-1中,从完整点云数据z坐标进行分割,将分割出的z坐标从场景坐标系转换到畜类局部坐标系,得到zi
zi=zi - z0
其中,zi 为畜类在场景坐标系中的全局z坐标;zi为畜类在自身坐标系中的局部z坐标;z0 为畜类在场景坐标系中最左侧边缘的z坐标。
凹凸肚皮是在不同坐标系下对同一数据的描述,雷达坐标系测量的数据在描述猪肚皮时,凹陷的地方因离雷达较远,故测量的y值较大,与描述习惯相悖,故以猪身后的某一位置,例如输送带位置,对y值进行变换,以参考坐标系进行表述,方便后续算法处理。场景坐标系为输送线启动时所建立的坐标系,z值由编码器给定,随着时间流逝,雷达测量的原始数据z坐标会无限增大。为方便计算会把完整的畜类数据变换到自身坐标系下,例如以畜类最左侧数据为z轴原点。
3-2:提取畜类后腿部位到中部位置点云数据,寻找畜类两后腿之间的凹轮廓,该凹轮廓的最低点记为轨迹点1;
3-3:沿轨迹点1朝向畜类头部方向下移a1距离定为轨迹点2,轨迹点2朝向远离畜类的方向移动a2距离定为轨迹点3;此处距离视刀具切割点相对刀具旋转中心的位置、刀具半径、切口大小而定,目的是能放入刀具护罩,避免往下切割时损伤内脏。
3-4:沿轨迹点3朝向轨迹点2方向移动a3距离,且沿朝向畜类头部方向下移a4距离定为轨迹点4;目的是用刀具护罩勾住畜类的肚皮,使刀具仅与肚皮接触。
3-5:根据数据的分布形态可以计算出点云的表面质心即为轨迹点6,再利用轨迹点4,对坐标进行比例插值,得到轨迹点5;目的是利用轨迹点4、5、6拟合圆弧运动,扯着肚皮进行切割,避免损坏肠道和内脏。
所述3-5中,轨迹点6的计算步骤如下:
3-5-1:将畜类点云数据投影到x-z平面;
3-5-2:计算每一帧在x方向的长度li
3-5-3:计算在x方向的总长度L=∑li
3-5-4:计算轨迹点6在x方向的质心x6=L/m;其中m为畜类点云的帧数。
所述轨迹点5的计算步骤如下:
3-5-5:计算轨迹点4与轨迹点6在x方向的长度l46
3-5-6:轨迹点5在x方向的坐标为x5=x4+l46/2;
x6和x4为对应轨迹点位置的x坐标。
3-6:截取畜类中间部位到远离畜类后腿部位的数据并向x-z平面投影,利用800×100mm搜索框从右往左搜索出畜类前脚区域;最先搜索到的一定是畜类前腿,可利用搜索到的区域面积进行筛选,避免噪点的干扰;
3-7:基于搜索到的区域,计算中心坐标,将其Y坐标替换成对应位置的肚皮坐标即为轨迹点8,利用轨迹点6对坐标进行比例差值,得到轨迹点7;这一步的目的是为了切割胸骨;
所述步骤3-7中,中心坐标计算步骤如下:
3-7-1:计算搜索到的畜类前腿区域在x方向的长度l8a
3-7-2:区域中心坐标在x方向的坐标为x8=xau+l8a/2;其中xau为畜类前腿区域在x方向的上边缘的x坐标;
轨迹点7的计算步骤如下:
3-7-3:计算轨迹点6与轨迹点8在x方向的长度l68
3-7-4:轨迹点7在x方向的坐标为x7=x6+l68/2。
3-8:从轨迹点8往畜类后腿部位方向移动a9距离得到轨迹点9,从轨迹点9往远离畜类方向移动a10距离得到轨迹点10;目的是完整的退出开膛机器人上的切割刀具,之后开膛机器人回到待机位,进行换刀和消毒作业,为下头畜类开膛做准备。
3-9:将轨迹点1-轨迹点10顺序连接,即为切割轨迹,开膛机器人沿切割轨迹进行切割作业。
以一头长度为2米左右的猪为例,距离a1为50mm,所述距离a2为250mm,所述距离a3为200mm,所述距离a4为50mm,所述距离a9为200mm,所述距离a10为300mm。
a1-a4、a9-a10的取值需要根据畜类种类及长度范围确定,不同的畜类及其长度的不同,对应设置的值也不同,开膛机器人内设置有数据库,可以预先将不同畜类、对应长度范围内a1-a4、a9-a10的取值多少存入数据库中,在进行数值确定时,开膛机器人直接从数据库中调取有关数值即可。
在上述轨迹设置时,每个轨迹点只提取Y坐标和Z坐标,经过坐标变换后发送给机器人。Z坐标提取时以轨迹点为中心,提取周围10×10mm范围内的Z坐标均值作为当前轨迹的Z坐标,目的是排除漏点和噪点的影响,使Z坐标值更鲁棒。
为提高效率开膛机器人上的切割刀具沿切割轨迹做切割作业时,在轨迹点1到轨迹点6做高速直线运动。轨迹点6到轨迹点8之间,因为存在胸骨,为避免损坏刀具和跳刀(刀具从胸膛跳出,无法有效切割)要放慢速度,所以此区间做低速圆弧运动,在轨迹点8到轨迹点10做高速直线运动。
具体地说,开膛机器人上的切割刀具在不同的轨迹点设置有不同的摆动角度,具体摆动角度为轨迹点1、轨迹点2、轨迹点3为0度,轨迹点4为2.5度,轨迹点5为10.5度,轨迹点6为-10.5度,轨迹点7、轨迹点8为-13.5度,轨迹点9、轨迹点10为-14.5度。摆动角度控制机器人末端切割锯与Y轴的夹角,目的是配合轨迹完成有效切割。此摆动角度为超参数,和上述距离参数一样,可根据畜类种类和体长范围进行预先存储设定。

Claims (6)

1.用于畜类开膛的定位检测方法,其特征在于,包括以下步骤:
步骤一:获取待开膛畜类表面轮廓数据;
所述步骤一包括以下子步骤:
1-1:将待开膛畜类的两个后腿分开倒挂在运输装置上并固定,待开膛畜类肚皮朝向轮廓获取装置设置;
1-2:待开膛畜类随运输装置移动至轮廓获取装置,轮廓获取装置获取待开膛畜类的表面轮廓数据;
1-3:将表面轮廓数据发送至开膛机器人,待开膛畜类随运输装置移动至开膛机器人处;
步骤二:基于表面轮廓数据获取畜类完整的点云数据;
所述步骤二中包括以下子步骤:
2-1:开膛机器人接收激光原始数据,将激光原始数据进行空间坐标变换后,导入XYZ空间坐标系内,获取完整点云数据;所述2-1包括以下子步骤:
2-1-1:激光雷达获取的激光原始数据为单帧激光原始数据,将单帧激光原始数据转换到直角坐标系,获得可利用的单帧点云数据;
2-1-2:将可利用的单帧点云数据的z坐标进行比例缩放,得到数据Fi
2-1-3:对缩放后的单帧点云数据Fi 根据变换矩阵,进行空间坐标变换,得到对应某一帧的点云数据Fi
2-1-4:根据每一帧的点云数据Fi的z坐标,在z轴方向上根据从小到大的顺序进行排序拼接,组装成完整表述已扫描过场景的完整有序点云,即为完整点云数据;
2-2: 对点云数据进行滤波处理;
步骤三:基于点云数据规划切割轨迹,进行切割作业;
所述步骤三包括以下子步骤:
3-1:对完整点云数据的z坐标进行参考点变换;
3-2:提取畜类后腿部位到中部位置点云数据,寻找畜类两后腿之间的凹轮廓,该凹轮廓的最低点记为轨迹点1;
3-3:沿轨迹点1朝向畜类头部方向下移a1距离定为轨迹点2,轨迹点2朝向远离畜类的方向移动a2距离定为轨迹点3,所述a1及a2距离视刀具切割点相对刀具旋转中心的位置、刀具半径、切口大小而定,目的是能放入刀具护罩,避免往下切割时损伤内脏;
3-4:沿轨迹点3朝向轨迹点2方向移动a3距离,且沿朝向畜类头部方向下移a4距离定为轨迹点4,a3及a4距离设置目的是用刀具护罩勾住畜类的肚皮,使刀具仅与肚皮接触;
3-5:根据数据的分布形态可以计算出点云的表面质心即为轨迹点6,再利用轨迹点4,对坐标进行比例插值,得到轨迹点5;
3-6:截取畜类中间部位到远离畜类后腿部位的数据并向x-z平面投影,搜索出畜类前脚区域;
3-7:基于搜索到的区域,计算中心坐标,将其Y坐标替换成对应位置的肚皮坐标即为轨迹点8,利用轨迹点6对坐标进行比例差值,得到轨迹点7;
3-8:从轨迹点8往畜类后腿部位方向移动a9距离得到轨迹点9,从轨迹点9往远离畜类方向移动a10距离得到轨迹点10,a9 及a10距离设置目的是能够完整的退出开膛机器人上的切割刀具,之后开膛机器人回到待机位,进行换刀和消毒作业,为下头畜类开膛做准备;
3-9:将轨迹点1-轨迹点10顺序连接,即为切割轨迹,开膛机器人沿切割轨迹进行切割作业。
2.根据权利要求1所述的用于畜类开膛的定位检测方法,其特征在于,所述2-1-2中,单帧点云数据的z坐标进行比例缩放的缩放比例为r,r=编码器分辨率,则:
式中,x表示横坐标,y表示纵坐标,z表示竖坐标,θ表示点云数据的极坐标。
3.根据权利要求2所述的用于畜类开膛的定位检测方法,其特征在于,所述3-1中,对完整点云数据z坐标进行分割,将分割出的z坐标从场景坐标系转换到畜类局部坐标系,得到zi,其计算公式为:
zi= zi - z0
其中,zi 为畜类在场景坐标系中的全局z坐标;zi为畜类在自身坐标系中的局部z坐标;z0 为畜类在场景坐标系中最左侧边缘的z坐标。
4.根据权利要求3所述的用于畜类开膛的定位检测方法,其特征在于,所述3-5中,轨迹点6的计算步骤如下:
3-5-1:将畜类点云数据投影到x-z平面;
3-5-2:计算每一帧在x方向的长度li
3-5-3:计算在x方向的总长度L=∑li
3-5-4:计算轨迹点6在x方向的质心x6=L/m;其中m为畜类点云的帧数。
5.根据权利要求4所述的用于畜类开膛的定位检测方法,其特征在于,所述轨迹点5的计算步骤如下:
3-5-5:计算轨迹点4与轨迹点6在x方向的长度l46
3-5-6:轨迹点5在x方向的坐标为x5=x4+l46/2;
x6和x4为对应轨迹点位置的x坐标。
6.根据权利要求5所述的用于畜类开膛的定位检测方法,其特征在于,所述3-7中,中心坐标计算步骤如下:
3-7-1:计算搜索到的畜类前腿区域在x方向的长度l8a
3-7-2:区域中心坐标在x方向的坐标为x8=xau+l8a/2;其中xau为畜类前腿区域在x方向的上边缘的x坐标;
轨迹点7的计算步骤如下:
3-7-3:计算轨迹点6与轨迹点8在x方向的长度l68
3-7-4:轨迹点7在x方向的坐标为x7=x6+l68/2。
CN202310280227.5A 2023-03-22 2023-03-22 用于畜类开膛的定位检测方法 Active CN115994905B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310280227.5A CN115994905B (zh) 2023-03-22 2023-03-22 用于畜类开膛的定位检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310280227.5A CN115994905B (zh) 2023-03-22 2023-03-22 用于畜类开膛的定位检测方法

Publications (2)

Publication Number Publication Date
CN115994905A CN115994905A (zh) 2023-04-21
CN115994905B true CN115994905B (zh) 2023-08-01

Family

ID=85992357

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310280227.5A Active CN115994905B (zh) 2023-03-22 2023-03-22 用于畜类开膛的定位检测方法

Country Status (1)

Country Link
CN (1) CN115994905B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127727A (zh) * 2016-06-07 2016-11-16 中国农业大学 一种家畜体表三维数据获取方法
CN106804685A (zh) * 2017-01-19 2017-06-09 大连理工大学 一种机器人智能家畜剖切的装置及方法
CN107668161A (zh) * 2017-09-27 2018-02-09 华中农业大学 基于机器视觉的家禽净膛机器人系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2349035T3 (es) * 2003-04-04 2010-12-22 MAJA-MASCHINENFABRIK HERMANN SCHILL GMBH & CO. KG Dispositivo para descortezar o preparar un trozo de carne o una parte de un animal de matadero.
CN110986788B (zh) * 2019-11-15 2020-10-23 华南农业大学 一种基于三维点云牲畜表型体尺数据的自动测量方法
CN114494295A (zh) * 2022-01-26 2022-05-13 牧原肉食品有限公司 一种机器人智能屠宰分割方法、装置和存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127727A (zh) * 2016-06-07 2016-11-16 中国农业大学 一种家畜体表三维数据获取方法
CN106804685A (zh) * 2017-01-19 2017-06-09 大连理工大学 一种机器人智能家畜剖切的装置及方法
CN107668161A (zh) * 2017-09-27 2018-02-09 华中农业大学 基于机器视觉的家禽净膛机器人系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Intelligent automation of bird deboning;Ai-Ping Hu,et al;《2012 IEEE/ASME International Conference on Advanced Intelligent Mechatronics (AIM)》;全文 *

Also Published As

Publication number Publication date
CN115994905A (zh) 2023-04-21

Similar Documents

Publication Publication Date Title
US10485242B2 (en) Sensor-guided automated method and system for processing crustaceans
EP2353395A1 (en) Food processing apparatus for detecting and cutting tissues from food items
EP0489984B1 (en) Method for controlling the processing of poultry, and device for carrying out this method
CN110612921A (zh) 一种定位栏母猪的监测系统及方法
CN110999944B (zh) 一种大规格鱼类自动宰杀装置及控制方法
CN111296539A (zh) 羊胴体机器人自主分割方法及系统
WO2021030321A1 (en) Systems and methods for using three-dimensional x-ray imaging in meat production and processing applications
CN112917038A (zh) 一种自动焊接的控制方法
WO2016023075A1 (en) 3d imaging
US10251406B2 (en) Device for loosening bones from a meat piece such as ribs from a belly piece of slaughtered animal
CN111774775B (zh) 用于大型结构件龙门式机器人焊接的三维视觉系统及控制方法
CN111317591A (zh) 针对纺锤形鱼类的疫苗自动注射装置及自动获取鱼苗注射位置的方法
CN115994905B (zh) 用于畜类开膛的定位检测方法
Lu et al. Extracting body surface dimensions from top-view images of pigs
Liu et al. Robotic 3-D laser-guided approach for efficient cutting of porcine belly
Li et al. A posture-based measurement adjustment method for improving the accuracy of beef cattle body size measurement based on point cloud data
Cong et al. A porcine abdomen cutting robot system using binocular vision techniques based on kernel principal component analysis
JP6950994B1 (ja) 魚フィーレ骨抜き取りシステム
EP1174034A1 (en) Method for trimming pork bellies
WO2008010732A1 (en) An imaging apparatus and method of determining a cutting path and grading a carcass
Ming et al. Design of porcine abdomen cutting robot system based on binocular vision
AU2019208245A1 (en) Image acquisition for meat grading
CN211532340U (zh) 一种定位栏母猪的监测系统
Chen et al. Design and research on six degrees of freedom robot evisceration system for poultry
EP2092829B1 (de) Verfahren zum automatisierten Bearbeiten von Schlachttieren

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant