JP2019211364A - Device and method for estimating weight of body of animal - Google Patents
Device and method for estimating weight of body of animal Download PDFInfo
- Publication number
- JP2019211364A JP2019211364A JP2018108429A JP2018108429A JP2019211364A JP 2019211364 A JP2019211364 A JP 2019211364A JP 2018108429 A JP2018108429 A JP 2018108429A JP 2018108429 A JP2018108429 A JP 2018108429A JP 2019211364 A JP2019211364 A JP 2019211364A
- Authority
- JP
- Japan
- Prior art keywords
- posture
- weight
- head
- moving object
- pig
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 241001465754 Metazoa Species 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims abstract description 20
- 230000037396 body weight Effects 0.000 claims abstract description 23
- 230000005484 gravity Effects 0.000 claims description 17
- 210000000746 body region Anatomy 0.000 claims 1
- 238000005259 measurement Methods 0.000 abstract description 5
- 244000144972 livestock Species 0.000 description 10
- 241000283690 Bos taurus Species 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000002411 adverse Effects 0.000 description 2
- 210000001217 buttock Anatomy 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 241000282887 Suidae Species 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 235000013372 meat Nutrition 0.000 description 1
- 235000015277 pork Nutrition 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035882 stress Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、動物体の体重推定装置及び体重推定方法に関し、詳しくは、非侵襲的な三次元計測による動物体の体重推定装置及び体重推定方法に関する。 The present invention relates to an animal body weight estimation apparatus and weight estimation method, and more particularly to an animal body weight estimation apparatus and weight estimation method based on non-invasive three-dimensional measurement.
現在の畜産業界は、高齢化、担い手不足の中でどれだけ効率的に事業を行っていくかが課題となっている。そのため、飼養管理の省力化が求められており、その一つに家畜の出荷管理がある。出荷にあたっては背脂肪厚さのみならず一定の範囲の体重であることが求められるため、日常的な体重計測が必要である。ところが、体重計測を行うには、人が家畜を体重計に誘導し、静止または歩行させて計測する必要があることから、大きな労力を要するうえ、家畜にストレスを与えて肉質が低下する原因の一つともなっている。このため、人や計測器が家畜と接触しない非接触式の体重計が要望されてきた。 In the current livestock industry, the issue is how efficiently the business can be carried out due to the aging population and lack of players. For this reason, labor saving in feeding management is demanded, one of which is livestock shipment management. Since shipment requires not only the back fat thickness but also a certain range of weight, daily weight measurement is required. However, in order to measure body weight, it is necessary for a person to guide a livestock to a weight scale and stop or walk to measure it, which requires a lot of labor and stresses the livestock and causes a decline in meat quality. It has become one. For this reason, there has been a demand for a non-contact type weight scale in which a person or measuring instrument does not come into contact with livestock.
そこで、ビデオカメラなどの撮影機器を用いて計測した豚体の投影面積と、物差しなどで直接測定した体高と、従来の体重計で計測した体重との間に密接な関係をなす重回帰式を見出し、この重回帰式に投影面積と体高とを代入することによって体重を推定する非接触式の体重推定方法が提案されている(例えば、特許文献1参照。)。また、豚体の行動観察によって正常な起立姿勢を行う状況を探索し、撮影機器を給水器近くに設置して安定した計測結果を得ようとする試みがなされている(例えば、特許文献2参照。)。 Therefore, a multiple regression equation that has a close relationship between the projected area of the pig body measured using a video camera or other imaging device, the body height measured directly with a ruler, etc., and the weight measured with a conventional scale is used. A non-contact type weight estimation method for estimating body weight by substituting a projected area and a body height into this multiple regression equation has been proposed (for example, see Patent Document 1). In addition, an attempt has been made to search for a situation in which a normal standing posture is performed by observing the behavior of a pig body, and to obtain a stable measurement result by installing a photographing device near the water supply device (see, for example, Patent Document 2). .)
一方、近年では、撮影機器の高画質化、高機能化が進む中で、これにより得られた物体の三次元座標を含むデータを処理可能なソフトウェアも開発されてきた。そこで、所定の姿勢で静止した牛体に赤外帯域のランダムな光点を投光し、反射された反射点を撮影して得られた牛体の三次元点群データに対して、重力方向及び水平方向の断面形状を楕円形状に近似することによって牛体の特徴的な寸法データを抽出し、この寸法データを所定の体重計算式に代入して牛体の体重を推定する技術が開示されている(例えば、特許文献3参照。)。 On the other hand, in recent years, as the image quality and functionality of photographic equipment has been improved, software capable of processing data including the three-dimensional coordinates of an object obtained thereby has been developed. Therefore, a random light spot in the infrared band is projected onto a cow body that is stationary in a predetermined posture, and the three-dimensional point cloud data of the cow body obtained by photographing the reflected reflection point is the direction of gravity. In addition, a technique is disclosed in which characteristic dimension data of a cow is extracted by approximating an elliptical cross-sectional shape in the horizontal direction, and the weight of the cow is estimated by substituting this dimension data into a predetermined weight calculation formula. (For example, refer to Patent Document 3).
上述のように、家畜の体重推定技術を生産現場に導入するためには、容易に実施でき、かつ、推定した体重について高い精度が求められる。しかし、特許文献1または2に記載の体重推定方法では、家畜を上方向から撮影することにより画像データを得る簡便な方法であるが、2次元計測で体重を推定するには精度が充分とはいえず、しかも、畜産動物は成長が早く、個体差も大きいため、定常的に安定した姿勢で計測することは容易でない。特に、4足歩行する豚体や牛体などは、上方向から撮影された体表面積が頭部の起き上がりで過大に評価されやすく、推定体重の精度を低下させる大きな原因となる。
As described above, in order to introduce the livestock weight estimation technique to the production site, it is easy to implement and high accuracy is required for the estimated weight. However, the weight estimation method described in
また、特許文献3に記載された体重推定方法では、家畜の特徴的な寸法データを分析するものの、実際の場合、家畜の体型は楕円ではなく、寸法データを楕円に近似したのでは計算精度が低下するおそれがある。また、撮影時の姿勢について考慮する必要もある。このため、推定体重の精度を高めるには複数の計測器を用いて取得可能な寸法データを増やす他なく、その結果としてシステムが複雑になる。 Further, in the weight estimation method described in Patent Document 3, characteristic dimensional data of livestock is analyzed. However, in the actual case, the body shape of livestock is not an ellipse, and the calculation accuracy is improved if the dimensional data is approximated to an ellipse. May decrease. In addition, it is necessary to consider the posture during shooting. For this reason, in order to increase the accuracy of the estimated weight, there is no choice but to increase the dimension data that can be acquired using a plurality of measuring instruments, resulting in a complicated system.
そこで本発明は、動物体の姿勢を特定することにより、簡易的でありながら高い精度で体重推定が行える動物体の体重推定装置及び体重推定方法を提供することを目的としている。 Accordingly, an object of the present invention is to provide a weight estimation apparatus and a weight estimation method for an animal body that can perform weight estimation with high accuracy by specifying the posture of the animal body.
上記目的を達成するため、本発明の動物体の体重推定装置は、動物体を計測して得られる寸法データに基づいて体重を推定する動物体の体重推定装置であって、前記動物体を撮影して3次元点群データを取得する3次元計測器と、前記3次元点群データから生成された画像データにより前記動物体の頭部の位置を特定する頭部位置特定部と、前記動物体の頭部の位置を指標として前記動物体の姿勢を推定する姿勢推定部と、前記動物体の姿勢に対応して定義された姿勢別回帰モデルに基づいて前記動物体の体重を推定する体重推定部とを備えたことを特徴とし、前記3次元点群データは、単一の前記3次元計測器で取得され、前記動物体の頭部の位置は、前記画像データの領域を複数の区画に分割するとともに、該複数の区画における動物体領域の重心をそれぞれ比較することにより求められることを特徴としている。 In order to achieve the above object, an animal body weight estimation apparatus according to the present invention is an animal body weight estimation apparatus that estimates body weight based on dimension data obtained by measuring an animal body, and images the animal body. A three-dimensional measuring device that acquires three-dimensional point cloud data, a head position specifying unit that specifies the position of the head of the moving object based on image data generated from the three-dimensional point cloud data, and the moving object A posture estimation unit that estimates the posture of the moving object using the position of the head of the mouse as an index, and a weight estimation that estimates the weight of the moving object based on a posture-specific regression model defined corresponding to the posture of the moving object The three-dimensional point cloud data is acquired by a single three-dimensional measuring instrument, and the position of the head of the moving object is divided into a plurality of sections of the image data. Dividing and moving objects in the plurality of compartments It is characterized in that it is determined by comparing the center of gravity of the band, respectively.
また、本発明の動物体の体重推定方法は、動物体を計測して得られる寸法データに基づいて体重を推定する動物体の体重推定方法であって、前記動物体を撮影して3次元点群データを取得する段階と、前記3次元点群データから生成された画像データにより前記動物体の頭部の位置を特定する段階と、前記動物体の頭部の位置を指標として前記動物体の姿勢を推定する段階と、前記動物体の姿勢に対応して定義された姿勢別回帰モデルに基づいて前記動物体の体重を推定する段階とを含むことを特徴とし、前記動物体の頭部の位置を特定する段階は、前記画像データの領域を複数の区画に分割するとともに、該複数の区画における動物体領域の重心をそれぞれ比較することを特徴としている。 The weight estimation method for an animal body according to the present invention is a weight estimation method for an animal body that estimates the body weight based on dimension data obtained by measuring the animal body. Obtaining the group data; identifying the position of the head of the moving object from the image data generated from the three-dimensional point cloud data; and using the position of the head of the moving object as an index Estimating the posture, and estimating the weight of the moving body based on a regression model for each posture defined corresponding to the posture of the moving body. The step of specifying the position is characterized in that the area of the image data is divided into a plurality of sections and the centroids of the moving object areas in the plurality of sections are respectively compared.
本発明によれば、動物体の姿勢に対応して定義された姿勢別回帰モデルに基づいて体重を推定するので、動物体の姿勢変化に起因する推定体重の変動を小さくすることが可能となり、動物体の体重を高い精度で推定することができる。また、姿勢を推定するための指標となる頭部の位置は、単一の3次元計測器で取得して生成された画像データを複数の区画に分割し、この複数の区画における動物体領域の重心をそれぞれ比較するので、動物体の姿勢を簡単かつ確実に求めることができる。 According to the present invention, since the weight is estimated based on the posture-specific regression model defined corresponding to the posture of the moving object, it becomes possible to reduce the fluctuation of the estimated weight caused by the posture change of the moving object, The weight of the moving object can be estimated with high accuracy. In addition, the position of the head serving as an index for estimating the posture is obtained by dividing the image data acquired by a single three-dimensional measuring device into a plurality of sections, and the moving object region in the plurality of sections. Since the respective centers of gravity are compared, the posture of the moving object can be easily and reliably obtained.
まず、図1乃至図9は、本発明を動物体の一つである豚体の体重推定に適用したもので、体重推定装置11は、図1に示すように、豚体12を撮影して3次元点群データを取得する3次元計測器13と、この3次元計測器13が通信接続されるコンピュータ装置(パーソナルコンピュータ)14とで構成されている。コンピュータ装置14は、3次元点群データから生成された画像データにより豚体12の頭部の位置を特定する頭部位置特定部15と、豚体12の頭部の位置を指標として豚体12の姿勢を推定する姿勢推定部16と、豚体12の姿勢に対応して定義された姿勢別回帰モデルに基づいて豚体12の体重を推定する体重推定部17とを備えている。
First, FIG. 1 to FIG. 9 show the case where the present invention is applied to the weight estimation of a pig body which is one of the animal bodies, and the
3次元計測器13は、豚体12の上方に設置され、コンピュータ装置14にUSB端子を介して接続可能であり、例えば、赤外光の特殊パターンを対象物に照射し、対象物によって歪んだパターンを赤外光カメラで撮影して解析することで対象物との距離を計測するKinect(登録商標、以下同じ)で構成されている。すなわち、3次元計測器13は、豚体12を上方向から撮影することにより、あらかじめ設定された画角内の3次元点群データを取得する。
The three-
3次元点群データの処理には、Point Cloud Library(以下、PCLと称する)などのオープンソースのソフトウェアを用いることができる。特に、3次元計測器13としてKinectセンサを用いる場合、開発環境やデータ処理環境が整っているため、制御プログラムや解析プログラムなどを容易に開発することができる。
Open source software such as Point Cloud Library (hereinafter referred to as PCL) can be used for processing the three-dimensional point cloud data. In particular, when a Kinect sensor is used as the three-
頭部位置特定部15は、3次元点群データから所定フォーマットの画像データを生成し、この画像データの領域を複数の領域に分割するとともに、該複数の領域における豚体12の重心をそれぞれ比較することにより豚体12の頭部の位置を特定する。姿勢推定部16は、頭部位置特定部15で特定した頭部の位置に基づいて豚体12の姿勢を、例えば、頭部を上げた状態あるいは横に振った状態であるか否かを特定する。また、姿勢推定部16には、あらかじめ豚体12の姿勢ごとの体積と実測体重との関係から作成した姿勢別回帰モデルを記憶している。体重推定部17は、豚体12の姿勢に対応した姿勢別回帰モデルに基づいて豚体12の体重を推定する。
The head
このように構成された体重推定装置11を用いて豚体12の体重を推定するには、あらかじめ豚体12の姿勢に対応させた単回帰モデルである姿勢別回帰モデルを準備し、実際に豚体12を計測して体積計算及び姿勢推定を行うとともに、姿勢別回帰モデルを用いて豚体12の体重を推定する。そこで、以下では、豚体12の体重推定方法を図2乃至図8を参照しながら体重推定装置11の動作に基づいて具体的に説明する。図2は、本発明における豚体12の体重推定方法のフローチャートである。
In order to estimate the weight of the
まず、3次元計測器13は、図3(A)に示すように、豚体12の上方向から3次元点群データを取得する(ステップS1)。3次元点群データの座標系は3次元計測器13を原点とした座標系になっているため、PCLのSACSegmentationアルゴリズムを用いて床面を検出し、座標については反転することで床面のz座標を「0」とする(ステップS2)。
First, as shown in FIG. 3A, the three-dimensional
次いで、取得した3次元点群データから、PCLのpassThroughfilterアルゴリズムを用いて豚体12が存在する空間を抽出することにより、図3(B)に示すように、豚体12のみの3次元点群データを取得する(ステップS3)。3次元計測器13で得られた全点群数は、例えば、217,088個で、抽出した豚体12の点群数は、例えば、19,719個である。
Next, by extracting the space where the
豚体12の3次元点群データには、点群が多い領域と少ない領域が混在しており、後の処理を容易にするために、PCLのvoxelGridfilterアルゴリズムを用いて等間隔に点群の間引きを行う(ステップS4)。具体的には、3次元点群データ空間を立方格子状に分割し、その各格子内に存在する点群の重心を代表点として3次元点群データをダウンサンプリングする処理を行う。
The three-dimensional point cloud data of the
間引きを行った後の3次元点群データは、規則的な配置となっているので、床面方向(x−y平面)の座標をピクセルの位置で、例えば、1cm間隔で表現し、各ピクセルとして高さ情報を用いた画像(以下、高さ画像と称する)として扱う(ステップS5)。この高さ画像は、豚体12の体積計算及び頭部特定に用いられる。
Since the three-dimensional point cloud data after thinning is regularly arranged, the coordinates in the floor direction (xy plane) are expressed by pixel positions, for example, at intervals of 1 cm, and each pixel As an image using height information (hereinafter referred to as a height image) (step S5). This height image is used for volume calculation and head identification of the
豚体12の体積は、図4に示すように、豚体12が表しているピクセルが専有する面積に、例えば、ピクセルが1cm四方であれば1cm2に高さをかけて、ピクセル上に想定される直方体の体積を計算する。この全ピクセルに想定される直方体の合計が体積となる(ステップS6)。基本的には、体積と体重との間に強い相関があるので、これらの関係から定義した単回帰モデルを用いて体重を推定する。しかし、単純な単回帰モデルによる推定体重では、比較的に良好な精度が得られるものの、真の体積を計算して推定したものではない。つまり、胴体の下方領域や、頭部から首部の下方領域などの3次元計測器13から撮影できていない領域が含まれた状態(図3及び図4)であり、同一個体であっても、刻々と変化する姿勢によってこの領域が変化することから、単回帰モデルに悪影響を及ぼしている。図5は、豚体12の姿勢変化の一例を示したもので、図5(A)に示すように、豚体12の頭部(右側)が胴部に対してほぼ同じ高さに位置した姿勢や、図5(B)に示すように、頭部を下げた姿勢や、図5(C)に示すように、頭部を上げた姿勢などが挙げられる。そこで、豚体12の体重をより精度よく推定するために、豚体12の姿勢を推定し、その姿勢に対応して定義された姿勢別回帰モデルに基づいて体重を推定する。
As shown in FIG. 4, the volume of the
まず、頭部位置特定部15において、豚体12の頭部の位置を特定する(ステップS7)。ここでは、オープンソースの画像処理ソフトウェアであるOpenCVを用いる。図6(A)に示される高さ画像データは、各ピクセルの高さが低いほど暗く表現したもので、前述のように、画像データのピクセルは床面を「0」とした高さ情報であることから、例えば、高さ65cmの部位(ピクセル)は、65という数字になる。そこで、床面から5cmの高さにしきい値を設け、このしきい値を用いて豚領域を床面などの他の領域から切り出す。これにより、図6(B)に示すように、豚領域を「1」、他の領域を「0」とする二値画像を取得する。二値化後の画像データは、高さ情報を保持した状態のままで、小さなノイズが取り除かれる。
First, the head
次いで、図6(C)に示すように、OpenCVのfindContour関数を用いて豚領域の輪郭を求め、この輪郭に対してOpenCVのminAreaRect関数を用いて豚領域を内包する面積が最小になる矩形を求める。次いで、図6(D)に示すように、矩形をx軸方向、つまり長手方向に5等分に分割し、分割した矩形内におけるそれぞれの豚領域の重心を丸印で示す。ここで、重心のx座標(Cx)及びy座標(Cy)は、以下の式を用いて求める。また、重心のz座標は、重心に位置するピクセルの高さである。 Next, as shown in FIG. 6C, the contour of the pig region is obtained by using the OpenCV findControl function, and the rectangle containing the pig region is minimized by using the OpenCV minAreaRect function for this contour. Ask. Next, as shown in FIG. 6D, the rectangle is divided into five equal parts in the x-axis direction, that is, the longitudinal direction, and the center of gravity of each pig region in the divided rectangle is indicated by a circle. Here, the x-coordinate (Cx) and y-coordinate (Cy) of the center of gravity are obtained using the following equations. The z coordinate of the center of gravity is the height of the pixel located at the center of gravity.
Cx:矩形内豚領域重心のx座標
Cy:矩形内豚領域重心のy座標
n:矩形内豚領域のピクセル数
Pxi:該当ピクセルのx座標
Pyi:該当ピクセルのy座標
Cx: x coordinate of the center of gravity of the pig area in the rectangle Cy: y coordinate of the center of gravity of the pig area in the rectangle n: number of pixels of the pig area in the rectangle Pxi: x coordinate of the corresponding pixel Pyi: y coordinate of the corresponding pixel
次いで、図7及び図8に示すように、各矩形内における豚領域重心のx座標、y座標及びz座標の位置をそれぞれ比較することによって豚体12の頭部の位置を特定する。ここで、説明の理解を容易にするために、図7では、z軸方向を高さ方向、x軸方向を左右方向、y軸方向を奥行方向と定義する。また、左右両端の矩形内豚領域重心を丸印で、中央の矩形内豚領域重心を三角印でそれぞれ示す。
Next, as shown in FIGS. 7 and 8, the position of the head of the
以下では、図8に示されるフローチャートに基づいて豚体12の頭部位置を特定する。まず、高さ方向における左端の矩形内豚領域重心を「LZ」と、右端の矩形内豚領域重心を「RZ」と、中央の矩形内豚領域重心を「CZ」と定義して、左右両端の矩形内豚領域重心(LZ,RZ)と中央の矩形内豚領域重心(CZ)との高さをそれぞれ比較する(ステップS20)。この結果、左右両端の矩形内豚領域重心(LZ,RZ)が中央の矩形内豚領域重心(CZ)に対していずれも高い場合には、豚体12は頭部を上げていると判断する。
Below, the head position of the
この場合に、奥行方向における左端の矩形内豚領域重心と中央の矩形内豚領域重心とのy座標の差の絶対値を「|LAY|=LZ−CZ」と、右端の矩形内豚領域重心と中央の矩形内豚領域重心とのy座標の差の絶対値を「|RAY|=RZ−CZ」と定義して、各絶対値(|LAY|,|RAY|)の大きさをそれぞれ比較する(ステップS21)。この結果、左端の値(|LAY|)が右端の値(|RAY|)に対して大きい場合には、左端の方が大きく動いていると判断し、左端が頭部位置とされる(ステップS22)。逆に、右端の値(|RAY|)が左端の値(|LAY|)に対して大きい場合には、右端の方が大きく動いていると判断し、右端が頭部位置とされる(ステップS23)。 In this case, the absolute value of the difference in y-coordinate between the center of the rectangular inner pig area and the center of the rectangular inner pig area in the depth direction is “| LAY | = LZ−CZ”, The absolute value of the difference in y-coordinate between the center of the pig and the center of the pig in the rectangle is defined as “| RAY | = RZ−CZ”, and the magnitude of each absolute value (| LAY |, | RAY |) is compared. (Step S21). As a result, when the value at the left end (| LAY |) is larger than the value at the right end (| RAY |), it is determined that the left end is moving more greatly, and the left end is set as the head position (step S22). Conversely, if the right end value (| RAY |) is larger than the left end value (| LAY |), it is determined that the right end is moving more greatly, and the right end is set as the head position (step S23).
一方、ステップS20において、左端の矩形内豚領域重心(LZ)あるいは右端の矩形内豚領域重心(RZ)が中央の矩形内豚領域重心(CZ)に対して低い場合には、豚体12は頭部を下げていると判断し、左端の矩形内豚領域重心(LZ)と右端の矩形内豚領域重心(RZ)との高さをそれぞれ比較する(ステップS24)。この結果、右端の矩形内豚領域重心(RZ)が左端の矩形内豚領域重心(LZ)に対して低い場合には、右端が頭部位置とされる(ステップS25)。逆に、左端の矩形内豚領域重心(LZ)が右端の矩形内豚領域重心(RZ)に対して低い場合には、左端が頭部位置とされる(ステップS26)。
On the other hand, in step S20, if the leftmost rectangular inner pig area centroid (LZ) or the rightmost rectangular inner pig area centroid (RZ) is lower than the central rectangular inner pig area centroid (CZ), the
特定した頭部位置は、豚体12の姿勢を推定するための指標とされる(図2,ステップS8)。対象とする個体の大きさの違いにかかわらず、同じ姿勢に対しては同じ値となるように中央の矩形内豚領域重心のz座標で割ることにより、頭部重心座標及び中央重心座標を用いた以下の式を用いて頭部位置の高さ(height)及び奥行方向の振り(side)のそれぞれの指標を求める。各指標(height,side)は、値が大きいほど動きの幅が大きいことを示す。 The identified head position is used as an index for estimating the posture of the pig body 12 (FIG. 2, step S8). Regardless of the size of the target individual, the head centroid coordinates and the center centroid coordinates are used by dividing by the z coordinate of the center rectangular pig area centroid so that the same value is obtained for the same posture. Each index of the height of the head position (height) and the swing in the depth direction (side) is obtained using the following equations. Each index (height, side) indicates that the greater the value, the greater the range of motion.
次いで、頭部位置の高さ(height)及び奥行方向の振り(side)を指標として場合分けを行うとともに、それぞれの場合における体積と実測体重との関係から姿勢別回帰モデルを作成し、姿勢推定部16に記憶する(ステップS9)。次いで、体重推定部17は、姿勢推定部16から姿勢別回帰モデルを読み出し、豚体12の推定体重を算出する(ステップS10)。最後に、推定体重は、別途に取得した豚体12の識別番号などと共にコンピュータ装置14の記憶部(図示せず)に記憶される。
Next, while classifying cases using the height of the head position (height) and the depth direction (side) as indices, a regression model for each posture is created from the relationship between the volume and the measured weight in each case, and posture estimation is performed. Store in the unit 16 (step S9). Next, the
ここで、姿勢別回帰モデルの性能を推定体重と実測体重との平均2乗誤差(RMSE:Root Mean Squared Error)を用いて検証した。RMSEは以下の式を用いて算出するもので、「Ai」は実測体重、「Bi」は推定体重である。RMSEの値が「0」に近いほど精度がよいことを表す。 Here, the performance of the regression model for each posture was verified using a mean square error (RMSE: Root Mean Squared Error) between the estimated weight and the actually measured weight. RMSE is calculated using the following equation, where “Ai” is the actual measured weight and “Bi” is the estimated weight. The closer the RMSE value is to “0”, the better the accuracy.
表1は、各姿勢に当てはまるデータの数を示すものである。縦に「height」、横に「side」をとり、それぞれの値の範囲に当てはまったデータの数を示している。 Table 1 shows the number of data applicable to each posture. “Height” is vertically indicated and “side” is indicated horizontally, and indicates the number of data applied to each value range.
表2は、姿勢別回帰モデルの決定係数(R2)を示している。R2は推定体重と実測体重との間の相関係数を表すもので、 R2の値が「1」に近いほど精度がよいことを表す。サンプル数が少なく条件に満たないデータは「N/A」としている。「height」の値が小さく、「side」の値が大きいほど、つまり頭部が低く、頭部の振りが大きいほどR2の値が高い傾向にある。 Table 2 shows the coefficient of determination (R 2 ) of the regression model for each posture. R 2 represents a correlation coefficient between the estimated body weight and the actually measured body weight. The closer the value of R 2 is to “1”, the better the accuracy. Data that has a small number of samples and does not satisfy the conditions is indicated as “N / A”. The value of "height" is small, the larger the value of "side", that the head is low, the value of the more R 2 is larger swing of the head tends to be higher.
表3は、姿勢別回帰モデルの平均2乗誤差(RMSE)を示している。条件に満たないデータは「N/A」としている。R2と同様に、頭部が低く、頭部の振りが大きいほどRMSEの値が低く、誤差が少ない傾向にある。 Table 3 shows the mean square error (RMSE) of the regression model by posture. Data that does not satisfy the condition is “N / A”. Similar to R 2, the head is low, the larger the swing of the head value of the RMSE is low, the error is in the less prone.
図9は、推定体重(縦軸)と実測体重(横軸)との関係を示す散布図である。図9(A)は、姿勢を考慮せずに、全てのデータを用いた単回帰モデルによる推定結果を示しており、RMSEの値は5.592であった。すなわち、推定体重の誤差が±5.59kgであることを意味する。これに対して、図9(B)は、本発明における「height0.4−0.6」かつ「side0.00−0.04」のデータを用いた姿勢別回帰モデルによる推定結果を示しており、RMSEの値は4.627であった。すなわち、推定体重の誤差が±4.63kgであることを意味する。よって、姿勢を考慮することで、より高い精度で体重推定が可能となった。 FIG. 9 is a scatter diagram showing the relationship between the estimated weight (vertical axis) and the actually measured weight (horizontal axis). FIG. 9A shows an estimation result by a single regression model using all data without considering the posture, and the value of RMSE was 5.592. That is, it means that the estimated weight error is ± 5.59 kg. On the other hand, FIG. 9 (B) shows the estimation result by the posture-specific regression model using the data of “height 0.4-0.6” and “side 0.00-0.04” in the present invention. The RMSE value was 4.627. That is, it means that the estimated weight error is ± 4.63 kg. Therefore, the weight can be estimated with higher accuracy by considering the posture.
このように、豚体12の姿勢に対応して定義された姿勢別回帰モデルに基づいて体重を推定するので、豚体12の姿勢変化に起因する推定体重の変動を小さくすることが可能となり、豚体12の体重を高い精度で推定することができる。また、姿勢を推定するための指標となる頭部の位置は、単一の3次元計測器13で取得して生成された画像データを複数の区画に分割し、この複数の区画における豚体12領域の重心(矩形内豚領域重心)をそれぞれ比較するので、豚体12の姿勢を簡単かつ確実に求めることができる。
Thus, since the weight is estimated based on the posture-specific regression model defined corresponding to the posture of the
とりわけ、豚体12のような4足歩行する動物体は、頭部から臀部にかけて高さ方向に凹状または凸状に湾曲させて姿勢を保つことから(図5)、頭部と臀部と、これらの中間に位置する背部とを区別して比較することが容易となり、姿勢を正確に推定するうえで好都合である。また、豚体12の発育は、骨格や頭部といった特徴的な部分が早く成長して輪郭が定まるため、成育期間が異なっても姿勢推定に悪影響を及ぼすことはなく、例えば、子豚であっても安定して姿勢を推定できる。
In particular, an animal body that walks on four legs, such as the
加えて、上述の姿勢推定方法を用いれば、豚体12の一方向(上方向または手前方向)から撮影して取得した3次元点群データさえあれば体重推定が行えるので、3次元計測器13を複数設ける必要がなくなる。すなわち、他の方向から取得した3次元点群データを合成するといった複雑な演算処理を必要としない点で、安価で実用的なものである。
In addition, if the above-described posture estimation method is used, weight estimation can be performed with only the three-dimensional point cloud data obtained by photographing from one direction (upward or near side) of the
なお、本発明は動物体の一つである豚体を例にしたが、これに限定するものではなく、
牛体や馬体などの他の動物体にも適用できる。また、3次元計測器には、安価に入手可能なKinectセンサが好適であるが、赤外光を用いて画素単位に距離を計測することができれば、各種の深度センサやカメラなどを適用できる。さらに、コンピュータ装置は、典型的なデスクトップ型コンピュータやノート型コンピュータなどの他に、タブレットやスマートフォンなどの携帯型の端末装置で構成されてもよい。この場合、撮影には内蔵されるカメラが用いられるため、体重推定を行う際に利便性がより高まる。
In addition, although this invention took as an example the pig body which is one of the animal bodies, it is not limited to this,
It can also be applied to other animal bodies such as cows and horses. For the three-dimensional measuring instrument, an inexpensive Kinect sensor is suitable, but various depth sensors, cameras, and the like can be applied as long as the distance can be measured in units of pixels using infrared light. Furthermore, the computer device may be configured by a portable terminal device such as a tablet or a smartphone in addition to a typical desktop computer or notebook computer. In this case, since a built-in camera is used for shooting, convenience is further enhanced when weight estimation is performed.
11…体重推定装置、12…豚体、13…3次元計測器、14…コンピュータ装置、15…頭部位置特定部、16…姿勢推定部、17…体重推定部
DESCRIPTION OF
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018108429A JP7057971B2 (en) | 2018-06-06 | 2018-06-06 | Animal body weight estimation device and weight estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018108429A JP7057971B2 (en) | 2018-06-06 | 2018-06-06 | Animal body weight estimation device and weight estimation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019211364A true JP2019211364A (en) | 2019-12-12 |
JP7057971B2 JP7057971B2 (en) | 2022-04-21 |
Family
ID=68845097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018108429A Active JP7057971B2 (en) | 2018-06-06 | 2018-06-06 | Animal body weight estimation device and weight estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7057971B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020106422A (en) * | 2018-12-27 | 2020-07-09 | Nttテクノクロス株式会社 | Weight estimation device, weight estimation method, and program |
WO2021193816A1 (en) | 2020-03-26 | 2021-09-30 | Nttテクノクロス株式会社 | Imaging device, imaging method, and program |
JPWO2021191976A1 (en) * | 2020-03-23 | 2021-09-30 | ||
KR20210119133A (en) * | 2020-03-24 | 2021-10-05 | 연세대학교 산학협력단 | Mobile Robot and 3D Global Position Recognition Apparatus Using Pose Estimation Based on Deep Learning |
WO2022202793A1 (en) * | 2021-03-25 | 2022-09-29 | 学校法人東京理科大学 | Growing condition evaluation system |
CN115135973A (en) * | 2020-02-18 | 2022-09-30 | 国立大学法人宫崎大学 | Weight estimation device and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100289879A1 (en) * | 2009-05-01 | 2010-11-18 | Texas Tech University System | Remote Contactless Stereoscopic Mass Estimation System |
JP2012519277A (en) * | 2009-02-27 | 2012-08-23 | ボディー サーフェイス トランスレーションズ, インコーポレイテッド | Physical parameter estimation using 3D display |
JP2016059300A (en) * | 2014-09-17 | 2016-04-25 | 国立大学法人広島大学 | Cow body diagnostic system and cow body diagnostic method |
JP6083638B2 (en) * | 2012-08-24 | 2017-02-22 | 国立大学法人 宮崎大学 | Weight estimation apparatus for animal body and weight estimation method |
-
2018
- 2018-06-06 JP JP2018108429A patent/JP7057971B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012519277A (en) * | 2009-02-27 | 2012-08-23 | ボディー サーフェイス トランスレーションズ, インコーポレイテッド | Physical parameter estimation using 3D display |
US20100289879A1 (en) * | 2009-05-01 | 2010-11-18 | Texas Tech University System | Remote Contactless Stereoscopic Mass Estimation System |
JP6083638B2 (en) * | 2012-08-24 | 2017-02-22 | 国立大学法人 宮崎大学 | Weight estimation apparatus for animal body and weight estimation method |
JP2016059300A (en) * | 2014-09-17 | 2016-04-25 | 国立大学法人広島大学 | Cow body diagnostic system and cow body diagnostic method |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020106422A (en) * | 2018-12-27 | 2020-07-09 | Nttテクノクロス株式会社 | Weight estimation device, weight estimation method, and program |
JP7481550B2 (en) | 2018-12-27 | 2024-05-10 | Nttテクノクロス株式会社 | Body weight estimation device, body weight estimation method, and program |
CN115135973A (en) * | 2020-02-18 | 2022-09-30 | 国立大学法人宫崎大学 | Weight estimation device and program |
CN115135973B (en) * | 2020-02-18 | 2024-04-23 | 国立大学法人宫崎大学 | Weight estimation device and program |
JPWO2021191976A1 (en) * | 2020-03-23 | 2021-09-30 | ||
KR20210119133A (en) * | 2020-03-24 | 2021-10-05 | 연세대학교 산학협력단 | Mobile Robot and 3D Global Position Recognition Apparatus Using Pose Estimation Based on Deep Learning |
KR102352088B1 (en) | 2020-03-24 | 2022-01-14 | 연세대학교 산학협력단 | Mobile Robot and 3D Global Position Recognition Apparatus Using Pose Estimation Based on Deep Learning |
WO2021193816A1 (en) | 2020-03-26 | 2021-09-30 | Nttテクノクロス株式会社 | Imaging device, imaging method, and program |
WO2022202793A1 (en) * | 2021-03-25 | 2022-09-29 | 学校法人東京理科大学 | Growing condition evaluation system |
Also Published As
Publication number | Publication date |
---|---|
JP7057971B2 (en) | 2022-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7057971B2 (en) | Animal body weight estimation device and weight estimation method | |
US11627726B2 (en) | System and method of estimating livestock weight | |
US8351656B2 (en) | Remote contactless stereoscopic mass estimation system | |
JP6125188B2 (en) | Video processing method and apparatus | |
JP7049657B2 (en) | Livestock weight estimation device and livestock weight estimation method | |
JP2021515323A (en) | Methods and devices for remotely characterizing biological specimens | |
JP6777948B2 (en) | Health condition estimator | |
CN109636779B (en) | Method, apparatus and storage medium for recognizing integrated ruler of poultry body | |
JP6338369B2 (en) | Information processing apparatus and information processing method | |
JP2019194573A (en) | Body weight estimation device | |
JP6020439B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
Salau et al. | Extrinsic calibration of a multi-Kinect camera scanning passage for measuring functional traits in dairy cows | |
JP2017203701A (en) | Information processing apparatus, measurement system, information processing method, and program | |
JP2023129574A (en) | Body weight estimation device, method for estimating body weight, and program | |
WO2020261404A1 (en) | Person state detecting device, person state detecting method, and non-transient computer-readable medium containing program | |
US20230154023A1 (en) | Weight estimation device and program | |
JP2015111128A (en) | Position attitude measurement device, position attitude measurement method, and program | |
Liu et al. | Estimation of weight and body measurement model for pigs based on back point cloud data | |
JP2021063774A (en) | Body weight estimation device | |
CN112712590A (en) | Animal point cloud generation method and system | |
Kawasue et al. | Pig weight prediction system using RGB-D sensor and AR glasses: analysis method with free camera capture direction | |
WO2020090188A1 (en) | Methods and apparatus to cluster and collect head-toe lines for automatic camera calibration | |
JP2022142029A (en) | Estimation program, estimation method and information processor | |
RU2769731C2 (en) | Method of determining numerical values of animal exterior | |
RU2785149C2 (en) | Method and device for remote obtainment of characteristics of live specimens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210527 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220303 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7057971 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |