JP2019211364A - Device and method for estimating weight of body of animal - Google Patents

Device and method for estimating weight of body of animal Download PDF

Info

Publication number
JP2019211364A
JP2019211364A JP2018108429A JP2018108429A JP2019211364A JP 2019211364 A JP2019211364 A JP 2019211364A JP 2018108429 A JP2018108429 A JP 2018108429A JP 2018108429 A JP2018108429 A JP 2018108429A JP 2019211364 A JP2019211364 A JP 2019211364A
Authority
JP
Japan
Prior art keywords
posture
weight
head
moving object
pig
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018108429A
Other languages
Japanese (ja)
Other versions
JP7057971B2 (en
Inventor
剛 野口
Tsuyoshi Noguchi
剛 野口
祥史 久保田
Yoshifumi Kubota
祥史 久保田
毅 岡山
Takeshi Okayama
毅 岡山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Federation of Agricultural Cooperative Associations
Ibaraki University NUC
Original Assignee
National Federation of Agricultural Cooperative Associations
Ibaraki University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Federation of Agricultural Cooperative Associations, Ibaraki University NUC filed Critical National Federation of Agricultural Cooperative Associations
Priority to JP2018108429A priority Critical patent/JP7057971B2/en
Publication of JP2019211364A publication Critical patent/JP2019211364A/en
Application granted granted Critical
Publication of JP7057971B2 publication Critical patent/JP7057971B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a device and a method for estimating the weight of the body of an animal which allow an easy and still precise estimation of the weight of an animal body by specifying the posture of the animal body.SOLUTION: A body weight estimation device 11 includes: a three-dimensional measurement unit 13 for taking an image of the body of an animal and acquiring three-dimensional point group data; a head part position specification unit 15 for specifying the position of the head of the animal body from image data generated from the three-dimensional point group data; a posture estimation unit 16 for estimating the posture of the animal body using the position of the head part of the animal body as an index; and a body weight estimation unit 17 for estimating the body weight of the animal body on the basis of the regression model for each posture defined according to the posture of the animal body.SELECTED DRAWING: Figure 1

Description

本発明は、動物体の体重推定装置及び体重推定方法に関し、詳しくは、非侵襲的な三次元計測による動物体の体重推定装置及び体重推定方法に関する。   The present invention relates to an animal body weight estimation apparatus and weight estimation method, and more particularly to an animal body weight estimation apparatus and weight estimation method based on non-invasive three-dimensional measurement.

現在の畜産業界は、高齢化、担い手不足の中でどれだけ効率的に事業を行っていくかが課題となっている。そのため、飼養管理の省力化が求められており、その一つに家畜の出荷管理がある。出荷にあたっては背脂肪厚さのみならず一定の範囲の体重であることが求められるため、日常的な体重計測が必要である。ところが、体重計測を行うには、人が家畜を体重計に誘導し、静止または歩行させて計測する必要があることから、大きな労力を要するうえ、家畜にストレスを与えて肉質が低下する原因の一つともなっている。このため、人や計測器が家畜と接触しない非接触式の体重計が要望されてきた。   In the current livestock industry, the issue is how efficiently the business can be carried out due to the aging population and lack of players. For this reason, labor saving in feeding management is demanded, one of which is livestock shipment management. Since shipment requires not only the back fat thickness but also a certain range of weight, daily weight measurement is required. However, in order to measure body weight, it is necessary for a person to guide a livestock to a weight scale and stop or walk to measure it, which requires a lot of labor and stresses the livestock and causes a decline in meat quality. It has become one. For this reason, there has been a demand for a non-contact type weight scale in which a person or measuring instrument does not come into contact with livestock.

そこで、ビデオカメラなどの撮影機器を用いて計測した豚体の投影面積と、物差しなどで直接測定した体高と、従来の体重計で計測した体重との間に密接な関係をなす重回帰式を見出し、この重回帰式に投影面積と体高とを代入することによって体重を推定する非接触式の体重推定方法が提案されている(例えば、特許文献1参照。)。また、豚体の行動観察によって正常な起立姿勢を行う状況を探索し、撮影機器を給水器近くに設置して安定した計測結果を得ようとする試みがなされている(例えば、特許文献2参照。)。   Therefore, a multiple regression equation that has a close relationship between the projected area of the pig body measured using a video camera or other imaging device, the body height measured directly with a ruler, etc., and the weight measured with a conventional scale is used. A non-contact type weight estimation method for estimating body weight by substituting a projected area and a body height into this multiple regression equation has been proposed (for example, see Patent Document 1). In addition, an attempt has been made to search for a situation in which a normal standing posture is performed by observing the behavior of a pig body, and to obtain a stable measurement result by installing a photographing device near the water supply device (see, for example, Patent Document 2). .)

一方、近年では、撮影機器の高画質化、高機能化が進む中で、これにより得られた物体の三次元座標を含むデータを処理可能なソフトウェアも開発されてきた。そこで、所定の姿勢で静止した牛体に赤外帯域のランダムな光点を投光し、反射された反射点を撮影して得られた牛体の三次元点群データに対して、重力方向及び水平方向の断面形状を楕円形状に近似することによって牛体の特徴的な寸法データを抽出し、この寸法データを所定の体重計算式に代入して牛体の体重を推定する技術が開示されている(例えば、特許文献3参照。)。   On the other hand, in recent years, as the image quality and functionality of photographic equipment has been improved, software capable of processing data including the three-dimensional coordinates of an object obtained thereby has been developed. Therefore, a random light spot in the infrared band is projected onto a cow body that is stationary in a predetermined posture, and the three-dimensional point cloud data of the cow body obtained by photographing the reflected reflection point is the direction of gravity. In addition, a technique is disclosed in which characteristic dimension data of a cow is extracted by approximating an elliptical cross-sectional shape in the horizontal direction, and the weight of the cow is estimated by substituting this dimension data into a predetermined weight calculation formula. (For example, refer to Patent Document 3).

特開2002−243527号公報JP 2002-243527 A 特開2002−286421号公報JP 2002-286421 A 特開2014−44078号公報JP 2014-44078 A

上述のように、家畜の体重推定技術を生産現場に導入するためには、容易に実施でき、かつ、推定した体重について高い精度が求められる。しかし、特許文献1または2に記載の体重推定方法では、家畜を上方向から撮影することにより画像データを得る簡便な方法であるが、2次元計測で体重を推定するには精度が充分とはいえず、しかも、畜産動物は成長が早く、個体差も大きいため、定常的に安定した姿勢で計測することは容易でない。特に、4足歩行する豚体や牛体などは、上方向から撮影された体表面積が頭部の起き上がりで過大に評価されやすく、推定体重の精度を低下させる大きな原因となる。   As described above, in order to introduce the livestock weight estimation technique to the production site, it is easy to implement and high accuracy is required for the estimated weight. However, the weight estimation method described in Patent Document 1 or 2 is a simple method for obtaining image data by photographing livestock from above, but the accuracy is sufficient to estimate weight by two-dimensional measurement. In addition, since livestock animals grow fast and have large individual differences, it is not easy to measure them in a steady and stable posture. In particular, pigs and cows walking on four legs tend to overestimate the body surface area taken from above, with the head rising, which is a major cause of reduced estimated weight accuracy.

また、特許文献3に記載された体重推定方法では、家畜の特徴的な寸法データを分析するものの、実際の場合、家畜の体型は楕円ではなく、寸法データを楕円に近似したのでは計算精度が低下するおそれがある。また、撮影時の姿勢について考慮する必要もある。このため、推定体重の精度を高めるには複数の計測器を用いて取得可能な寸法データを増やす他なく、その結果としてシステムが複雑になる。   Further, in the weight estimation method described in Patent Document 3, characteristic dimensional data of livestock is analyzed. However, in the actual case, the body shape of livestock is not an ellipse, and the calculation accuracy is improved if the dimensional data is approximated to an ellipse. May decrease. In addition, it is necessary to consider the posture during shooting. For this reason, in order to increase the accuracy of the estimated weight, there is no choice but to increase the dimension data that can be acquired using a plurality of measuring instruments, resulting in a complicated system.

そこで本発明は、動物体の姿勢を特定することにより、簡易的でありながら高い精度で体重推定が行える動物体の体重推定装置及び体重推定方法を提供することを目的としている。   Accordingly, an object of the present invention is to provide a weight estimation apparatus and a weight estimation method for an animal body that can perform weight estimation with high accuracy by specifying the posture of the animal body.

上記目的を達成するため、本発明の動物体の体重推定装置は、動物体を計測して得られる寸法データに基づいて体重を推定する動物体の体重推定装置であって、前記動物体を撮影して3次元点群データを取得する3次元計測器と、前記3次元点群データから生成された画像データにより前記動物体の頭部の位置を特定する頭部位置特定部と、前記動物体の頭部の位置を指標として前記動物体の姿勢を推定する姿勢推定部と、前記動物体の姿勢に対応して定義された姿勢別回帰モデルに基づいて前記動物体の体重を推定する体重推定部とを備えたことを特徴とし、前記3次元点群データは、単一の前記3次元計測器で取得され、前記動物体の頭部の位置は、前記画像データの領域を複数の区画に分割するとともに、該複数の区画における動物体領域の重心をそれぞれ比較することにより求められることを特徴としている。   In order to achieve the above object, an animal body weight estimation apparatus according to the present invention is an animal body weight estimation apparatus that estimates body weight based on dimension data obtained by measuring an animal body, and images the animal body. A three-dimensional measuring device that acquires three-dimensional point cloud data, a head position specifying unit that specifies the position of the head of the moving object based on image data generated from the three-dimensional point cloud data, and the moving object A posture estimation unit that estimates the posture of the moving object using the position of the head of the mouse as an index, and a weight estimation that estimates the weight of the moving object based on a posture-specific regression model defined corresponding to the posture of the moving object The three-dimensional point cloud data is acquired by a single three-dimensional measuring instrument, and the position of the head of the moving object is divided into a plurality of sections of the image data. Dividing and moving objects in the plurality of compartments It is characterized in that it is determined by comparing the center of gravity of the band, respectively.

また、本発明の動物体の体重推定方法は、動物体を計測して得られる寸法データに基づいて体重を推定する動物体の体重推定方法であって、前記動物体を撮影して3次元点群データを取得する段階と、前記3次元点群データから生成された画像データにより前記動物体の頭部の位置を特定する段階と、前記動物体の頭部の位置を指標として前記動物体の姿勢を推定する段階と、前記動物体の姿勢に対応して定義された姿勢別回帰モデルに基づいて前記動物体の体重を推定する段階とを含むことを特徴とし、前記動物体の頭部の位置を特定する段階は、前記画像データの領域を複数の区画に分割するとともに、該複数の区画における動物体領域の重心をそれぞれ比較することを特徴としている。   The weight estimation method for an animal body according to the present invention is a weight estimation method for an animal body that estimates the body weight based on dimension data obtained by measuring the animal body. Obtaining the group data; identifying the position of the head of the moving object from the image data generated from the three-dimensional point cloud data; and using the position of the head of the moving object as an index Estimating the posture, and estimating the weight of the moving body based on a regression model for each posture defined corresponding to the posture of the moving body. The step of specifying the position is characterized in that the area of the image data is divided into a plurality of sections and the centroids of the moving object areas in the plurality of sections are respectively compared.

本発明によれば、動物体の姿勢に対応して定義された姿勢別回帰モデルに基づいて体重を推定するので、動物体の姿勢変化に起因する推定体重の変動を小さくすることが可能となり、動物体の体重を高い精度で推定することができる。また、姿勢を推定するための指標となる頭部の位置は、単一の3次元計測器で取得して生成された画像データを複数の区画に分割し、この複数の区画における動物体領域の重心をそれぞれ比較するので、動物体の姿勢を簡単かつ確実に求めることができる。   According to the present invention, since the weight is estimated based on the posture-specific regression model defined corresponding to the posture of the moving object, it becomes possible to reduce the fluctuation of the estimated weight caused by the posture change of the moving object, The weight of the moving object can be estimated with high accuracy. In addition, the position of the head serving as an index for estimating the posture is obtained by dividing the image data acquired by a single three-dimensional measuring device into a plurality of sections, and the moving object region in the plurality of sections. Since the respective centers of gravity are compared, the posture of the moving object can be easily and reliably obtained.

本発明の動物体の体重推定装置の一例を示す構成図である。It is a block diagram which shows an example of the body weight estimation apparatus of the moving body of this invention. 同じく動物体の体重推定方法のフローチャートである。It is a flowchart of the weight estimation method of a moving body similarly. 同じく3次元計測器で取得した3次元点群データを示す図である。It is a figure which shows the three-dimensional point cloud data similarly acquired with the three-dimensional measuring device. 同じく3次元点群データに基づく体積計算を示す模式図である。It is a schematic diagram which similarly shows volume calculation based on three-dimensional point cloud data. 同じく動物体の姿勢変化の一例を示す図である。It is a figure which similarly shows an example of the attitude | position change of a moving body. 同じく画像処理による動物体領域の重心を求める説明図である。It is explanatory drawing which calculates | requires the gravity center of the moving body area | region by image processing similarly. 同じく動物体の頭部位置を特定する説明図である。It is explanatory drawing which specifies the head position of a moving body similarly. 同じく動物体の頭部位置を特定するフローチャートである。It is a flowchart which similarly specifies the head position of a moving body. 同じく推定体重と実測体重との関係を示す散布図である。It is a scatter diagram which similarly shows the relationship between an estimated weight and a measured weight.

まず、図1乃至図9は、本発明を動物体の一つである豚体の体重推定に適用したもので、体重推定装置11は、図1に示すように、豚体12を撮影して3次元点群データを取得する3次元計測器13と、この3次元計測器13が通信接続されるコンピュータ装置(パーソナルコンピュータ)14とで構成されている。コンピュータ装置14は、3次元点群データから生成された画像データにより豚体12の頭部の位置を特定する頭部位置特定部15と、豚体12の頭部の位置を指標として豚体12の姿勢を推定する姿勢推定部16と、豚体12の姿勢に対応して定義された姿勢別回帰モデルに基づいて豚体12の体重を推定する体重推定部17とを備えている。   First, FIG. 1 to FIG. 9 show the case where the present invention is applied to the weight estimation of a pig body which is one of the animal bodies, and the weight estimation device 11 photographs the pig body 12 as shown in FIG. A three-dimensional measuring instrument 13 for acquiring three-dimensional point cloud data and a computer device (personal computer) 14 to which the three-dimensional measuring instrument 13 is communicatively connected. The computer device 14 includes a head position specifying unit 15 that specifies the position of the head of the pig body 12 from image data generated from the three-dimensional point cloud data, and the pig body 12 using the position of the head of the pig body 12 as an index. A posture estimation unit 16 for estimating the posture of the pig body 12, and a weight estimation unit 17 for estimating the weight of the pig body 12 based on a regression model for each posture defined corresponding to the posture of the pig body 12.

3次元計測器13は、豚体12の上方に設置され、コンピュータ装置14にUSB端子を介して接続可能であり、例えば、赤外光の特殊パターンを対象物に照射し、対象物によって歪んだパターンを赤外光カメラで撮影して解析することで対象物との距離を計測するKinect(登録商標、以下同じ)で構成されている。すなわち、3次元計測器13は、豚体12を上方向から撮影することにより、あらかじめ設定された画角内の3次元点群データを取得する。   The three-dimensional measuring instrument 13 is installed above the pig body 12 and can be connected to the computer device 14 via a USB terminal. For example, the object is irradiated with a special pattern of infrared light and is distorted by the object. The pattern is composed of Kinect (registered trademark, the same applies hereinafter) that measures the distance to the object by photographing and analyzing the pattern with an infrared light camera. That is, the three-dimensional measuring instrument 13 acquires three-dimensional point cloud data within a preset angle of view by photographing the pig body 12 from above.

3次元点群データの処理には、Point Cloud Library(以下、PCLと称する)などのオープンソースのソフトウェアを用いることができる。特に、3次元計測器13としてKinectセンサを用いる場合、開発環境やデータ処理環境が整っているため、制御プログラムや解析プログラムなどを容易に開発することができる。   Open source software such as Point Cloud Library (hereinafter referred to as PCL) can be used for processing the three-dimensional point cloud data. In particular, when a Kinect sensor is used as the three-dimensional measuring instrument 13, since a development environment and a data processing environment are prepared, a control program, an analysis program, and the like can be easily developed.

頭部位置特定部15は、3次元点群データから所定フォーマットの画像データを生成し、この画像データの領域を複数の領域に分割するとともに、該複数の領域における豚体12の重心をそれぞれ比較することにより豚体12の頭部の位置を特定する。姿勢推定部16は、頭部位置特定部15で特定した頭部の位置に基づいて豚体12の姿勢を、例えば、頭部を上げた状態あるいは横に振った状態であるか否かを特定する。また、姿勢推定部16には、あらかじめ豚体12の姿勢ごとの体積と実測体重との関係から作成した姿勢別回帰モデルを記憶している。体重推定部17は、豚体12の姿勢に対応した姿勢別回帰モデルに基づいて豚体12の体重を推定する。   The head position specifying unit 15 generates image data of a predetermined format from the three-dimensional point cloud data, divides the area of the image data into a plurality of areas, and compares the center of gravity of the pig body 12 in the plurality of areas. By doing so, the position of the head of the pig body 12 is specified. The posture estimation unit 16 specifies whether the posture of the pig body 12 is, for example, a state where the head is raised or shaken based on the head position specified by the head position specifying unit 15. To do. Also, the posture estimation unit 16 stores a posture-specific regression model created in advance from the relationship between the volume of each pig body 12 for each posture and the measured body weight. The weight estimation unit 17 estimates the weight of the pig body 12 based on a posture-specific regression model corresponding to the posture of the pig body 12.

このように構成された体重推定装置11を用いて豚体12の体重を推定するには、あらかじめ豚体12の姿勢に対応させた単回帰モデルである姿勢別回帰モデルを準備し、実際に豚体12を計測して体積計算及び姿勢推定を行うとともに、姿勢別回帰モデルを用いて豚体12の体重を推定する。そこで、以下では、豚体12の体重推定方法を図2乃至図8を参照しながら体重推定装置11の動作に基づいて具体的に説明する。図2は、本発明における豚体12の体重推定方法のフローチャートである。   In order to estimate the weight of the pig body 12 using the weight estimation apparatus 11 configured as described above, a regression model for each posture, which is a single regression model corresponding to the posture of the pig body 12, is prepared in advance. The body 12 is measured to perform volume calculation and posture estimation, and the weight of the pig body 12 is estimated using a posture-specific regression model. Therefore, in the following, the weight estimation method for the pig body 12 will be specifically described based on the operation of the weight estimation apparatus 11 with reference to FIGS. 2 to 8. FIG. 2 is a flowchart of the weight estimation method for the pig body 12 in the present invention.

まず、3次元計測器13は、図3(A)に示すように、豚体12の上方向から3次元点群データを取得する(ステップS1)。3次元点群データの座標系は3次元計測器13を原点とした座標系になっているため、PCLのSACSegmentationアルゴリズムを用いて床面を検出し、座標については反転することで床面のz座標を「0」とする(ステップS2)。   First, as shown in FIG. 3A, the three-dimensional measuring instrument 13 acquires three-dimensional point cloud data from above the pig body 12 (step S1). Since the coordinate system of the three-dimensional point cloud data is a coordinate system with the three-dimensional measuring instrument 13 as the origin, the floor surface is detected by using the PCL SACS segmentation algorithm, and the coordinates are inverted to make the z plane of the floor surface. The coordinates are set to “0” (step S2).

次いで、取得した3次元点群データから、PCLのpassThroughfilterアルゴリズムを用いて豚体12が存在する空間を抽出することにより、図3(B)に示すように、豚体12のみの3次元点群データを取得する(ステップS3)。3次元計測器13で得られた全点群数は、例えば、217,088個で、抽出した豚体12の点群数は、例えば、19,719個である。   Next, by extracting the space where the pig body 12 exists from the acquired three-dimensional point cloud data using the PCL passThroughfilter algorithm, as shown in FIG. Data is acquired (step S3). The total number of point groups obtained by the three-dimensional measuring instrument 13 is 217,088, for example, and the number of point groups of the extracted pig body 12 is 19,719, for example.

豚体12の3次元点群データには、点群が多い領域と少ない領域が混在しており、後の処理を容易にするために、PCLのvoxelGridfilterアルゴリズムを用いて等間隔に点群の間引きを行う(ステップS4)。具体的には、3次元点群データ空間を立方格子状に分割し、その各格子内に存在する点群の重心を代表点として3次元点群データをダウンサンプリングする処理を行う。   The three-dimensional point cloud data of the pig body 12 includes a region with many point clouds and a region with few point clouds. In order to facilitate later processing, the point cloud is thinned out at equal intervals using the PCL voxelgridfilter algorithm. (Step S4). Specifically, the three-dimensional point cloud data space is divided into a cubic lattice, and a process of down-sampling the three-dimensional point cloud data with the center of gravity of the point cloud existing in each lattice as a representative point is performed.

間引きを行った後の3次元点群データは、規則的な配置となっているので、床面方向(x−y平面)の座標をピクセルの位置で、例えば、1cm間隔で表現し、各ピクセルとして高さ情報を用いた画像(以下、高さ画像と称する)として扱う(ステップS5)。この高さ画像は、豚体12の体積計算及び頭部特定に用いられる。   Since the three-dimensional point cloud data after thinning is regularly arranged, the coordinates in the floor direction (xy plane) are expressed by pixel positions, for example, at intervals of 1 cm, and each pixel As an image using height information (hereinafter referred to as a height image) (step S5). This height image is used for volume calculation and head identification of the pig body 12.

豚体12の体積は、図4に示すように、豚体12が表しているピクセルが専有する面積に、例えば、ピクセルが1cm四方であれば1cmに高さをかけて、ピクセル上に想定される直方体の体積を計算する。この全ピクセルに想定される直方体の合計が体積となる(ステップS6)。基本的には、体積と体重との間に強い相関があるので、これらの関係から定義した単回帰モデルを用いて体重を推定する。しかし、単純な単回帰モデルによる推定体重では、比較的に良好な精度が得られるものの、真の体積を計算して推定したものではない。つまり、胴体の下方領域や、頭部から首部の下方領域などの3次元計測器13から撮影できていない領域が含まれた状態(図3及び図4)であり、同一個体であっても、刻々と変化する姿勢によってこの領域が変化することから、単回帰モデルに悪影響を及ぼしている。図5は、豚体12の姿勢変化の一例を示したもので、図5(A)に示すように、豚体12の頭部(右側)が胴部に対してほぼ同じ高さに位置した姿勢や、図5(B)に示すように、頭部を下げた姿勢や、図5(C)に示すように、頭部を上げた姿勢などが挙げられる。そこで、豚体12の体重をより精度よく推定するために、豚体12の姿勢を推定し、その姿勢に対応して定義された姿勢別回帰モデルに基づいて体重を推定する。 As shown in FIG. 4, the volume of the pig body 12 is assumed on the pixel by multiplying the area occupied by the pixel represented by the pig body 12, for example, 1 cm 2 if the pixel is 1 cm square. Calculate the volume of the rectangular parallelepiped. The total of the rectangular parallelepipeds assumed for all the pixels is the volume (step S6). Basically, there is a strong correlation between volume and body weight, so body weight is estimated using a single regression model defined from these relationships. However, although the estimated weight based on a simple single regression model can provide relatively good accuracy, it is not estimated by calculating the true volume. That is, it is a state (FIGS. 3 and 4) that includes a region not captured from the three-dimensional measuring instrument 13 such as a lower region of the trunk and a lower region of the head to the neck, Since this area changes according to the posture that changes every moment, the single regression model is adversely affected. FIG. 5 shows an example of the posture change of the pig body 12, and as shown in FIG. 5 (A), the head (right side) of the pig body 12 is located at substantially the same height with respect to the trunk. The posture, a posture with the head lowered as shown in FIG. 5B, a posture with the head raised as shown in FIG. Therefore, in order to estimate the weight of the pig body 12 with higher accuracy, the posture of the pig body 12 is estimated, and the weight is estimated based on the posture-specific regression model defined corresponding to the posture.

まず、頭部位置特定部15において、豚体12の頭部の位置を特定する(ステップS7)。ここでは、オープンソースの画像処理ソフトウェアであるOpenCVを用いる。図6(A)に示される高さ画像データは、各ピクセルの高さが低いほど暗く表現したもので、前述のように、画像データのピクセルは床面を「0」とした高さ情報であることから、例えば、高さ65cmの部位(ピクセル)は、65という数字になる。そこで、床面から5cmの高さにしきい値を設け、このしきい値を用いて豚領域を床面などの他の領域から切り出す。これにより、図6(B)に示すように、豚領域を「1」、他の領域を「0」とする二値画像を取得する。二値化後の画像データは、高さ情報を保持した状態のままで、小さなノイズが取り除かれる。   First, the head position specifying unit 15 specifies the position of the head of the pig body 12 (step S7). Here, OpenCV, which is open source image processing software, is used. The height image data shown in FIG. 6A is expressed darker as the height of each pixel is lower. As described above, the pixels of the image data are height information with the floor surface set to “0”. Therefore, for example, a portion (pixel) having a height of 65 cm has a number of 65. Therefore, a threshold value is set at a height of 5 cm from the floor surface, and the pig region is cut out from other regions such as the floor surface using this threshold value. As a result, as shown in FIG. 6B, a binary image with the pig area “1” and the other areas “0” is acquired. Small noise is removed from the binarized image data while maintaining the height information.

次いで、図6(C)に示すように、OpenCVのfindContour関数を用いて豚領域の輪郭を求め、この輪郭に対してOpenCVのminAreaRect関数を用いて豚領域を内包する面積が最小になる矩形を求める。次いで、図6(D)に示すように、矩形をx軸方向、つまり長手方向に5等分に分割し、分割した矩形内におけるそれぞれの豚領域の重心を丸印で示す。ここで、重心のx座標(Cx)及びy座標(Cy)は、以下の式を用いて求める。また、重心のz座標は、重心に位置するピクセルの高さである。   Next, as shown in FIG. 6C, the contour of the pig region is obtained by using the OpenCV findControl function, and the rectangle containing the pig region is minimized by using the OpenCV minAreaRect function for this contour. Ask. Next, as shown in FIG. 6D, the rectangle is divided into five equal parts in the x-axis direction, that is, the longitudinal direction, and the center of gravity of each pig region in the divided rectangle is indicated by a circle. Here, the x-coordinate (Cx) and y-coordinate (Cy) of the center of gravity are obtained using the following equations. The z coordinate of the center of gravity is the height of the pixel located at the center of gravity.

Figure 2019211364
Figure 2019211364

Cx:矩形内豚領域重心のx座標
Cy:矩形内豚領域重心のy座標
n:矩形内豚領域のピクセル数
Pxi:該当ピクセルのx座標
Pyi:該当ピクセルのy座標
Cx: x coordinate of the center of gravity of the pig area in the rectangle Cy: y coordinate of the center of gravity of the pig area in the rectangle n: number of pixels of the pig area in the rectangle Pxi: x coordinate of the corresponding pixel Pyi: y coordinate of the corresponding pixel

次いで、図7及び図8に示すように、各矩形内における豚領域重心のx座標、y座標及びz座標の位置をそれぞれ比較することによって豚体12の頭部の位置を特定する。ここで、説明の理解を容易にするために、図7では、z軸方向を高さ方向、x軸方向を左右方向、y軸方向を奥行方向と定義する。また、左右両端の矩形内豚領域重心を丸印で、中央の矩形内豚領域重心を三角印でそれぞれ示す。   Next, as shown in FIGS. 7 and 8, the position of the head of the pig body 12 is specified by comparing the positions of the x-coordinate, y-coordinate, and z-coordinate of the pig region centroid within each rectangle. Here, in order to facilitate understanding of the description, in FIG. 7, the z-axis direction is defined as the height direction, the x-axis direction is defined as the left-right direction, and the y-axis direction is defined as the depth direction. Further, the center of the rectangular pig area in the rectangle at the left and right ends is indicated by a circle, and the center of the rectangular pig area in the center is indicated by a triangle.

以下では、図8に示されるフローチャートに基づいて豚体12の頭部位置を特定する。まず、高さ方向における左端の矩形内豚領域重心を「LZ」と、右端の矩形内豚領域重心を「RZ」と、中央の矩形内豚領域重心を「CZ」と定義して、左右両端の矩形内豚領域重心(LZ,RZ)と中央の矩形内豚領域重心(CZ)との高さをそれぞれ比較する(ステップS20)。この結果、左右両端の矩形内豚領域重心(LZ,RZ)が中央の矩形内豚領域重心(CZ)に対していずれも高い場合には、豚体12は頭部を上げていると判断する。   Below, the head position of the pig body 12 is specified based on the flowchart shown by FIG. First, the left-right rectangular inner pig area center of gravity in the height direction is defined as “LZ”, the right-end rectangular inner pig area center of gravity is defined as “RZ”, and the central rectangular inner pig area center of gravity is defined as “CZ”. The heights of the center of the pig in the rectangle (LZ, RZ) and the center of the center of the pig in the rectangle (CZ) are compared (step S20). As a result, if the piggy center centroids (LZ, RZ) at the left and right ends are higher than the piggy center centroid (CZ) in the middle rectangle, it is determined that the pig body 12 is raising its head. .

この場合に、奥行方向における左端の矩形内豚領域重心と中央の矩形内豚領域重心とのy座標の差の絶対値を「|LAY|=LZ−CZ」と、右端の矩形内豚領域重心と中央の矩形内豚領域重心とのy座標の差の絶対値を「|RAY|=RZ−CZ」と定義して、各絶対値(|LAY|,|RAY|)の大きさをそれぞれ比較する(ステップS21)。この結果、左端の値(|LAY|)が右端の値(|RAY|)に対して大きい場合には、左端の方が大きく動いていると判断し、左端が頭部位置とされる(ステップS22)。逆に、右端の値(|RAY|)が左端の値(|LAY|)に対して大きい場合には、右端の方が大きく動いていると判断し、右端が頭部位置とされる(ステップS23)。   In this case, the absolute value of the difference in y-coordinate between the center of the rectangular inner pig area and the center of the rectangular inner pig area in the depth direction is “| LAY | = LZ−CZ”, The absolute value of the difference in y-coordinate between the center of the pig and the center of the pig in the rectangle is defined as “| RAY | = RZ−CZ”, and the magnitude of each absolute value (| LAY |, | RAY |) is compared. (Step S21). As a result, when the value at the left end (| LAY |) is larger than the value at the right end (| RAY |), it is determined that the left end is moving more greatly, and the left end is set as the head position (step S22). Conversely, if the right end value (| RAY |) is larger than the left end value (| LAY |), it is determined that the right end is moving more greatly, and the right end is set as the head position (step S23).

一方、ステップS20において、左端の矩形内豚領域重心(LZ)あるいは右端の矩形内豚領域重心(RZ)が中央の矩形内豚領域重心(CZ)に対して低い場合には、豚体12は頭部を下げていると判断し、左端の矩形内豚領域重心(LZ)と右端の矩形内豚領域重心(RZ)との高さをそれぞれ比較する(ステップS24)。この結果、右端の矩形内豚領域重心(RZ)が左端の矩形内豚領域重心(LZ)に対して低い場合には、右端が頭部位置とされる(ステップS25)。逆に、左端の矩形内豚領域重心(LZ)が右端の矩形内豚領域重心(RZ)に対して低い場合には、左端が頭部位置とされる(ステップS26)。   On the other hand, in step S20, if the leftmost rectangular inner pig area centroid (LZ) or the rightmost rectangular inner pig area centroid (RZ) is lower than the central rectangular inner pig area centroid (CZ), the pig body 12 is It is determined that the head is lowered, and the heights of the left inner rectangular pig region centroid (LZ) and the rightmost rectangular inner pig region centroid (RZ) are respectively compared (step S24). As a result, if the rightmost rectangular inner pig area centroid (RZ) is lower than the leftmost rectangular inner pig area centroid (LZ), the right end is set as the head position (step S25). On the other hand, when the left inner rectangular pig area center (LZ) is lower than the right inner rectangular pig area center (RZ), the left end is set as the head position (step S26).

特定した頭部位置は、豚体12の姿勢を推定するための指標とされる(図2,ステップS8)。対象とする個体の大きさの違いにかかわらず、同じ姿勢に対しては同じ値となるように中央の矩形内豚領域重心のz座標で割ることにより、頭部重心座標及び中央重心座標を用いた以下の式を用いて頭部位置の高さ(height)及び奥行方向の振り(side)のそれぞれの指標を求める。各指標(height,side)は、値が大きいほど動きの幅が大きいことを示す。   The identified head position is used as an index for estimating the posture of the pig body 12 (FIG. 2, step S8). Regardless of the size of the target individual, the head centroid coordinates and the center centroid coordinates are used by dividing by the z coordinate of the center rectangular pig area centroid so that the same value is obtained for the same posture. Each index of the height of the head position (height) and the swing in the depth direction (side) is obtained using the following equations. Each index (height, side) indicates that the greater the value, the greater the range of motion.

Figure 2019211364
Figure 2019211364

次いで、頭部位置の高さ(height)及び奥行方向の振り(side)を指標として場合分けを行うとともに、それぞれの場合における体積と実測体重との関係から姿勢別回帰モデルを作成し、姿勢推定部16に記憶する(ステップS9)。次いで、体重推定部17は、姿勢推定部16から姿勢別回帰モデルを読み出し、豚体12の推定体重を算出する(ステップS10)。最後に、推定体重は、別途に取得した豚体12の識別番号などと共にコンピュータ装置14の記憶部(図示せず)に記憶される。   Next, while classifying cases using the height of the head position (height) and the depth direction (side) as indices, a regression model for each posture is created from the relationship between the volume and the measured weight in each case, and posture estimation is performed. Store in the unit 16 (step S9). Next, the weight estimating unit 17 reads the posture-specific regression model from the posture estimating unit 16 and calculates the estimated weight of the pig body 12 (step S10). Finally, the estimated body weight is stored in a storage unit (not shown) of the computer device 14 together with the identification number of the pig body 12 acquired separately.

ここで、姿勢別回帰モデルの性能を推定体重と実測体重との平均2乗誤差(RMSE:Root Mean Squared Error)を用いて検証した。RMSEは以下の式を用いて算出するもので、「Ai」は実測体重、「Bi」は推定体重である。RMSEの値が「0」に近いほど精度がよいことを表す。   Here, the performance of the regression model for each posture was verified using a mean square error (RMSE: Root Mean Squared Error) between the estimated weight and the actually measured weight. RMSE is calculated using the following equation, where “Ai” is the actual measured weight and “Bi” is the estimated weight. The closer the RMSE value is to “0”, the better the accuracy.

Figure 2019211364
Figure 2019211364

表1は、各姿勢に当てはまるデータの数を示すものである。縦に「height」、横に「side」をとり、それぞれの値の範囲に当てはまったデータの数を示している。   Table 1 shows the number of data applicable to each posture. “Height” is vertically indicated and “side” is indicated horizontally, and indicates the number of data applied to each value range.

Figure 2019211364
Figure 2019211364

表2は、姿勢別回帰モデルの決定係数(R)を示している。Rは推定体重と実測体重との間の相関係数を表すもので、 Rの値が「1」に近いほど精度がよいことを表す。サンプル数が少なく条件に満たないデータは「N/A」としている。「height」の値が小さく、「side」の値が大きいほど、つまり頭部が低く、頭部の振りが大きいほどRの値が高い傾向にある。 Table 2 shows the coefficient of determination (R 2 ) of the regression model for each posture. R 2 represents a correlation coefficient between the estimated body weight and the actually measured body weight. The closer the value of R 2 is to “1”, the better the accuracy. Data that has a small number of samples and does not satisfy the conditions is indicated as “N / A”. The value of "height" is small, the larger the value of "side", that the head is low, the value of the more R 2 is larger swing of the head tends to be higher.

Figure 2019211364
Figure 2019211364

表3は、姿勢別回帰モデルの平均2乗誤差(RMSE)を示している。条件に満たないデータは「N/A」としている。Rと同様に、頭部が低く、頭部の振りが大きいほどRMSEの値が低く、誤差が少ない傾向にある。 Table 3 shows the mean square error (RMSE) of the regression model by posture. Data that does not satisfy the condition is “N / A”. Similar to R 2, the head is low, the larger the swing of the head value of the RMSE is low, the error is in the less prone.

Figure 2019211364
Figure 2019211364

図9は、推定体重(縦軸)と実測体重(横軸)との関係を示す散布図である。図9(A)は、姿勢を考慮せずに、全てのデータを用いた単回帰モデルによる推定結果を示しており、RMSEの値は5.592であった。すなわち、推定体重の誤差が±5.59kgであることを意味する。これに対して、図9(B)は、本発明における「height0.4−0.6」かつ「side0.00−0.04」のデータを用いた姿勢別回帰モデルによる推定結果を示しており、RMSEの値は4.627であった。すなわち、推定体重の誤差が±4.63kgであることを意味する。よって、姿勢を考慮することで、より高い精度で体重推定が可能となった。   FIG. 9 is a scatter diagram showing the relationship between the estimated weight (vertical axis) and the actually measured weight (horizontal axis). FIG. 9A shows an estimation result by a single regression model using all data without considering the posture, and the value of RMSE was 5.592. That is, it means that the estimated weight error is ± 5.59 kg. On the other hand, FIG. 9 (B) shows the estimation result by the posture-specific regression model using the data of “height 0.4-0.6” and “side 0.00-0.04” in the present invention. The RMSE value was 4.627. That is, it means that the estimated weight error is ± 4.63 kg. Therefore, the weight can be estimated with higher accuracy by considering the posture.

このように、豚体12の姿勢に対応して定義された姿勢別回帰モデルに基づいて体重を推定するので、豚体12の姿勢変化に起因する推定体重の変動を小さくすることが可能となり、豚体12の体重を高い精度で推定することができる。また、姿勢を推定するための指標となる頭部の位置は、単一の3次元計測器13で取得して生成された画像データを複数の区画に分割し、この複数の区画における豚体12領域の重心(矩形内豚領域重心)をそれぞれ比較するので、豚体12の姿勢を簡単かつ確実に求めることができる。   Thus, since the weight is estimated based on the posture-specific regression model defined corresponding to the posture of the pig body 12, it is possible to reduce the fluctuation of the estimated weight caused by the posture change of the pig body 12, The weight of the pig body 12 can be estimated with high accuracy. In addition, the position of the head serving as an index for estimating the posture is obtained by dividing the image data acquired by the single three-dimensional measuring instrument 13 into a plurality of sections, and the pig bodies 12 in the plurality of sections. Since the centroids of the areas (pig area centroids in the rectangle) are respectively compared, the posture of the pig body 12 can be easily and reliably obtained.

とりわけ、豚体12のような4足歩行する動物体は、頭部から臀部にかけて高さ方向に凹状または凸状に湾曲させて姿勢を保つことから(図5)、頭部と臀部と、これらの中間に位置する背部とを区別して比較することが容易となり、姿勢を正確に推定するうえで好都合である。また、豚体12の発育は、骨格や頭部といった特徴的な部分が早く成長して輪郭が定まるため、成育期間が異なっても姿勢推定に悪影響を及ぼすことはなく、例えば、子豚であっても安定して姿勢を推定できる。   In particular, an animal body that walks on four legs, such as the pork body 12, is curved in a concave or convex shape in the height direction from the head to the buttocks (FIG. 5), so the head and the buttocks, It is easy to distinguish and compare the back portion located in the middle of the head, which is convenient for accurately estimating the posture. In addition, the growth of the pig body 12 is such that the characteristic parts such as the skeleton and the head grow faster and the contour is determined, so that the posture estimation is not adversely affected even if the growth period is different. However, the posture can be estimated stably.

加えて、上述の姿勢推定方法を用いれば、豚体12の一方向(上方向または手前方向)から撮影して取得した3次元点群データさえあれば体重推定が行えるので、3次元計測器13を複数設ける必要がなくなる。すなわち、他の方向から取得した3次元点群データを合成するといった複雑な演算処理を必要としない点で、安価で実用的なものである。   In addition, if the above-described posture estimation method is used, weight estimation can be performed with only the three-dimensional point cloud data obtained by photographing from one direction (upward or near side) of the pig body 12. There is no need to provide a plurality. That is, it is inexpensive and practical in that it does not require complicated arithmetic processing such as combining three-dimensional point cloud data acquired from other directions.

なお、本発明は動物体の一つである豚体を例にしたが、これに限定するものではなく、
牛体や馬体などの他の動物体にも適用できる。また、3次元計測器には、安価に入手可能なKinectセンサが好適であるが、赤外光を用いて画素単位に距離を計測することができれば、各種の深度センサやカメラなどを適用できる。さらに、コンピュータ装置は、典型的なデスクトップ型コンピュータやノート型コンピュータなどの他に、タブレットやスマートフォンなどの携帯型の端末装置で構成されてもよい。この場合、撮影には内蔵されるカメラが用いられるため、体重推定を行う際に利便性がより高まる。
In addition, although this invention took as an example the pig body which is one of the animal bodies, it is not limited to this,
It can also be applied to other animal bodies such as cows and horses. For the three-dimensional measuring instrument, an inexpensive Kinect sensor is suitable, but various depth sensors, cameras, and the like can be applied as long as the distance can be measured in units of pixels using infrared light. Furthermore, the computer device may be configured by a portable terminal device such as a tablet or a smartphone in addition to a typical desktop computer or notebook computer. In this case, since a built-in camera is used for shooting, convenience is further enhanced when weight estimation is performed.

11…体重推定装置、12…豚体、13…3次元計測器、14…コンピュータ装置、15…頭部位置特定部、16…姿勢推定部、17…体重推定部   DESCRIPTION OF SYMBOLS 11 ... Weight estimation apparatus, 12 ... Pig body, 13 ... Three-dimensional measuring device, 14 ... Computer apparatus, 15 ... Head position specific | specification part, 16 ... Posture estimation part, 17 ... Weight estimation part

Claims (4)

動物体を計測して得られる寸法データに基づいて体重を推定する動物体の体重推定装置であって、前記動物体を撮影して3次元点群データを取得する3次元計測器と、前記3次元点群データから生成された画像データにより前記動物体の頭部の位置を特定する頭部位置特定部と、前記動物体の頭部の位置を指標として前記動物体の姿勢を推定する姿勢推定部と、前記動物体の姿勢に対応して定義された姿勢別回帰モデルに基づいて前記動物体の体重を推定する体重推定部とを備えたことを特徴とする動物体の体重推定装置。   A weight estimation apparatus for an animal body that estimates a body weight based on dimension data obtained by measuring the animal body, the three-dimensional measuring instrument that captures the body and obtains three-dimensional point cloud data; A head position specifying unit for specifying the position of the head of the moving object from image data generated from the three-dimensional point cloud data; and a posture estimation for estimating the posture of the moving object using the position of the head of the moving object as an index And a weight estimation unit for estimating the weight of the moving object based on a posture-specific regression model defined corresponding to the posture of the moving object. 前記3次元点群データは、単一の前記3次元計測器で取得され、前記動物体の頭部の位置は、前記画像データの領域を複数の区画に分割するとともに、該複数の区画における動物体領域の重心をそれぞれ比較することにより求められることを特徴とする請求項1記載の動物体の体重推定装置。   The three-dimensional point cloud data is acquired by a single three-dimensional measuring device, and the position of the head of the moving object divides the region of the image data into a plurality of sections, and the animals in the plurality of sections The body weight estimation apparatus according to claim 1, wherein the body weight estimation apparatus is obtained by comparing the center of gravity of the body region. 動物体を計測して得られる寸法データに基づいて体重を推定する動物体の体重推定方法であって、前記動物体を撮影して3次元点群データを取得する段階と、前記3次元点群データから生成された画像データにより前記動物体の頭部の位置を特定する段階と、前記動物体の頭部の位置を指標として前記動物体の姿勢を推定する段階と、前記動物体の姿勢に対応して定義された姿勢別回帰モデルに基づいて前記動物体の体重を推定する段階とを含むことを特徴とする動物体の体重推定方法。   A weight estimation method for an animal body that estimates body weight based on dimension data obtained by measuring the animal body, the step of photographing the animal body to obtain three-dimensional point cloud data, and the three-dimensional point cloud Identifying the position of the head of the moving object from image data generated from the data, estimating the posture of the moving object using the position of the head of the moving object as an index, and the posture of the moving object Estimating the weight of the moving body based on a posture-specific regression model defined correspondingly, and estimating the weight of the moving body. 前記動物体の頭部の位置を特定する段階は、前記画像データの領域を複数の区画に分割するとともに、該複数の区画における動物体領域の重心をそれぞれ比較することを特徴とする請求項3記載の動物体の体重推定方法。   The step of identifying the position of the head of the moving object is characterized by dividing the area of the image data into a plurality of sections and comparing the centers of gravity of the moving object areas in the plurality of sections. The animal body weight estimation method according to the description.
JP2018108429A 2018-06-06 2018-06-06 Animal body weight estimation device and weight estimation method Active JP7057971B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018108429A JP7057971B2 (en) 2018-06-06 2018-06-06 Animal body weight estimation device and weight estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018108429A JP7057971B2 (en) 2018-06-06 2018-06-06 Animal body weight estimation device and weight estimation method

Publications (2)

Publication Number Publication Date
JP2019211364A true JP2019211364A (en) 2019-12-12
JP7057971B2 JP7057971B2 (en) 2022-04-21

Family

ID=68845097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018108429A Active JP7057971B2 (en) 2018-06-06 2018-06-06 Animal body weight estimation device and weight estimation method

Country Status (1)

Country Link
JP (1) JP7057971B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020106422A (en) * 2018-12-27 2020-07-09 Nttテクノクロス株式会社 Weight estimation device, weight estimation method, and program
WO2021193816A1 (en) 2020-03-26 2021-09-30 Nttテクノクロス株式会社 Imaging device, imaging method, and program
KR20210119133A (en) * 2020-03-24 2021-10-05 연세대학교 산학협력단 Mobile Robot and 3D Global Position Recognition Apparatus Using Pose Estimation Based on Deep Learning
WO2022202793A1 (en) * 2021-03-25 2022-09-29 学校法人東京理科大学 Growing condition evaluation system
CN115135973A (en) * 2020-02-18 2022-09-30 国立大学法人宫崎大学 Weight estimation device and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100289879A1 (en) * 2009-05-01 2010-11-18 Texas Tech University System Remote Contactless Stereoscopic Mass Estimation System
JP2012519277A (en) * 2009-02-27 2012-08-23 ボディー サーフェイス トランスレーションズ, インコーポレイテッド Physical parameter estimation using 3D display
JP2016059300A (en) * 2014-09-17 2016-04-25 国立大学法人広島大学 Cow body diagnostic system and cow body diagnostic method
JP6083638B2 (en) * 2012-08-24 2017-02-22 国立大学法人 宮崎大学 Weight estimation apparatus for animal body and weight estimation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012519277A (en) * 2009-02-27 2012-08-23 ボディー サーフェイス トランスレーションズ, インコーポレイテッド Physical parameter estimation using 3D display
US20100289879A1 (en) * 2009-05-01 2010-11-18 Texas Tech University System Remote Contactless Stereoscopic Mass Estimation System
JP6083638B2 (en) * 2012-08-24 2017-02-22 国立大学法人 宮崎大学 Weight estimation apparatus for animal body and weight estimation method
JP2016059300A (en) * 2014-09-17 2016-04-25 国立大学法人広島大学 Cow body diagnostic system and cow body diagnostic method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020106422A (en) * 2018-12-27 2020-07-09 Nttテクノクロス株式会社 Weight estimation device, weight estimation method, and program
CN115135973A (en) * 2020-02-18 2022-09-30 国立大学法人宫崎大学 Weight estimation device and program
KR20210119133A (en) * 2020-03-24 2021-10-05 연세대학교 산학협력단 Mobile Robot and 3D Global Position Recognition Apparatus Using Pose Estimation Based on Deep Learning
KR102352088B1 (en) 2020-03-24 2022-01-14 연세대학교 산학협력단 Mobile Robot and 3D Global Position Recognition Apparatus Using Pose Estimation Based on Deep Learning
WO2021193816A1 (en) 2020-03-26 2021-09-30 Nttテクノクロス株式会社 Imaging device, imaging method, and program
WO2022202793A1 (en) * 2021-03-25 2022-09-29 学校法人東京理科大学 Growing condition evaluation system

Also Published As

Publication number Publication date
JP7057971B2 (en) 2022-04-21

Similar Documents

Publication Publication Date Title
JP7057971B2 (en) Animal body weight estimation device and weight estimation method
US11627726B2 (en) System and method of estimating livestock weight
US8351656B2 (en) Remote contactless stereoscopic mass estimation system
JP6740033B2 (en) Information processing device, measurement system, information processing method, and program
JP6125188B2 (en) Video processing method and apparatus
JP7049657B2 (en) Livestock weight estimation device and livestock weight estimation method
JP2021515323A (en) Methods and devices for remotely characterizing biological specimens
JP6338369B2 (en) Information processing apparatus and information processing method
JP6777948B2 (en) Health condition estimator
JP2020085609A (en) Fish body size calculation device
JP7284500B2 (en) weight estimator
US20200077667A1 (en) 3d imaging system and method of imaging carcasses
JP6020439B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6821326B2 (en) Information processing equipment, measurement systems, information processing methods and programs
Salau et al. Extrinsic calibration of a multi-Kinect camera scanning passage for measuring functional traits in dairy cows
JP2023129574A (en) Body weight estimation device, method for estimating body weight, and program
US20230154023A1 (en) Weight estimation device and program
Gaudioso et al. “Photozoometer”: A new photogrammetric system for obtaining morphometric measurements of elusive animals
JP2021063774A (en) Body weight estimation device
JP2015111128A (en) Position attitude measurement device, position attitude measurement method, and program
WO2020261404A1 (en) Person state detecting device, person state detecting method, and non-transient computer-readable medium containing program
Nishide et al. Calf robust weight estimation using 3D contiguous cylindrical model and directional orientation from stereo images
KR102297317B1 (en) Livestock weighing device and method through 3D image processing
Kawasue et al. Pig weight prediction system using RGB-D sensor and AR glasses: analysis method with free camera capture direction
RU2785149C2 (en) Method and device for remote obtainment of characteristics of live specimens

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210527

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220303

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220329

R150 Certificate of patent or registration of utility model

Ref document number: 7057971

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150