JP2014044078A - Body weight estimation device and body weight estimation method, for animal body - Google Patents

Body weight estimation device and body weight estimation method, for animal body Download PDF

Info

Publication number
JP2014044078A
JP2014044078A JP2012185553A JP2012185553A JP2014044078A JP 2014044078 A JP2014044078 A JP 2014044078A JP 2012185553 A JP2012185553 A JP 2012185553A JP 2012185553 A JP2012185553 A JP 2012185553A JP 2014044078 A JP2014044078 A JP 2014044078A
Authority
JP
Japan
Prior art keywords
point cloud
cloud data
shape
dimensional
cross
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012185553A
Other languages
Japanese (ja)
Other versions
JP6083638B2 (en
Inventor
Kikuhito Kawasue
紀功仁 川末
Hiroshi Harada
宏 原田
Tadaaki Tokunaga
忠昭 徳永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Miyazaki NUC
Original Assignee
University of Miyazaki NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Miyazaki NUC filed Critical University of Miyazaki NUC
Priority to JP2012185553A priority Critical patent/JP6083638B2/en
Publication of JP2014044078A publication Critical patent/JP2014044078A/en
Application granted granted Critical
Publication of JP6083638B2 publication Critical patent/JP6083638B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device which measures a dimension of an animal body by means of three-dimensional measurement with high accuracy so as to improve accuracy of a body weight estimated from obtained dimension data.SOLUTION: Random light points in an infrared band are projected from three-dimensional measuring instruments 14A and 14B from at least one of upper, left lateral and right lateral directions of a cow body 3 quiescent in a prescribed posture, and reflection points reflected by the cow body 3 are imaged so as to acquire three-dimensional point group data of an upper surface of the cow body 3. With respect to the cow body data, constituted by the three-dimensional group data acquired from the three-dimensional measuring instruments 14, a cross-sectional shape in parallel with a gravity direction and a cross-sectional shape in parallel with a horizontal direction are approximated to an elliptical shape; characteristic dimension data of the cow body 3 is extracted from the approximated elliptical shape; and a body weight of the cow body is estimated by substituting the extracted characteristic dimension data of the cow body 3 in a prescribed body weight formula.

Description

本発明は、三次元計測データを用いた動物体の体重推定装置、及び体重推定方法に関する。   The present invention relates to a weight estimation apparatus and weight estimation method for an animal body using three-dimensional measurement data.

従来、牛体の重量を測定する手段として、牛体を載せ台上に載せて測定を行う牛衝器が知られている。しかし、牛体を牛衝器上に乗せる際に精神的なストレスを与え、肉の品質に影響を及ぼすという不具合がある。このため、体重を測定する手段として牛衝器は家畜農家により利用されることがないのが実情である。
このため、飼育中に牛体の体重を測定する場合には、熟練した人が目視で重量を推定するか、或いは、局所的な体各部の測定値から体重を推定する方法が採用されている。
しかし、上記従来の体重推定(評価)方法では、測定精度、正確性に問題があった。そこで、可搬性があり非接触で牛体の体重計測(推定)を正確に行うことが可能な計測器の開発が切望されている。
2. Description of the Related Art Conventionally, as a means for measuring the weight of a cow body, a cow impactor that performs measurement by placing the cow body on a platform is known. However, there is a problem in that it places mental stress on the cow impactor and affects the quality of the meat. For this reason, the actual situation is that cow impactors are not used by livestock farmers as a means of measuring body weight.
For this reason, when measuring the weight of a cow during breeding, a skilled person estimates the weight visually, or a method of estimating the weight from the measured values of local parts of the body is adopted. .
However, the conventional weight estimation (evaluation) method has a problem in measurement accuracy and accuracy. Therefore, development of a measuring instrument that is portable and capable of accurately measuring (estimating) the weight of a cow without contact is eagerly desired.

特許文献1には、家畜の体高(H)と投影面積(A)とが、その体重(W)に対して、W=aHという密接な関係にあり、さらにその重回帰式の次元(d=b+2c)が体積の次元(d=3)に近いことから、その重回帰式を利用して、家畜の体高と投影面積とを遠隔計測し、それらの値を重回帰式に代入することにより、多数の家畜の体重を非接触方式で、品種に左右されず、比較的精度よく計測できる家畜の非接触式体重計測方法が報告されている。
ここでは、カメラまたはビデオカメラにより撮影された画像を使って、家畜の投影面積を求めることで、人間が家畜に接触せず、遠隔計測している。家畜の高さ(1次元)と面積(2次元)とをそれぞれ遠隔計測することによって、家畜の体積(3次元)を求め、家畜の比重が一定であると仮定し、家畜の体重を推定することが開示されている。
Patent Document 1, livestock withers and (H) to the projected area (A), but with respect to the weight (W), W = aH b A are closely related as c, further dimensions of the multiple regression equation Since (d = b + 2c) is close to the volume dimension (d = 3), the body height and projected area of livestock are remotely measured using the multiple regression equation, and those values are substituted into the multiple regression equation. Thus, there has been reported a non-contact weight measurement method for livestock that can measure the weight of a large number of livestock in a non-contact manner without depending on the breed and with relatively high accuracy.
In this case, by using an image taken by a camera or a video camera, the projected area of the livestock is obtained, so that a human does not touch the livestock and is remotely measured. By measuring the height (one dimension) and area (two dimensions) of livestock remotely, the volume of livestock (three dimensions) is obtained, and the weight of the livestock is estimated assuming that the specific gravity of the livestock is constant. It is disclosed.

特開2002−243527公報JP 2002-243527 A

特許文献1にあっては、カメラにより撮影された画像を使って家畜の投影面積を計測して上記重回帰式に代入するように構成されていた。
しかしながら、引用文献1にあっては、画像計測による2次元計測であったため、推定された体重の精度が十分ではないといった問題があった。
そこで、三次元計測によって動物体の寸法を高精度に測定し、得られた当該寸法データにより推定される体重の精度を向上することが可能な体重推定装置および体重推定方法の提案が切望されている。
本発明は、上記に鑑みてなされたもので、その目的としては、三次元計測によって動物体の寸法を高精度に測定し、得られた当該寸法データにより推定される体重の精度を向上することが可能な体重推定装置および体重推定方法を提供することにある。
In patent document 1, it was comprised so that the projection area of livestock might be measured using the image image | photographed with the camera, and it may substitute for the said multiple regression equation.
However, since the cited document 1 is two-dimensional measurement by image measurement, there is a problem that the accuracy of the estimated weight is not sufficient.
Therefore, a proposal for a weight estimation apparatus and a weight estimation method capable of measuring the dimension of an animal body with high accuracy by three-dimensional measurement and improving the accuracy of the weight estimated from the obtained dimension data is highly desired. Yes.
The present invention has been made in view of the above, and its purpose is to measure the dimensions of a moving object with high accuracy by three-dimensional measurement and to improve the accuracy of weight estimated from the obtained dimension data. It is an object of the present invention to provide a weight estimation apparatus and a weight estimation method that can perform the above-described measurement.

上記課題を解決するため、請求項1記載の発明は、動物体の寸法データを所定の体重計算式に代入して前記動物体の体重を推定する動物体の体重推定装置であって、所定の姿勢で静止した前記動物体の上方、左側方、右側方の少なくとも一つの方向から赤外帯域のランダムな光点を投光し、前記動物体により反射された反射点を撮像して前記動物体の三次元点群データを取得する三次元計測器と、前記三次元計測器により取得した前記三次元点群データに対して、重力方向に並行な断面形状および水平方向に並行な断面形状を楕円形状に近似する形状近似処理手段と、前記形状近似処理手段により近似された楕円形状から当該動物体の特徴的な寸法データを抽出する形状抽出手段と、を備え、前記形状抽出手段により抽出された当該動物体の特徴的な寸法データを前記所定の体重計算式に代入して当該動物体の体重を推定する、ことを特徴とする動物体の体重推定装置である。   In order to solve the above-mentioned problem, the invention according to claim 1 is a weight estimation apparatus for an animal body that estimates the weight of the animal body by substituting the dimension data of the animal body into a predetermined weight calculation formula, Random light spots in the infrared band are projected from at least one of the upper, left side, and right side of the moving object stationary in a posture, and the reflected points reflected by the moving object are imaged. A 3D measuring device that acquires 3D point cloud data and an elliptical cross-sectional shape parallel to the gravitational direction and a horizontal parallel shape to the 3D point cloud data acquired by the 3D measuring device. A shape approximating unit for approximating the shape, and a shape extracting unit for extracting characteristic dimension data of the moving object from the elliptical shape approximated by the shape approximating unit, and extracted by the shape extracting unit Of the animal body To estimate the weight of the animal body by substituting symptoms dimensions data to the predetermined weight calculation formula, it is weight estimation apparatus of the animal body characterized by.

本発明によれば、所定の姿勢で静止した動物体の上方、左側方、右側方の少なくとも一つの方向から赤外帯域のランダムな光点を投光し、動物体により反射された反射点を撮像して動物体の三次元点群データを取得し、取得した三次元点群データに対して、重力方向に並行な断面形状および水平方向に並行な断面形状を楕円形状に近似し、近似された楕円形状から当該動物体の特徴的な寸法データを抽出し、抽出された当該動物体の特徴的な寸法データを所定の体重計算式に代入して当該動物体の体重を推定することで、三次元計測によって動物体の寸法を高精度に測定し、得られた当該寸法データにより推定される体重の精度を向上することができる。   According to the present invention, a random light spot in the infrared band is projected from at least one of the upper, left side, and right side of the moving object stationary in a predetermined posture, and the reflected point reflected by the moving object is obtained. 3D point cloud data of the moving object is acquired by imaging, and the acquired 3D point cloud data is approximated by approximating the cross-sectional shape parallel to the gravity direction and the cross-sectional shape parallel to the horizontal direction to an elliptical shape. By extracting characteristic dimension data of the moving object from the elliptical shape, substituting the extracted characteristic dimension data of the moving object into a predetermined weight calculation formula, and estimating the weight of the moving object, The dimension of the moving object can be measured with high accuracy by three-dimensional measurement, and the accuracy of the weight estimated from the obtained dimension data can be improved.

本発明の第1実施形態に係る動物体の体重推定装置に適用可能な体重計測システム1の構成について説明する図である。It is a figure explaining the structure of the weight measurement system 1 applicable to the weight estimation apparatus of the moving body which concerns on 1st Embodiment of this invention. (a)は図1に示す三次元計測器の外観を示す図であり、(b)はプロジェクタ16の内部構成を示す図である。(A) is a figure which shows the external appearance of the three-dimensional measuring device shown in FIG. 1, (b) is a figure which shows the internal structure of the projector 16. FIG. 図1に示す傾きセンサ12、三次元計測器14A、14Bからのデータを処理するためのパーソナルコンピュータ22の特徴的な構成を示す図である。It is a figure which shows the characteristic structure of the personal computer 22 for processing the data from the inclination sensor 12 shown in FIG. 1, and the three-dimensional measuring devices 14A and 14B. (a)(b)は三次元計測器により被写体までの距離を求める手法について説明するための図である。(A) (b) is a figure for demonstrating the method of calculating | requiring the distance to a to-be-photographed object with a three-dimensional measuring device. 体重推定装置の座標合わせについて説明するための図である。It is a figure for demonstrating the coordinate alignment of a weight estimation apparatus. 本発明の実施形態に係る体重推定装置に適用可能な体重計測システム1の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the weight measurement system 1 applicable to the weight estimation apparatus which concerns on embodiment of this invention. 牛体の上面から取得した三次元点群データを示す図である。It is a figure which shows the three-dimensional point cloud data acquired from the upper surface of the cow body. 牛体の側面から取得した三次元点群データを示す図である。It is a figure which shows the three-dimensional point cloud data acquired from the side of the cow body. 計測領域内で牛体がx軸に対して、並行に位置しない場合の模式図である。It is a schematic diagram when a cow is not located in parallel with the x-axis in the measurement region. 領域内で牛体が斜めに位置していることを示す模式図である。It is a schematic diagram which shows that a cow body is located diagonally in the area | region. 輪切り処理した断面形状を楕円形状に近似したことを示す模式図である。It is a schematic diagram which shows having approximated the cross-sectional shape which carried out the ring cutting process to the ellipse shape. 夫々の楕円形状の中心点P1〜P6を通る近似直線35を示す模式図である。It is a schematic diagram which shows the approximate straight line 35 which passes through each elliptical center point P1-P6. 近似直線を回転処理した結果を示す模式図である。It is a schematic diagram which shows the result of having rotated the approximate straight line. 回転処理して得られた形状の断面形状を楕円形状に近似したことを示す模式図である。It is a schematic diagram which shows having approximated the cross-sectional shape of the shape obtained by the rotation process to elliptical shape. 地面からの牛体の一番上の位置までを示す図である。It is a figure which shows to the uppermost position of the cow body from the ground. 図15に示す横断面(A−A’)について抽出された牛体の横断面図である。It is a cross-sectional view of the cow body extracted about the cross section (A-A ') shown in FIG. 上述した並行六面体を計測対象物として使用した実験の結果を示すグラフ図である。It is a graph which shows the result of the experiment which used the parallel hexahedron mentioned above as a measuring object. (a)(b)は合成された牛体の三次元点群データを示す図である。(A) (b) is a figure which shows the three-dimensional point cloud data of the synthetic | combination cow. 牛体の胴体において測定した部分を示す図である。It is a figure which shows the part measured in the torso of a cow body. (a)〜(f)は100mm毎に水平に測定した結果を示す断面図である。(A)-(f) is sectional drawing which shows the result measured horizontally every 100 mm. (a)〜(d)は主要部分を垂直に測定した結果を示す断面図である。(A)-(d) is sectional drawing which shows the result of having measured the main part perpendicularly | vertically.

本実施形態は、三次元データを取得する計測器の一つであるキネクトセンサ(登録商標)(以下、三次元計測器という)を用いているが、同様の機能を有する計測器から三次元形状データ(三次元の点群座標データ)を取得できれば、特に上述したキネクトセンサに限定するものではない。本実施形態では、三次元計測器の計測対象を牛体としているが、牛体以外に馬、豚等の大中動物、その他小動物にも用いることができる。以下、本実施形態では、三次元計測器のーつとして、キネクトセンサを利用した場合について説明する。   This embodiment uses a Kinect Sensor (registered trademark) (hereinafter referred to as a three-dimensional measuring instrument), which is one of measuring instruments for acquiring three-dimensional data. However, a three-dimensional shape is obtained from a measuring instrument having the same function. If data (three-dimensional point group coordinate data) can be acquired, the present invention is not particularly limited to the above-described kinetic sensor. In this embodiment, the measurement object of the three-dimensional measuring instrument is a bovine body, but it can also be used for large and medium animals such as horses and pigs and other small animals in addition to the bovine body. Hereinafter, in this embodiment, a case where a kinetic sensor is used as one of the three-dimensional measuring devices will be described.

本発明の実施形態について、図面を参照して説明する。
<第1実施形態>
図1を参照して、本発明の第1実施形態に係る動物体の体重推定装置に適用可能な体重計測システム1の構成について説明する。なお、本実施形態では、動物体の一つである牛体を例にして説明することとする。
動物体の体重計測システム1は、図1に示すように、ラーメン構造体11を有し、台座部11aが床面に配置され、台座部11aに柱部11bの下部が接合されて柱部11bは垂直に延び、柱部11bの上部からは梁部11cが水平に延びている。柱部11bと梁部11cとは溶接されて一体となった剛接合構造であり、運搬の時の携帯性を向上するために、梁部11cにジョイントを設けてもよい。
梁部11cには、三次元計測器14Aが設けられ、三次元計測器14Aから牛体3の上方に複数の点光を放射し、牛体3の上面から反射した反射点を撮像する。
柱部11bには、三次元計測器14Bが設けられ、三次元計測器14Bから牛体3の左側方に複数の点光を放射し、牛体3の左側面から反射した反射点を撮像する。
傾きセンサ12は、柱部11bに配置され、重力の加速度の方向に関する牛体の傾きを検出し、傾きデータを出力する。
なお、第2三次元計測器14Bが対向する牛体3の左側方とは反対側に配置され、牛体3の右側方にランダムな光点を投光し、牛体3の側面から反射された反射点を撮像して牛体の左側面の三次元点群データを取得する第3三次元計測器を備えてもよい。
Embodiments of the present invention will be described with reference to the drawings.
<First Embodiment>
With reference to FIG. 1, the structure of the weight measurement system 1 applicable to the weight estimation apparatus of the moving body which concerns on 1st Embodiment of this invention is demonstrated. In the present embodiment, description will be given by taking a cow, which is one of the animals, as an example.
As shown in FIG. 1, the animal body weight measurement system 1 includes a ramen structure 11, a pedestal portion 11a is disposed on the floor surface, and a lower portion of the column portion 11b is joined to the pedestal portion 11a to form the column portion 11b. Extends vertically, and a beam portion 11c extends horizontally from the upper portion of the column portion 11b. The column part 11b and the beam part 11c are a rigid joint structure which is welded and integrated, and a joint may be provided on the beam part 11c in order to improve portability during transportation.
The beam portion 11 c is provided with a three-dimensional measuring device 14 </ b> A, which emits a plurality of spotlights above the cow 3 from the three-dimensional measuring device 14 </ b> A and images a reflection point reflected from the upper surface of the cow 3.
The column part 11b is provided with a three-dimensional measuring instrument 14B, which radiates a plurality of spot lights from the three-dimensional measuring instrument 14B to the left side of the cow body 3 and images the reflection points reflected from the left side surface of the cow body 3. .
The tilt sensor 12 is disposed on the pillar portion 11b, detects the tilt of the cow in the direction of gravity acceleration, and outputs tilt data.
The second three-dimensional measuring instrument 14B is arranged on the side opposite to the left side of the cow body 3 facing, and projects a random light spot on the right side of the cow body 3 and is reflected from the side surface of the cow body 3. You may provide the 3rd measuring device which picturizes the reflected point and acquires the 3D point cloud data of the left side of a cow body.

ここで、三次元計測器14について説明する。
三次元計測器14は、図2(a)に示すように、プロジェクタ16と、RGBカラーカメラ18と、赤外線カメラ20と、を備えている。
プロジェクタ16は、図2(b)に示すように、光源となる赤外帯域の光を発光する高輝度赤外線LED16bと、高輝度赤外線LED16bから発光された赤外線光を略並行なビーム光に変換するレンズ16cと、レンズ16cからのビーム光の照度むらを抑制し均質な光に調整する光拡散素子(ディフューザ)16dと、複数のマイクロレンズを配置し、複数のマイクロレンズにより複数のランダムな光点を形成するマイクロレンズアレー16eと、マイクロレンズアレー16eにより形成された点光を所定の角度βの広がりを有する複数の点光として前方に投光するレンズ16aと、を備えて構成される。
Here, the three-dimensional measuring instrument 14 will be described.
As shown in FIG. 2A, the three-dimensional measuring instrument 14 includes a projector 16, an RGB color camera 18, and an infrared camera 20.
As shown in FIG. 2B, the projector 16 converts a high-intensity infrared LED 16b that emits light in the infrared band serving as a light source, and infrared light emitted from the high-intensity infrared LED 16b into substantially parallel beam light. A lens 16c, a light diffusing element (diffuser) 16d that suppresses uneven illuminance of the beam light from the lens 16c and adjusts to uniform light, and a plurality of microlenses are arranged, and a plurality of random light spots are formed by the plurality of microlenses. And a lens 16a that projects forward the spot light formed by the micro lens array 16e as a plurality of spot lights having a spread of a predetermined angle β.

RGBカラーカメラ18は、数百万画素の解像度を有する可視光帯域のRGBカラーカメラであり、被写体からの光を撮像レンズ18aで受光し、撮像レンズ18aによって結像された撮像対象の光学像をアナログ電気信号に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの画像センサと、アナログ電気信号をA/D変換してデジタル信号であるフレーム画像に対して各種画像処理を行うISP(Image Signal Processor)などから構成される画像処理ユニットと、を備えて構成される。   The RGB color camera 18 is an RGB color camera in the visible light band having a resolution of several million pixels, and receives light from a subject with an imaging lens 18a, and an optical image of an imaging target imaged by the imaging lens 18a. Various image processing is performed on image signals such as CCD (Charge Coupled Device) and CMOS (Complementary Metal Oxide Semiconductor) that convert analog electrical signals, and frame images that are digital signals by A / D converting analog electrical signals. And an image processing unit including an ISP (Image Signal Processor) or the like.

赤外線カメラ20は、低解像度を有する赤外帯域のカメラであり、被写体から反射された点光である赤外光を撮像レンズ20aで受光し、撮像レンズ20aによって結像された撮像対象の光学像をアナログ電気信号に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの画像センサと、アナログ電気信号をA/D変換してデジタル信号であるフレーム画像に対して各種画像処理を行うISP(Image Signal Processor)などから構成される画像処理ユニットとを備えている。
なお、三次元計測器14は、プロジェクタ16と、RGBカラーカメラ18と、赤外線カメラ20に対して入出力する制御信号および画像データをパーソナルコンピュータとの間でケーブルを介して送受信するI/Fユニットなどを備えて構成される。
The infrared camera 20 is a low-resolution infrared-band camera, and receives infrared light, which is spot light reflected from a subject, by the imaging lens 20a, and forms an optical image of the imaging target formed by the imaging lens 20a. Image sensors such as CCD (Charge Coupled Device) and CMOS (Complementary Metal Oxide Semiconductor) that convert analog signals to analog electrical signals, and analog image A / D conversion to various image processing for frame images that are digital signals And an image processing unit composed of an image signal processor (ISP) or the like.
The three-dimensional measuring instrument 14 is an I / F unit that transmits and receives control signals and image data to and from the projector 16, the RGB color camera 18, and the infrared camera 20 via a cable. And so on.

次に、図3を参照して、図1に示す傾きセンサ12、三次元計測器14A、14Bからのデータを処理するためのパーソナルコンピュータ22の特徴的な構成について説明する。
図3に示すように、パーソナルコンピュータ22には、制御部22a、記憶部22b、表示制御部22c、モニタ22dが備えられている。
制御部22aには、傾きセンサ12、三次元計測器14A、14Bが接続されている。制御部22aは、傾きセンサ12、三次元計測器14A、14Bから入力されるほぼ同時刻の各データを記憶部22bに記憶しておき、記憶部22bから読み出した各データに対して演算処理を行い、演算結果を表示制御部22cを介してモニタ22dに表示する。
Next, a characteristic configuration of the personal computer 22 for processing data from the tilt sensor 12 and the three-dimensional measuring instruments 14A and 14B shown in FIG. 1 will be described with reference to FIG.
As shown in FIG. 3, the personal computer 22 includes a control unit 22a, a storage unit 22b, a display control unit 22c, and a monitor 22d.
The tilt sensor 12 and the three-dimensional measuring instruments 14A and 14B are connected to the control unit 22a. The control unit 22a stores the data at substantially the same time input from the tilt sensor 12 and the three-dimensional measuring devices 14A and 14B in the storage unit 22b, and performs arithmetic processing on each data read from the storage unit 22b. The calculation result is displayed on the monitor 22d via the display control unit 22c.

次に、図4(a)(b)を参照して、被写体までの距離の求め方について説明する。なお、被写体までの距離の求め方としては、以下のような周知の手法(トランジスタ技術2012年8月P62〜P68)が知られている。
ここで、三次元計測器14により得られた三次元点群データに対して、所定の画像数の小領域(Nx×Ny画素)を定め、水平にずれた位置についての相互相関値を算出し、最も高い相関値を示すシフト量を求め、求めたシフト量から位置を算出する。
例えば、被写体の位置がスクリーン位置に近い程、水平シフト量は小さくなり、逆に三次元計測器14に近い程、水平シフト量は大きくなる。そこで、赤外線カメラ20から得られた三次元点群データに基づいて、小領域(Nx×Ny画素)で構成されるブロック単位で、元のランダムドットパターンが水平方向にどの程度シフトしたかを求めれば、数学的にそのブロックの深度(Z値)を取得することができる。
Next, how to obtain the distance to the subject will be described with reference to FIGS. As a method for obtaining the distance to the subject, the following well-known method (transistor technology August 2012 P62 to P68) is known.
Here, with respect to the three-dimensional point cloud data obtained by the three-dimensional measuring instrument 14, a small region (Nx × Ny pixels) having a predetermined number of images is determined, and a cross-correlation value is calculated for a horizontally shifted position. The shift amount indicating the highest correlation value is obtained, and the position is calculated from the obtained shift amount.
For example, the closer the subject position is to the screen position, the smaller the horizontal shift amount, and vice versa. Therefore, based on the three-dimensional point cloud data obtained from the infrared camera 20, it is determined how much the original random dot pattern has shifted in the horizontal direction in units of blocks composed of small regions (Nx × Ny pixels). For example, the depth (Z value) of the block can be obtained mathematically.

図4(a)に示すように、プロジェクタ16と赤外線カメラ20とは間隔dだけ離れている。図4(b)に示すように、カメラの光学系において、L離れた距離でLxの幅がNx画像になるように作られていると仮定すると、被写体までの距離Zd、部分パターンの本来のビット位置をx0、シフトしたビット位置をx1とすれば、幾何学的な相似関係から、以下の式が成り立つ。   As shown in FIG. 4A, the projector 16 and the infrared camera 20 are separated by a distance d. As shown in FIG. 4B, in the camera optical system, assuming that the Lx width is an Nx image at a distance L, the distance Zd to the subject, the original of the partial pattern Assuming that the bit position is x0 and the shifted bit position is x1, the following equation holds from the geometric similarity.

Figure 2014044078
Figure 2014044078

Figure 2014044078
これにより、被写体までの距離Zdを求めることができる。
Figure 2014044078
Thereby, the distance Zd to the subject can be obtained.

次に、図5を参照して、体重推定装置の座標合わせについて説明する。
牛体3の三次元計測を行う前に、設置した三次元計測器14A、14Bの座標軸を一致させる必要がある。このために、図5に示すように、マーカ(球体)30を有する支柱31を4本備え、全ての三次元計測器から測定できる位置に基準となるマーカ30を設置する。ただし、夫々のマーカ30は、同一平面上にならないように設置する必要がある。
三次元計測器14Bに固定された座標系を(x,y,z)、三次元計測器14Aに固定された座標系を(x’,y’,z’)とする。
(x’,y’,z’)から(x,y,z)への座標系の変換式は回転と移動を考慮して以下のようになる。
Next, with reference to FIG. 5, the coordinate alignment of the weight estimation apparatus will be described.
Before performing the three-dimensional measurement of the cow body 3, it is necessary to match the coordinate axes of the installed three-dimensional measuring devices 14A and 14B. For this purpose, as shown in FIG. 5, four support columns 31 each having a marker (sphere) 30 are provided, and the reference marker 30 is installed at a position where measurement can be performed from all three-dimensional measuring instruments. However, each marker 30 needs to be installed so as not to be on the same plane.
The coordinate system fixed to the three-dimensional measuring instrument 14B is (x, y, z), and the coordinate system fixed to the three-dimensional measuring instrument 14A is (x ′, y ′, z ′).
A coordinate system conversion formula from (x ′, y ′, z ′) to (x, y, z) is as follows in consideration of rotation and movement.

Figure 2014044078
これを展開すると、
Figure 2014044078
If you expand this,

Figure 2014044078
となる。
Figure 2014044078
It becomes.

同一のマーカに対して、それぞれの三次元計測器14A、14Bで計測された位置(x,y,z)および(x’,y’,z’)を代人する。(1)の変換式を決定するにあたり、求めたい変数が12個(a11〜a34)あるので、(x,y,z)と(x’,y’,z’)の組み合わせ4組以上を(4)式に代人し、得られる連立方程式より、12個の変数が求まる。全ての変数が求まると、三次元計測器14Aに固定された座標系(x’,y’,z’)から三次元計測器14Bに固定された座標系(x,y,z)へ変換する式が決定される。
土壌の状態が悪い場合には、三次元計測器が重力方向に対して傾いている場合がある。そのために三次元計測器14Bに固定して配置されている傾きセンサ12により検出された値から、座標系(x,y,z)を修正し、z軸を重力方向と並行になるように補正する。
For the same marker, the positions (x, y, z) and (x ′, y ′, z ′) measured by the respective three-dimensional measuring devices 14A and 14B are substituted. In determining the conversion formula of (1), since there are 12 variables (a11 to a34) to be obtained, four or more combinations of (x, y, z) and (x ′, y ′, z ′) are ( 4) Substituting the equation, 12 variables are obtained from the obtained simultaneous equations. When all variables are obtained, the coordinate system (x ′, y ′, z ′) fixed to the three-dimensional measuring instrument 14A is converted to the coordinate system (x, y, z) fixed to the three-dimensional measuring instrument 14B. An expression is determined.
When the soil condition is poor, the three-dimensional measuring instrument may be tilted with respect to the direction of gravity. Therefore, the coordinate system (x, y, z) is corrected from the value detected by the tilt sensor 12 fixedly arranged on the three-dimensional measuring instrument 14B, and the z axis is corrected to be parallel to the direction of gravity. To do.

次に、図6に示すフローチャートを参照して、本発明の実施形態に係る体重推定装置に適用可能な体重計測システム1の動作を説明する。なお、パーソナルコンピュータ22は、電源が投入されると例えば記憶部22b(ハードディスク)に記憶されているオペレーティングシステムOSが制御部22a(CPU)によりRAM(図示しない)上にブートされて起動され、次いで、このOS上で複数種類のアプリケーションソフトウエアが実行可能になる。
図6に示すフローチャートで示されるプログラムをOS上で制御部22aが実行することで、体重計測システム1が動作するように構成されている。
また、後述するステップS10〜S20は、三次元計測器14A、14Bを動作するための専用のアプリケーションソフトウエアのプログラムを示している。制御部22aにより並列処理されるようにOSの管理下で実行される。一方、後述するステップS30〜S90は、別のアプリケーションソフトウエアのプログラムを示している。
Next, the operation of the weight measurement system 1 applicable to the weight estimation apparatus according to the embodiment of the present invention will be described with reference to the flowchart shown in FIG. When the personal computer 22 is turned on, for example, the operating system OS stored in the storage unit 22b (hard disk) is booted and started on a RAM (not shown) by the control unit 22a (CPU). A plurality of types of application software can be executed on the OS.
The weight measurement system 1 is configured to operate when the control unit 22a executes the program shown in the flowchart shown in FIG. 6 on the OS.
Steps S10 to S20 described later indicate a dedicated application software program for operating the three-dimensional measuring instruments 14A and 14B. It is executed under the management of the OS so as to be processed in parallel by the control unit 22a. On the other hand, steps S30 to S90 to be described later show programs of other application software.

まず、ステップS10では、制御部22aは、三次元点群データの取得処理を行う。すなわち、三次元計測器14Aを動作するための専用のアプリケーションソフトウエアのプログラムをOS上で実行する。
詳しくは、制御部22aは、投光開始信号を三次元計測器14に設けられたプロジェクタ16に送信する。投光開始指示を受信した三次元計測器14Aは、プロジェクタ16に設けられた高輝度赤外線LED16bに電源を投入する。これに応じて、高輝度赤外線LED16bが発光し、高輝度赤外線LED16bからの赤外線光をレンズ16cにより略並行なビーム光に変換し、レンズ16cからのビーム光の照度むらを光拡散素子16dにより抑制し均質な光に調整する。次いで、光拡散素子16dにより抑制された均質な光がマイクロレンズアレー16eに入射され、複数のマイクロレンズにより複数のランダムな光点が形成され、複数の点光を所定の角度βの広がりを有する複数の点光としてレンズ16aから下方向に投光される。
First, in step S10, the control unit 22a performs 3D point cloud data acquisition processing. That is, a dedicated application software program for operating the three-dimensional measuring instrument 14A is executed on the OS.
Specifically, the control unit 22 a transmits a light projection start signal to the projector 16 provided in the three-dimensional measuring instrument 14. The three-dimensional measuring instrument 14 </ b> A that has received the projection start instruction turns on the high-intensity infrared LED 16 b provided in the projector 16. Accordingly, the high-intensity infrared LED 16b emits light, the infrared light from the high-intensity infrared LED 16b is converted into substantially parallel beam light by the lens 16c, and the illuminance unevenness of the beam light from the lens 16c is suppressed by the light diffusion element 16d. And adjust to a homogeneous light. Next, the homogeneous light suppressed by the light diffusing element 16d is incident on the microlens array 16e, a plurality of random light spots are formed by the plurality of microlenses, and the plurality of point lights have a spread of a predetermined angle β. A plurality of spot lights are projected downward from the lens 16a.

次いで、制御部22aは、撮像開始信号を三次元計測器14Aに設けられた赤外線カメラ20に送信する。撮像開始指示を受信した三次元計測器14Aは、赤外線カメラ20を起動する。このとき、プロジェクタ16から投光され、被写体から反射された点光である赤外光を撮像レンズ20aで受光し、撮像レンズ20aによって結像された撮像対象の光学像を画像センサによりアナログ電気信号に変換し、アナログ電気信号を画像処理ユニットによりA/D変換してデジタル信号であるフレーム画像に対して、画像処理ユニットにより各種画像処理を行う。次いで、画像処理ユニットから出力される画像データをI/Fユニットを介してパーソナルコンピュータ22に送信する。
これにより、三次元計測器14Aから出力される牛体の上方の画像データを取得することができる。三次元計測器14Aからは赤外帯域の点光を放射しているので、牛体3の皮膚面上の反射点を赤外線カメラ20で撮影することができる。図7は牛体3の上方から取得した三次元点群データを示す図である。
三次元計測器14から取得した画像データに対して、上述した式(1)(2)に従って個々の光点までの距離Zdを求めることで三次元点群データを算出し、算出結果である三次元点群データ(A)を記憶部22bに記憶する。
Next, the control unit 22a transmits an imaging start signal to the infrared camera 20 provided in the three-dimensional measuring instrument 14A. The three-dimensional measuring instrument 14 </ b> A that has received the imaging start instruction activates the infrared camera 20. At this time, infrared light, which is spot light projected from the projector 16 and reflected from the subject, is received by the imaging lens 20a, and an optical image of the imaging target formed by the imaging lens 20a is converted into an analog electrical signal by the image sensor. The analog electrical signal is A / D converted by the image processing unit, and various image processes are performed on the frame image which is a digital signal by the image processing unit. Next, the image data output from the image processing unit is transmitted to the personal computer 22 via the I / F unit.
Thereby, the image data above the cow output from the three-dimensional measuring instrument 14A can be acquired. Since the infrared light spot light is emitted from the three-dimensional measuring instrument 14 </ b> A, the reflection point on the skin surface of the cow body 3 can be photographed by the infrared camera 20. FIG. 7 is a diagram showing three-dimensional point cloud data acquired from above the cow 3.
The image data acquired from the three-dimensional measuring instrument 14 is used to calculate the three-dimensional point cloud data by obtaining the distances Zd to the individual light spots according to the above formulas (1) and (2). The original point cloud data (A) is stored in the storage unit 22b.

同時に、ステップS20では、制御部22aは、ステップS10と同様に、三次元点群データの取得処理を行う。すなわち、三次元計測器14Bを動作するための専用のアプリケーションソフトウエアのプログラムをOS上で実行する。
これにより、三次元計測器14Bから出力される牛体の左側方の画像データを取得することができる。図8は牛体の側面から取得した三次元点群データを示す図である。三次元計測器14から取得した画像データに対して、上述した式(1)(2)に従って個々の光点までの距離Zdを求めることで三次元点群データを算出し、算出結果である三次元点群データ(B)を記憶部22bに記憶する。
At the same time, in step S20, the control unit 22a performs processing for acquiring three-dimensional point group data, as in step S10. That is, a dedicated application software program for operating the three-dimensional measuring instrument 14B is executed on the OS.
Thereby, the image data of the left side of the cow output from the three-dimensional measuring instrument 14B can be acquired. FIG. 8 is a diagram showing three-dimensional point cloud data acquired from the side of the cow body. The image data acquired from the three-dimensional measuring instrument 14 is used to calculate the three-dimensional point cloud data by obtaining the distances Zd to the individual light spots according to the above formulas (1) and (2). The original point cloud data (B) is stored in the storage unit 22b.

次いで、ステップS30では、制御部22aは、記憶部22bから取得した三次元点群データ(A)(B)を読み出し、牛体3の上面および側面の2つの三次元点群データ(A)(B)を合成し、三次元形状データからなる牛体データを生成して記憶部22bに記憶する。
なお、第2三次元計測器14Bが対向する牛体3の左側方とは反対側の右側方に配置され、牛体3の右側方からランダムな光点を投光し、牛体3により反射された反射点を撮像して牛体の別の側面の三次元点群データを取得する第3三次元計測器を備えた場合、ステップS30では、第1乃至第3三次元計測器から取得した上面、左側面、右側面の三次元点群データを合成し三次元形状データからなる牛体データを生成するように構成してもよい。
Next, in step S30, the control unit 22a reads the three-dimensional point cloud data (A) (B) acquired from the storage unit 22b, and the two three-dimensional point cloud data (A) (A) ( B) is synthesized, and bovine body data composed of three-dimensional shape data is generated and stored in the storage unit 22b.
The second three-dimensional measuring instrument 14B is arranged on the right side opposite to the left side of the cow body 3 facing, and projects a random light spot from the right side of the cow body 3 and is reflected by the cow body 3. In the case where a third 3D measuring device that captures the reflected points and obtains 3D point cloud data of another side of the cow body is obtained, in step S30, the data is acquired from the first to third 3D measuring devices. You may comprise so that the three-dimensional point cloud data of an upper surface, a left side surface, and a right side surface may be synthesize | combined and the cow data which consists of three-dimensional shape data may be produced | generated.

ところで、牛体3は生体であるため動く可能性が十分にある。このため、図9に示すように、計測領域内で牛体がx軸に対して、並行に位置しない場合がある。図9は、(x,y)平面に並行な胴体を含む面を設定し、(x,y)平面上の合成結果データの模式図である。
ここで、取得された三次元点群データから牛体の胴体の胸胴周り、高さ等を推定するためには、胴体の方向を、グローバル座標系に整える必要がある。
一般に、地面が平坦でないので、地面に対するラーメン構造体11の傾きを考慮すべきである。
地面に対してラーメン構造体11(図1)に傾きが生じている場合、ロール角(x軸周り)とピッチ角(z軸周り)が存在する。体重計測システム1には傾きセンサ12を備えているので、傾きセンサ12は、重力の加速度の方向を検出することで、ロール角とピッチ角の傾きを簡単に検出することができる。
By the way, since the cow body 3 is a living body, there is a sufficient possibility of movement. For this reason, as shown in FIG. 9, the cow may not be positioned in parallel with the x-axis in the measurement region. FIG. 9 is a schematic diagram of synthesis result data on the (x, y) plane, in which a plane including a body parallel to the (x, y) plane is set.
Here, in order to estimate the circumference, height, and the like of the bovine torso from the acquired three-dimensional point cloud data, it is necessary to arrange the direction of the torso in a global coordinate system.
In general, since the ground is not flat, the inclination of the frame structure 11 with respect to the ground should be considered.
When the ramen structure 11 (FIG. 1) is inclined with respect to the ground, a roll angle (around the x axis) and a pitch angle (around the z axis) exist. Since the weight measurement system 1 includes the inclination sensor 12, the inclination sensor 12 can easily detect the inclination of the roll angle and the pitch angle by detecting the direction of acceleration of gravity.

そこで、ステップS40では、制御部22aは、傾きセンサ12から取得した傾斜データに応じて、合成結果データである牛体データの重力方向に対する傾きを補正し、補正結果データを記憶部22bに記憶する。
重力の加速度の方向に対する牛体の傾きは、傾きセンサ12により検出され、重力の加速度の方向の周りのヨー角は画像処理により検出する。なお、図15はグローバル座標系を示す。
Therefore, in step S40, the control unit 22a corrects the inclination of the cow data, which is the synthesis result data, with respect to the gravitational direction according to the inclination data acquired from the inclination sensor 12, and stores the correction result data in the storage unit 22b. .
The inclination of the cow with respect to the direction of acceleration of gravity is detected by the inclination sensor 12, and the yaw angle around the direction of acceleration of gravity is detected by image processing. FIG. 15 shows the global coordinate system.

ここで、図15、図16を参照して、ヨー角の探知処理についての原理を、牛体の形状データを参照して説明する。
図15において、高さHは地面からの牛体の一番上の位置までを示す、そして、横断面(A−A’)は胴体に設定される。なお、断面形状が胴体に含まれるように、横断面(A−A’)の高さは0.67Hに設定される。
図16に横断面(A−A’)について抽出された牛体の横断面図を示す。
図16において、胴体は、y軸の周りでヨー角θyによって傾けられることを示す。
傾きの角度を演算するために、断面形状に対して、最小二乗法を使用して楕円形状として近似する。近似される楕円形状は図16において曲線(破線)よって示す。牛体の横断面の傾きは、楕円形状の傾きとして検出することができる。
近似される楕円形状は、横断面A−A’の周りで10cm間隔で推定し、y軸周りの平均的な回転は、y軸周りの牛体の回転の量として決定する。牛体の胴体はこの量によって回転し、制御部22aでグローバル座標によって牛体に対して位置合わせを行う。
Here, with reference to FIGS. 15 and 16, the principle of the yaw angle detection process will be described with reference to the bovine shape data.
In FIG. 15, the height H indicates from the ground up to the top position of the cow body, and the cross section (AA ′) is set to the torso. In addition, the height of the cross section (AA ′) is set to 0.67H so that the cross-sectional shape is included in the body.
FIG. 16 shows a cross-sectional view of the bovine body extracted with respect to the cross-section (AA ′).
In FIG. 16, the torso is tilted by the yaw angle θy about the y-axis.
In order to calculate the angle of inclination, the cross-sectional shape is approximated as an elliptical shape using the least square method. The approximate oval shape is indicated by a curve (broken line) in FIG. The inclination of the cross section of the cow can be detected as an elliptical inclination.
The approximate elliptical shape is estimated at 10 cm intervals around the cross-section AA ′ and the average rotation around the y axis is determined as the amount of rotation of the cow around the y axis. The body of the cow is rotated by this amount, and the control unit 22a aligns the cow body with the global coordinates.

ここで、グローバル座標系に沿った牛体データの補正は、ロール角(x軸周り)、ヨー角(y軸周り)とピッチ角(z軸周り)について行う。以下にそれぞれの補正式を示す。   Here, correction of the bovine data along the global coordinate system is performed for the roll angle (around the x axis), the yaw angle (around the y axis), and the pitch angle (around the z axis). Each correction formula is shown below.

Figure 2014044078
Figure 2014044078

Figure 2014044078
Figure 2014044078

Figure 2014044078
Figure 2014044078

牛体データの当初の座標系(x,y,z)は、以下の方程式によって、グローバル座標系(x’,y’,z’)に沿って一直線に並べることができる。   The initial coordinate system (x, y, z) of the bovine data can be aligned along the global coordinate system (x ′, y ′, z ′) by the following equation.

Figure 2014044078
Figure 2014044078

以上により、牛体データをなす三次元点群データは、ロール角とピッチ角およびヨー角の量に基づいて、グローバル座標系で回転され、回転結果の牛体データは記憶部22bに記憶される。
これにより、牛体3の計測環境に傾斜がある場合、ラーメン構造体11に第2三次元計測器14Bに近接して配置された傾きセンサ12により第2三次元計測器14Bのロール角およびピッチ角を検出し、検出されたロール角およびピッチ角の値に基づいて、ヨー角を算出し、検出されたロール角およびピッチ角の値、算出されたヨー角の値に基づいて、合成結果の牛体データ3iを補正することができ、より正確な牛体データを取得することができる。
As described above, the three-dimensional point cloud data forming the bovine data is rotated in the global coordinate system based on the roll angle, the pitch angle, and the yaw angle, and the cow data obtained as a result of the rotation is stored in the storage unit 22b. .
Thereby, when there is an inclination in the measurement environment of the cow body 3, the roll angle and pitch of the second three-dimensional measuring instrument 14B are measured by the inclination sensor 12 arranged in the ramen structure 11 in the vicinity of the second three-dimensional measuring instrument 14B. The angle is detected, the yaw angle is calculated based on the detected roll angle and pitch angle values, and the composition result is calculated based on the detected roll angle and pitch angle values and the calculated yaw angle value. The cow data 3i can be corrected, and more accurate cow data can be acquired.

次いで、ステップS50では、制御部22aは、合成結果データを重力方向に並行な断面形状に輪切り処理し、処理結果の牛体データを記憶部22bに記憶する。すなわち、牛体の胴体の断面形状について、図10に示すように、x軸に並行な平面を算出し、それぞれの断面形状を求める。図10は、領域内で牛体が斜めに位置していることを示す模式図である。   Next, in step S50, the control unit 22a performs a rounding process on the synthesis result data into a cross-sectional shape parallel to the direction of gravity, and stores the processed bovine data in the storage unit 22b. That is, as shown in FIG. 10, a plane parallel to the x-axis is calculated for the cross-sectional shape of the bovine body, and each cross-sectional shape is obtained. FIG. 10 is a schematic diagram showing that the cow body is positioned obliquely in the region.

次いで、ステップS60では、制御部22aは、輪切り処理した断面形状に対して、最小自乗近似に従ってそれぞれの断面形状を楕円形状で近似処理し、処理結果の牛体データを記憶部22bに記憶する。図11は輪切り処理した断面形状を楕円形状に近似したことを示す模式図である。   Next, in step S60, the control unit 22a approximates each cross-sectional shape with an elliptical shape according to the least-square approximation with respect to the cross-sectional shape subjected to the circular cutting process, and stores the processed bovine data in the storage unit 22b. FIG. 11 is a schematic diagram showing that the cross-sectional shape subjected to the ring cutting process is approximated to an elliptical shape.

次いで、ステップS70では、制御部22aは、夫々の楕円形状の中心点P1〜P6を求め、各断面形状の中心点を結ぶ処理、すなわち、夫々の楕円形状の中心点P1〜P6を通る近似直線を求め、求めた近似直線を記憶部22bに記憶する。図12は夫々の楕円形状の中心点P1〜P6を通る近似直線35を示す模式図である。   Next, in step S70, the control unit 22a obtains the respective elliptical center points P1 to P6 and connects the center points of the respective cross-sectional shapes, that is, approximate straight lines passing through the respective elliptical center points P1 to P6. And the obtained approximate straight line is stored in the storage unit 22b. FIG. 12 is a schematic diagram showing approximate straight lines 35 passing through the respective elliptical center points P1 to P6.

次いで、ステップS80では、制御部22aは、回転処理を行う。すなわち、この近似直線の傾きの値だけ、牛体の三次元座標データをz軸回りに回転処理し、x軸に並行な形状を得て、得られた牛体データを記憶部22bに記憶する。図13は近似直線を回転処理した結果を示す模式図である。
このように、牛体から取得した三次元点群データを合成して生成された牛体データに対して、重力方向に並行な複数の断面形状を楕円形状に近似し、夫々の楕円形状の中心点を結ぶ直線を算出し、当該直線の傾きに応じて前記牛体データを回転処理し、当該回転処理後の重力方向に並行する断面形状および水平方向に並行な断面形状を楕円形状に近似することで、牛体から取得した三次元点群データに欠落部分がある場合でも、楕円形状に近似が可能になるので、牛体の断面形状に極めて近い楕円形状を推定することができる。
Next, in step S80, the control unit 22a performs a rotation process. That is, the three-dimensional coordinate data of the cow is rotated around the z-axis by the value of the inclination of the approximate straight line, the shape parallel to the x-axis is obtained, and the obtained cow data is stored in the storage unit 22b. . FIG. 13 is a schematic diagram showing the result of rotating the approximate straight line.
In this way, for the bovine data generated by combining the 3D point cloud data acquired from the bovine, a plurality of cross-sectional shapes parallel to the gravity direction are approximated to an elliptical shape, and the center of each elliptical shape is approximated. A straight line connecting the points is calculated, the bovine data is rotated according to the inclination of the straight line, and the cross-sectional shape parallel to the gravity direction and the cross-sectional shape parallel to the horizontal direction after the rotation processing are approximated to an elliptical shape. Thus, even when there is a missing portion in the three-dimensional point cloud data acquired from the bovine, an elliptical shape can be approximated, so that an elliptical shape very close to the cross-sectional shape of the bovine can be estimated.

次いで、ステップS90では、制御部22aは、回転処理により得られたx軸に並行な牛体データに対して、重力方向に並行する断面形状および水平方向に並行な断面形状を最小自乗近似に従って楕円形状に近似処理し、処理結果となる夫々の楕円データは記憶部22bに記憶する。
図14は回転処理して得られた牛体データ3iの断面形状を楕円形状36に近似したことを示す模式図である。また、図19に示す牛体データに対して、水平方向の断面形状の例を図20に示し、重力方向の断面形状の例を図21に示す。
Next, in step S90, the control unit 22a ellipses the cross-sectional shape parallel to the gravity direction and the cross-sectional shape parallel to the horizontal direction according to the least square approximation with respect to the bovine data parallel to the x-axis obtained by the rotation process. Each ellipse data that is approximated to the shape and becomes the processing result is stored in the storage unit 22b.
FIG. 14 is a schematic diagram showing that the cross-sectional shape of the bovine data 3i obtained by the rotation process is approximated to an elliptical shape 36. Further, with respect to the cow data shown in FIG. 19, an example of the cross-sectional shape in the horizontal direction is shown in FIG. 20, and an example of the cross-sectional shape in the gravity direction is shown in FIG.

ここで、体重計測システムの性能について説明する。
体重計測システムの性能を評価するために、既知の寸法を有する長方形の並行六面体を計測対象物として使用する。三次元計測器14Bから対象物までの距離は、1.0mから0.5mおきに2.5mまで変更することとする。図17は、上述した並行六面体を計測対象物として使用した実験の結果を示す。RMSエラー(平均二乗誤差)は0.003m未満であり、システム性能が牛体の測定に十分であることが理解できる。
Here, the performance of the weight measurement system will be described.
In order to evaluate the performance of the weight measurement system, a rectangular parallelepiped having a known dimension is used as a measurement object. The distance from the three-dimensional measuring instrument 14B to the object is changed from 1.0 m to 2.5 m every 0.5 m. FIG. 17 shows the results of an experiment using the above-described parallelepiped as a measurement object. It can be understood that the RMS error (mean square error) is less than 0.003 m, and the system performance is sufficient for bovine measurement.

次に、牛体の測定結果について説明する。
対象となる牛体の年齢は18ヵ月、牛衝器による体重計測の結果として重さは533kg、十字部高(HH)は131.0cm、体長(BL)は216.0cm、胸囲(CG)は196.0cm、幅は50.0cmである。
夫々の三次元計測器14A,14Bによって検出される三次元点群データを、図8、図9に示す。夫々の三次元点群データは、ステップS30での合成処理により合成されている。
図18は、合成された牛体の三次元点群データを示す図である。データ数は約250,000個であり、個々の三次元点群データは(x,y,z)座標と、牛体表面のRGBカラーデータからなる。
Next, the measurement result of the bovine body will be described.
The target cow's body age is 18 months, the weight measured by the cow impactor is 533 kg, the cross height (HH) is 131.0 cm, the body length (BL) is 216.0 cm, and the chest circumference (CG) is It is 196.0 cm and the width is 50.0 cm.
The three-dimensional point cloud data detected by the respective three-dimensional measuring devices 14A and 14B are shown in FIGS. Each three-dimensional point cloud data is synthesized by the synthesis process in step S30.
FIG. 18 is a diagram showing the three-dimensional point cloud data of the synthesized bovine. The number of data is about 250,000, and each three-dimensional point cloud data is composed of (x, y, z) coordinates and RGB color data on the surface of the cow.

図19は、牛体の胴体において測定した部分を示す図である。図20に示す横断面形状(H1−H6)は、100mm毎に水平に測定した結果を示す断面図である。また、図21に示す4つの主要部分(V1−V4)は垂直に選ぶ。
一度、胴体データを作成すると、牛体を評価するのに必要な主要な特徴はパーソナルコンピュータ22で推定することができる。特に、胸胴回り(V2,V3)、腰高さと胴体長さその他は、牛体の成長を評価するのに重要なパラメータである。
本実施形態によれば、例えば、H5を体長(BL)を推定するために使用し、V1の最高位置を十字部高(HH)を推定するために使用する。
また、胸胴回り(V2,V3)に近い円は、胸囲(CG)を推定するために使用する。図21における円(破線)は、胸胴回りに接合された円である。
本実施形態による推定処理結果とマニュアル測定結果との誤差は、胸囲(CG)、体長(BL)については5%未満であった。
一方、十字部高(HH)については、可視光を利用したコンピュータ画像とマニュアル測定と誤差は、7%未満であった。両者の比較結果が違う結果となった原因の一つは、牛体の胴体髪に起因する。
FIG. 19 is a diagram showing a portion measured on the body of the cow body. The cross-sectional shape (H1-H6) shown in FIG. 20 is a cross-sectional view showing the result of horizontal measurement every 100 mm. Also, the four main parts (V1-V4) shown in FIG. 21 are selected vertically.
Once the torso data is created, the main features required to evaluate the cow can be estimated by the personal computer 22. In particular, chest circumference (V2, V3), waist height and trunk length, etc. are important parameters for evaluating the growth of the cow.
According to this embodiment, for example, H5 is used to estimate the body length (BL), and the highest position of V1 is used to estimate the cross height (HH).
A circle close to the chest circumference (V2, V3) is used to estimate the chest circumference (CG). A circle (broken line) in FIG. 21 is a circle joined around the chest trunk.
The error between the estimation processing result and the manual measurement result according to the present embodiment was less than 5% for the chest circumference (CG) and the body length (BL).
On the other hand, for the cross height (HH), the error in computer image using manual light and manual measurement was less than 7%. One of the causes of the difference between the two results is due to the bovine torso hair.

次いで、ステップS100では、制御部22aは、ステップS90での処理結果である夫々の楕円データ(図20、図21参照)から、胸囲(CG)、体長(BL)、十字部高(HH)などの寸法データを抽出し、処理結果となる夫々の寸法データを記憶部22bに記憶する。
次いで、ステップS110では、制御部22aは、ステップS100で抽出した寸法データを体重計算式に代入して牛体の体重データを推定する。
体重(BW)の算定式の例は、胸囲(CG)、体長(BL)、十字部高(HH)として、
BW(kg)=3.74CG+2.4BL+2.3HH−862.2 (9)
となる。なお、単位はいずれもcmである。
ここで、体重算定式(9)は一般式(10)において
BW=A×CG+B×BL+C×HH−D (10)
牛衝器やメジャーによる実測データを可能な限り多く取得し、CG、BL、HHに代入して、最小二乗法により計数A、B、C、Dを算出することで得られる。
胸囲(CG)、体長(BL)、十字部高(HH)などの寸法データを体重算出式(9)に代入し牛体の体重データを推定し、記憶部22bに記憶するとともに、推定結果の体重データを表示制御部22cを介してモニタ22dに表示する。
Next, in step S100, the control unit 22a obtains the chest circumference (CG), the body length (BL), the cross height (HH), etc. from the respective ellipse data (see FIGS. 20 and 21) as the processing result in step S90. Dimension data is extracted, and each dimensional data as a processing result is stored in the storage unit 22b.
Next, in step S110, the control unit 22a estimates the weight data of the bovine by substituting the dimension data extracted in step S100 into the weight calculation formula.
Examples of weight (BW) calculation formulas are chest circumference (CG), body length (BL), and cross height (HH).
BW (kg) = 3.74CG + 2.4BL + 2.3HH-862.2 (9)
It becomes. The unit is cm.
Here, the weight calculation formula (9) is the general formula (10): BW = A × CG + B × BL + C × HH−D (10)
It is obtained by acquiring as much actual measurement data as possible with a bull impactor or measure, substituting it into CG, BL, and HH and calculating the counts A, B, C, and D by the least square method.
Substituting the dimensional data such as chest circumference (CG), body length (BL), cross height (HH) into the weight calculation formula (9) to estimate the weight data of the cow body, storing it in the storage unit 22b, The weight data is displayed on the monitor 22d via the display control unit 22c.

以上のように、所定の姿勢で静止した動物体の上方、左側方、右側方の少なくとも一つの方向から赤外帯域のランダムな光点を投光し、動物体により反射された反射点を撮像して動物体の三次元点群データを取得し、取得した三次元点群データに対して、重力方向に並行な断面形状および水平方向に並行な断面形状を楕円形状に近似し、近似された楕円形状から当該動物体の特徴的な寸法データを抽出し、抽出された当該動物体の特徴的な寸法データを所定の体重計算式に代入して当該動物体の体重を推定することで、三次元計測によって動物体の寸法を高精度に測定し、得られた当該寸法データにより推定される体重の精度を向上することができる。   As described above, a random light spot in the infrared band is projected from at least one of the upper, left, and right sides of the moving object stationary in a predetermined posture, and the reflected point reflected by the moving object is imaged. The three-dimensional point cloud data of the moving object is obtained, and the obtained three-dimensional point cloud data is approximated by approximating the cross-sectional shape parallel to the gravity direction and the cross-sectional shape parallel to the horizontal direction to an elliptical shape. By extracting characteristic dimension data of the moving object from the ellipse shape and substituting the extracted characteristic dimension data of the moving object into a predetermined weight calculation formula, The dimension of the moving object can be measured with high accuracy by the original measurement, and the accuracy of the weight estimated from the obtained dimension data can be improved.

<変形例1>
本発明の第1実施形態に係る動物体の体重推定装置は、図1に示す体重計測システム1の構成として、三次元計測器14A,14Bを備えた構成に適用して説明したが、本発明はこのように2個の三次元計測器を用いる場合に限定されるものではない。
すなわち、変形例1として、一つの第1三次元計測器14Aが対向する牛体3の上方に配置され、牛体3に対向して上方から赤外帯域のランダムな光点を投光し、牛体3により反射された反射点を撮像して牛体3の上面の三次元点群データを取得するように構成してもよい。
三次元計測器14Aが牛体の上面から牛体データを取得した場合には、牛体データに対して、重力方向に並行な複数の断面形状を楕円形状(図21のV1〜V4)に近似する。
このとき、近似された結果の夫々の楕円形状(重力方向)を水平方向に並行な断面上で見ると数個の点が点在している。そこで、上記数個の点を牛体データの一部とみなし、近似された結果の夫々の楕円形状(重力方向)に含まれる点と牛体データに対して、水平方向に並行な断面形状を楕円形状(図20のH1〜H6)に近似すればよい。
これにより、近似された楕円形状から当該牛体の特徴的な寸法データを抽出することができる。
<Modification 1>
The animal body weight estimation apparatus according to the first embodiment of the present invention has been described as applied to a configuration including the three-dimensional measuring devices 14A and 14B as the configuration of the weight measurement system 1 shown in FIG. Is not limited to the case where two three-dimensional measuring instruments are used.
That is, as a first modification, one first three-dimensional measuring instrument 14A is disposed above the facing cow body 3, and projects a random light spot in the infrared band from above facing the cow body 3, You may comprise so that the reflective point reflected by the cow body 3 may be imaged and the three-dimensional point cloud data of the upper surface of the cow body 3 may be acquired.
When the three-dimensional measuring instrument 14A acquires bovine data from the upper surface of the bovine, a plurality of cross-sectional shapes parallel to the direction of gravity are approximated to elliptical shapes (V1 to V4 in FIG. 21) with respect to the bovine data. To do.
At this time, when each of the approximated elliptical shapes (gravity direction) is seen on a cross section parallel to the horizontal direction, several points are scattered. Therefore, the above-mentioned several points are regarded as a part of the bovine data, and the cross-sectional shape parallel to the horizontal direction is obtained with respect to the points included in each elliptical shape (gravity direction) and the bovine data. What is necessary is just to approximate an ellipse shape (H1-H6 of FIG. 20).
Thereby, characteristic dimension data of the cow can be extracted from the approximated elliptical shape.

<変形例2>
本発明の第1実施形態に係る動物体の体重推定装置は、図1に示す体重計測システム1の構成として、三次元計測器14A、14Bを備えた構成に適用して説明したが、本発明はこのように2個の三次元計測器を用いる場合に限定されるものではない。
すなわち、変形例2として、一つの第1三次元計測器14Bが対向する牛体3の側方に配置され、牛体3に対向して側方から赤外帯域のランダムな光点を投光し、牛体3により反射された反射点を撮像して牛体3の上面の三次元点群データを取得するように構成してもよい。
三次元計測器14Bが牛体の側面から牛体データを取得した場合には、牛体データに対して、水平方向に並行な複数の断面形状を楕円形状(図20のH1〜H6)に近似する。
このとき、近似された結果の夫々の楕円形状(水平方向)を重力方向に並行な断面上で見ると数個の点が点在している。そこで、上記数個の点を牛体データの一部とみなし、近似された結果の夫々の楕円形状(水平方向)に含まれる点と牛体データに対して、重力方向に並行な断面形状を楕円形状(重力方向)(図21のV1〜V4)に近似すればよい。
これにより、近似された楕円形状から当該牛体の特徴的な寸法データを抽出することができる。
<Modification 2>
The animal body weight estimation apparatus according to the first embodiment of the present invention has been described as applied to a configuration including the three-dimensional measuring devices 14A and 14B as the configuration of the weight measurement system 1 shown in FIG. Is not limited to the case where two three-dimensional measuring instruments are used.
That is, as a second modification, one first three-dimensional measuring instrument 14B is disposed on the side of the cow body 3 facing, and a random light spot in the infrared band is projected from the side facing the cow body 3. And you may comprise so that the reflective point reflected by the cow body 3 may be imaged and the three-dimensional point cloud data of the upper surface of the cow body 3 may be acquired.
When the three-dimensional measuring instrument 14B acquires the bovine data from the side of the bovine, a plurality of cross-sectional shapes parallel to the horizontal direction are approximated to elliptical shapes (H1 to H6 in FIG. 20) with respect to the bovine data. To do.
At this time, when each of the approximated oval shapes (horizontal direction) is seen on a cross section parallel to the direction of gravity, several points are scattered. Therefore, the above-mentioned several points are regarded as a part of the bovine data, and the cross-sectional shape parallel to the gravitational direction is set for the points included in each elliptical shape (horizontal direction) and the bovine data as approximated results. What is necessary is just to approximate an ellipse shape (gravity direction) (V1-V4 of FIG. 21).
Thereby, characteristic dimension data of the cow can be extracted from the approximated elliptical shape.

<変形例3>
本発明の第1実施形態に係る動物体の体重推定装置は、図1に示す体重計測システム1の構成として、三次元計測器14A、14Bを備えた構成に適用して説明したが、本発明はこのように2個の三次元計測器を用いる場合に限定されるものではない。
すなわち、変形例3として、第2三次元計測器14Bが対向する牛体3の側方とは別の側方に配置され、牛体3に対向して別の側方から赤外帯域のランダムな光点を投光し、牛体3により反射された反射点を撮像して牛体3の別の側面の三次元点群データを取得する第3三次元計測器を備えてもよい。
上述したステップS30では、合成処理において、第1乃至第3三次元計測器から取得した上面、側面、当該側面とは別の側面の三次元点群データを合成し三次元形状データからなる牛体データ3iを生成すればよい。
これにより、より正確な牛体データ3iを生成できるので、より正確に牛体の体重を推定することができる。
<Modification 3>
The animal body weight estimation apparatus according to the first embodiment of the present invention has been described as applied to a configuration including the three-dimensional measuring devices 14A and 14B as the configuration of the weight measurement system 1 shown in FIG. Is not limited to the case where two three-dimensional measuring instruments are used.
That is, as a third modification, the second three-dimensional measuring instrument 14B is arranged on a side different from the side of the cow 3 facing the random, and the infrared band is random from another side facing the cow 3. A third 3D measuring device that projects a light spot, images the reflection point reflected by the cow body 3, and obtains 3D point cloud data on another side surface of the cow body 3 may be provided.
In step S30 described above, in the synthesis process, the upper surface, the side surface, and the 3D point cloud data of the side surface different from the side surface obtained from the first to third 3D measuring instruments are combined to form the cow body composed of the 3D shape data. Data 3i may be generated.
Thereby, since the more exact cow body data 3i can be produced | generated, the weight of a cow body can be estimated more correctly.

<変形例4>
本発明の第1実施形態では、動物体の一つである牛体を例にして説明したが、本発明は牛体に限定されるものではなく、他の動物体に適用することが可能である。他の動物体から取得した三次元点群データに対して、重力方向に並行な断面形状および水平方向に並行な断面形状を楕円形状に近似し、近似された楕円形状から当該動物体の特徴的な寸法データを抽出し、抽出された当該動物体の特徴的な寸法データを当該動物体に適切な体重計算式に代入して当該動物体の体重を推定すればよい。
<Modification 4>
In the first embodiment of the present invention, description has been given by taking a cow that is one of the animal bodies as an example, but the present invention is not limited to the cow body, and can be applied to other animal bodies. is there. For 3D point cloud data acquired from other moving objects, the cross-sectional shape parallel to the gravitational direction and the cross-sectional shape parallel to the horizontal direction are approximated to an elliptical shape. It is only necessary to extract simple dimension data and substitute the extracted characteristic dimension data of the moving object into a weight calculation formula appropriate for the moving object to estimate the weight of the moving object.

1…体重計測システム、11…ラーメン構造体、11a…台座部、11b…柱部、11c…梁部、12…傾きセンサ、14…三次元計測器、14A…三次元計測器、14A、14B…三次元計測器、14B…三次元計測器、16…プロジェクタ、16a…レンズ、16b…高輝度赤外線LED、16c…レンズ、16d…光拡散素子、16e…マイクロレンズアレー、18…RGBカラーカメラ、18a…撮像レンズ、20…赤外線カメラ、20a…撮像レンズ、22…パーソナルコンピュータ、22a…制御部、22b…記憶部、22c…表示制御部、22d…モニタ、30…マーカ、31…支柱、35…近似直線、36…楕円形状、3i…牛体データ   DESCRIPTION OF SYMBOLS 1 ... Weight measurement system, 11 ... Ramen structure, 11a ... Base part, 11b ... Column part, 11c ... Beam part, 12 ... Tilt sensor, 14 ... Three-dimensional measuring instrument, 14A ... Three-dimensional measuring instrument, 14A, 14B ... Three-dimensional measuring instrument, 14B ... Three-dimensional measuring instrument, 16 ... Projector, 16a ... Lens, 16b ... High brightness infrared LED, 16c ... Lens, 16d ... Light diffusing element, 16e ... Micro lens array, 18 ... RGB color camera, 18a DESCRIPTION OF SYMBOLS ... Imaging lens, 20 ... Infrared camera, 20a ... Imaging lens, 22 ... Personal computer, 22a ... Control part, 22b ... Memory | storage part, 22c ... Display control part, 22d ... Monitor, 30 ... Marker, 31 ... Support | pillar, 35 ... Approximation Straight line, 36 ... elliptical shape, 3i ... cow data

Claims (12)

動物体の寸法データを所定の体重計算式に代入して前記動物体の体重を推定する動物体の体重推定装置であって、
所定の姿勢で静止した前記動物体の上方、左側方、右側方の少なくとも一つの方向から赤外帯域のランダムな光点を投光し、前記動物体により反射された反射点を撮像して前記動物体の三次元点群データを取得する三次元計測器と、
前記三次元計測器により取得した前記三次元点群データに対して、重力方向に並行な断面形状および水平方向に並行な断面形状を楕円形状に近似する形状近似処理手段と、
前記形状近似処理手段により近似された楕円形状から当該動物体の特徴的な寸法データを抽出する形状抽出手段と、を備え、
前記形状抽出手段により抽出された当該動物体の特徴的な寸法データを前記所定の体重計算式に代入して当該動物体の体重を推定する、ことを特徴とする動物体の体重推定装置。
A weight estimation device for an animal body that estimates the weight of the animal body by substituting the dimensional data of the animal body into a predetermined weight calculation formula,
A random light spot in the infrared band is projected from at least one of the upper, left side, and right side of the moving object stationary in a predetermined posture, and the reflected point reflected by the moving object is imaged. A three-dimensional measuring instrument for acquiring three-dimensional point cloud data of an animal body;
Shape approximation processing means for approximating the cross-sectional shape parallel to the gravity direction and the cross-sectional shape parallel to the horizontal direction to an elliptical shape for the three-dimensional point cloud data acquired by the three-dimensional measuring instrument,
Shape extraction means for extracting characteristic dimension data of the moving object from the elliptical shape approximated by the shape approximation processing means,
A weight estimation apparatus for an animal body, wherein the weight data of the animal body is estimated by substituting characteristic dimension data of the animal body extracted by the shape extraction means into the predetermined weight calculation formula.
前記一つの方向とは異なる他の一つの方向から赤外帯域のランダムな光点を投光し、前記動物体により反射された反射点を撮像して前記動物体の三次元点群データを取得する他の三次元計測器と、
前記三次元計測器および前記他の三次元計測器から取得した夫々の三次元点群データを合成する合成手段と、を備えたことを特徴とする請求項1記載の動物体の体重推定装置。
A random light spot in the infrared band is projected from another direction different from the one direction, and the reflection point reflected by the moving object is imaged to obtain three-dimensional point cloud data of the moving object. With other 3D measuring instruments
The animal body weight estimation apparatus according to claim 1, further comprising: a combining unit that combines the three-dimensional point cloud data acquired from the three-dimensional measuring instrument and the other three-dimensional measuring instrument.
前記三次元計測器のロール角およびピッチ角を検出する検出手段と、
前記検出手段により検出されたロール角およびピッチ角に基づいて、ヨー角を算出するヨー角算出手段と、
前記検出手段により検出されたロール角およびピッチ角、前記ヨー角算出手段により算出されたヨー角に基づいて、前記三次元点群データを補正する補正手段と、を備えたことを特徴とする請求項1記載の動物体の体重推定装置。
Detecting means for detecting a roll angle and a pitch angle of the three-dimensional measuring instrument;
A yaw angle calculation means for calculating a yaw angle based on the roll angle and the pitch angle detected by the detection means;
And a correction unit that corrects the three-dimensional point cloud data based on the roll angle and pitch angle detected by the detection unit and the yaw angle calculated by the yaw angle calculation unit. Item 1. An apparatus for estimating the weight of an animal body according to Item 1.
前記形状近似処理手段は、前記三次元点群データに対して、重力方向に並行な複数の断面形状を楕円形状に近似し、夫々の楕円形状の中心点を結ぶ直線を算出し、当該直線の傾きに応じて前記三次元点群データを回転処理し、当該回転処理後の重力方向に並行する断面形状および水平方向に並行な断面形状を楕円形状に近似することを特徴とする請求項1記載の動物体の体重推定装置。   The shape approximation processing means approximates a plurality of cross-sectional shapes parallel to the gravity direction to an elliptical shape with respect to the three-dimensional point cloud data, calculates a straight line connecting the center points of the respective elliptical shapes, The cross-sectional shape parallel to the gravity direction and the cross-sectional shape parallel to the horizontal direction after the rotation processing are approximated to an elliptical shape by rotating the three-dimensional point cloud data according to an inclination. Animal body weight estimation device. 前記三次元計測器が前記動物体の上方から前記三次元点群データを取得した場合には、前記形状近似処理手段は、前記三次元点群データに対して、重力方向に並行な複数の断面形状を楕円形状に近似し、該近似された結果の夫々の楕円形状に含まれる点と前記三次元点群データに対し、水平方向に並行な断面形状を楕円形状に近似することを特徴とする請求項1記載の動物体の体重推定装置。   When the three-dimensional measuring instrument acquires the three-dimensional point cloud data from above the moving object, the shape approximation processing means has a plurality of cross sections parallel to the gravitational direction with respect to the three-dimensional point cloud data. The shape is approximated to an elliptical shape, and the cross-sectional shape parallel to the horizontal direction is approximated to an elliptical shape with respect to the points included in each of the approximated elliptical shapes and the three-dimensional point cloud data. The animal body weight estimation apparatus according to claim 1. 前記三次元計測器が前記動物体の左側方または右側方から前記三次元点群データを取得した場合には、前記形状近似処理手段は、前記三次元点群データに対して、水平方向に並行な複数の断面形状を楕円形状に近似し、該近似された結果の夫々の楕円形状に含まれる点と前記三次元点群データに対し、重力方向に並行な断面形状を楕円形状に近似することを特徴とする請求項1記載の動物体の体重推定装置。   When the three-dimensional measuring instrument acquires the three-dimensional point cloud data from the left or right side of the moving object, the shape approximation processing means is parallel to the three-dimensional point cloud data in the horizontal direction. Approximating a plurality of cross-sectional shapes to an elliptical shape, and approximating a cross-sectional shape parallel to the gravitational direction to an elliptical shape for the points included in each of the approximated elliptical shapes and the three-dimensional point cloud data The weight estimation apparatus for an animal body according to claim 1. 動物体の寸法データを所定の体重計算式に代入して前記動物体の体重を推定する動物体の体重推定方法であって、
所定の姿勢で静止した前記動物体の上方、左側方、右側方の少なくとも一つの方向から赤外帯域のランダムな光点を投光し、前記動物体により反射された反射点を撮像して前記動物体の三次元点群データを取得する三次元計測器により取得した前記三次元点群データに対して、重力方向に並行な断面形状および水平方向に並行な断面形状を楕円形状に近似する形状近似処理ステップと、
前記形状近似処理ステップにより近似された楕円形状から当該動物体の特徴的な寸法データを抽出する形状抽出ステップと、を備え、
前記形状抽出ステップにより抽出された当該動物体の特徴的な寸法データを前記所定の体重計算式に代入して当該動物体の体重を推定する、ことを特徴とする動物体の体重推定方法。
A method of estimating the weight of an animal body by substituting the dimensional data of the animal body into a predetermined weight calculation formula to estimate the weight of the animal body,
A random light spot in the infrared band is projected from at least one of the upper, left side, and right side of the moving object stationary in a predetermined posture, and the reflected point reflected by the moving object is imaged. A shape that approximates the cross-sectional shape parallel to the gravity direction and the cross-sectional shape parallel to the horizontal direction to an elliptical shape with respect to the three-dimensional point cloud data acquired by the three-dimensional measuring instrument that acquires the three-dimensional point cloud data of the moving object An approximation processing step;
A shape extraction step of extracting characteristic dimension data of the moving object from the elliptical shape approximated by the shape approximation processing step,
A weight estimation method for a moving body, characterized in that the weight of the moving body is estimated by substituting characteristic dimension data of the moving body extracted in the shape extraction step into the predetermined weight calculation formula.
前記三次元計測器および、前記一つの方向とは異なる他の一つの方向から赤外帯域のランダムな光点を投光し、前記動物体により反射された反射点を撮像して前記動物体の三次元点群データを取得する他の三次元計測器から取得した夫々の三次元点群データを合成する合成ステップを備えたことを特徴とする請求項7記載の動物体の体重推定方法。   A random light spot in the infrared band is projected from the three-dimensional measuring instrument and another direction different from the one direction, and the reflection point reflected by the moving object is imaged to capture the moving object. 8. The method of estimating the weight of an animal body according to claim 7, further comprising a synthesis step of synthesizing each three-dimensional point cloud data acquired from another three-dimensional measuring instrument that acquires the three-dimensional point cloud data. 前記三次元計測器のロール角およびピッチ角を検出する検出手段により検出されたロール角およびピッチ角に基づいて、ヨー角を算出するヨー角算出ステップと、
前記検出手段により検出されたロール角およびピッチ角、前記ヨー角算出ステップにより算出されたヨー角に基づいて、前記三次元点群データを補正する補正ステップと、を備えたことを特徴とする請求項7記載の動物体の体重推定方法。
A yaw angle calculating step for calculating a yaw angle based on the roll angle and the pitch angle detected by the detecting means for detecting the roll angle and the pitch angle of the three-dimensional measuring instrument;
And a correction step of correcting the three-dimensional point cloud data based on the roll angle and pitch angle detected by the detection means and the yaw angle calculated by the yaw angle calculation step. Item 8. The method for estimating the weight of an animal body according to Item 7.
前記形状近似処理ステップは、前記三次元点群データに対して、重力方向に並行な複数の断面形状を楕円形状に近似し、夫々の楕円形状の中心点を結ぶ直線を算出し、当該直線の傾きに応じて前記三次元点群データを回転処理し、当該回転処理後の重力方向に並行する断面形状および水平方向に並行な断面形状を楕円形状に近似することを特徴とする請求項7記載の動物体の体重推定方法。   The shape approximation processing step approximates a plurality of cross-sectional shapes parallel to the gravity direction to an elliptical shape with respect to the three-dimensional point cloud data, calculates a straight line connecting the center points of the respective elliptical shapes, 8. The three-dimensional point cloud data is rotated according to an inclination, and a cross-sectional shape parallel to the gravity direction and a cross-sectional shape parallel to the horizontal direction after the rotation processing are approximated to an elliptical shape. Method for estimating the weight of an animal body. 前記三次元計測器が前記動物体の上方から前記三次元点群データを取得した場合には、前記形状近似処理ステップは、前記三次元点群データに対して、重力方向に並行な複数の断面形状を楕円形状に近似し、該近似された結果の夫々の楕円形状に含まれる点と前記三次元点群データに対し、水平方向に並行な断面形状を楕円形状に近似することを特徴とする請求項7記載の動物体の体重推定方法。   When the three-dimensional measuring instrument acquires the three-dimensional point cloud data from above the moving object, the shape approximation processing step includes a plurality of cross sections parallel to the gravitational direction with respect to the three-dimensional point cloud data. The shape is approximated to an elliptical shape, and the cross-sectional shape parallel to the horizontal direction is approximated to an elliptical shape with respect to the points included in each of the approximated elliptical shapes and the three-dimensional point cloud data. The weight estimation method for an animal body according to claim 7. 前記三次元計測器が前記動物体の左側方または右側方ら前記三次元点群データを取得した場合には、前記形状近似処理ステップは、前記三次元点群データに対して、水平方向に並行な複数の断面形状を楕円形状に近似し、該近似された結果の夫々の楕円形状に含まれる点と前記三次元点群データに対し、重力方向に並行な断面形状を楕円形状に近似することを特徴とする請求項7記載の動物体の体重推定方法。   When the three-dimensional measuring instrument acquires the three-dimensional point cloud data from the left or right side of the moving object, the shape approximation processing step is parallel to the three-dimensional point cloud data in the horizontal direction. Approximating a plurality of cross-sectional shapes to an elliptical shape, and approximating a cross-sectional shape parallel to the gravitational direction to an elliptical shape for the points included in each of the approximated elliptical shapes and the three-dimensional point cloud data The method for estimating the weight of an animal body according to claim 7.
JP2012185553A 2012-08-24 2012-08-24 Weight estimation apparatus for animal body and weight estimation method Active JP6083638B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012185553A JP6083638B2 (en) 2012-08-24 2012-08-24 Weight estimation apparatus for animal body and weight estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012185553A JP6083638B2 (en) 2012-08-24 2012-08-24 Weight estimation apparatus for animal body and weight estimation method

Publications (2)

Publication Number Publication Date
JP2014044078A true JP2014044078A (en) 2014-03-13
JP6083638B2 JP6083638B2 (en) 2017-02-22

Family

ID=50395445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012185553A Active JP6083638B2 (en) 2012-08-24 2012-08-24 Weight estimation apparatus for animal body and weight estimation method

Country Status (1)

Country Link
JP (1) JP6083638B2 (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016038669A (en) * 2014-08-06 2016-03-22 国立研究開発法人産業技術総合研究所 Projection image generation device, projection image generation program and projection image generation method
CN105784083A (en) * 2016-04-05 2016-07-20 北京农业信息技术研究中心 Cow shape measuring method and cow shape measuring system based on stereo vision technology
WO2017208436A1 (en) * 2016-06-03 2017-12-07 株式会社オプティム Animal weight estimation system, animal weight estimation method, and program
CN107667903A (en) * 2017-07-27 2018-02-09 北京奥云牧数据科技有限公司 Livestock-raising live body Avoirdupois monitoring method based on Internet of Things
WO2019003015A1 (en) * 2017-06-29 2019-01-03 The Gsi Group Llc Regression-based animal weight estimation
EP3353744A4 (en) * 2015-09-21 2019-04-24 PLF Agritech Pty Ltd Image analysis for making animal measurements including 3-d image analysis
KR20190078481A (en) * 2017-12-26 2019-07-04 주식회사 일루베이션 A livestock weighing system and a livestock weighing method using the same
CN110288580A (en) * 2019-06-25 2019-09-27 深圳德里克设备有限公司 Measurement method, measuring device and the readable storage medium storing program for executing of livestock weight
KR102062609B1 (en) 2019-07-29 2020-01-06 전북대학교 산학협력단 A portable weighting system for livestock using 3D images
CN110672016A (en) * 2019-09-12 2020-01-10 四川农业大学 Cattle body size measuring system and method based on image recognition
CN110693499A (en) * 2019-11-14 2020-01-17 河北农业大学 System and method for detecting animal body size and weight
WO2020085597A1 (en) * 2018-10-26 2020-04-30 주식회사 일루베이션 Livestock weighing system and livestock weighing method using same
KR102123761B1 (en) * 2019-06-20 2020-06-16 주식회사 일루베이션 A livestock tracing system based on 3D model analysis using 3D scanning and its livestock weighing predicted method
KR102131558B1 (en) * 2019-05-22 2020-07-07 주식회사 일루베이션 A livestock weighing system using the LiDAR and a livestock weighing method using the same
KR102131560B1 (en) * 2019-05-27 2020-07-07 주식회사 일루베이션 Wearable type livestock weighing apparatus and a livestock weighing method using the same
KR102131559B1 (en) * 2019-05-27 2020-07-07 주식회사 일루베이션 Gun type livestock weighing apparatus and a livestock weighing method using the same
JP2020106422A (en) * 2018-12-27 2020-07-09 Nttテクノクロス株式会社 Weight estimation device, weight estimation method, and program
KR102180077B1 (en) * 2020-04-29 2020-11-17 주식회사 일루베이션 Livestock weight estimation system using livestock weight estimation application based on 3D images and Livestock weight estimation method using the same
JP2020194454A (en) * 2019-05-29 2020-12-03 キヤノン株式会社 Image processing device and image processing method, program, and storage medium
JP2021016376A (en) * 2019-07-24 2021-02-15 ソフトバンク株式会社 Measuring apparatus, server, and system
JP2021063774A (en) * 2019-10-17 2021-04-22 株式会社ノア Body weight estimation device
KR20210051626A (en) * 2019-10-31 2021-05-10 전북대학교산학협력단 An apparatus for determination of body weight of Korean Hanwooo using three-dimensional imaging
WO2021166894A1 (en) 2020-02-18 2021-08-26 国立大学法人宮崎大学 Weight estimation device and program
JPWO2021191976A1 (en) * 2020-03-23 2021-09-30
JPWO2021191975A1 (en) * 2020-03-23 2021-09-30
KR20220006312A (en) * 2020-07-08 2022-01-17 전북대학교산학협력단 An apparatus for determination of body weight of korean cattle using ToF camera
KR20220062920A (en) * 2020-11-09 2022-05-17 주식회사 일루베이션 Stationary Livestock weight estimation system based on 3D images and Livestock weight estimation method using the same
CN114966733A (en) * 2022-04-21 2022-08-30 北京福通互联科技集团有限公司 Beef cattle three-dimensional depth image acquisition system based on laser array and monocular camera
WO2022202793A1 (en) * 2021-03-25 2022-09-29 学校法人東京理科大学 Growing condition evaluation system
KR20230071813A (en) * 2021-11-15 2023-05-24 주토스주식회사 Hanwoo(Korean beef) growth test data collection device and method therof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7049657B2 (en) * 2017-09-06 2022-04-07 国立大学法人 宮崎大学 Livestock weight estimation device and livestock weight estimation method
JP7057971B2 (en) * 2018-06-06 2022-04-21 全国農業協同組合連合会 Animal body weight estimation device and weight estimation method
CN109459119B (en) * 2018-10-17 2020-06-05 京东数字科技控股有限公司 Weight measurement method, device and computer readable storage medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5566704A (en) * 1978-11-08 1980-05-20 Owens Illinois Inc Glass block volume and shape measurement
US5412420A (en) * 1992-10-26 1995-05-02 Pheno Imaging, Inc. Three-dimensional phenotypic measuring system for animals
JPH103547A (en) * 1996-06-18 1998-01-06 Minolta Co Ltd Three-dimensional data processor
JPH10288516A (en) * 1997-04-16 1998-10-27 Komatsu Eng Kk Difference-in-level measuring device of plane
US6377353B1 (en) * 2000-03-07 2002-04-23 Pheno Imaging, Inc. Three-dimensional measuring system for animals using structured light
US20040023612A1 (en) * 2002-08-02 2004-02-05 Kriesel Marshall S. Apparatus and methods for the volumetric and dimensional measurement of livestock
JP2004108836A (en) * 2002-09-13 2004-04-08 Sumitomo Denko Systems Kk Azimuth angle computing method of imaging apparatus and system, attitude sensor of imaging apparatus, tilt sensor of imaging device and computer program and three-dimentional model configuration device
JP2005227122A (en) * 2004-02-13 2005-08-25 Yamato Scale Co Ltd Fat rate measuring instrument
JP2012519277A (en) * 2009-02-27 2012-08-23 ボディー サーフェイス トランスレーションズ, インコーポレイテッド Physical parameter estimation using 3D display

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5566704A (en) * 1978-11-08 1980-05-20 Owens Illinois Inc Glass block volume and shape measurement
US5412420A (en) * 1992-10-26 1995-05-02 Pheno Imaging, Inc. Three-dimensional phenotypic measuring system for animals
JPH10500207A (en) * 1994-04-14 1998-01-06 フェノ・イメージング、インク Animal three-dimensional phenotype measurement device
JPH103547A (en) * 1996-06-18 1998-01-06 Minolta Co Ltd Three-dimensional data processor
JPH10288516A (en) * 1997-04-16 1998-10-27 Komatsu Eng Kk Difference-in-level measuring device of plane
US6377353B1 (en) * 2000-03-07 2002-04-23 Pheno Imaging, Inc. Three-dimensional measuring system for animals using structured light
US20040023612A1 (en) * 2002-08-02 2004-02-05 Kriesel Marshall S. Apparatus and methods for the volumetric and dimensional measurement of livestock
JP2004108836A (en) * 2002-09-13 2004-04-08 Sumitomo Denko Systems Kk Azimuth angle computing method of imaging apparatus and system, attitude sensor of imaging apparatus, tilt sensor of imaging device and computer program and three-dimentional model configuration device
JP2005227122A (en) * 2004-02-13 2005-08-25 Yamato Scale Co Ltd Fat rate measuring instrument
JP2012519277A (en) * 2009-02-27 2012-08-23 ボディー サーフェイス トランスレーションズ, インコーポレイテッド Physical parameter estimation using 3D display

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016038669A (en) * 2014-08-06 2016-03-22 国立研究開発法人産業技術総合研究所 Projection image generation device, projection image generation program and projection image generation method
EP3353744A4 (en) * 2015-09-21 2019-04-24 PLF Agritech Pty Ltd Image analysis for making animal measurements including 3-d image analysis
CN105784083A (en) * 2016-04-05 2016-07-20 北京农业信息技术研究中心 Cow shape measuring method and cow shape measuring system based on stereo vision technology
WO2017208436A1 (en) * 2016-06-03 2017-12-07 株式会社オプティム Animal weight estimation system, animal weight estimation method, and program
JPWO2017208436A1 (en) * 2016-06-03 2019-04-11 株式会社オプティム Animal weight estimation system, animal weight estimation method and program
US10895491B2 (en) 2016-06-03 2021-01-19 Optim Corporation Animal weight estimation system, animal weight estimation method, and program
WO2019003015A1 (en) * 2017-06-29 2019-01-03 The Gsi Group Llc Regression-based animal weight estimation
US10816387B2 (en) 2017-06-29 2020-10-27 The Gsi Group Llc Regression-based animal weight estimation
CN107667903A (en) * 2017-07-27 2018-02-09 北京奥云牧数据科技有限公司 Livestock-raising live body Avoirdupois monitoring method based on Internet of Things
KR102122131B1 (en) * 2017-12-26 2020-06-11 주식회사 일루베이션 A livestock weighing system and a livestock weighing method using the same
KR20190078481A (en) * 2017-12-26 2019-07-04 주식회사 일루베이션 A livestock weighing system and a livestock weighing method using the same
WO2020085597A1 (en) * 2018-10-26 2020-04-30 주식회사 일루베이션 Livestock weighing system and livestock weighing method using same
CN111386075A (en) * 2018-10-26 2020-07-07 易路维申株式会社 Livestock weight measuring system and livestock weight measuring method using same
JP2020106422A (en) * 2018-12-27 2020-07-09 Nttテクノクロス株式会社 Weight estimation device, weight estimation method, and program
JP7481550B2 (en) 2018-12-27 2024-05-10 Nttテクノクロス株式会社 Body weight estimation device, body weight estimation method, and program
KR102269532B1 (en) * 2019-04-19 2021-06-25 주식회사 일루베이션 A livestock weighing system using 3D image and a livestock weighing method using the same
KR20200122910A (en) * 2019-04-19 2020-10-28 주식회사 일루베이션 A livestock weighing system and a livestock weighing method using the same
KR102131558B1 (en) * 2019-05-22 2020-07-07 주식회사 일루베이션 A livestock weighing system using the LiDAR and a livestock weighing method using the same
KR102131559B1 (en) * 2019-05-27 2020-07-07 주식회사 일루베이션 Gun type livestock weighing apparatus and a livestock weighing method using the same
KR102131560B1 (en) * 2019-05-27 2020-07-07 주식회사 일루베이션 Wearable type livestock weighing apparatus and a livestock weighing method using the same
JP7300895B2 (en) 2019-05-29 2023-06-30 キヤノン株式会社 Image processing device, image processing method, program, and storage medium
JP2020194454A (en) * 2019-05-29 2020-12-03 キヤノン株式会社 Image processing device and image processing method, program, and storage medium
KR102123761B1 (en) * 2019-06-20 2020-06-16 주식회사 일루베이션 A livestock tracing system based on 3D model analysis using 3D scanning and its livestock weighing predicted method
CN110288580A (en) * 2019-06-25 2019-09-27 深圳德里克设备有限公司 Measurement method, measuring device and the readable storage medium storing program for executing of livestock weight
JP2021016376A (en) * 2019-07-24 2021-02-15 ソフトバンク株式会社 Measuring apparatus, server, and system
KR102062609B1 (en) 2019-07-29 2020-01-06 전북대학교 산학협력단 A portable weighting system for livestock using 3D images
CN110672016A (en) * 2019-09-12 2020-01-10 四川农业大学 Cattle body size measuring system and method based on image recognition
JP2021063774A (en) * 2019-10-17 2021-04-22 株式会社ノア Body weight estimation device
KR20210051626A (en) * 2019-10-31 2021-05-10 전북대학교산학협력단 An apparatus for determination of body weight of Korean Hanwooo using three-dimensional imaging
KR102258282B1 (en) * 2019-10-31 2021-05-31 전북대학교산학협력단 An apparatus for determination of body weight of Korean Hanwooo using three-dimensional imaging
CN110693499A (en) * 2019-11-14 2020-01-17 河北农业大学 System and method for detecting animal body size and weight
CN110693499B (en) * 2019-11-14 2023-10-24 河北农业大学 System and method for detecting animal body ruler and weight
WO2021166894A1 (en) 2020-02-18 2021-08-26 国立大学法人宮崎大学 Weight estimation device and program
JPWO2021191976A1 (en) * 2020-03-23 2021-09-30
JPWO2021191975A1 (en) * 2020-03-23 2021-09-30
JP7414962B2 (en) 2020-03-23 2024-01-16 Nttテクノクロス株式会社 Weight estimation device, weight estimation method and program
KR102180077B1 (en) * 2020-04-29 2020-11-17 주식회사 일루베이션 Livestock weight estimation system using livestock weight estimation application based on 3D images and Livestock weight estimation method using the same
KR102356183B1 (en) * 2020-07-08 2022-01-28 전북대학교산학협력단 An apparatus for determination of body weight of korean cattle using ToF camera
KR20220006312A (en) * 2020-07-08 2022-01-17 전북대학교산학협력단 An apparatus for determination of body weight of korean cattle using ToF camera
KR102404137B1 (en) * 2020-11-09 2022-06-02 주식회사 일루베이션 Stationary Livestock weight estimation system based on 3D images and Livestock weight estimation method using the same
KR20220062920A (en) * 2020-11-09 2022-05-17 주식회사 일루베이션 Stationary Livestock weight estimation system based on 3D images and Livestock weight estimation method using the same
WO2022202793A1 (en) * 2021-03-25 2022-09-29 学校法人東京理科大学 Growing condition evaluation system
KR20230071813A (en) * 2021-11-15 2023-05-24 주토스주식회사 Hanwoo(Korean beef) growth test data collection device and method therof
KR102622655B1 (en) 2021-11-15 2024-01-10 주토스 주식회사 Korean cattle growth test data collection device
CN114966733A (en) * 2022-04-21 2022-08-30 北京福通互联科技集团有限公司 Beef cattle three-dimensional depth image acquisition system based on laser array and monocular camera

Also Published As

Publication number Publication date
JP6083638B2 (en) 2017-02-22

Similar Documents

Publication Publication Date Title
JP6083638B2 (en) Weight estimation apparatus for animal body and weight estimation method
JP5587137B2 (en) Measuring apparatus and measuring method
JP7050131B2 (en) Methods for determining geometric measurements of the distance of the retina of the eye, non-temporary computer-readable storage media, and imaging systems for determining geometric measurements of the distance of the retina of the eye
CN110163898B (en) Depth information registration method, device, system, equipment and storage medium
US20170243365A1 (en) Method and system for designing a stair lift rail assembly
JP2011027724A5 (en)
JP7057971B2 (en) Animal body weight estimation device and weight estimation method
JP2003130621A5 (en)
JP6589636B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP2020098151A5 (en)
JP6164679B2 (en) Camera calibration method and camera calibration apparatus
WO2004044522A1 (en) Three-dimensional shape measuring method and its device
JP2008249432A (en) Three-dimensional image measuring device, method, and program of non-static object
US11045113B2 (en) Method for determining the alignment of a system, and a display system
JP2007312877A (en) Body measuring apparatus
JP7049657B2 (en) Livestock weight estimation device and livestock weight estimation method
US11328439B2 (en) Information processing device, object measurement system, object measurement method, and program storage medium
JP6735615B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP5522630B2 (en) 3D system
WO2019172351A1 (en) Object identification device, object identification system, object identification method, and program recording medium
JP2011212203A5 (en)
JP2019056679A (en) Surface evaluation method, surface evaluation device, and evaluation model storage device
TW201042236A (en) Method for measuring three-dimensional shape
JP5417654B2 (en) Center of gravity analysis method
JP2005098978A (en) Apparatus, method and program for three-dimensional measurement, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170113

R150 Certificate of patent or registration of utility model

Ref document number: 6083638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250