JP2016042843A - Mounting action detector, mounting action detection method, and program - Google Patents

Mounting action detector, mounting action detection method, and program Download PDF

Info

Publication number
JP2016042843A
JP2016042843A JP2014170641A JP2014170641A JP2016042843A JP 2016042843 A JP2016042843 A JP 2016042843A JP 2014170641 A JP2014170641 A JP 2014170641A JP 2014170641 A JP2014170641 A JP 2014170641A JP 2016042843 A JP2016042843 A JP 2016042843A
Authority
JP
Japan
Prior art keywords
behavior
animal
riding
detection
acceleration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014170641A
Other languages
Japanese (ja)
Inventor
直輝 福重
Naoteru Fukushige
直輝 福重
浩輔 伊賀
Kosuke Iga
浩輔 伊賀
学 志水
Manabu Shimizu
学 志水
忠美 菊地
Tadami Kikuchi
忠美 菊地
克弥 佐々木
Katsuya Sasaki
克弥 佐々木
陽平 豊田
Yohei Toyoda
陽平 豊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ERI Inc
National Agriculture and Food Research Organization
Original Assignee
ERI Inc
National Agriculture and Food Research Organization
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ERI Inc, National Agriculture and Food Research Organization filed Critical ERI Inc
Priority to JP2014170641A priority Critical patent/JP2016042843A/en
Publication of JP2016042843A publication Critical patent/JP2016042843A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a novel technique capable of easily detecting a mounting action by a quadruped.SOLUTION: A mounting action detector, when determining a mounting action of a second quadruped different from a first quadruped by an infrared sensor attached to a back of the first quadruped, determines whether or not a reception period of data of the detection exceeds a predetermined threshold value according to the result of the detection and a detection timing of the infrared sensor, and determines as a mounting allowable action when the reception period exceeds the threshold value.SELECTED DRAWING: Figure 2A

Description

本発明は、動物の乗駕行動検出技術に関する。   The present invention relates to an animal riding behavior detection technique.

動物の行動を認識し判別する技術に関して、従来から種々の方法が提案されている。例えば、特許文献1では、人間の行動を認識するために、加速度、角加速度、速度、角速度、位置、回転、及び曲げ角などの動作情報と、脈拍、血圧等の生体情報と、を組み合わせて状態変化を認識することが開示されている。   Conventionally, various methods have been proposed for techniques for recognizing and discriminating animal behavior. For example, in Patent Document 1, in order to recognize human behavior, motion information such as acceleration, angular acceleration, velocity, angular velocity, position, rotation, and bending angle is combined with biological information such as pulse and blood pressure. Recognizing state changes is disclosed.

また、特許文献2では、人間の行動を認識するために、3つの直交軸での加速度及び3つの直交軸のまわりの角速度を全て用いて人間の行動を判定することが開示されている。また、特許文献3は、牛にストレスを与えることなく、正確に発情期を検知するために、乗駕を牛体の傾きにより検知し、乗駕する牛と乗駕される牛との間の通信として赤外線を用いることが開示されている。   Japanese Patent Application Laid-Open No. 2004-228561 discloses that in order to recognize a human action, the human action is determined using all the accelerations on the three orthogonal axes and the angular velocities around the three orthogonal axes. Moreover, in Patent Document 3, in order to accurately detect the estrus period without applying stress to the cow, the riding is detected by the inclination of the cow body, and between the cow to be boarded and the cow to be boarded. The use of infrared as communication is disclosed.

特開平10−113343号公報JP-A-10-113343 特開2006−340903号公報JP 2006-340903 A 特開2005−210927号公報Japanese Patent Laid-Open No. 2005-210927

しかしながら、特許文献1の方法では、動作情報と生態情報とを組み合わせているため、処理が複雑になるなどの問題がある。また、特許文献2の方法では、3つの直交軸での加速度および3つの直交軸のまわりの角速度をサンプリングし、サンプリングされた加速度および角速度をすべて用いて、前記対象の行動を判定するものであり、同様に処理が複雑になるという問題がある。さらに、特許文献3に記載の方法では、乗駕する牛と乗駕される牛とを特定する必要があり、処理が複雑になるという問題があった。   However, the method of Patent Document 1 has problems such as complicated processing because operation information and ecological information are combined. In the method of Patent Document 2, the acceleration on three orthogonal axes and the angular velocities around the three orthogonal axes are sampled, and the behavior of the target is determined using all the sampled accelerations and angular velocities. Similarly, there is a problem that the processing becomes complicated. Furthermore, in the method described in Patent Document 3, it is necessary to specify the cow to be boarded and the cow to be boarded, and there is a problem that the processing becomes complicated.

本発明は、牛の乗駕行動を簡単に検出できる新規な技術を提供することを目的とする。   An object of this invention is to provide the novel technique which can detect the riding behavior of a cow easily.

本発明の一観点によれば、第1の四肢歩行動物の背中に取り付けられた赤外線センサにより前記第1の四肢歩行動物とは異なる第2の四肢歩行動物の乗駕行動が検出されると、該検出の結果と前記赤外線センサの検出タイミングとに基づいて、前記検出のデータの受信期間が、所定のしきい値を超えるか否かを判定し、前記しきい値を超える場合に、乗駕許容行動と判定することを特徴とする乗駕行動検出装置が提供される。前記データの受信期間が、所定のしきい値を超えるか否かを判定し、前記しきい値を超えない場合に、乗駕忌避行動と判定することを特徴とする。   According to one aspect of the present invention, when the riding behavior of the second limb walking animal different from the first limb walking animal is detected by the infrared sensor attached to the back of the first limb walking animal, Based on the detection result and the detection timing of the infrared sensor, it is determined whether or not the reception period of the detection data exceeds a predetermined threshold value. There is provided a riding behavior detecting apparatus characterized in that it is determined as an allowable behavior. It is determined whether a reception period of the data exceeds a predetermined threshold value, and when it does not exceed the threshold value, it is determined as a riding avoidance action.

さらに、水平方向の加速度を取得する加速度取得部と、水平方向の角速度を取得する角速度取得部と、四肢歩行動物の行動パターンを判別する行動パターン判定部と、を備え、前記行動パターン判定部は、前記水平方向の加速度と前記水平方向の角速度とに基づいて得られる動物の前後方向の動作の大きさを示す第1の値と、前記水平方向の加速度と前記水平方向の角速度とに基づいて得られる動物の前後及び左右方向の動作の大きさを示す第2の値とにより、行動パターンを判別することを特徴とする。   Furthermore, an acceleration acquisition unit that acquires horizontal acceleration, an angular velocity acquisition unit that acquires a horizontal angular velocity, and an action pattern determination unit that determines a behavior pattern of a limb walking animal, the behavior pattern determination unit includes: , Based on the first value indicating the magnitude of the animal's longitudinal motion obtained based on the horizontal acceleration and the horizontal angular velocity, and on the horizontal acceleration and the horizontal angular velocity. The behavior pattern is discriminated based on the second value indicating the magnitude of the movement of the animal in the front-rear and left-right directions.

前記第1の値は、|角速度(X方向)|/|加速度(Y方向)|(1式)により、前記第2の値は、|角速度(X方向)|/|加速度(Y方向)|×|角速度(Y方向)|/|加速度(X方向)|(2式)により求められることを特徴とする。
但し、X方向を動物の側面方向とし、Y方向を動物の正面方向とする。四肢歩行ではなく2足歩行の動物(人間を含む)にも適用できる。
The first value is represented by | angular velocity (X direction) | / | acceleration (Y direction) | (formula 1), and the second value is represented by | angular velocity (X direction) | / | acceleration (Y direction) | × | Angular velocity (Y direction) | / | Acceleration (X direction) | (Expression 2)
However, the X direction is the animal side direction, and the Y direction is the animal front direction. It can be applied to biped walking animals (including humans) instead of limb walking.

前記行動パターン判定部は、動物の行動時に得られた前記第1の値の対数と前記第2の値の対数とを、2次元のx−yグラフにとった際に得られる正の相関関係に基づいて、動物の行動パターンを判別することを特徴とする。前記行動パターン判定部は、動物の行動時に得られた前記第1の値の対数と前記第2の値の対数とを、2次元のx−yグラフにとった際に得られる行動パターンに依存するx−yの範囲に基づいて、動物の行動パターンを判別することを特徴とする。   The behavior pattern determination unit is a positive correlation obtained when the logarithm of the first value and the logarithm of the second value obtained during the behavior of the animal are taken in a two-dimensional xy graph. Based on the above, the behavior pattern of the animal is discriminated. The behavior pattern determination unit depends on a behavior pattern obtained when a logarithm of the first value and a logarithm of the second value obtained at the time of animal behavior are taken in a two-dimensional xy graph. The behavior pattern of the animal is discriminated based on the range of xy to be performed.

また、本発明は、第1の四肢歩行動物の背中に取り付けられる端末装置であって、赤外線センサと、タイマと、通信部と、を備え、前記赤外線センサにより前記第1の四肢歩行動物とは異なる第2の四肢歩行動物の乗駕行動が検出されると、該検出の結果と前記タイマによる検出タイミングの時刻とを組のデータにして、前記通信部により遠隔の情報処理装置に送信する端末装置を備えることを特徴とする乗駕行動検出装置である。   The present invention is also a terminal device attached to the back of a first limb walking animal, comprising an infrared sensor, a timer, and a communication unit, and the first limb walking animal is defined by the infrared sensor. When the riding behavior of a different second limb walking animal is detected, a terminal that transmits the detection result and the time of detection timing by the timer to a remote information processing apparatus as a set of data It is a riding action detection apparatus characterized by including an apparatus.

本発明の他の観点によれば、第1の四肢歩行動物の背中に取り付けられた赤外線センサにより前記第1の四肢歩行動物とは異なる第2の四肢歩行動物の乗駕行動が検出されると、該検出の結果と前記赤外線センサの検出タイミングとに基づいて、前記検出のデータの受信期間が、所定のしきい値を超えるか否かを判定するステップと、前記しきい値を超える場合に、乗駕許容行動と判定するステップとを有することを特徴とする乗駕行動検出方法が提供される。さらに、前記データの受信期間が、所定のしきい値を超えるか否かを判定し、前記しきい値を超えない場合に、乗駕忌避行動と判定するステップを有することを特徴とする。   According to another aspect of the present invention, when the riding behavior of the second limb walking animal different from the first limb walking animal is detected by the infrared sensor attached to the back of the first limb walking animal. Determining whether the detection data reception period exceeds a predetermined threshold based on the detection result and the detection timing of the infrared sensor; and There is provided a method for detecting a riding behavior characterized in that the method includes a step of determining that the behavior is a riding tolerance behavior. Furthermore, it is characterized by determining whether or not a reception period of the data exceeds a predetermined threshold value, and when the data reception period does not exceed the threshold value, it is determined to be a riding avoidance action.

本発明は、コンピュータに、上記に記載の行動判別方法を実行させるためのプログラムであっても良く、当該プログラムを記録するコンピュータ読み取り可能な記録媒体であっても良い。   The present invention may be a program for causing a computer to execute the behavior determination method described above, or a computer-readable recording medium for recording the program.

本発明によれば、センシングデータに基づいて、四肢歩行動物の乗駕行動を簡単かつ精度良く検出することができる。   According to the present invention, it is possible to easily and accurately detect the riding behavior of the limb walking animal based on the sensing data.

本発明の実施の形態による行動判別装置を含むシステムの一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the system containing the action determination apparatus by embodiment of this invention. 牛の平坦な背中の部分に第1の装置(端末装置)を載せた様子を示す図である。It is a figure which shows a mode that the 1st apparatus (terminal device) was mounted on the flat back part of a cow. 第1のシステム構成例を示す機能ブロック図である。It is a functional block diagram which shows the 1st system configuration example. 第2のシステム構成例を示す機能ブロック図である。It is a functional block diagram which shows the 2nd system configuration example. 第3のシステム構成例を示す機能ブロック図である。It is a functional block diagram which shows the 3rd system configuration example. 第4のシステム構成例を示す機能ブロック図である。It is a functional block diagram which shows the 4th system configuration example. 第5のシステム構成例を示す機能ブロック図である。FIG. 10 is a functional block diagram illustrating a fifth system configuration example. 第6のシステム構成例を示す機能ブロック図である。It is a functional block diagram which shows the 6th system configuration example. (1)式の意味を示す図である。It is a figure which shows the meaning of (1) Formula. (1)式の意味を示す図である。It is a figure which shows the meaning of (1) Formula. (2)式の意味を示す図である。It is a figure which shows the meaning of (2) Formula. (2)式の意味を示す図である。It is a figure which shows the meaning of (2) Formula. 情報処理装置における情報処理の流れの例を示すフローチャート図である。FIG. 11 is a flowchart illustrating an example of information processing flow in the information processing apparatus. 情報処理装置における乗駕行動検出処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the riding behavior detection process in information processing apparatus. 発情開始の予測処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the prediction process of an estrus start. 動物の行動パターンを判定するためのデータの一例について牛を例にして示した判別データの例を示す図である。It is a figure which shows the example of the discrimination | determination data shown taking the cow as an example about an example of the data for determining the action pattern of an animal. 動物の行動パターンを判定するためのデータの一例について牛を例にして示した判別データの例を示す図である。It is a figure which shows the example of the discrimination | determination data shown taking the cow as an example about an example of the data for determining the action pattern of an animal. 動物の行動パターンを判定するためのデータの一例について牛を例にして示した判別データの例を示す図である。It is a figure which shows the example of the discrimination | determination data shown taking the cow as an example about an example of the data for determining the action pattern of an animal. 動物の行動パターンを判定するためのデータの一例について牛を例にして示した判別データの例を示す図である。It is a figure which shows the example of the discrimination | determination data shown taking the cow as an example about an example of the data for determining the action pattern of an animal. 動物の行動パターンを判定するためのデータの一例について牛を例にして示した判別データの例を示す図である。It is a figure which shows the example of the discrimination | determination data shown taking the cow as an example about an example of the data for determining the action pattern of an animal. 動物の行動パターンを判定するためのデータの一例について牛を例にして示した判別データの例を示す図である。It is a figure which shows the example of the discrimination | determination data shown taking the cow as an example about an example of the data for determining the action pattern of an animal. 図12に対応する図であり、図12に加えて、第2の実施の形態による乗駕許容と乗駕拒否との判別方法を利用して、牛の乗駕許容行動、忌避行動のデータをプロットした図である。FIG. 13 is a diagram corresponding to FIG. 12, and in addition to FIG. 12, by using the method for discriminating whether to allow riding or to refuse riding according to the second embodiment, FIG. 本発明の第2の実施の形態による牛の乗駕検出技術における乗駕許容行動の発言時刻の記録例を示す図である。It is a figure which shows the example of a recording of the utterance time of the riding tolerance action in the cow riding detection technique by the 2nd Embodiment of this invention. 図14に示す乗駕行動の検出率の一例を示す図である。It is a figure which shows an example of the detection rate of the riding behavior shown in FIG.

以下、本発明の実施の形態による動物の行動判別技術について図面を参照しながら詳細に説明する。尚、以下においては、牛の行動を判別する技術を例にしているが、四肢で歩行する四肢歩行動物動あれば、本発明は、牛に限定されるものではない。分類例としては家畜などが挙げられる。   Hereinafter, an animal behavior discrimination technique according to an embodiment of the present invention will be described in detail with reference to the drawings. In the following, a technique for discriminating the behavior of a cow is taken as an example, but the present invention is not limited to a cow as long as it is a limb walking animal that walks on the limb. Examples of classification include livestock.

国内では、一部の肉用品種を除き、人工授精や胚移植により牛を妊娠させている。これらの繁殖技術は発情日を基準とするため、牛の発情行動を把握することは必要である。特に人工授精を行う場合には、受胎率の向上のために授精適期の的確な推定は重要であり、発情開始および終了時刻ならびに発情最盛期の時間帯を把握することが必要である。牛における発情行動、特に乗駕許容の持続時間は14〜21時間と短いことに対して、発情行動は21日間隔でしか発現しないため、1回の発情の見逃しによる試算損失は数万円にも及ぶ。そのことから、発情を確実に見つけることは、安定した子牛生産や良好な繁殖経営のために極めて重要であり、安価なセンサ等で発情を推定できる行動を判別する技術が求められる。   In Japan, cows are made pregnant by artificial insemination and embryo transfer, except for some meat varieties. Since these breeding techniques are based on the date of estrus, it is necessary to understand the estrous behavior of cattle. In particular, when artificial insemination is performed, accurate estimation of the optimal fertilization period is important for improving the fertility rate, and it is necessary to grasp the estrus start and end times and the time zone of the estrus maximum. Estrus behavior in cattle, especially the duration of tolerance for riding, is as short as 14-21 hours, whereas estrus behavior only occurs at 21-day intervals, so the estimated loss due to one missed estrus is tens of thousands of yen It also extends. Therefore, finding estrus reliably is extremely important for stable calf production and good breeding management, and a technique for discriminating behavior that can estimate estrus with an inexpensive sensor or the like is required.

従来から、センサを利用し牛の行動を判別する方法としては、(1)歩数を監視する方法、(2)行動量を監視する方法、の2種類がある。   Conventionally, there are two types of methods for discriminating cattle behavior using sensors: (1) a method for monitoring the number of steps, and (2) a method for monitoring the amount of behavior.

(1)歩数の変化を監視する方法
牛歩(コムテック社の登録商標)が商品化されており、送信機を兼ねた歩数計を前肢に装着し1時間単位の歩数データをパソコン通信によって受信し、歩数の変化を監視するシステムである。
(2)行動量の変化を監視する方法
ドクターカウベル(マイメディア社の登録商標)等およびハツハツ(P.Aテクノロジー社)が商品化されており、ドクターカウベルは牛の首に振動センサを、ハツハツは加速度センサを利用した行動量計を取り付け、行動量および体温の変化を監視する装置である。
(1) Method of monitoring changes in the number of steps Ushiho (registered trademark of Comtech) has been commercialized, and a pedometer that also serves as a transmitter is attached to the forelimbs to receive step data in one-hour units via PC communication. This system monitors changes in the number of steps.
(2) Method of monitoring changes in behavior amount Doctor Cowbell (registered trademark of My Media) and Hatsuhatsu (PA Technology) are commercialized. Dr. Cowbell uses a vibration sensor on the cow's neck and Hatsuhatsu uses an acceleration sensor. It is a device that attaches a used behavior meter and monitors changes in behavior and body temperature.

これらの方法は、動物の行動を、「確実な横臥」、「横臥又は静止起立」、「動作有り」、「移動」等に判別することはできない。また、歩数や行動量の増加は必ずしも発情特異的ではなく、高精度な発情の予測は応用できない。   In these methods, the behavior of the animal cannot be determined as “reliable recumbent”, “recumbent or standing upright”, “with motion”, “moving”, or the like. In addition, the increase in the number of steps and the amount of action is not necessarily estrus specific, and high-precision prediction of estrus cannot be applied.

(第1の実施の形態)
本実施の形態では、動物の行動を、簡単な構成で、「確実な横臥」、「横臥又は静止起立」、「動作有り」、「移動」に判別することができる。
(First embodiment)
In the present embodiment, the behavior of the animal can be discriminated as “reliable recumbent”, “recumbent or standing upright”, “with motion”, and “moving” with a simple configuration.

図1Aは、本発明の実施の形態による行動判別装置を含むシステムの一構成例を示す機能ブロック図である。行動判別装置は、行動パターン判定部を含む情報処理装置の少なくとも一部からなる。   FIG. 1A is a functional block diagram illustrating a configuration example of a system including a behavior determination device according to an embodiment of the present invention. The behavior determination device includes at least a part of an information processing device including a behavior pattern determination unit.

本実施の形態によるシステムAは、例えば、端末装置などの装置(1)1と、例えば情報処理装置などの遠隔の装置(2)3とを有している。図1Bは、牛の平坦な背中の部分に端末装置(装置(1))1を載せた様子を示す図である。端末装置1の搭載位置は、牛などの四肢歩行動物の背部の「装置を取り付けた個体自身の鼻等で触れられない位置」、「設置が安定するなるべく平らな位置」などの条件を満たす位置である。ここでは、端末装置を第1の装置(1)とも称し、牛の背中に乗せる装置を指す。   The system A according to the present embodiment includes, for example, a device (1) 1 such as a terminal device and a remote device (2) 3 such as an information processing device. FIG. 1B is a diagram showing a state in which the terminal device (device (1)) 1 is placed on the flat back portion of the cow. The mounting position of the terminal device 1 is a position on the back of a limb walking animal such as a cow that satisfies the conditions such as “a position that cannot be touched by the nose of the individual to which the apparatus is attached”, “a position where the installation is as stable as possible” It is. Here, the terminal device is also referred to as a first device (1) and refers to a device that is placed on the back of a cow.

以下に、本実施の形態によるシステム(行動判別装置)Aの種々の構成例について例示的に説明する。図1Aは、基本的には以下の図2Bから図2Fの構成に相当する。以下に説明する全ての機能部を必須の構成としなくても良い。また、第1から第3までの装置内の各構成要素は、交換可能な場合には、いずれに持たせても良い。   Hereinafter, various configuration examples of the system (behavior determination device) A according to the present embodiment will be exemplarily described. FIG. 1A basically corresponds to the configuration of FIGS. 2B to 2F below. All the functional units described below may not be required. In addition, each component in the first to third devices may be provided in any case where it can be replaced.

加速度センサ1−1は、2軸又は3軸加速度センサであり、角速度センサ1−2も、2軸又は3軸角速度センサである。3軸センサの場合には、各センサのX軸を牛の側(横)方向、Y軸を牛の頭方向、Z軸を上方向(鉛直方向)になるように設置する。以下、X方向、Y方向、Z方向と称する。従って、本実施の形態では2軸のセンサであることが要件となる。赤外線センサ1−3は、上方向における物の有無を判別することができる。記憶部1−4は、各機能部をCPUにより制御するためのプログラムやセンサによるセンシング結果などを記憶する。さらに、演算処理用プログラムなどの他に、行動を判別するための行動判別用の判別データ1−4−1等を記憶する。制御部1−5は、各機能部を制御するCPUである。タイマ1−6は、センシングデータを取得した時刻等を提供し、センシングデータとともに時刻を関連付けすることができる。演算部1−7は、センシングデータや時刻等のデータに基づいて、行動判別用の判別データ1−4−1を作成する。   The acceleration sensor 1-1 is a biaxial or triaxial acceleration sensor, and the angular velocity sensor 1-2 is also a biaxial or triaxial angular velocity sensor. In the case of a triaxial sensor, each sensor is installed so that the X axis is in the cow side (lateral) direction, the Y axis is in the cow head direction, and the Z axis is in the upward direction (vertical direction). Hereinafter, they are referred to as an X direction, a Y direction, and a Z direction. Therefore, in this embodiment, it is a requirement that the sensor is a biaxial sensor. The infrared sensor 1-3 can determine the presence or absence of an object in the upward direction. The memory | storage part 1-4 memorize | stores the program for controlling each function part by CPU, the sensing result by a sensor, etc. FIG. Further, in addition to the arithmetic processing program, action determination data 1-4-1 for determining action is stored. The control unit 1-5 is a CPU that controls each functional unit. The timer 1-6 provides the time when the sensing data is acquired, and can associate the time with the sensing data. The calculation unit 1-7 creates determination data 1-4-1 for action determination based on data such as sensing data and time.

行動パターン判定部1−8は、センシングデータ等に基づいて、演算部1−7で演算された値等に基づき行動判別用の判別データ1−4−1を参照して、動物の行動パターンを判定する。表示部1−10は、得られた行動パターンなどを表示する。表示部に代えて又は表示部とともに、データや結果を印刷したりする出力部を有していても良い。   The action pattern determination unit 1-8 refers to the determination data 1-4-1 for action determination based on the values calculated by the calculation unit 1-7 based on the sensing data, etc., and determines the behavior pattern of the animal. judge. The display unit 1-10 displays the obtained action pattern and the like. Instead of the display unit or together with the display unit, an output unit for printing data and results may be provided.

図2Bは、行動判別装置(システム)の第2のシステム構成例を示す機能ブロック図である。
図2Bに示すように、第2のシステムは、装置(1)1と、装置(2)3とを有している。例えば、装置(1)1は牛に取り付けられる端末装置であり、装置(2)3は出力を行うタブレットなどの端末装置である。
装置(1)1には、加速度センサ1−1から行動パターン判定部1−8までと通信部1−9が設けられ、装置(2)3には、通信部3−1と、表示部3−2が設けられている。 通信部1−9、通信部3−1は、装置(1)1と、装置(2)3の間でのデータ等のやり取りを行う。その他の処理は、基本的に、第1のシステムと同様である。
FIG. 2B is a functional block diagram illustrating a second system configuration example of the behavior determination apparatus (system).
As shown in FIG. 2B, the second system includes a device (1) 1 and a device (2) 3. For example, the device (1) 1 is a terminal device attached to a cow, and the device (2) 3 is a terminal device such as a tablet that performs output.
The device (1) 1 includes an acceleration sensor 1-1 to a behavior pattern determination unit 1-8 and a communication unit 1-9. The device (2) 3 includes a communication unit 3-1 and a display unit 3. -2 is provided. The communication unit 1-9 and the communication unit 3-1 exchange data and the like between the device (1) 1 and the device (2) 3. Other processing is basically the same as that of the first system.

図2Cは、行動判別装置(システム)の第3のシステム構成例を示す機能ブロック図である。
図2Cに示すように、第3のシステムは、装置(1)1と、装置(2)3とを有している。例えば、装置(1)1は牛に取り付けられる端末装置であり、装置(2)3は出力を行うタブレットなどの端末装置である。
装置(1)1には、加速度センサ1−1からタイマ1−6までと通信部1−9とが、装置(2)3には、通信部3−1と、記憶部3−3、制御部3−4、タイマ3−5、演算部3−6、行動パターン判定部3−7、表示部3−2が設けられている。記憶部3−3に、判別データ3−3−1が記憶される。
通信部1−9、通信部3−1は、装置(1)1と、装置(2)3の間でのデータ等のやり取りを行う。
FIG. 2C is a functional block diagram illustrating a third system configuration example of the behavior determination device (system).
As shown in FIG. 2C, the third system includes a device (1) 1 and a device (2) 3. For example, the device (1) 1 is a terminal device attached to a cow, and the device (2) 3 is a terminal device such as a tablet that performs output.
The device (1) 1 includes an acceleration sensor 1-1 to a timer 1-6 and a communication unit 1-9. The device (2) 3 includes a communication unit 3-1, a storage unit 3-3, and a control unit. A unit 3-4, a timer 3-5, a calculation unit 3-6, an action pattern determination unit 3-7, and a display unit 3-2 are provided. Determination data 3-3-1 is stored in the storage unit 3-3.
The communication unit 1-9 and the communication unit 3-1 exchange data and the like between the device (1) 1 and the device (2) 3.

第3のシステムでは、装置(1)1側でセンシングデータと時刻を取得し、装置(2)3側で、演算処理と行動判別処理とを行う。その他の処理は、基本的に、第1のシステムと同様である。   In the third system, sensing data and time are acquired on the device (1) 1 side, and calculation processing and behavior determination processing are performed on the device (2) 3 side. Other processing is basically the same as that of the first system.

図2Dは、行動判別装置(システム)の第4のシステム構成例を示す機能ブロック図である。
図2Dに示すように、第4のシステムは、装置(1)1と、装置(2)3と、装置(3)5と、を有している。例えば、装置(1)1は牛に取り付けられる端末装置であり、装置(2)3は出力を行う情報処理装置などの中継装置であり、装置(3)5は、出力を行うタブレットなどの端末装置である。
装置(1)1には、加速度センサ1−1からタイマ1−6までと通信部1−9が、装置(2)3には、通信部3−1と、記憶部3−3、制御部3−4、タイマ3−5、演算部3−6、行動パターン判定部3−7、通信部3−8が、装置(3)5には、通信部5−1と、表示部5−2が設けられている。記憶部3−3に、判別データ3−3−1が記憶される。通信部1−9、通信部3−1は、装置(1)1と、装置(2)3の間でのデータ等のやり取りを行う。通信部3−8、通信部5−1は、装置(2)3と、装置(3)5の間でのデータ等のやり取りを行う。
FIG. 2D is a functional block diagram illustrating a fourth system configuration example of the behavior determination apparatus (system).
As shown in FIG. 2D, the fourth system includes a device (1) 1, a device (2) 3, and a device (3) 5. For example, the device (1) 1 is a terminal device attached to a cow, the device (2) 3 is a relay device such as an information processing device that performs output, and the device (3) 5 is a terminal such as a tablet that performs output. Device.
The device (1) 1 includes an acceleration sensor 1-1 to a timer 1-6 and a communication unit 1-9. The device (2) 3 includes a communication unit 3-1, a storage unit 3-3, and a control unit. 3-4, timer 3-5, calculation unit 3-6, behavior pattern determination unit 3-7, communication unit 3-8, device (3) 5, communication unit 5-1 and display unit 5-2 Is provided. Determination data 3-3-1 is stored in the storage unit 3-3. The communication unit 1-9 and the communication unit 3-1 exchange data and the like between the device (1) 1 and the device (2) 3. The communication unit 3-8 and the communication unit 5-1 exchange data and the like between the device (2) 3 and the device (3) 5.

第4のシステムでは、装置(1)1側でセンシングデータと時刻を取得し、装置(2)3側で、演算処理と行動判別処理とを行う。そして、表示等の出力は、装置(3)5で行う。その他の処理は、基本的に、第1のシステムと同様である。   In the fourth system, sensing data and time are acquired on the device (1) 1 side, and calculation processing and action determination processing are performed on the device (2) 3 side. Output such as display is performed by the device (3) 5. Other processing is basically the same as that of the first system.

図2Eは、行動判別装置(システム)の第5のシステム構成例を示す機能ブロック図である。
図2Eに示すように、第5のシステムは、装置(1)1と、装置(2)3とを有している。例えば、装置(1)1は牛に取り付けられる端末装置であり、装置(2)3は出力を行うタブレットなどの端末装置である。
装置(1)1には、加速度センサ1−1から演算部1−7までと通信部1−9が、装置(2)3には、通信部3−1と、記憶部3−3、制御部3−4、タイマ3−5、行動パターン判定部3−7、表示部3−2が設けられている。記憶部3−3に、判別データ3−3−1が記憶される。通信部1−9、通信部3−1は、装置(1)1と、装置(2)3の間でのデータ等のやり取りを行う。
FIG. 2E is a functional block diagram illustrating a fifth system configuration example of the behavior determination device (system).
As shown in FIG. 2E, the fifth system includes a device (1) 1 and a device (2) 3. For example, the device (1) 1 is a terminal device attached to a cow, and the device (2) 3 is a terminal device such as a tablet that performs output.
The device (1) 1 includes the acceleration sensor 1-1 to the calculation unit 1-7 and the communication unit 1-9. The device (2) 3 includes the communication unit 3-1, the storage unit 3-3, and the control. A unit 3-4, a timer 3-5, an action pattern determination unit 3-7, and a display unit 3-2 are provided. Determination data 3-3-1 is stored in the storage unit 3-3. The communication unit 1-9 and the communication unit 3-1 exchange data and the like between the device (1) 1 and the device (2) 3.

第5のシステムでは、装置(1)1側でセンシングデータと時刻を取得した後に演算処理までを行い、装置(2)3側で、演算結果を受け取って行動判別処理を行う。その他の処理は、基本的に、第1のシステムと同様である。   In the fifth system, the processing is performed after the sensing data and time are acquired on the device (1) 1 side, and the calculation result is received on the device (2) 3 side, and the behavior determination processing is performed. Other processing is basically the same as that of the first system.

図2Fは、行動判別装置(システム)の第6のシステム構成例を示す機能ブロック図である。
図2Fに示すように、第6のシステムは、装置(1)1と、装置(2)3と、装置(3)5と、を有している。例えば、装置(1)1は牛に取り付けられる端末装置であり、装置(2)3は出力を行う情報処理装置などの中継装置であり、装置(3)5は、出力を行うタブレットなどの端末装置である。
装置(1)1には、加速度センサ1−1から演算部1−7までと通信部1−9が、装置(2)3には、通信部3−1と、記憶部3−3、制御部3−4、タイマ3−5、行動パターン判定部3−7、通信部3−8が、装置(3)5には、通信部5−1と、表示部5−2が設けられている。記憶部3−3に、判別データ3−3−1が記憶される。
通信部1−9、通信部3−1は、装置(1)1と、装置(2)3の間でのデータ等のやり取りを行う。通信部3−8、通信部5−1は、装置(2)3と、装置(3)5の間でのデータ等のやり取りを行う。
FIG. 2F is a functional block diagram illustrating a sixth system configuration example of the behavior determination apparatus (system).
As shown in FIG. 2F, the sixth system includes a device (1) 1, a device (2) 3, and a device (3) 5. For example, the device (1) 1 is a terminal device attached to a cow, the device (2) 3 is a relay device such as an information processing device that performs output, and the device (3) 5 is a terminal such as a tablet that performs output. Device.
The device (1) 1 includes the acceleration sensor 1-1 to the calculation unit 1-7 and the communication unit 1-9. The device (2) 3 includes the communication unit 3-1, the storage unit 3-3, and the control. Unit 3-4, timer 3-5, action pattern determination unit 3-7, communication unit 3-8, and device (3) 5 are provided with communication unit 5-1 and display unit 5-2. . Determination data 3-3-1 is stored in the storage unit 3-3.
The communication unit 1-9 and the communication unit 3-1 exchange data and the like between the device (1) 1 and the device (2) 3. The communication unit 3-8 and the communication unit 5-1 exchange data and the like between the device (2) 3 and the device (3) 5.

第6のシステムでは、装置(1)1側でセンシングデータと時刻を取得した後に演算処理を行い、装置(2)3側で、演算処理結果を受け取って行動判別処理を行う。そして、表示等の出力は、装置(3)5で行う。その他の処理は、基本的に、第1のシステムと同様である。   In the sixth system, calculation processing is performed after the sensing data and time are acquired on the device (1) 1 side, and the operation determination processing is performed on the device (2) 3 side by receiving the calculation processing result. Output such as display is performed by the device (3) 5. Other processing is basically the same as that of the first system.

その他、種々のバリエーションが本発明には含まれるものとする。   Various other variations are included in the present invention.

図3Aから図3Dまでは、牛の行動判別のイメージを示す図である。以下では、図1A、図2Cのような構成を例にして処理の内容を説明するが、図2Aから図2Fまでの構成の変更に応じて、処理の主体等を変更すれば良い。
図4は、情報処理装置3における情報処理の流れの例を示すフローチャート図である。図7から図12までは、動物の行動パターンを判定するためのデータの一例について牛を例にして示した判別データ3−3−1の例を示す図である。
FIG. 3A to FIG. 3D are diagrams showing an image of cow behavior determination. In the following, the contents of the processing will be described by taking the configuration as shown in FIGS. 1A and 2C as an example, but the subject of the processing may be changed in accordance with the change in the configuration from FIGS. 2A to 2F.
FIG. 4 is a flowchart illustrating an example of a flow of information processing in the information processing apparatus 3. FIG. 7 to FIG. 12 are diagrams showing examples of discrimination data 3-3-1 showing an example of data for determining an animal behavior pattern using a cow as an example.

まず、判別データ3−3−1の例について詳細に説明する。これらの判別データは、例えば、本実施の形態によりシステムを用いて得られた端末装置1からのセンシングデータと、カメラなどにより撮影された牛の行動とを対比させて得ることが出来る。このようなデータを一旦得ることが出来れば、その後の行動判別において継続的に利用することができる。飼育環境などに応じて、適宜、データを修正するようにしても良い。   First, an example of the discrimination data 3-3-1 will be described in detail. Such discrimination data can be obtained, for example, by comparing sensing data from the terminal device 1 obtained by using the system according to the present embodiment with the behavior of the cow photographed by a camera or the like. Once such data can be obtained, it can be used continuously in subsequent action discrimination. The data may be corrected as appropriate according to the breeding environment.

3軸加速度センサ1−1および3軸角速度センサ(各センサのY軸を頭方向、Z軸を上方向になるように設置)1−2を有する装置(1)1(図1A、図2C)を牛に装着し、装置(1)1から得られる加速度(X・Y:m/s2)、角速度(X・Y:deg/s)を以下の手順で解析することにより、牛の行動パターンを、「確実な横臥」、「横臥又は静止起立」、「動作有り」、「移動」に判別することができる。また、後述するように、「他牛の乗駕行動を検知できる牛背面位置」に取り付けると発情の予測にも応用できる。尚、ここでは、3軸のセンサを用いているが、Z軸方向のデータを利用する必要がないため、2軸センサを用いることができる。 A device (1) 1 having a triaxial acceleration sensor 1-1 and a triaxial angular velocity sensor (installed so that the Y axis of each sensor is in the head direction and the Z axis is in the upward direction) 1-2 (FIGS. 1A and 2C) The behavior pattern of a cow is analyzed by analyzing the acceleration (X • Y: m / s 2 ) and angular velocity (X • Y: deg / s) obtained from the device (1) 1 by the following procedure. Can be determined as “reliable recumbent”, “recumbent or standing upright”, “with motion”, and “moving”. In addition, as described later, it can be applied to prediction of estrus if it is attached to “the position of the back of the cow that can detect the riding behavior of other cows”. Although a 3-axis sensor is used here, it is not necessary to use data in the Z-axis direction, and a 2-axis sensor can be used.

以下に牛の場合を例にして行動判別法を示す。
1)牛の行動を判別する方法として、動作の大きさ(前後方向)を示す値として式(1)を用いる。
動作の大きさを示す値(前後方向:x値)=|角速度(X方向)|/|加速度(Y方向) | … (1)
求めた値を第1の値とする。
The behavior discrimination method is shown below using the case of cattle as an example.
1) As a method for discriminating the behavior of a cow, formula (1) is used as a value indicating the magnitude of movement (front-rear direction).
Value indicating magnitude of motion (front-rear direction: x value) = | Angular velocity (X direction) | / | Acceleration (Y direction) |
The obtained value is set as the first value.

2)牛の行動を判別する方法として、動作の大きさ(前後・左右方向:y値)を示す値として(2)を利用した。
動作の大きさを示す値(前後・左右方向)=
|角速度(X方向)|/|加速度(Y方向)|×|角速度(Y方向)|/|加速度(X方向)| …(2)
求めた値を第2の値とする。
2) As a method for discriminating the behavior of the cow, (2) was used as a value indicating the magnitude of the movement (front-rear / left-right direction: y value).
Value indicating the size of the motion (front / back / left / right) =
| Angular velocity (X direction) | / | Acceleration (Y direction) | × | Angular velocity (Y direction) | / | Acceleration (X direction) |
The obtained value is set as the second value.

以下に行動判別の意味について詳細に説明する。
式(1)における、|角速度(X方向)|(単位:deg/s)とは、端末装置1の設置位置をP1とすると、図3A(a)に示すように、位置P1を中心として前後へ傾く(符号11)速度である。
The meaning of action discrimination will be described in detail below.
In equation (1), | angular velocity (X direction) | (unit: deg / s) means that the installation position of the terminal device 1 is P1, and as shown in FIG. (Symbol 11).

また、式(1)における、|加速度(Y方向)|(単位:m/s2)とは、端末装置1の設置位置をP1とすると、図3A(b)に示すように、位置P1を中心とした前後13a・13bへの加速度である。 Further, | acceleration (Y direction) | (unit: m / s 2 ) in the expression (1) means that if the installation position of the terminal device 1 is P1, the position P1 is as shown in FIG. 3A (b). This is the acceleration toward the front and rear 13a and 13b.

式(1)の考え方としては、以下の通りである(次元変換)。
a1) 「前後への加速度」あたりの「前後へ傾く速度」は、
a2) deg/s ÷ m/s2 = deg・s/mの次元であり、
a3) sは一秒間隔で解析が行われるため打ち消され、
a4) 単位はdeg/mとなり、
a5) すなわち、(1)式は、前後方向の移動量あたりの背線の変化角度である。
The concept of the equation (1) is as follows (dimensional transformation).
a1) The “speed to tilt back and forth” per “back and forth acceleration” is
a2) deg / s ÷ m / s 2 = deg · s / m
a3) Since s is analyzed at intervals of 1 second, it is canceled,
a4) The unit is deg / m.
a5) That is, the expression (1) is the change angle of the back line per movement amount in the front-rear direction.

前後方向の移動量あたりの背線の変化角度とは、図3Bに示すように、直進方向の移動量13a・13bあたりの背線L1の傾きθ(pitch)であると考えて良い。 As shown in FIG. 3B, the change angle of the back line per movement amount in the front-rear direction may be considered to be the inclination θ 1 (pitch) of the back line L1 per movement amount 13a, 13b in the straight traveling direction.

一方、式(2)における
動作の大きさを示す値(前後・左右方向)=|角速度(X方向)|/|加速度(Y方向)|×|角速度(Y方向)|/|加速度(X方向)|の第2項において、|角速度(Y方向)|(単位:deg/s)とは、図3C(a)に示すように、位置P1を中心として左右へ傾く(符号15)速度である。
On the other hand, the value indicating the magnitude of motion in the formula (2) (front / rear / left / right direction) = | angular velocity (X direction) | / | acceleration (Y direction) | × | angular velocity (Y direction) | / | acceleration (X direction) ) | In the second term, | angular velocity (Y direction) | (unit: deg / s) is a velocity that tilts left and right around the position P1, as shown in FIG. 3C (a). .

また、|加速度(X方向)|(単位:m/s2)とは、図3C(b)に示すように、位置P1を中心とした左右17a・17bへの加速度である。 Also, | acceleration (X direction) | (unit: m / s 2 ) is acceleration to the left and right 17a and 17b with the position P1 as the center, as shown in FIG. 3C (b).

式(2)の考え方としては、以下の通りである(次元変換)。
b1) 左右への加速度」あたりの「左右へ傾く速度」は、
b2) deg/s ÷ m/s2 = deg・s/mの次元であり、
b3) sは一秒間隔で解析が行われるため打ち消され、
b4) 単位はdeg/mとなり、
b5) すなわち(2)式の第2項は、左右方向の移動量あたりの背線軸の回転角度である。
左右方向の移動量あたりの背線軸の回転角度とは、図3Dに示すように、左右方向の移動量17a・17bあたりの背線軸L3の回転角(roll)θである。
The concept of equation (2) is as follows (dimensional transformation).
b1) The “velocity to tilt left / right” per “acceleration to the left / right” is
b2) deg / s ÷ m / s 2 = deg · s / m
b3) Since s is analyzed at intervals of 1 second, it is canceled,
b4) The unit is deg / m.
b5) That is, the second term of the equation (2) is the rotation angle of the back axis per the movement amount in the left-right direction.
The rotation angle of the dorsal line axis per movement amount in the horizontal direction, as shown in FIG. 3D, a rotation angle (roll) θ 2 of the back line axis L3 per the lateral direction movement amount 17a · 17b.

式(2)=背線の変化角度/前後方向の移動量×背線軸の回転角度/左右方向の移動量である。ここで、
・背線の変化角度 : 横臥<起立<移動
・前後方向の移動量 : 横臥≦起立≪移動
・背線軸の回転角度 : 横臥≦起立≪移動
・左右方向の移動量 : 横臥<起立<移動
であるから、背線の変化角度、背線軸の回転角度、前後方向の移動量、左右方向の移動量から動物の行動を判別することができる。
Expression (2) = Change angle of the back line / movement amount in the front-rear direction × rotation angle of the back line axis / movement amount in the left-right direction. here,
・ Change angle of the back line: Recumbent <standing <movement / movement amount in the front / rear direction: Recumbent ≤ standing << movement, rotation angle of the back line axis: recumbent ≤ standing << moving amount in the left / right direction: recumbent <standing <movement Therefore, the behavior of the animal can be determined from the change angle of the back line, the rotation angle of the back line axis, the movement amount in the front-rear direction, and the movement amount in the left-right direction.

3)横臥、起立、移動行動時のセンサ値を行動別に分類し、式1・2による算出値である第1の値xと第2の値yとの対数変換した値同士の関係は、図7に示すように、正の直線関係にあることが発見された。図7によれば、x値(グラフの横軸)およびy値(グラフの縦軸)が大きくなるに従って、牛の動作が大きくなる傾向があることがわかる。そして、y<1の動作(小)域では牛の行動パターンとしては横臥、起立が多く分布し、y>1の動作(大)では牛の行動パターンとして、移動が多く分布する。 3) The relationship between the values obtained by logarithmically converting the first value x and the second value y, which are the calculated values according to the equations 1 and 2, is classified into the sensor values at the time of lying, standing, and moving. As shown in FIG. 7, it was found to be in a positive linear relationship. According to FIG. 7, it can be seen that the behavior of the cow tends to increase as the x value (horizontal axis of the graph) and the y value (vertical axis of the graph) increase. In the y <1 motion (small) region, cows' behavior patterns have a lot of recumbency and standing, and in y> 1 motions (large), the cow's behavior patterns have a lot of movement.

4)図8に示すように、起立行動時の式(2)より求めた値を対数変換した度数分布によれば、y≧0.02850の範囲に99%以上の起立行動が分布し、横臥はそれ以下となることがわかる。 4) As shown in FIG. 8, according to the frequency distribution obtained by logarithmically converting the value obtained from the equation (2) at the time of standing action, 99% or more standing actions are distributed in the range of y ≧ 0.02850. It can be seen that is less than that.

5)図9に示すように、移動行動時の式(2)より求めた値を対数変換した度数分布から、y>1.85739の範囲に90%以上の移動行動が分布し、起立及び横臥はそれ以下となることがわかる。 5) As shown in FIG. 9, from the frequency distribution obtained by logarithmically converting the value obtained from the equation (2) at the time of the moving action, 90% or more of the moving action is distributed in the range of y> 1.885739. It can be seen that is less than that.

6)図10に示すように、横臥行動時の式(2)より求めた値を対数変換した度数分布から、y<1.87018の範囲に90%以上の横臥行動が分布し、横臥中の動作、寝返り、身繕い等はそれ以上となることがわかる。 6) As shown in FIG. 10, from the frequency distribution obtained by logarithmically converting the value obtained from the expression (2) at the time of recumbent action, 90% or more recumbent actions are distributed in the range of y <1.887018. It can be seen that the operation, turning over, and grooming are more than that.

7)図11に示すように、横臥行動時の式(1)により求めた値を対数変換した度数分布から、x<4.4420の範囲に約99%の横臥行動が分布し、移動はそれ以上となることがわかる。 7) As shown in FIG. 11, about 99% of recumbent behavior is distributed in the range of x <4.4420 from the frequency distribution obtained by logarithmically converting the value obtained by the equation (1) at the time of recumbent behavior. It turns out that it becomes the above.

8)図8−11の結果から、図12に示すように、式(1)および式(2)を用いることにより、牛の行動を、「確実な横臥」、「横臥又は静止起立」、「動作有り」、「移動」にほぼ確実に分類することができる。 8) From the results of FIGS. 8-11, as shown in FIG. 12, by using the formulas (1) and (2), the behavior of the cow is changed to “reliable recumbent”, “recumbent or standing upright”, “ It can be classified almost certainly into “operation present” and “movement”.

すなわち、判別条件は以下の通りである。
「確実な横臥」 :y<0.03
「横臥又は静止起立」:0.03≦y≦2.0
「動作あり」 :y>2.0,x≦4.5
「移動」 :y>2.0,x>4.5
(3)式
That is, the determination conditions are as follows.
“Reliable Recumbent”: y <0.03
“Recumbent or standing upright”: 0.03 ≦ y ≦ 2.0
“With motion”: y> 2.0, x ≦ 4.5
“Move”: y> 2.0, x> 4.5
(3) Formula

上記の判別データ3−3−1を用いて行動を判別する処理について図2C、図4を用いて詳細に説明する。まず、処理が開始され(ステップS1)、ステップS2において、装置(2)3の通信部3−1が、装置(1)1の通信部1−9から得た加速度センサ1−1と角速度センサ1−2におけるセンシングデータα、ωを受信する。ステップS3において、前後方向の動作の大きさxと、前後・左右方向の動作の大きさyとを、演算部3−3が、上記の式(1)、(2)に基づいて、上記の第1の値、第2の値などを演算する。   A process for discriminating an action using the discrimination data 3-3-1 will be described in detail with reference to FIGS. 2C and 4. First, the process is started (step S1), and in step S2, the communication unit 3-1 of the device (2) 3 receives the acceleration sensor 1-1 and the angular velocity sensor obtained from the communication unit 1-9 of the device (1) 1. Sensing data α and ω in 1-2 are received. In step S3, the computing unit 3-3 calculates the magnitude x of the motion in the front-rear direction and the magnitude y of the motion in the front-rear / left-right direction based on the above formulas (1) and (2). The first value, the second value, etc. are calculated.

次いで、ステップS4において、記憶部3−3の判別データ3−3−1を読み込んで、参照する。
次いで、ステップS5において、行動パターン判定部3−7が、演算部3−6の演算データと参照する判別データ3−3−1とから、牛の行動パターンを判定する。例えば、演算データが図12のいずれの領域に入るかにより行動パターンを上記(3)式により判定することができる。
Next, in step S4, the discrimination data 3-3-1 in the storage unit 3-3 is read and referenced.
Next, in step S5, the behavior pattern determination unit 3-7 determines the behavior pattern of the cow from the calculation data of the calculation unit 3-6 and the discrimination data 3-3-1. For example, the behavior pattern can be determined by the above equation (3) depending on which region in FIG.

ステップS6において、表示部3−2により、判定結果を出力する。ステップS7において、処理を終了する場合には(Yes)ステップS8(end)に進み、処理を継続する場合には、ステップS2に戻る。   In step S6, the determination result is output by the display unit 3-2. In step S7, when the process is ended (Yes), the process proceeds to step S8 (end), and when the process is continued, the process returns to step S2.

以上の処理により、センシングデータに基づいて、牛の行動パターンを精度良く判別することができる。カメラなどによる観測と異なり、判定が自動的にできるという利点がある。また、センシングデータ量を少なくしても精度の良い行動判別が可能なため、情報処理の負担を軽減することができる。   With the above processing, it is possible to accurately determine the behavior pattern of the cow based on the sensing data. Unlike observation with a camera or the like, there is an advantage that determination can be made automatically. In addition, since it is possible to accurately determine the behavior even if the amount of sensing data is reduced, the burden of information processing can be reduced.

(第2の実施の形態)
次に、本発明の第2の実施の形態による行動判別技術について説明する。
日本国内では一部の肉用品種を除き、人工授精や胚移植により牛を妊娠させている。これらの繁殖技術は発情日を基準とするため、牛の発情行動を把握することは必須となる。特に人工授精では、受胎率の向上のために授精適期の的確な推定は重要であり、発情開始および終了時刻ならびに発情最盛期の時間帯を把握することが必要である。発情牛では特異的な行動として、他牛の後躯への乗駕を受け入れ静止する乗駕許容を示す。また特異的ではないが、他牛への乗駕、行動量の増加、群からの孤立、砲呼および上唇をまくり上げるフレーメン等が観察され、外陰部の充血腫脹ならびに外陰部からの粘液の流出を伴う。さらに、牛における発情行動、特に乗駕許容の持続時間は14〜21時間と短いことに対して、発情行動は21日間隔でしか発現しないため、1回の発情の見逃しによる試算損失は数万円にも及ぶ。そのことから、発情を確実に見つけることは、安定した子牛生産や良好な繁殖経営のために極めて重要である。
(Second Embodiment)
Next, a behavior discrimination technique according to the second embodiment of the present invention will be described.
In Japan, except for some meat varieties, cows are made pregnant by artificial insemination and embryo transfer. Since these breeding techniques are based on the date of estrus, it is essential to understand the estrous behavior of cattle. In particular, in artificial insemination, accurate estimation of the optimal fertilization period is important in order to improve the fertility rate, and it is necessary to grasp the estrus start and end times and the time zone of the estrus maximum. In the estrus cow, as a specific behavior, it shows the tolerance of riding that accepts the riding of the back of other cows and stops. In addition, although not specific, riding to other cattle, increased activity, isolation from the group, gun call and flaming up the upper lip, etc. were observed, hyperemia of the vulva and mucus outflow from the vulva Accompanied by. Furthermore, estrus behavior in cattle, especially the duration of riding tolerance, is as short as 14 to 21 hours, whereas estrus behavior occurs only at 21-day intervals, so there is an estimated loss of tens of thousands due to missed estrus once. It extends to a circle. Therefore, finding estrus reliably is extremely important for stable calf production and good breeding management.

生産現場では「発情が見つけにくい」、「牛が発情しない」などの畜主からの報告が増加している。受胎率低下に関連する大きな要因として、近年の繁殖牛では、発情持続時間の短縮や微弱な発情行動の増加等が起こっている可能性が指摘されている。そのことから、受胎率低下が続いている現状を打破するためには、高精度に発情行動を把握できる新たな発情発見技術の開発が期待されている。   At production sites, reports from owners such as “difficult to find estrus” and “no cattle estrus” are increasing. As a major factor related to the decrease in conception rate, it has been pointed out that in recent breeding cattle, there is a possibility that shortening of estrus duration, weak increase of estrus behavior, etc. are occurring. Therefore, in order to overcome the current situation where the conception rate continues to decline, the development of a new estrus discovery technology that can grasp estrus behavior with high accuracy is expected.

乗駕行動を検出する方法としてはパッドを用いた方法としてヒートマウントディテクター(Kamar社、米国)、塗料を用いた方法としてテイルペイント(KIWIKIT社、ニュージーランド)がそれぞれ国内外で販売されている。ヒートマウントディテクターは白色のプラスチック製パッド内に赤インクチューブが装填された構造であり、腰部の背側に接着剤で貼付する。乗駕許容を示した牛では、他牛からの乗駕時の過重によりチューブ内からインクが漏れ出てパッドが赤色に変化するため、その変化から発情と判別する。一方、テイルペイントは蛍光色のペンキであり、腰部の背側に塗布する。乗駕許容を示した牛では、乗駕した牛との強い接触により塗布したペンキが剥はがれ落ちるため、ペンキが剥離した牛を発情牛と判別する。   As a method for detecting the riding behavior, a heat mount detector (Kamar, USA) as a method using a pad and a tail paint (KIWIKIT, New Zealand) as a method using a paint are sold both in Japan and overseas. The heat mount detector has a structure in which a red ink tube is loaded in a white plastic pad and is attached to the back side of the waist with an adhesive. In cows that show that they are allowed to ride, ink leaks out of the tube due to excessive weight when riding from other cows, and the pad turns red. Tail paint, on the other hand, is a fluorescent paint that is applied to the back of the waist. In cattle that have been allowed to ride, the paint applied is peeled off due to strong contact with the cattle that have been boarded.

いずれの方法でも乗駕許容行動を示したことは確認できるものの、授精適期の判断に必須の情報となる同行動の開始または終了時間は正確に推定できない。また、パッドや塗料の状態を少なくとも1日に30分以上2回観察する必要があり、観察頻度の低下は発情発見精度の大きな低下を招く。さらに、いずれの方法でも乗駕許容行動に限定した発情牛の発見法であるため、微弱あるいは無発情の牛ではその有効性は期待できない。これら問題以外にも、各手法別に以下の問題がある。   Although it is possible to confirm that any of the methods has allowed riding behavior, it is not possible to accurately estimate the start or end time of the behavior, which is essential information for determining the appropriate period of insemination. Further, it is necessary to observe the state of the pad and the paint at least twice a day for 30 minutes or more, and the decrease in the observation frequency causes a great decrease in the accuracy of estrus detection. Furthermore, since either method is a method for finding an estrus cow that is restricted to a boarding-allowed behavior, the effectiveness cannot be expected for a faint or estrus cow. In addition to these problems, there are the following problems for each method.

ヒートマウントディテクターの問題点は以下の通りである。
使い捨て型の器具であり、繰り返しての使用はできない。
炎天下ではインクチューブ内圧の上昇を原因として破裂により赤変化することがある。
高頻度に乗駕許容行動を繰り返す個体、許容行動を貼付が弱いまたはカラス等の鳥害により脱落消失する場合がある。
The problems of the heat mount detector are as follows.
It is a disposable instrument and cannot be used repeatedly.
Under hot weather, it may change red due to rupture due to an increase in ink tube internal pressure.
Individuals who repeatedly carry riding allowance frequently, may be dropped or disappear due to bird damage such as crows or tolerant behavior is weak.

テイルペイントの問題点は以下の通りである。
乗駕許容の判定は、ペンキが剥離した状態を5段階に分類し行うため客観性に欠ける。
牛体の汚れがひどい個体では塗布ならびに判定が行いにくい。
The problems with tail paint are as follows.
The determination of whether or not to ride is performed by classifying the state where the paint is peeled into five stages, and therefore lacks objectivity.
It is difficult to apply and judge in individuals with severely dirty cows.

本実施の形態では、図2A〜図2Fまで(ここでは、図2Cを例にする。)に示すように、装置(1)1に設けた赤外線センサ1−3等により、装置(1)1を装着した第1の牛とは異なる第2の牛の動きを検出する。   In the present embodiment, as shown in FIGS. 2A to 2F (here, FIG. 2C is taken as an example), the device (1) 1 is provided by the infrared sensor 1-3 provided in the device (1) 1. The movement of the second cow different from the first cow wearing is detected.

例えば、背部に装着した赤外線センサ1−3による牛の背中(十字部)付近での第2の牛(他牛)の動き、例えば発情発現の兆候である乗駕行動を検知する。より詳細には、「他牛の乗駕行動を検知できる牛背面位置」、「装置を取り付けた個体自身の鼻等で触れられない位置」、「設置が安定するなるべく平らな位置」などの条件を満たす位置に装着することにより、装着牛十字部付近の他牛の動きを感知し、発情発現の兆候である乗駕行動を検知する。そして、検出結果を例えば遠隔の情報処理装置を備えた牧場を管理する牧場管理センターなどに設置される装置(2)3に無線で知らせる。この無線により、牧場管理センターにおいて牛の発情を知ることができる。   For example, the movement of the second cow (other cow) in the vicinity of the back (cross part) of the cow by the infrared sensor 1-3 attached to the back, for example, riding behavior that is a sign of estrus development is detected. In more detail, conditions such as “the position of the back of the cow that can detect the riding behavior of other cows”, “the position where the individual's nose attached to the device cannot be touched”, “the position where the installation is as stable as possible” By mounting at a position that satisfies the condition, the movement of other cows in the vicinity of the wearing cow cross is sensed, and riding behavior that is a sign of estrus development is detected. Then, the detection result is notified wirelessly to a device (2) 3 installed in a ranch management center that manages a ranch including a remote information processing device, for example. By this radio, the estrus of cattle can be known at the ranch management center.

図5は、装置(2)3における乗駕行動検出処理の流れを示すフローチャート図である。これらの処理は、例えば演算部3−6と、行動パターン判定部3−7等により行っても良いし、その他の処理部により行っても良い。ここでは、演算部3−6と行動パターン判定部3−7により検出を行う場合を例にして説明する。   FIG. 5 is a flowchart showing the flow of the riding behavior detection process in the device (2) 3. These processes may be performed by, for example, the calculation unit 3-6, the action pattern determination unit 3-7, and the like, or may be performed by other processing units. Here, a case where detection is performed by the calculation unit 3-6 and the behavior pattern determination unit 3-7 will be described as an example.

図5に示すように、装置(1)1において、赤外線センサ1−3による第2の牛の乗駕行動に基づく第2の牛の存在が検出されて、装置(1)1の通信部1−9からデータが送られると、装置(2)3における処理が開始され(ステップS11)、通信部3−1が、装置(1)1から送られた赤外線に基づく牛の検出データと検出タイミングを示すタイマ1−6における時刻とを受信する(ステップS12)。データの受信は、受信されたタイミングで開始されても良いし、継続的に行われても良い。   As shown in FIG. 5, in the device (1) 1, the presence of the second cow based on the riding behavior of the second cow by the infrared sensor 1-3 is detected, and the communication unit 1 of the device (1) 1 is detected. When the data is sent from -9, the process in the device (2) 3 is started (step S11), and the communication unit 3-1 detects the detection data and the detection timing of the cow based on the infrared rays sent from the device (1) 1. And the time in the timer 1-6 indicating (step S12). The reception of data may be started at the reception timing or may be continuously performed.

ここで、ステップS13において、赤外線センサ1−3によるデータの受信開始から終了までの継続的な受信期間が、牛の乗駕と忌避とを区別するしきい値である、例えば3秒より長いか否かを判定する。そして、3秒より長い場合には(ステップS13でYes)、ステップS14に進み、当該検出データが乗駕許容行動と判定される。しきい値は適宜調整可能である。   Here, in step S13, whether the continuous reception period from the start to the end of data reception by the infrared sensor 1-3 is a threshold value for distinguishing between cow riding and avoidance, for example longer than 3 seconds? Determine whether or not. If it is longer than 3 seconds (Yes in step S13), the process proceeds to step S14, and the detected data is determined to be a riding allowable action. The threshold value can be adjusted as appropriate.

次いで、ステップS16において、ステップS14、S15の判定結果を出力し、ステップS17で処理を終了するか否かを判定して、処理の終了(ステップS18)又は処理の継続(ステップS12)のいずれかに進める。
そして、検出結果を例えば牧場を管理する牧場管理センターなどに設置される遠隔の装置(2)3に無線で知らせる。この無線により、牧場管理センターにおいて牛の発情を知ることができる。
Next, in step S16, the determination results of steps S14 and S15 are output. In step S17, it is determined whether or not to end the process, and either the process ends (step S18) or the process continues (step S12). Proceed to
Then, the detection result is wirelessly notified to a remote device (2) 3 installed in, for example, a ranch management center that manages the ranch. By this radio, the estrus of cattle can be known at the ranch management center.

以上のように、本実施の形態による行動判別方法では、赤外線データを用いて牛の乗駕行動を検出することができる。また、乗駕許容行動であるか乗駕拒否行動であるかを判定することができる。   As described above, in the behavior determination method according to the present embodiment, the riding behavior of a cow can be detected using infrared data. In addition, it is possible to determine whether the behavior is a riding allowance behavior or a riding rejection behavior.

図14は、タイマ1−7に基づく時刻データ(横軸)と、赤外線センサ1−3による乗駕許容行動に検出結果(縦軸)とを示す図であり、本実施の形態によるシステムAによる乗駕許容行動の発言時刻の記録例を示す図である。図5のステップS14の結果を出力して得られたデータである。図14に示すように、本実施の形態によるシステムを用いることにより、作業従事時間内であるか時間外であるかにかかわらず、従来は発見できないような白抜きのプロットのように、作業従事時間外の乗駕許容行動も発見できるようになる。例えば、ステップS16における判定結果の出力ステップにおいて、図14のようなデータを逐次記録しておき、作業従事時間外の場合には、例えば、緊急センタ(牧場管理センター)や担当者などに連絡が行くようにすることができる。
従って、牛の発情時期を見逃すことなく精度良く発見することができる。
FIG. 14 is a diagram showing the time data (horizontal axis) based on the timer 1-7 and the detection result (vertical axis) of the riding tolerance behavior by the infrared sensor 1-3, and the system A according to the present embodiment. It is a figure which shows the example of a recording of the utterance time of a riding tolerance action. This is data obtained by outputting the result of step S14 in FIG. As shown in FIG. 14, by using the system according to the present embodiment, regardless of whether it is within the working hours or outside the working hours, the work is engaged like a white plot that cannot be found in the past. You will also be able to find out-of-hours riding tolerance behavior. For example, in the output step of the determination result in step S16, data as shown in FIG. 14 is sequentially recorded, and when it is outside the working hours, for example, an emergency center (ranch management center) or a person in charge is notified. Can go.
Therefore, it can be discovered with high accuracy without missing the estrus time of the cow.

図15は、本実施の形態によるシステムにおける乗駕行動の検出率の一例を示す図である。この図では、焦電型の赤外線センサ1−3を有する端末装置1を装着した発情予定牛を、他の10頭の雌牛ともにパドックに放し飼いとした。夜間は装着牛と他雌牛3頭である。赤外線センサ1−3による乗駕行動監視とビデオ録画による監視を比較したところ、検出率はいずれも100%であり、赤外線センサによる検出の場合でもビデオによる監視と同様に高い検出精度を有することがかかる。   FIG. 15 is a diagram illustrating an example of the detection rate of riding behavior in the system according to the present embodiment. In this figure, the estrus cattle equipped with the terminal device 1 having the pyroelectric infrared sensor 1-3 are released to the paddock together with the other 10 cows. At night, there are three cows and three cows. When comparing the riding behavior monitoring by the infrared sensor 1-3 and the monitoring by video recording, the detection rates are both 100%, and even in the case of detection by the infrared sensor, it has high detection accuracy as in the case of video monitoring. Take it.

(第3の実施の形態)
次に、本発明の第3の実施の形態による行動判別技術について説明する。
本実施の形態では、第1の実施の形態による行動判別方法と、第2の実施の形態による牛の乗駕許容行動と乗駕拒否行動との判別方法とを利用して牛の乗駕許容行動と乗駕拒否行動とを容易に判定するものである。
(Third embodiment)
Next, an action discrimination technique according to the third embodiment of the present invention will be described.
In the present embodiment, cattle riding permission is utilized by using the behavior discriminating method according to the first embodiment and the discriminating method between cattle riding permission behavior and riding rejection behavior according to the second embodiment. The action and the no-ride-no-behavior action are easily determined.

図13は、図12に対応する図であり、図12に加えて、第2の実施の形態による乗駕許容と乗駕拒否との判別方法を利用して、牛の乗駕許容行動、忌避行動のデータをプロットしたものである。この図より、牛の乗駕許容行動は、以下のように表される。   FIG. 13 is a diagram corresponding to FIG. 12, and in addition to FIG. 12, using the method for discriminating whether or not to allow riding according to the second embodiment, cattle riding tolerance and avoidance It is a plot of behavioral data. From this figure, cattle riding tolerance behavior is expressed as follows.

牛の乗駕許容行動、忌避行動のデータは、例えば、図5のステップS12において赤外線データの受信を開始した時点から赤外線のデータの受信を終了した時点までの間において、角速度(X方向)、加速度(Y方向)、角速度(Y方向)および加速度(X方向)の平均値を利用し、(1式)および(2式)の関係を求めたものである。   The data on the cow's riding tolerance behavior and repelling behavior are, for example, the angular velocity (X direction) between the time when the reception of infrared data is started and the time when the reception of infrared data is finished in step S12 of FIG. Using the average values of acceleration (Y direction), angular velocity (Y direction), and acceleration (X direction), the relationship of (Expression 1) and (Expression 2) is obtained.

図13より、乗駕許容行動は、x>=4.5(移動域)、y>2.0(動作有りまたは移動域)に、分布し、乗駕忌避行動は、1<x<4.5(動作あり)、y>2.0(動作有りまたは移動域)に分布することがわかる。   From FIG. 13, the riding tolerance behavior is distributed in x> = 4.5 (movement area) and y> 2.0 (with movement or movement area), and the riding avoidance action is 1 <x <4. 5 (with operation) and y> 2.0 (with operation or moving range).

求めた値が、図13における牛の乗駕許容判定領域か乗駕忌避判定領域かを判別し、行動が、牛の乗駕許容か乗駕忌避かそれ以外かを知ることができる。この判別処理は、例えば、図5のステップS12の赤外線データを受信した時に行えば良い。
本実施の形態によれば、動物の行動判別方法を利用して、簡単に牛の乗駕許容か乗駕忌避かそれ以外かを知ることができる。
It is possible to determine whether the obtained value is the cow riding tolerance determination area or the riding avoidance determination area in FIG. 13 and to know whether the behavior is cow riding tolerance or riding avoidance or otherwise. This determination processing may be performed, for example, when the infrared data in step S12 in FIG. 5 is received.
According to the present embodiment, it is possible to easily know whether a cow is allowed to ride, avoid riding, or otherwise, using an animal behavior discrimination method.

(第4の実施の形態)
次に、本発明の第4の実施の形態による行動判別技術について説明する。
発情牛は非発情牛と比べて横臥・起立時間が減少し、移動時間が延長する。そこで、本発明の第1の実施の形態による行動パターン判別方法を利用して単位時間当たりの行動の発現割合を把握することにより、発情開始が予測できる。
(Fourth embodiment)
Next, an action discrimination technique according to the fourth embodiment of the present invention will be described.
Estrous cows have lower lying and standing times and longer travel times than non-estrous cows. Therefore, the start of estrus can be predicted by grasping the expression rate of behavior per unit time by using the behavior pattern discrimination method according to the first embodiment of the present invention.

図4のステップS5から、図6に示すように、ステップS21において、横臥・起立時間が減少しているか否かを判定し、Yesであれば、ステップS22に進み、移動時間が延長されているかを判定する。ステップS22においてYesであれば、ステップS23に進み、発情開始と予測して、その旨の出力等を行う。Noであれば、ステップS21に戻る。   From step S5 in FIG. 4, as shown in FIG. 6, in step S21, it is determined whether or not the lying / standing time has decreased. If yes, the process proceeds to step S22, and the travel time has been extended. Determine. If “Yes” in step S22, the process proceeds to step S23 to predict the start of estrus, and output that effect. If No, the process returns to step S21.

以上のように、本実施の形態によれば、第1の実施の形態等の行動判別方法を利用して、横臥・起立時間と、移動時間とに基づいて、牛の発情を検出することができる。   As described above, according to the present embodiment, it is possible to detect the estrus of cattle based on the lying / standing time and the moving time by using the behavior determination method of the first embodiment or the like. it can.

本実施の形態によれば、加速度センサ、角速度センサおよび本判別方法を利用することで、「確実な横臥」、「横臥又は静止起立」、「動作有り」、「移動」の判別を精度良く行うことができる。また、単位時間当たりの行動の発現割合を把握することにより、発情開始の予測をすることもできる。   According to the present embodiment, by using the acceleration sensor, the angular velocity sensor, and the present determination method, it is possible to accurately determine “reliable recumbent”, “recumbent or stationary standing”, “with motion”, and “movement”. be able to. In addition, it is possible to predict the start of estrus by grasping the expression rate of behavior per unit time.

発情行動のうち発情開始の指標となる「乗駕許容行動」を「乗駕忌避行動」や「乗駕失敗」と判別することができる。牛以外の動物に対しても式(1)・(2)を適用することで行動判別が可能である。   Among the estrous behaviors, the “ride riding allowed behavior” that is an index of the start of estrus can be determined as “ride riding avoidance behavior” or “no riding failure”. By applying the formulas (1) and (2) to animals other than cattle, it is possible to discriminate behavior.

すなわち、本実施の形態について牛を例にして説明したが、その他の動物についても、同様の方法で行動パターンを判別することができる。例えば馬などは、パラメータ値が異なるだけであり、同様の手法でパラメータを求めれば良い。   That is, although this embodiment has been described by taking a cow as an example, the behavior pattern can be determined for other animals in the same manner. For example, horses only have different parameter values, and parameters may be obtained by the same method.

処理および制御は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)によるソフトウェア処理、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)によるハードウェア処理によって実現することができる。   The processing and control can be performed by software processing by CPU (Central Processing Unit) or GPU (Graphics Processing Unit), ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate) hardware hardware.

また、上記の実施の形態において、添付図面に図示されている構成等については、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。   In the above-described embodiment, the configuration and the like illustrated in the accompanying drawings are not limited to these, and can be changed as appropriate within the scope of the effects of the present invention. In addition, various modifications can be made without departing from the scope of the object of the present invention.

また、本発明の各構成要素は、任意に取捨選択することができ、取捨選択した構成を具備する発明も本発明に含まれるものである。
また、本実施の形態で説明した機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。尚、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
Each component of the present invention can be arbitrarily selected, and an invention having a selected configuration is also included in the present invention.
In addition, a program for realizing the functions described in the present embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to execute processing of each unit. May be performed. The “computer system” here includes an OS and hardware such as peripheral devices.
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また前記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。機能の少なくとも一部は、集積回路などのハードウェアで実現しても良い。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the above-described functions, or may be a program that can realize the above-described functions in combination with a program already recorded in a computer system. At least a part of the functions may be realized by hardware such as an integrated circuit.

本発明は、行動判別装置に利用することが可能である。   The present invention can be used for an action discrimination device.

A…システム、1…装置(1)、1−1…加速度センサ、1−2…角速度センサ、1−3…赤外線センサ、1−4…記憶部、1−5…制御部、1−6…タイマ、1−7…演算部、1−8…行動判定部、1−9…通信部、1−10…表示部(出力)、3…装置(2)、3−1…通信部、3−2…表示部、5…装置(3)、5−1…通信部、5−2…表示部。 A ... system, 1 ... device (1), 1-1 ... acceleration sensor, 1-2 ... angular velocity sensor, 1-3 ... infrared sensor, 1-4 ... storage unit, 1-5 ... control unit, 1-6 ... Timer, 1-7... Arithmetic unit, 1-8... Action determination unit, 1-9 .. communication unit, 1-10... Display unit (output), 3 .. device (2), 3-1. 2 ... display unit, 5 ... device (3), 5-1 ... communication unit, 5-2 ... display unit.

Claims (11)

第1の四肢歩行動物の背中に取り付けられた赤外線センサにより前記第1の四肢歩行動物とは異なる第2の四肢歩行動物の乗駕行動が検出されると、該検出の結果と前記赤外線センサの検出タイミングとに基づいて、前記検出のデータの受信期間が、所定のしきい値を超えるか否かを判定し、前記しきい値を超える場合に、乗駕許容行動と判定することを特徴とする乗駕行動検出装置。   When the riding behavior of the second limb walking animal different from the first limb walking animal is detected by the infrared sensor attached to the back of the first limb walking animal, the detection result and the infrared sensor Based on the detection timing, it is determined whether or not a reception period of the detection data exceeds a predetermined threshold value, and when the detection data exceeds the threshold value, it is determined that the behavior is allowed for riding. Norigami action detection device. 前記データの受信期間が、所定のしきい値を超えるか否かを判定し、前記しきい値を超えない場合に、乗駕忌避行動と判定することを特徴とする請求項1に記載の乗駕行動検出装置。   2. The multiplication according to claim 1, wherein it is determined whether a reception period of the data exceeds a predetermined threshold value, and when the data reception period does not exceed the threshold value, it is determined as a riding avoidance action.駕 Behavior detection device. さらに、
水平方向の加速度を取得する加速度取得部と、水平方向の角速度を取得する角速度取得部と、前記四肢歩行動物の行動パターンを判別する行動パターン判定部と、を備え、
前記行動パターン判定部は、前記水平方向の加速度と前記水平方向の角速度とに基づいて得られる動物の前後方向の動作の大きさを示す第1の値と、前記水平方向の加速度と前記水平方向の角速度とに基づいて得られる動物の前後及び左右方向の動作の大きさを示す第2の値とにより、行動パターンを判別することを特徴とする請求項1又は2に記載の乗駕行動検出装置。
further,
An acceleration acquisition unit that acquires acceleration in the horizontal direction, an angular velocity acquisition unit that acquires the angular velocity in the horizontal direction, and an action pattern determination unit that determines the behavior pattern of the limb walking animal,
The behavior pattern determination unit includes a first value indicating a magnitude of an animal's longitudinal motion obtained based on the horizontal acceleration and the horizontal angular velocity, the horizontal acceleration, and the horizontal direction. 3. The riding behavior detection according to claim 1, wherein the behavior pattern is discriminated based on a second value indicating the magnitude of the movement of the animal in the front-rear and left-right directions obtained based on the angular velocity of the animal. apparatus.
前記第1の値は、|角速度(X方向)|/|加速度(Y方向)|(1式)により、
前記第2の値は、|角速度(X方向)|/|加速度(Y方向)|×|角速度(Y方向)|/|加速度(X方向)|(2式)により求められることを特徴とする請求項3に記載の乗駕行動検出装置。
但し、X方向を動物の側面方向とし、Y方向を動物の正面方向とする。
The first value is given by | angular velocity (X direction) | / | acceleration (Y direction) |
The second value is obtained by | an angular velocity (X direction) | / | acceleration (Y direction) | × | angular velocity (Y direction) | / | acceleration (X direction) | The riding behavior detection device according to claim 3.
However, the X direction is the animal side direction, and the Y direction is the animal front direction.
前記行動パターン判定部は、
動物の行動時に得られた前記第1の値の対数と前記第2の値の対数とを、2次元のx−yグラフにとった際に得られる正の相関関係に基づいて、動物の行動パターンを判別することを特徴とする請求項4に記載の乗駕行動検出装置。
The behavior pattern determination unit
Based on the positive correlation obtained when the logarithm of the first value and the logarithm of the second value obtained at the time of the behavior of the animal are taken on a two-dimensional xy graph, the behavior of the animal The riding behavior detection apparatus according to claim 4, wherein the pattern is discriminated.
前記行動パターン判定部は、
動物の行動時に得られた前記第1の値の対数と前記第2の値の対数とを、2次元のx−yグラフにとった際に得られる行動パターンに依存するx−yの範囲に基づいて、動物の行動パターンを判別することを特徴とする請求項4に記載の乗駕行動検出装置。
The behavior pattern determination unit
The logarithm of the first value and the logarithm of the second value obtained at the time of the behavior of the animal are in the range of xy depending on the behavior pattern obtained when taking the two-dimensional xy graph. 5. The riding behavior detection device according to claim 4, wherein the behavior pattern of the animal is determined based on the behavior pattern.
第1の四肢歩行動物の背中に取り付けられる端末装置であって、赤外線センサと、タイマと、通信部と、を備え、前記赤外線センサにより前記第1の四肢歩行動物とは異なる第2の四肢歩行動物の乗駕行動が検出されると、該検出の結果と前記タイマによる検出タイミングの時刻とを組のデータにして、前記通信部により遠隔の情報処理装置に送信する端末装置を備えることを特徴とする乗駕行動検出装置。   A terminal device attached to the back of a first limb walking animal, comprising an infrared sensor, a timer, and a communication unit, and a second limb walking different from the first limb walking animal by the infrared sensor. A terminal device that, when an animal's riding behavior is detected, includes a result of the detection and a time of detection timing by the timer as a set of data and transmits the data to a remote information processing device by the communication unit; Norigami behavior detection device. 第1の四肢歩行動物の背中に取り付けられた赤外線センサにより前記第1の四肢歩行動物とは異なる第2の四肢歩行動物の乗駕行動が検出されると、該検出の結果と前記赤外線センサの検出タイミングとに基づいて、前記検出のデータの受信期間が、所定のしきい値を超えるか否かを判定するステップと、
前記しきい値を超える場合に、乗駕許容行動と判定するステップと
を有することを特徴とする乗駕行動検出方法。
When the riding behavior of the second limb walking animal different from the first limb walking animal is detected by the infrared sensor attached to the back of the first limb walking animal, the detection result and the infrared sensor Determining whether a reception period of the detection data exceeds a predetermined threshold based on detection timing; and
A method of detecting a riding behavior when the threshold value is exceeded.
前記データの受信期間が、所定のしきい値を超えるか否かを判定し、前記しきい値を超えない場合に、乗駕忌避行動と判定するステップを有することを特徴とする請求項8に記載の乗駕行動検出方法。   9. The method according to claim 8, further comprising the step of determining whether or not a reception period of the data exceeds a predetermined threshold value, and determining that the behavior is to avoid riding when the reception period does not exceed the threshold value. The described riding behavior detection method. コンピュータに、請求項8又は9に記載の乗駕行動検出方法を実行させるためのプログラム。   A program for causing a computer to execute the riding behavior detection method according to claim 8 or 9. 請求項10に記載のプログラムを記録するコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium for recording the program according to claim 10.
JP2014170641A 2014-08-25 2014-08-25 Mounting action detector, mounting action detection method, and program Pending JP2016042843A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014170641A JP2016042843A (en) 2014-08-25 2014-08-25 Mounting action detector, mounting action detection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014170641A JP2016042843A (en) 2014-08-25 2014-08-25 Mounting action detector, mounting action detection method, and program

Publications (1)

Publication Number Publication Date
JP2016042843A true JP2016042843A (en) 2016-04-04

Family

ID=55634059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014170641A Pending JP2016042843A (en) 2014-08-25 2014-08-25 Mounting action detector, mounting action detection method, and program

Country Status (1)

Country Link
JP (1) JP2016042843A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016043121A (en) * 2014-08-25 2016-04-04 国立研究開発法人農業・食品産業技術総合研究機構 Animal's behavior determination device, behavior determination method, and program
JP2018007613A (en) * 2016-07-13 2018-01-18 浩二 清家 Cattle activity state management system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04320632A (en) * 1991-04-22 1992-11-11 Kubota Corp Measuring system for riding behavior
JPH04370048A (en) * 1991-06-19 1992-12-22 Kubota Corp Mounting action-measuring device
JPH0565U (en) * 1991-06-25 1993-01-08 株式会社クボタ Boarding behavior measurement device
JPH0545665A (en) * 1991-08-13 1993-02-26 Kubota Corp Liquid crystal display device and mounting action measuring instrument using the same
JP2002328134A (en) * 2001-04-27 2002-11-15 Nec Tokin Corp Detector for posture condition and azimuth
JP2007189987A (en) * 2006-01-20 2007-08-02 Miyake:Kk Rut-detecting system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04320632A (en) * 1991-04-22 1992-11-11 Kubota Corp Measuring system for riding behavior
JPH04370048A (en) * 1991-06-19 1992-12-22 Kubota Corp Mounting action-measuring device
JPH0565U (en) * 1991-06-25 1993-01-08 株式会社クボタ Boarding behavior measurement device
JPH0545665A (en) * 1991-08-13 1993-02-26 Kubota Corp Liquid crystal display device and mounting action measuring instrument using the same
JP2002328134A (en) * 2001-04-27 2002-11-15 Nec Tokin Corp Detector for posture condition and azimuth
JP2007189987A (en) * 2006-01-20 2007-08-02 Miyake:Kk Rut-detecting system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016043121A (en) * 2014-08-25 2016-04-04 国立研究開発法人農業・食品産業技術総合研究機構 Animal's behavior determination device, behavior determination method, and program
JP2018007613A (en) * 2016-07-13 2018-01-18 浩二 清家 Cattle activity state management system

Similar Documents

Publication Publication Date Title
Andriamandroso et al. Development of an open-source algorithm based on inertial measurement units (IMU) of a smartphone to detect cattle grass intake and ruminating behaviors
Keegan et al. Comparison of an inertial sensor system with a stationary force plate for evaluation of horses with bilateral forelimb lameness
US10045511B1 (en) Cattle and other veterinary monitoring
Pastell et al. A wireless accelerometer system with wavelet analysis for assessing lameness in cattle
US20160073614A1 (en) System and Method for Detection of Lameness in Sport Horses and other Quadrupeds
Peng et al. Dam behavior patterns in Japanese black beef cattle prior to calving: Automated detection using LSTM-RNN
WO2016140332A1 (en) Monitoring device and movement detection method
JP6395295B2 (en) Animal behavior discrimination device, behavior discrimination method, and program
Pastell et al. Predicting farrowing of sows housed in crates and pens using accelerometers and CUSUM charts
WO2011051693A1 (en) Method and system for measuring the mobility of an animal
Brugarolas et al. Posture estimation for a canine machine interface based training system
WO2016200564A1 (en) System and method for detection of lameness in sport horses and other quadrupeds
NL2015574B1 (en) Method and system for determining the physiological condition of a ruminant.
EP3275369B1 (en) Body characteristic measuring device, storage medium storing body characteristic measurement program, and body characteristic measurement method
Högberg et al. Validation of accelerometers to automatically record postures and number of steps in growing lambs
JP2016042843A (en) Mounting action detector, mounting action detection method, and program
Pfau Sensor-based equine gait analysis: more than meets the eye?
JP2012230610A (en) Living body location monitoring device and system
US20170251955A1 (en) Mapping the trajectory of a part of the anatomy of the human or animal body
JP2020058277A (en) Detection device, detection method and program
JP2019208470A (en) Grazing livestock monitoring system
Azarpajouh et al. Precision livestock farming: automatic lameness detection in intensive livestock systems
KR101491774B1 (en) Cattle behavioral type estrus detection system
KR101657682B1 (en) A system using gps and acceleration sensor, for analyzing the fodder efficiency of cattle
KR20190124573A (en) Animal disease management system using Internet of Things and its operation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180731