JP2020110116A - Animal monitoring system - Google Patents

Animal monitoring system Download PDF

Info

Publication number
JP2020110116A
JP2020110116A JP2019004610A JP2019004610A JP2020110116A JP 2020110116 A JP2020110116 A JP 2020110116A JP 2019004610 A JP2019004610 A JP 2019004610A JP 2019004610 A JP2019004610 A JP 2019004610A JP 2020110116 A JP2020110116 A JP 2020110116A
Authority
JP
Japan
Prior art keywords
animal
far
monitored
infrared
monitoring target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019004610A
Other languages
Japanese (ja)
Inventor
淳史 小出
Atsushi Koide
淳史 小出
昂輝 吉田
Koki Yoshida
昂輝 吉田
久 鍋西
Hisashi Nabenishi
久 鍋西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kitasato Institute
Tamron Co Ltd
Original Assignee
Kitasato Institute
Tamron Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kitasato Institute, Tamron Co Ltd filed Critical Kitasato Institute
Priority to JP2019004610A priority Critical patent/JP2020110116A/en
Publication of JP2020110116A publication Critical patent/JP2020110116A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

To provide an animal monitoring system capable of monitoring a condition of an animal to be monitored non-invasively day and night.SOLUTION: The present invention relates to a system (1) which acquires far-infrared ray radiated by an animal and monitors the animal, and includes: a far-infrared camera (10) which acquires far-infrared ray and acquires a far-infrared image; a monitoring object analysis part (18) which identifies at least one of temperature, travel distance, travel speed and acceleration of an animal to be monitored that becomes a monitoring object as a characteristic of the animal (8) to be monitored on the basis of the acquired far-infrared image; and an animal condition determination part (18b) which determines the condition of the animal to be monitored on the basis of the characteristic identified by the monitoring object analysis part. The monitoring object analysis part calculates a condition reference value for determining the condition of the animal to be monitored by using the characteristic. The animal condition determination part determines the condition by comparing the latest characteristic identified in the monitoring object analysis part with the condition reference value.SELECTED DRAWING: Figure 5

Description

本発明は、動物監視システムに関し、特に、動物から放射される遠赤外線の画像を取得して、動物を監視する動物監視システムに関する。 The present invention relates to an animal monitoring system, and more particularly to an animal monitoring system that acquires an image of far infrared rays emitted from an animal and monitors the animal.

乳牛、肉牛等の家畜の分娩時において比較的多くの事故が発生しており、その事故率は5%以上に昇るという統計もある。分娩時の事故により家畜が失われることは畜産業者にとって大きな損失であり、家畜の分娩の兆候を察知して適切な処置をとることにより、分娩事故を減少させることが望まれている。しかしながら、家畜の分娩時期を予め予測することは困難であり、家畜の状態を監視することにより分娩の兆候を察知する必要がある。そこで、監視カメラにより家畜の状態を監視することが考えられるが、可視光で撮影を行う監視カメラでは、夜間に家畜の状態を監視することができないという問題がある。また、近赤外線カメラを使用して監視をする場合には夜間にも監視を行うことができるが、昼間と夜間で撮影される画像が異なってしまい、同一条件で監視することができないという問題がある。また、監視カメラによる監視では、映像を常時監視しておく必要があるため、監視に要する負担が大きい。 There are statistics that relatively many accidents occur during the delivery of livestock such as dairy cows and beef cattle, and the accident rate rises to 5% or more. Loss of livestock due to an accident during delivery is a great loss for the livestock industry, and it is desired to reduce the number of delivery accidents by detecting signs of livestock delivery and taking appropriate measures. However, it is difficult to predict the delivery time of livestock in advance, and it is necessary to detect the signs of delivery by monitoring the condition of livestock. Therefore, it is conceivable to monitor the state of the livestock with a surveillance camera, but there is a problem that the surveillance camera that shoots with visible light cannot monitor the state of the livestock at night. Also, when using a near-infrared camera for monitoring, it is possible to monitor at night as well, but there is a problem that the images taken during the daytime and at night are different, and it is not possible to monitor under the same conditions. is there. Further, in monitoring by the monitoring camera, since it is necessary to constantly monitor the video, the load required for monitoring is large.

一方、特開2017−192375号公報(特許文献1)には、発情検知装置、方法及びプログラムが記載されている。この発情検知装置においては、発情期に乗駕行動をとる動物が放たれている観測空間内で動物の背中の上の所定の高さに探知波を発射しつつスキャンしたデータを分析することにより、発情期を検知している。また、特開2017−127225号公報(特許文献2)には、首輪装着具が記載されている。この首輪装着具は、加速度センサ等を内蔵したセンサユニットを犬猫等の愛玩動物に取り付け、動物の歩数等の行動を監視しようとするものである。 On the other hand, Japanese Patent Laying-Open No. 2017-192375 (Patent Document 1) describes an estrus detecting device, a method, and a program. In this estrus detection device, by analyzing the data scanned while emitting a detection wave at a predetermined height above the back of the animal in the observation space where the animal taking a boarding action in the estrus period is released. , Estrus period is detected. Further, JP-A-2017-127225 (Patent Document 2) describes a collar wearing device. This collar wearing device attaches a sensor unit having a built-in acceleration sensor or the like to a pet animal such as a dog and a cat, and attempts to monitor behavior such as the number of steps of the animal.

さらに、家畜牛の分娩の監視には、牛の膣内に挿入して使用する接触挿入型の温度計を装着したり、牛に万歩計(登録商標)を装着したりして、取得されたデータをサーバに送信し、データに基づいて牛の分娩の兆候を検知することが試みられている。 Furthermore, for monitoring the calving of domestic cattle, a contact insertion type thermometer, which is used by inserting it into the vagina of the cow, is attached, or a pedometer (registered trademark) is attached to the cattle, and it is acquired. Attempts have been made to send this data to a server and to detect signs of cattle calving based on the data.

特開2017−192375号公報JP, 2017-192375, A 特開2017−127225号公報JP, 2017-127225, A

しかしながら、特許文献1、2に記載の装置では、分娩の兆候等の動物の状態を十分な精度で検出することができないという問題がある。また、牛の膣内に挿入して使用する接触挿入型の温度計によれば、ある程度正確に牛の分娩の兆候を検出することができるが、衛生上の問題があると共に、牛に大きな負担が掛かり、また、牛への装着作業にも労力を要するという問題がある。
従って、本発明は、非侵襲的に、昼夜を問わず監視対象動物の状態を監視することができる動物監視システムを提供することを目的としている。
However, the devices described in Patent Documents 1 and 2 have a problem in that the state of an animal such as a sign of parturition cannot be detected with sufficient accuracy. In addition, a contact insertion type thermometer that is used by inserting it into the vagina of a cow can detect signs of calving at a certain degree of accuracy, but there are sanitary problems and a great burden on the cow. However, there is a problem in that it takes a lot of time and labor is required for the work of mounting the cow.
Therefore, an object of the present invention is to provide an animal monitoring system capable of noninvasively monitoring the condition of a monitored animal day and night.

上述した課題を解決するために、本発明は、動物から放射される遠赤外線を取得して動物を監視するシステムであって、遠赤外線を取得して遠赤外線画像を取得する遠赤外線カメラと、この遠赤外線カメラによって取得された遠赤外線画像に基づいて、監視対象となる監視対象動物の温度、移動距離、移動速度、及び加速度の少なくとも何れかを当該監視対象動物の特性として特定する監視対象解析部と、この監視対象解析部によって特定された特性に基づいて監視対象動物の状態を判断する動物状態判断部と、を備え、監視対象解析部は、特性を用いて監視対象動物の状態を判断するための状態基準値を算出し、動物状態判断部は、監視対象解析部において特定された最新の特性と状態基準値とを比較することにより状態を判断する、ことを特徴としている。 In order to solve the above-mentioned problems, the present invention is a system that acquires far-infrared rays emitted from an animal and monitors the animal, and a far-infrared camera that acquires far-infrared rays and acquires a far-infrared ray image, Based on the far-infrared image acquired by this far-infrared camera, a monitoring target analysis that specifies at least one of the temperature, moving distance, moving speed, and acceleration of the monitoring target animal to be monitored as the characteristic of the monitoring target animal And an animal state determination unit that determines the state of the monitored animal based on the characteristics specified by the monitored target analysis unit, and the monitored target analysis unit determines the state of the monitored animal using the characteristics. The animal condition determination unit is characterized by calculating the condition reference value for the purpose and comparing the latest characteristics specified by the monitoring target analysis unit with the condition reference value to determine the condition.

このように構成された本発明によれば、動物から放射される遠赤外線の画像を遠赤外線カメラによって取得し、これに基づいて監視対象動物の状態を監視するので、昼夜を問わず、監視対象動物に負担を掛けることなく状態を監視することができる。また、上記のように構成された本発明によれば、監視対象解析部が監視対象動物の特性を特定し、これに基づいて動物状態判断部が監視対象動物の状態を判断する。このため、使用者は、監視対象動物をモニタ等により常時監視することなく、監視対象動物が所定の状態にあることを認識することができる。 According to the present invention configured as described above, an image of far-infrared rays emitted from an animal is acquired by a far-infrared camera, and the state of the monitored animal is monitored based on the image. The condition can be monitored without straining the animals. Further, according to the present invention configured as described above, the monitoring target analysis unit specifies the characteristics of the monitoring target animal, and the animal state determination unit determines the state of the monitoring target animal based on this. Therefore, the user can recognize that the monitored animal is in a predetermined state without constantly monitoring the monitored animal with a monitor or the like.

本発明の動物監視システムによれば、非侵襲的に、昼夜を問わず監視対象動物の状態を監視することができる。 According to the animal monitoring system of the present invention, the state of the monitored animal can be monitored non-invasively day or night.

本発明の実施形態による動物監視システムの全体構成を示す斜視図である。FIG. 1 is a perspective view showing an overall configuration of an animal monitoring system according to an embodiment of the present invention. 本発明の実施形態による動物監視システムにおける、動物を監視するカメラボックスの設置状況を示す図である。It is a figure which shows the installation condition of the camera box which monitors an animal in the animal monitoring system by embodiment of this invention. 本発明の実施形態による動物監視システムに備えられているカメラボックスの外観を示す斜視図である。It is a perspective view showing appearance of a camera box with which an animal surveillance system by an embodiment of the present invention is equipped. 本発明の実施形態による動物監視システムに備えられているカメラボックスの内部構造を示す斜視断面図である。It is a perspective sectional view showing an internal structure of a camera box with which an animal surveillance system by an embodiment of the present invention is equipped. 本発明の実施形態による動物監視システムの全体構成を示すブロック図である。It is a block diagram showing the whole animal surveillance system composition by the embodiment of the present invention. 本発明の実施形態による動物監視システムに備えられたサブシステム基板において実行される距離、速度、加速度の異常処理のフローチャートである。6 is a flowchart of distance, velocity, and acceleration abnormality processing executed in a subsystem board included in the animal monitoring system according to the embodiment of the present invention. 図6に示すフローチャートから呼び出されるサブルーチンのフローチャートである。7 is a flowchart of a subroutine called from the flowchart shown in FIG. 6. 本発明の実施形態による動物監視システムに備えられたサブシステム基板において実行される温度の異常処理のフローチャートである。6 is a flowchart of temperature abnormality processing executed in a subsystem substrate included in the animal monitoring system according to the embodiment of the present invention. 本発明の実施形態による動物監視システムに備えられたサブシステム基板において実行される分離物の異常処理のフローチャートである。6 is a flowchart of an abnormal process of a separated substance, which is executed in a subsystem substrate included in the animal monitoring system according to the embodiment of the present invention. 本発明の実施形態による動物監視システムに備えられたサブシステム基板において実行される異常の通知処理のフローチャートである。6 is a flowchart of an abnormality notification process executed in a subsystem board included in the animal monitoring system according to the embodiment of the present invention.

次に、添付図面を参照して、本発明の好ましい実施形態を説明する。
以下では、本発明の実施形態による動物監視システムを、一例として、家畜の牛を監視するシステムに適用した場合について説明する。まず、図1乃至図5を参照して、本発明の実施形態による動物監視システムの全体構成を説明する。図1は、動物監視システムの全体構成を示す斜視図である。図2は、動物を監視するカメラボックスの設置状況を示す図である。図3は、カメラボックスの外観を示す斜視図である。図4は、カメラボックスの内部構造を示す斜視断面図である。図5は、動物監視システムの全体構成を示すブロック図である。
Next, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
Hereinafter, a case where the animal monitoring system according to the embodiment of the present invention is applied to a system for monitoring cattle of domestic animals will be described as an example. First, an overall configuration of an animal monitoring system according to an embodiment of the present invention will be described with reference to FIGS. 1 to 5. FIG. 1 is a perspective view showing the overall configuration of the animal monitoring system. FIG. 2 is a diagram showing the installation status of a camera box for monitoring animals. FIG. 3 is a perspective view showing the appearance of the camera box. FIG. 4 is a perspective sectional view showing the internal structure of the camera box. FIG. 5 is a block diagram showing the overall configuration of the animal monitoring system.

<動物監視システムの構成>
図1に示すように、本発明の実施形態による動物監視システム1は、遠赤外線カメラ等を内蔵した複数のカメラボックス2と、これらのカメラボックス2において取得/算出されたデータを受信するサーバ4と、を有する。本実施形態において、動物監視システム1は、監視対象動物である乳牛、肉牛等の牛を監視して、その分娩の兆候を使用者に報知するように構成されている。図1に示す例においては、3つの牛房6の上方に夫々カメラボックス2が設置されており、各牛房6の中で飼育されている牛の画像が撮影される。なお、1つのサーバ4に対し、1つ以上の任意の数のカメラボックス2を接続することができ、カメラボックス2とサーバ4は一体化されていても良い。
<Structure of animal monitoring system>
As shown in FIG. 1, an animal monitoring system 1 according to an embodiment of the present invention includes a plurality of camera boxes 2 each having a far-infrared camera and the like, and a server 4 for receiving data acquired/calculated by these camera boxes 2. And. In the present embodiment, the animal monitoring system 1 is configured to monitor cattle such as dairy cows and beef cattle, which are the monitoring target animals, and notify the user of signs of calving. In the example shown in FIG. 1, the camera boxes 2 are installed above the three cows 6, respectively, and an image of a cow raised in each cow 6 is captured. Note that one or more camera boxes 2 of any number can be connected to one server 4, and the camera box 2 and the server 4 may be integrated.

図2に示すように、カメラボックス2は、1つの牛房6に対して1つずつ設置されており、牛房6の天井付近から牛房6の中で飼育されている牛8を常時撮影できるようになっている。好ましくは、カメラボックス2は、牛房6全体がカメラの画角の中に収まるように設置する。また、後述するように、カメラボックス2には、遠赤外線カメラ10及び近赤外線カメラ12が内蔵されており、各カメラは略同一の領域を撮影するように配置されている。本実施形態においては、遠赤外線カメラ10は、約90度の画角を有する広角レンズを備えていると共に、光量が画像の中央から周辺までほぼ均一になるように構成されている。 As shown in FIG. 2, one camera box 2 is installed for each cow cot 6, and the cows 8 bred in the cow cot 6 are constantly photographed from the vicinity of the ceiling of the cow cot 6. You can do it. Preferably, the camera box 2 is installed so that the entire cow house 6 fits within the angle of view of the camera. Further, as will be described later, the far infrared camera 10 and the near infrared camera 12 are built in the camera box 2, and the respective cameras are arranged so as to photograph substantially the same area. In the present embodiment, the far-infrared camera 10 is provided with a wide-angle lens having an angle of view of about 90 degrees, and is configured so that the amount of light is substantially uniform from the center to the periphery of the image.

<カメラボックスの構成>
図3及び図4に示すように、カメラボックス2には、遠赤外線カメラ10及び近赤外線カメラ12が内蔵されており、各カメラのレンズがカメラボックス2の一側面に並べて取り付けられている。また、図4に示すように、遠赤外線カメラ10の筐体内には、遠赤外線カメラ10によって撮影された遠赤外線画像を画像処理するための信号処理基板が内蔵されており、この信号処理基板が遠赤外線画像処理部である遠赤外線画像処理装置14として機能する。さらに、遠赤外線カメラ10及び遠赤外線画像処理装置14は、遠赤外線監視装置として機能する。また、近赤外線カメラ12の筐体内には、近赤外線カメラ12によって撮影された近赤外線画像を画像処理するための信号処理基板16が内蔵されている。さらに、カメラボックス2内の後部には、遠赤外線画像処理装置14及び信号処理基板16から入力された情報に基づいて牛の分娩の兆候を検出するサブシステム基板18が内蔵されている。
<Camera box configuration>
As shown in FIGS. 3 and 4, the camera box 2 has a far-infrared camera 10 and a near-infrared camera 12 built therein, and the lenses of the cameras are mounted side by side on one side of the camera box 2. Further, as shown in FIG. 4, a signal processing board for image-processing a far infrared image captured by the far infrared camera 10 is built in the housing of the far infrared camera 10. The far-infrared image processing unit 14 functions as the far-infrared image processing device 14. Further, the far infrared camera 10 and the far infrared image processing device 14 function as a far infrared monitoring device. In addition, a signal processing board 16 for image-processing the near-infrared image captured by the near-infrared camera 12 is built in the housing of the near-infrared camera 12. Further, in the rear part of the camera box 2, a subsystem board 18 for detecting a sign of calving on the basis of information input from the far infrared image processing device 14 and the signal processing board 16 is built in.

次に、図5を参照して、カメラボックス2の構成を説明する。
図5に示すように、カメラボックス2の内部には、遠赤外線カメラ10と、近赤外線カメラ12と、サブシステム基板18と、が内蔵されている。さらに、遠赤外線カメラ10の筐体内には、遠赤外線画像処理装置14、及びUSB信号変換基板14aが内蔵されている。また、近赤外線カメラ12の筐体内には、信号処理基板16であるISP画像処理基板16a、通信・制御処理基板16b、及びUSB信号変換基板16cが内蔵されている。なお、カメラボックス2には、近赤外線カメラ12に代えて、又は近赤外線カメラ12に加えて可視光線の画像を撮影する可視光カメラ(図示せず)が備えられていても良い。
Next, the configuration of the camera box 2 will be described with reference to FIG.
As shown in FIG. 5, the far-infrared camera 10, the near-infrared camera 12, and the subsystem board 18 are built in the camera box 2. Further, the far-infrared camera 10 has a far-infrared image processing device 14 and a USB signal conversion board 14a built therein. Further, in the housing of the near-infrared camera 12, an ISP image processing board 16a which is a signal processing board 16, a communication/control processing board 16b, and a USB signal conversion board 16c are incorporated. The camera box 2 may include a visible light camera (not shown) that captures an image of visible light instead of the near infrared camera 12 or in addition to the near infrared camera 12.

遠赤外線カメラ10は、遠赤外広角レンズ10aと、熱画像アレイ10bと、ボロメータ基板10cと、を備え、遠赤外線画像を取得するように構成されている。なお、本実施形態において、遠赤外線カメラ10は、1秒間に8フレームの頻度で、連続的に遠赤外線画像を撮影するように構成されている。なお、本明細書において、「遠赤外線」とは、波長が約8μm乃至約14μmの赤外線を意味している。 The far infrared camera 10 includes a far infrared wide-angle lens 10a, a thermal image array 10b, and a bolometer substrate 10c, and is configured to acquire a far infrared image. In the present embodiment, the far infrared camera 10 is configured to continuously capture far infrared images at a frequency of 8 frames per second. In the present specification, “far infrared rays” means infrared rays having a wavelength of about 8 μm to about 14 μm.

遠赤外広角レンズ10aは、入射した遠赤外線を熱画像アレイ10b上に合焦させるように構成されている。好ましくは、遠赤外広角レンズ10aは広角で、中心から周辺まで均質且つ高透過に熱放射エネルギーを伝達して、熱画像アレイ10b上に結像するレンズを使用する。また、本実施形態においては、遠赤外広角レンズ10aは単一のレンズであるが、遠赤外広角レンズ10aは複数のレンズから構成されていても良い。さらに、本実施形態において、遠赤外広角レンズ10aとして、水平角度70度以上で、遠赤外線の波長の透過率の中心に対する周辺10割像高の光量比が70%以上のレンズが使用されている。 The far-infrared wide-angle lens 10a is configured to focus incident far-infrared rays on the thermal image array 10b. Preferably, the far-infrared wide-angle lens 10a is a wide-angle lens that transmits heat radiation energy from the center to the periphery in a uniform and highly transparent manner to form an image on the thermal image array 10b. Further, although the far-infrared wide-angle lens 10a is a single lens in the present embodiment, the far-infrared wide-angle lens 10a may be composed of a plurality of lenses. Further, in the present embodiment, as the far-infrared wide-angle lens 10a, a lens having a horizontal angle of 70 degrees or more and a light amount ratio of the peripheral 100% image height to the center of the transmittance of the far-infrared wavelength of 70% or more is used. There is.

熱画像アレイ10bは、縦横に配列された多数のマイクロボロメータピクセルから構成されている。熱画像アレイ10bの各ピクセルは遠赤外線が入射すると温度が上昇し、この温度変化により抵抗値が変化して、入射した遠赤外線の強度を電流値の変化として取り出すことができるように構成されている。なお、本実施形態においては、熱画像アレイ10bは、縦横に80×80個のピクセルが配列された比較的低画素の熱画像アレイ10bが使用されている。 The thermal image array 10b is composed of a large number of microbolometer pixels arranged vertically and horizontally. The temperature of each pixel of the thermal image array 10b rises when far-infrared rays enter, and the resistance value changes due to this temperature change, and the intensity of the incident far-infrared rays can be extracted as a change in current value. There is. In this embodiment, the thermal image array 10b is a relatively low pixel thermal image array 10b in which 80×80 pixels are arranged vertically and horizontally.

ボロメータ基板10cは、熱画像アレイ10bの各ピクセルに入射した遠赤外線の強度を表すRAW階調信号を、熱画像アレイ10bから取り出すように構成されている。本実施形態において、ボロメータ基板10cは取り出された信号を14bitのA/D変換器によりディジタル値に変換するように構成されている。従って、熱画像アレイ10bから取り出された遠赤外線の強度を表す信号は、ボロメータ基板10cによって16384階調のRAW階調信号として取り出される。 The bolometer substrate 10c is configured to take out from the thermal image array 10b a RAW gradation signal that represents the intensity of far infrared rays that have entered each pixel of the thermal image array 10b. In this embodiment, the bolometer substrate 10c is configured to convert the extracted signal into a digital value by a 14-bit A/D converter. Therefore, the signal representing the intensity of far infrared rays extracted from the thermal image array 10b is extracted as a RAW gradation signal of 16384 gradations by the bolometer substrate 10c.

遠赤外線画像処理装置14は、ボロメータ基板10cからRAW階調信号として入力された画像データを、画像処理するように構成されている。また、遠赤外線画像処理装置14は、ボロメータ基板10cから入力された遠赤外線画像のデータを温度データに変換するように構成されている。なお、本実施形態において、遠赤外線画像処理装置14は、遠赤外線画像のデータに基づいて16bitの温度データを生成するように構成されている。具体的には、遠赤外線画像処理装置14は、マイクロプロセッサ、各種インターフェイス回路、メモリ、及びこれらを作動させるプログラム(以上、図示せず)等から構成されている。 The far-infrared image processing device 14 is configured to image-process the image data input as a RAW gradation signal from the bolometer substrate 10c. Further, the far infrared image processing device 14 is configured to convert the far infrared image data input from the bolometer substrate 10c into temperature data. In the present embodiment, the far infrared image processing device 14 is configured to generate 16-bit temperature data based on the far infrared image data. Specifically, the far-infrared image processing device 14 is composed of a microprocessor, various interface circuits, a memory, a program (not shown) for operating these, and the like.

USB信号変換基板14aは、遠赤外線画像処理装置14によって処理された遠赤外線画像の画像データ、及び温度データをUSB信号に変換し、サブシステム基板18に送信するように構成されている。 The USB signal conversion board 14 a is configured to convert the image data of the far-infrared image processed by the far-infrared image processing device 14 and the temperature data into a USB signal and transmit the USB signal to the subsystem board 18.

本実施形態において、遠赤外線画像処理装置14は、遠赤外線カメラ10によって取得された画像データを取り込む画像情報入力処理、及び画像データに含まれる画素値のヒストグラムを生成するヒストグラム生成処理を実行するように構成されている。さらに、遠赤外線画像処理装置14は、生成されたヒストグラムの度数を修正するヒストグラム再構成処理、及び再構成されたヒストグラムに基づいて、ヒストグラムが平坦化された画像データを生成するヒストグラム平坦化処理を実行するように構成されている。遠赤外線画像処理装置14における具体的な信号処理については後述する。 In the present embodiment, the far-infrared image processing device 14 performs an image information input process for capturing image data acquired by the far-infrared camera 10 and a histogram generation process for generating a histogram of pixel values included in the image data. Is configured. Further, the far-infrared image processing device 14 performs a histogram reconstruction process of correcting the frequency of the generated histogram, and a histogram flattening process of generating image data in which the histogram is flattened based on the reconstructed histogram. It is configured to run. Specific signal processing in the far infrared image processing device 14 will be described later.

次に、近赤外線カメラ12は、広角レンズ12aと、CMOSセンサ12bと、近赤外LED投光器12cと、LED点等制御基板12dと、を備え、所定のフレームレートで連続的に近赤外線画像を撮影するように構成されている。
広角レンズ12aは、入射した近赤外線をCMOSセンサ12b上に合焦させるように構成されている。好ましくは、広角レンズ12aは、遠赤外線カメラ10と略同一の領域を撮影できる画角を有する。なお、本実施形態においては、水平方向実視野(HFOV)が90度以上の広角レンズ12aが使用されている。
Next, the near-infrared camera 12 is provided with a wide-angle lens 12a, a CMOS sensor 12b, a near-infrared LED projector 12c, and an LED point control board 12d, and continuously outputs near-infrared images at a predetermined frame rate. It is configured to shoot.
The wide-angle lens 12a is configured to focus the incident near infrared ray on the CMOS sensor 12b. Preferably, the wide-angle lens 12a has an angle of view that allows the far-infrared camera 10 to photograph substantially the same area. In this embodiment, a wide-angle lens 12a having a horizontal real field of view (HFOV) of 90 degrees or more is used.

CMOSセンサ12bは、縦横に配列された多数のCMOS半導体から構成されており、広角レンズ12aによって撮像面上に結像された近赤外線の像を形成するように構成されている。 The CMOS sensor 12b is composed of a large number of CMOS semiconductors arranged vertically and horizontally, and is configured to form a near-infrared image formed on the imaging surface by the wide-angle lens 12a.

近赤外LED投光器12cは、近赤外線を放射する近赤外LEDを備えており、近赤外線カメラ12の撮影範囲内に近赤外線を照射するように構成されている。また、LED点等制御基板12dは、近赤外線カメラ12による撮影を行う際に、必要に応じて近赤外LED投光器12cに信号を送り、近赤外線を照射させるように構成されている。 The near-infrared LED projector 12c includes a near-infrared LED that emits near-infrared rays, and is configured to irradiate the near-infrared rays within the shooting range of the near-infrared camera 12. Further, the LED point control board 12d is configured to send a signal to the near-infrared LED projector 12c to irradiate the near-infrared rays when necessary when the near-infrared camera 12 takes an image.

ここで、遠赤外線カメラ10は、主として監視対象動物等から放射された遠赤外線の画像を生成するのに対し、近赤外線カメラ12は、主として監視対象動物等によって反射された近赤外線の画像を生成する。このため、夜間等に、近赤外線カメラ12を使用して撮影を行うためには、近赤外LED投光器12cによって監視対象動物等に近赤外線を照射する必要がある。一方、遠赤外線カメラ10は、監視対象動物等から放射された遠赤外線によって画像を生成するため、夜間等においても、特別に照明を行う必要はない。 Here, the far-infrared camera 10 mainly generates an image of far-infrared rays emitted from a monitored animal or the like, whereas the near-infrared camera 12 mainly generates an image of near-infrared rays reflected by the monitored animal or the like. To do. Therefore, in order to use the near-infrared camera 12 for photographing at night, it is necessary to irradiate the animal to be monitored with near-infrared rays by the near-infrared LED projector 12c. On the other hand, since the far-infrared camera 10 generates an image with far-infrared rays emitted from the monitored animal or the like, there is no need to perform special illumination even at night.

さらに、近赤外線カメラ12の筐体内には信号処理基板16が内蔵されており、この信号処理基板16は、ISP画像処理基板16a、通信・制御処理基板16b、及びUSB信号変換基板16cから構成されている。
ISP画像処理基板16aは、CMOSセンサ12bからRAW画像信号を取り出して近赤外線画像データを生成するように構成されている。
Further, a signal processing board 16 is built in the housing of the near infrared camera 12, and the signal processing board 16 is composed of an ISP image processing board 16a, a communication/control processing board 16b, and a USB signal conversion board 16c. ing.
The ISP image processing board 16a is configured to take out a RAW image signal from the CMOS sensor 12b and generate near infrared image data.

通信・制御処理基板16bは、ISP画像処理基板16aを制御して、ISP画像処理基板16aから近赤外線画像データを取得すると共に、LED点等制御基板12dに信号を送って所定のタイミングで近赤外LED投光器12cによる照明を行うように構成されている。
また、USB信号変換基板16cは、ISP画像処理基板16aによって生成された近赤外線画像データをUSB信号に変換し、サブシステム基板18に送信するように構成されている。
The communication/control processing board 16b controls the ISP image processing board 16a to acquire near-infrared image data from the ISP image processing board 16a, and at the same time, sends a signal to the control board 12d such as the LED point to bring the near-infrared light to near It is configured to perform illumination by the outer LED projector 12c.
Further, the USB signal conversion board 16c is configured to convert the near infrared image data generated by the ISP image processing board 16a into a USB signal and transmit the USB signal to the subsystem board 18.

サブシステム基板18は、遠赤外線画像処理装置14によって生成された遠赤外線画像のデータ及び温度データを取得し、監視対象動物である牛の状態を判断するように構成されている。即ち、サブシステム基板18は、遠赤外線画像処理装置14によって処理された遠赤外線画像に基づいて、牛の温度、移動距離、移動速度、及び加速度の少なくとも何れかを監視対象動物であるの特性として特定する監視対象解析部18aとして機能する。さらに、サブシステム基板18は、監視対象解析部18aによって特定された特性に基づいて、牛の状態を判断する動物状態判断部18bとして機能する。具体的には、サブシステム基板18は、マイクロプロセッサ、各種インターフェイス回路、メモリ、及びこれらを作動させるプログラム(以上、図示せず)等から構成されている。サブシステム基板18における具体的なデータ処理については後述する。 The subsystem board 18 is configured to acquire the far-infrared image data and temperature data generated by the far-infrared image processing device 14 and determine the state of the cow as the monitored animal. That is, the subsystem board 18 determines at least one of the temperature, the moving distance, the moving speed, and the acceleration of the cow as the monitored animal based on the far infrared image processed by the far infrared image processing device 14. It functions as the specified monitoring target analysis unit 18a. Further, the subsystem board 18 functions as an animal state determination unit 18b that determines the state of the cow based on the characteristics specified by the monitoring target analysis unit 18a. Specifically, the subsystem board 18 is composed of a microprocessor, various interface circuits, a memory, a program (not shown) for operating these, and the like. Specific data processing in the subsystem board 18 will be described later.

さらに、サブシステム基板18におけるデータ処理によって、監視対象動物が所定の状態、即ち、牛に分娩又は分娩の兆候があると判断された場合には、サブシステム基板18に接続された通信基板18cによって、その情報がサーバ4に送信される。本実施形態においては、通信基板18cは無線LANによってサーバ4に情報を送信するように構成されているが、有線LANの他、無線又は有線の任意の通信方式によりサーバ4に情報を送信することができる。 Further, when it is determined by the data processing in the subsystem board 18 that the monitored animal is in a predetermined state, that is, the cow has calving or a sign of calving, the communication board 18c connected to the subsystem board 18 , The information is transmitted to the server 4. In the present embodiment, the communication board 18c is configured to transmit information to the server 4 by a wireless LAN, but it is possible to transmit information to the server 4 by any wireless or wired communication method other than the wired LAN. You can

上述したように、サーバ4には複数のカメラボックス2が接続されており、各カメラボックス2により監視されている牛の分娩又は分娩の兆候に関する情報が、サーバ4に集められる。サーバ4は、カメラボックス2によって監視されている何れかの牛に分娩の兆候が現れた場合には、使用者が携帯しているスマートフォン等の携帯端末20に情報を送信して、使用者に報知を行う。使用者が携帯している携帯端末20には、分娩の兆候がある牛を飼育している牛房6に関する情報や、牛の状態に関する情報が表示される。従って、サーバ4は、監視対象動物である牛に分娩の兆候があると判断されたことを、使用者の携帯端末20に送信する報知部4aとして機能する。 As described above, the plurality of camera boxes 2 are connected to the server 4, and the information relating to calving or signs of calving monitored by each camera box 2 is collected in the server 4. When any of the cows monitored by the camera box 2 shows signs of calving, the server 4 sends information to the mobile terminal 20 such as a smartphone carried by the user to notify the user. Make a notification. On the mobile terminal 20 carried by the user, information on the cowhouse 6 that breeds the cows with signs of calving and information on the state of the cows are displayed. Therefore, the server 4 functions as a notification unit 4a that transmits to the mobile terminal 20 of the user that it is determined that the cow, which is the monitored animal, has a sign of calving.

また、本実施形態においては、1つのカメラボックス2に内蔵されている遠赤外線カメラ10及び近赤外線カメラ12によって撮影された夫々の画像は、時刻管理されている。このため、遠赤外線カメラ10によって取得された或る遠赤外線画像とほぼ同時刻に近赤外線カメラ12によって撮影された近赤外線画像を特定することができる。サーバ4は、遠赤外線カメラ10によって取得された遠赤外線画像に基づいて牛に分娩又は分娩の兆候があると判断された際に、使用者の携帯端末20に、その遠赤外線画像とほぼ同時刻に撮影された近赤外線画像を送信する。これにより、使用者は、視認しやすい近赤外線画像によって分娩又は分娩の兆候があると判断された牛の様子を観察することができ、適切な処置をすることができる。また、分娩の兆候があると判断された牛の、近赤外線画像によるリアルタイムの動画を携帯端末20に表示するように、動物監視システム1を構成しても良い。 In the present embodiment, the images captured by the far-infrared camera 10 and the near-infrared camera 12 built in one camera box 2 are time-controlled. Therefore, it is possible to identify the near-infrared image captured by the near-infrared camera 12 at approximately the same time as a certain far-infrared image acquired by the far-infrared camera 10. When it is determined that the cow has calving or signs of calving based on the far-infrared image acquired by the far-infrared camera 10, the server 4 displays the far-infrared image at the same time on the mobile terminal 20 of the user. Send the near-infrared image taken in. Thereby, the user can observe the appearance of calving or the cow judged to have a sign of calving by the easily visible near-infrared image, and can take an appropriate treatment. Further, the animal monitoring system 1 may be configured so that a real-time moving image of near-infrared images of a cow determined to have a sign of calving is displayed on the mobile terminal 20.

<サブシステム基板におけるデータ処理>
次に、図6乃至図10を参照して、サブシステム基板におけるデータ処理を説明する。
上述したように、遠赤外線カメラ10においては、遠赤外線画像が1秒間に8コマのフレームレートで取得され、これらの遠赤外線画像は遠赤外線画像処理装置14によって処理される。遠赤外線画像処理装置14によって処理された遠赤外線画像は、USB信号変換基板14aを介してサブシステム基板18に入力される(図5)。サブシステム基板18においては、入力された遠赤外線画像が図6乃至図10に示すフローチャートによって処理され、監視対象動物の所定の状態として、牛の分娩又は分娩の兆候の有無が判断される。
<Data processing in subsystem board>
Next, data processing in the subsystem board will be described with reference to FIGS.
As described above, the far infrared camera 10 acquires far infrared images at a frame rate of 8 frames per second, and these far infrared images are processed by the far infrared image processing device 14. The far-infrared image processed by the far-infrared image processing device 14 is input to the subsystem board 18 via the USB signal conversion board 14a (FIG. 5). In the subsystem board 18, the input far-infrared image is processed according to the flowcharts shown in FIGS. 6 to 10, and it is determined whether or not there is calving or signs of calving as a predetermined state of the monitored animal.

図6は、サブシステム基板において実行される距離、速度、加速度の異常処理のフローチャートである。図7は、図6に示すフローチャートから呼び出されるサブルーチンのフローチャートである。図8は、サブシステム基板において実行される温度の異常処理のフローチャートである。図9は、サブシステム基板において実行される分離物の異常処理のフローチャートである。図10は、サブシステム基板において実行される異常の通知処理のフローチャートである。 FIG. 6 is a flowchart of distance, velocity, and acceleration abnormality processing executed in the subsystem board. FIG. 7 is a flowchart of a subroutine called from the flowchart shown in FIG. FIG. 8 is a flowchart of temperature abnormality processing executed in the subsystem board. FIG. 9 is a flowchart of the abnormal processing of the separated substance executed in the subsystem board. FIG. 10 is a flowchart of the abnormality notification processing executed in the subsystem board.

なお、図6乃至図10に示すフローチャートは、動物監視システム1の作動中、所定の時間間隔で繰り返し実行される。図10に示すフローチャートは、図6乃至図9に示すフローチャートが1回ずつ実行された後で実行される。本実施形態において、図6乃至図10に示すフローチャートは、遠赤外線画像を取得するフレームレートよりも遅く、約5秒間に1回程度夫々実行される。また、図6乃至図9に示すフローチャートの処理は、サブシステム基板18に備えられている監視対象解析部18aにおいて実行され、図10に示すフローチャートの処理は、動物状態判断部18bにおいて実行される。 The flowcharts shown in FIGS. 6 to 10 are repeatedly executed at predetermined time intervals during the operation of the animal monitoring system 1. The flowchart shown in FIG. 10 is executed after the flowcharts shown in FIGS. 6 to 9 have been executed once. In the present embodiment, the flowcharts shown in FIGS. 6 to 10 are slower than the frame rate at which the far infrared image is acquired, and are executed about once every about 5 seconds. Further, the processing of the flowcharts shown in FIGS. 6 to 9 is executed by the monitoring target analysis section 18a provided in the subsystem board 18, and the processing of the flowchart shown in FIG. 10 is executed by the animal state determination section 18b. ..

まず、図6を参照して、距離、速度、加速度の異常処理を説明する。
図6のステップS11においては、遠赤外線カメラ10によって取得された最新の遠赤外線画像が入力される。なお、ステップS11において入力される遠赤外線画像は、後述する遠赤外線画像処理装置14における処理が施された後の画像データである。
First, with reference to FIG. 6, the abnormality processing of distance, velocity, and acceleration will be described.
In step S11 of FIG. 6, the latest far-infrared image acquired by the far-infrared camera 10 is input. The far-infrared image input in step S11 is image data after being processed by the far-infrared image processing device 14 described later.

次いで、ステップS12においては、入力された遠赤外線画像に基づいて、下準備データが計算される。具体的には、ステップS12においては、図7に示すサブルーチンが実行され、入力された遠赤外線画像中の牛の像に対応する領域の重心点の位置が計算される。なお、遠赤外線カメラ10による撮影距離や、遠赤外広角レンズ10aの焦点距離、入力される各遠赤外線画像の時間間隔の情報は、予め入力されており、サブシステム基板18のメモリに記憶されている。これらのパラメータは、ステップS12における重心点の位置の計算、及びステップS13以下の各演算においても利用される。 Next, in step S12, the preparation data is calculated based on the input far-infrared image. Specifically, in step S12, the subroutine shown in FIG. 7 is executed, and the position of the center of gravity of the area corresponding to the cow image in the input far-infrared image is calculated. Information on the shooting distance by the far infrared camera 10, the focal length of the far infrared wide-angle lens 10a, and the time interval of each far infrared image to be input is input in advance and stored in the memory of the subsystem board 18. ing. These parameters are also used in the calculation of the position of the center of gravity point in step S12 and each calculation in step S13 and thereafter.

次に、図7を参照して、遠赤外線画像中の牛の像に対応する領域の、重心点の位置の計算を説明する。
まず、図7のステップS21においては、図6のステップS11において入力された遠赤外線画像の画素値(輝度)を所定の閾値を用いて二値化し、二値化画像が生成される。この二値化に使用される閾値は、入力された遠赤外線画像中の牛の像に対応する部分が白(高輝度)、それ以外の部分が黒(低輝度)にされるように選択されている。即ち、牛の体表面の最低温度に対応する画素値を、閾値として設定しておくことにより、牛の像に対応する領域が白にされた二値化画像を生成することができる。
Next, with reference to FIG. 7, the calculation of the position of the center of gravity of the area corresponding to the cow image in the far infrared image will be described.
First, in step S21 of FIG. 7, the pixel value (luminance) of the far infrared image input in step S11 of FIG. 6 is binarized using a predetermined threshold value, and a binarized image is generated. The threshold used for this binarization is selected so that the part corresponding to the cow image in the input far-infrared image is white (high brightness) and the other parts are black (low brightness). ing. That is, by setting the pixel value corresponding to the lowest temperature of the body surface of the cow as the threshold value, it is possible to generate a binarized image in which the area corresponding to the cow image is white.

さらに、図7のステップS22においては、ステップS21において得られた二値化画像に対し、膨張・収縮処理が実行される。ここで、膨張処理とは、注目画素の周辺に1画素でも白い画素がある場合には、その注目画素を白に置き換える処理である。また、収縮処理とは、注目画素の周辺に1画素でも黒い画素がある場合には、その注目画素を黒に置き換える処理である。この膨張・収縮処理を所定回数繰り返すことにより、ノイズ等に起因する二値化画像の中の微細な白の領域、及び微細な黒の領域が除去され、牛の像に対応する部分は白い画素の大きな塊になる。 Further, in step S22 of FIG. 7, expansion/contraction processing is executed on the binarized image obtained in step S21. Here, the expansion process is a process of replacing the target pixel with white when there is at least one white pixel around the target pixel. The contraction process is a process of replacing a target pixel with black if there is even one black pixel around the target pixel. By repeating this expansion/contraction process a predetermined number of times, the minute white areas and minute black areas in the binarized image due to noise etc. are removed, and the parts corresponding to the cow image are white pixels. It becomes a big lump of.

次いで、ステップS23においては、ステップS22において得られた牛の像に対応する塊を形成している各画素のX座標及びY座標が求められる。さらに、ステップS24においては、ステップS23において求められた各画素のX座標及びY座標に基づいて、牛の像に対応する塊の重心点の位置(XY座標)が計算される。最後に、ステップS25において、ステップS24において計算された重心点の位置が保存されて、図7に示すフローチャートの処理が終了し、サブシステム基板18における処理は、図6のステップS13に復帰する。 Next, in step S23, the X coordinate and the Y coordinate of each pixel forming the mass corresponding to the cow image obtained in step S22 are obtained. Further, in step S24, the position (XY coordinate) of the barycentric point of the lump corresponding to the cow image is calculated based on the X coordinate and the Y coordinate of each pixel obtained in step S23. Finally, in step S25, the position of the center of gravity calculated in step S24 is saved, the process of the flowchart shown in FIG. 7 ends, and the process in the subsystem board 18 returns to step S13 in FIG.

次に、ステップS13においては、ステップS12(図7)において計算された重心点の移動距離、移動速度、移動加速度の値が計算される。なお、移動距離、移動速度、移動加速度は、過去に撮影された1又は複数の画像における牛の重心点の位置、及び最新の画像における牛の重心点の位置に基づいて計算される。即ち、移動速度及び移動加速度の計算には、過去に入力された遠赤外線画像に対して算出された重心点の位置の情報、及び各遠赤外線画像を取得した時間間隔の情報が使用される。なお、移動距離としては、直近の過去の所定時間(例えば、1分〜1時間)内における移動距離が、重心点の位置に基づいて計算される。また、遠赤外線画像上には、牛8の重心点の移動軌跡が表示される。 Next, in step S13, the values of the moving distance, moving speed, and moving acceleration of the center of gravity calculated in step S12 (FIG. 7) are calculated. The moving distance, the moving speed, and the moving acceleration are calculated based on the position of the center of gravity of the cow in one or more images captured in the past and the position of the center of gravity of the cow in the latest image. That is, for the calculation of the moving speed and the moving acceleration, the information on the position of the center of gravity calculated for the far infrared image input in the past and the information on the time interval at which each far infrared image is acquired are used. In addition, as the movement distance, the movement distance within a predetermined past most recent time (for example, 1 minute to 1 hour) is calculated based on the position of the center of gravity. In addition, the movement trajectory of the center of gravity of the cow 8 is displayed on the far infrared image.

さらに、ステップS14においては、ステップS13おいて計算された移動距離、移動速度、移動加速度の平均値が、状態基準値として計算される。具体的には、過去に計算された移動距離の計算値を全て加算し、加算した計算値の数で除した値が、移動距離の累積値の特性平均値Dav1として算出される。同様に、移動速度、及び移動加速度についても移動速度の累積値の特性平均値Vav1、移動加速度の累積値の特性平均値Aav1が夫々計算される。なお、各特性平均値は3日以上の特性を累積した値を平均して算出することが好ましい。また、所定期間内に特定された移動距離、移動速度、移動加速度等の特性に基づいて特性平均値を算出することもでき、例えば、一週間内に特定された特性を累積した値を平均して所定期間累積行動平均値を算出しても良い。 Further, in step S14, the average value of the moving distance, the moving speed, and the moving acceleration calculated in step S13 is calculated as the state reference value. Specifically, a value obtained by adding all the calculated values of the moving distances calculated in the past and dividing by the number of the added calculated values is calculated as the characteristic average value D av1 of the cumulative value of the moving distances. Similarly, for the moving speed and the moving acceleration, the characteristic average value V av1 of the cumulative value of the moving speed and the characteristic average value A av1 of the cumulative value of the moving acceleration are calculated, respectively. The average value of each characteristic is preferably calculated by averaging the values obtained by accumulating the characteristics of three or more days. Further, it is also possible to calculate a characteristic average value based on characteristics such as moving distance, moving speed, moving acceleration, etc. specified within a predetermined period, for example, averaging the values obtained by accumulating the specified characteristics within one week. Then, the cumulative action average value may be calculated for a predetermined period.

加えて、ステップS14においては、移動距離、移動速度、及び移動加速度の同時刻あたりの特性平均値も計算される。例えば、毎日午前10時に算出された移動距離の計算値の累積平均が、午前10時における同時刻あたりの移動距離の特性平均値Dav2として計算される。同様に、移動速度、及び移動加速度についても同時刻あたりの移動速度の特性平均値Vav2、同時刻あたりの移動加速度の特性平均値Aav2が夫々計算される。本実施形態においては、同時刻あたりの特性平均値の計算は、図6のフローチャートが実行される度に行われる。或いは、同時刻あたりの特性平均値は、1日に所定回数だけ計算しても良い(例えば、1時間毎に1回)。また、1日のうちの所定の時間帯(例えば、午前10時〜11時)における移動距離、移動速度、及び移動加速度の平均値に対して、夫々特性平均値を計算することもできる。 In addition, in step S14, characteristic average values of the moving distance, the moving speed, and the moving acceleration at the same time are also calculated. For example, the cumulative average of the calculated values of the moving distance calculated at 10 am every day is calculated as the characteristic average value D av2 of the moving distance at the same time at 10 am. Similarly, regarding the moving speed and the moving acceleration, the characteristic average value V av2 of the moving speed around the same time and the characteristic average value A av2 of the moving acceleration around the same time are calculated, respectively. In the present embodiment, the calculation of the characteristic average value at the same time is performed every time the flowchart of FIG. 6 is executed. Alternatively, the characteristic average value at the same time may be calculated a predetermined number of times a day (for example, once every hour). Further, the characteristic average value can be calculated for each of the average values of the moving distance, the moving speed, and the moving acceleration in a predetermined time zone of the day (for example, 10 am to 11 am).

さらに、ステップS14においては、移動距離、移動速度、及び移動加速度について、同時刻あたりの移動平均値も計算される。例えば、7日前から前日まで(一週間)、毎日午前10時に算出された移動距離の計算値の平均値を、同時刻あたりの移動距離の移動平均値Dav3として計算する。同様に、移動速度、及び移動加速度についても同時刻あたりの移動速度の移動平均値Vav3、同時刻あたりの移動加速度Aav3の移動平均値を夫々計算する。これらの各移動平均値についても、図6のフローチャートが実行される度に計算しても良く、或いは、1日に所定回数(例えば、1時間毎に1回)だけ計算しても良い。また、同様に、1日のうちの所定の時間帯(例えば、午前10時〜11時)における移動距離、移動速度、及び移動加速度の平均値に対して、同時刻あたりの移動平均値を計算することもできる。 Further, in step S14, the moving average value at the same time is calculated for the moving distance, moving speed, and moving acceleration. For example, from 7 days before to the previous day (one week), the average value of the calculated moving distance values calculated at 10 am every day is calculated as the moving average value D av3 of the moving distance at the same time. Similarly, for the moving speed and the moving acceleration, the moving average value V av3 of the moving speed around the same time and the moving average value of the moving acceleration A av3 around the same time are calculated. Each of these moving average values may be calculated every time the flowchart of FIG. 6 is executed, or may be calculated a predetermined number of times a day (for example, once every hour). In addition, similarly, the moving average value for the same time is calculated with respect to the average value of the moving distance, the moving speed, and the moving acceleration in a predetermined time zone of the day (for example, 10 am to 11 am). You can also do it.

一般に、動物は1日を一定の行動パターンで過ごすことが多く、同時刻あたりの特性平均値や、移動平均値を計算することにより、動物の行動の変化を適確に把握することが可能になる。 In general, animals often spend a day in a certain behavior pattern, and by calculating the characteristic average value and moving average value at the same time, it is possible to accurately grasp changes in animal behavior. Become.

次に、ステップS15においては、ステップS14において計算された各平均値と、入力された最新の遠赤外線画像に対して計算された移動距離、移動速度、及び移動加速度が比較される。具体的には、最新の遠赤外線画像に対して計算された移動距離Dの値が、ステップS14において計算された各平均値Dav1、Dav2、Dav3によって夫々除算され、移動距離比ΔD1、ΔD2、ΔD3が夫々算出される。同様に、最新の遠赤外線画像に対して計算された移動速度Vの値が、各平均値Vav1、Vav2、Vav3によって夫々除算され、移動速度比ΔV1、ΔV2、ΔV3が夫々算出される。さらに、最新の遠赤外線画像に対して計算された移動加速度Aの値が、各平均値Aav1、Aav2、Aav3によって夫々除算され、移動加速度比ΔA1、ΔA2、ΔA3が夫々算出される。 Next, in step S15, each average value calculated in step S14 is compared with the moving distance, moving speed, and moving acceleration calculated for the latest input far-infrared image. Specifically, the value of the moving distance D calculated for the latest far-infrared image is divided by each of the average values D av1 , D av2 , and D av3 calculated in step S14, and the moving distance ratio ΔD 1 , ΔD 2 and ΔD 3 are calculated respectively. Similarly, the value of the moving speed V calculated for the latest far-infrared images are respectively divided by the average value V av1, V av2, V av3, moving speed ratio ΔV 1, ΔV 2, ΔV 3 is respectively It is calculated. Further, the value of the moving acceleration A calculated for the latest far-infrared image is divided by each average value A av1 , A av2 , A av3 respectively , and the moving acceleration ratios ΔA 1 , ΔA 2 , and ΔA 3 are calculated. To be done.

次に、ステップS16においては、ステップS15において計算された各移動距離比、移動速度比、移動加速度比と所定の異常閾値B1が比較される。この異常閾値B1は予め入力され、サブシステム基板18のメモリに記憶されている。本実施形態においては、異常閾値B1として1.2が設定されている。即ち、最新の遠赤外線画像に対して計算された各値が、各平均値よりも20%以上大きい場合に、牛の行動に異常があると判断される。具体的には、ステップS15において計算された移動距離比ΔD1、ΔD2、ΔD3、移動速度比ΔV1、ΔV2、ΔV3、及び移動加速度比ΔA1、ΔA2、ΔA3の9つの値のうち、1.2以上である値の個数C1がカウントされる。さらに、個数C1を記憶した後、図6に示すフローチャートの1回の処理を終了する。 Next, in step S16, each moving distance ratio, moving speed ratio, moving acceleration ratio calculated in step S15 is compared with a predetermined abnormal threshold value B 1 . This abnormal threshold value B 1 is input in advance and stored in the memory of the subsystem board 18. In this embodiment, 1.2 is set as the abnormal threshold value B 1 . That is, when each value calculated for the latest far-infrared image is 20% or more larger than each average value, it is determined that the behavior of the cow is abnormal. Specifically, nine moving distance ratios ΔD 1 , ΔD 2 , ΔD 3 , moving speed ratios ΔV 1 , ΔV 2 , ΔV 3 and moving acceleration ratios ΔA 1 , ΔA 2 , ΔA 3 calculated in step S15. Among the values, the number C 1 of values that are 1.2 or more is counted. Further, after the number C 1 is stored, one process of the flowchart shown in FIG. 6 is ended.

即ち、本件発明者の研究によれば、牛8は分娩が近づくと挙動が大きくなることが明らかとなっている。このため、牛8の最新の移動速度等が、通常の平均的な牛の移動速度等よりも大きくなっている場合には、牛8に分娩の兆候が現れていると判断することができる。 That is, according to the study by the present inventor, it has been clarified that the behavior of the cow 8 increases as the calving approaches. Therefore, when the latest moving speed of the cow 8 or the like is higher than the normal average moving speed of the cow 8 or the like, it can be determined that the cow 8 shows signs of calving.

次に、図8を参照して、温度の異常処理を説明する。
図8のステップS31においては、遠赤外線カメラ10によって取得された最新の遠赤外線画像が入力される。
次いで、ステップS32においては、入力された遠赤外線画像に基づいて、下準備データが計算される。具体的には、図7に示すサブルーチンにおいて算出された牛の像に対応する領域の重心点における温度が算出される。即ち、遠赤外線画像を形成している画素の画素値(輝度)と、撮影した対象物の温度には一定の関係があるため、画素の画素値を参照することにより、画素に対応する点における温度を推定することができる。ステップS32においては、牛の像の重心点として特定された画素の画素値に基づいて、重心点の温度が算出され、記憶される。ステップS32においては、さらに、牛の像に対応する領域内において最も温度が高い点が特定され、その点の温度(最高温度)が算出され、記憶される。
Next, the temperature abnormality processing will be described with reference to FIG.
In step S31 of FIG. 8, the latest far-infrared image acquired by the far-infrared camera 10 is input.
Next, in step S32, the preparation data is calculated based on the input far infrared image. Specifically, the temperature at the center of gravity of the area corresponding to the cow image calculated in the subroutine shown in FIG. 7 is calculated. That is, since there is a fixed relationship between the pixel value (luminance) of the pixel forming the far-infrared image and the temperature of the photographed object, the pixel value of the pixel is referred to by referring to the pixel value of the pixel. The temperature can be estimated. In step S32, the temperature of the center of gravity is calculated and stored based on the pixel value of the pixel specified as the center of gravity of the cow image. In step S32, the point having the highest temperature in the area corresponding to the cow image is further specified, and the temperature (maximum temperature) at that point is calculated and stored.

次に、ステップS33においては、ステップS32において計算された重心点の温度、及び最高温度の平均値が計算される。具体的には、過去に算出された重心点の温度を全て加算し、加算した数で除した値を、重心点の温度の累積値の特性平均値Gav1として算出する。同様に、最高温度についても移動速度の累積値の特性平均値Mav1が計算される。 Next, in step S33, the temperature of the center of gravity calculated in step S32 and the average of the maximum temperatures are calculated. Specifically, all the temperatures at the center of gravity points calculated in the past are added, and the value obtained by dividing the sum is calculated as the characteristic average value G av1 of the cumulative value of the temperatures at the center of gravity points. Similarly, for the maximum temperature, the characteristic average value M av1 of the cumulative value of the moving speed is calculated.

加えて、ステップS33においては、重心点の温度、及び最高温度の同時刻あたりの特性平均値も計算される。例えば、毎日午前10時に算出された重心点の温度の累積平均が、午前10時における同時刻あたりの重心点の温度の特性平均値Gav2として計算される。同様に、最高温度についても同時刻あたりの最高温度の特性平均値Mav2が計算される。本実施形態においては、同時刻あたりの特性平均値の計算は、図8のフローチャートが実行される度に行われる。或いは、同時刻あたりの特性平均値は、1日に所定回数だけ計算しても良い(例えば、1時間毎に1回)。また、1日のうちの所定の時間帯(例えば、午前10時〜11時)における重心点の温度、最高温度の平均値に対して、夫々特性平均値を計算することもできる。 In addition, in step S33, the temperature at the center of gravity and the characteristic average value of the maximum temperature at the same time are also calculated. For example, the cumulative average of the temperature of the center of gravity calculated at 10 am every day is calculated as the characteristic average value G av2 of the temperature of the center of gravity at the same time at 10 am. Similarly, for the maximum temperature, the characteristic average value M av2 of the maximum temperature around the same time is calculated. In the present embodiment, the calculation of the characteristic average value at the same time is performed every time the flowchart of FIG. 8 is executed. Alternatively, the characteristic average value at the same time may be calculated a predetermined number of times a day (for example, once every hour). Further, the characteristic mean value can be calculated for each of the mean value of the temperature at the center of gravity and the highest temperature in a predetermined time zone of the day (for example, from 10:00 to 11:00 am).

さらに、ステップS33においては、重心点の温度、及び最高温度について、同時刻あたりの移動平均値も計算される。例えば、7日前から前日まで、毎日午前10時に算出された重心点の温度の平均値を、同時刻あたりの重心点の温度の移動平均値Gav3として計算する。同様に、最高温度についても同時刻あたりの最高温度の移動平均値Mav3を計算する。これらの各移動平均値についても、図8のフローチャートが実行される度に同時刻あたりの移動平均値を計算しても良く、或いは、1日に所定回数(例えば、1時間毎に1回)だけ計算しても良い。また、同様に、1日のうちの所定の時間帯(例えば、午前10時〜11時)における重心点の温度、及び最高温度の平均値に対して、同時刻あたりの移動平均値を計算することもできる。 Further, in step S33, the moving average value at the same time is calculated for the temperature at the center of gravity and the maximum temperature. For example, from 7 days before to the previous day, the average value of the temperature of the center of gravity calculated at 10 am every day is calculated as the moving average value G av3 of the temperature of the center of gravity at the same time. Similarly, for the maximum temperature, the moving average value M av3 of the maximum temperature around the same time is calculated. For each of these moving average values, the moving average value at the same time may be calculated each time the flowchart of FIG. 8 is executed, or a predetermined number of times per day (for example, once every hour). You may calculate only. In addition, similarly, a moving average value around the same time is calculated with respect to the average value of the temperature of the center of gravity and the maximum temperature in a predetermined time zone of the day (for example, from 10 am to 11 am). You can also

次に、ステップS34においては、ステップS33において計算された各平均値と、入力された最新の遠赤外線画像に対して計算された重心点の温度、及び最高温度が比較される。具体的には、最新の遠赤外線画像に対して計算された重心点の温度Gから、ステップS33において計算された各平均値Gav1、Gav2、Gav3が夫々減算され、重心点温度差ΔG1、ΔG2、ΔG3が夫々算出される。同様に、最新の遠赤外線画像に対して計算された最高温度Mから、各平均値Mav1、Mav2、Mav3が夫々減算され、最高温度差ΔM1、ΔM2、ΔM3が夫々算出される。 Next, in step S34, each average value calculated in step S33 is compared with the temperature of the center of gravity calculated for the latest input far-infrared image and the maximum temperature. Specifically, the respective average values G av1 , G av2 , and G av3 calculated in step S33 are subtracted from the temperature G of the center of gravity calculated for the latest far-infrared image, and the temperature difference ΔG of the center of gravity is calculated. 1 , ΔG 2 and ΔG 3 are calculated respectively. Similarly, each average value M av1 , M av2 , M av3 is subtracted from the maximum temperature M calculated for the latest far-infrared image, and the maximum temperature differences ΔM 1 , ΔM 2 , and ΔM 3 are calculated. It

次に、ステップS35においては、ステップS34において計算された各重心点温度差、最高温度差と所定の異常閾値B2が比較される。この異常閾値B2は予め入力され、サブシステム基板18のメモリに記憶されている。本実施形態においては、異常閾値B2として±1℃が設定されている。即ち、最新の遠赤外線画像に対して計算された各値が、各平均値よりも1℃以上高い場合、及び1℃以上低い場合に、牛の温度に異常があると判断される。このように、動物状態判断部18bは、監視対象解析部18aによって特定された特性が、状態基準値よりも所定値以上上昇した場合に、牛の温度に異常があり、牛の分娩が近いと判断する。具体的には、ステップS34において計算された重心点温度差ΔG1、ΔG2、ΔG3、及び最高温度差ΔM1、ΔM2、ΔM3の6つの値のうち、絶対値が1以上である値の個数C2がカウントされる。さらに、個数C2を記憶した後、図8に示すフローチャートの1回の処理を終了する。 Next, in step S35, the center-of-gravity point temperature difference calculated in step S34, the maximum temperature difference and a predetermined abnormal threshold B 2 are compared. This abnormal threshold value B 2 is input in advance and stored in the memory of the subsystem board 18. In this embodiment, ±1° C. is set as the abnormal threshold value B 2 . That is, when each value calculated for the latest far-infrared image is higher than each average value by 1° C. or higher and lower than the average value by 1° C. or higher, it is determined that the temperature of the cow is abnormal. As described above, when the characteristic identified by the monitoring target analysis unit 18a is higher than the state reference value by a predetermined value or more, the animal state determination unit 18b determines that the temperature of the cow is abnormal and that the cow is about to deliver. to decide. Specifically, the absolute value is one or more among the six values of the center-of-gravity point temperature differences ΔG 1 , ΔG 2 , ΔG 3 and the maximum temperature differences ΔM 1 , ΔM 2 , ΔM 3 calculated in step S34. The number of values C 2 is counted. Further, after the number C 2 is stored, one process of the flowchart shown in FIG. 8 is ended.

次に、図9を参照して、分離物の異常処理を説明する。
監視対象動物である牛の分娩が近づくと、破水が発生する。破水により羊水が牛房6の床面に落ちると、羊水の温度は牛の体温とほぼ同一であるため、取得された遠赤外線画像上には、牛の像とは別に温度の高い(輝度の高い)領域(分離した熱源)が現れる。このように、図9に示すフローチャートは、遠赤外線画像において、牛の像から分離した温度の高い領域8bを検出して、牛の破水を検知するものである。
Next, with reference to FIG. 9, the abnormality processing of the separated substance will be described.
When the cattle, which are the monitored animals, are approaching calving, water rupture occurs. When the amniotic fluid falls on the floor surface of the cattle 6 due to the rupture of water, the temperature of the amniotic fluid is almost the same as the body temperature of the cow. Higher areas (separate heat sources) appear. As described above, the flowchart shown in FIG. 9 is for detecting the water rupture of the cow by detecting the high temperature region 8b separated from the image of the cow in the far infrared image.

まず、図9のステップS41においては、遠赤外線カメラ10によって取得された最新の遠赤外線画像が入力される。
次いで、ステップS42においては、入力された遠赤外線画像に基づいて、分離物の下準備データが計算される。具体的には、図7に示すサブルーチンにおいて算出された牛の像に対応する領域以外の、床面よりも温度が高い領域(分離した熱源)が検出されると共に、その領域内の最高温度Tm(分離物の最高温度)が算出され、記憶される。
First, in step S41 of FIG. 9, the latest far-infrared image acquired by the far-infrared camera 10 is input.
Next, in step S42, the preparation data for the separated object is calculated based on the input far-infrared image. Specifically, a region (a separated heat source) having a temperature higher than the floor surface is detected other than the region corresponding to the cow image calculated in the subroutine shown in FIG. 7, and the maximum temperature T in the region is detected. m (maximum temperature of the separation) is calculated and stored.

次に、ステップS43においては分離物の有無が判断され、分離物がある場合にはステップS44に進み、分離物がない場合には図9に示すフローチャートの1回の処理を終了する。 Next, in step S43, it is determined whether or not there is a separated substance. If there is a separated substance, the process proceeds to step S44, and if there is no separated substance, one process of the flowchart shown in FIG. 9 ends.

次いで、ステップS44においては、ステップS42において検出された分離物の面積Sが計算される。さらに、ステップS44においては、図8に示すフローチャートのステップS32において算出された牛の重心点の温度Gと分離物の最高温度Tmの差ΔTG、及び牛の最高温度Mと分離物の最高温度Tmの差ΔTMが夫々計算される。
さらに、ステップS45においては、ステップS44において算出された分離物の面積Sを牛の面積で除した面積比ΔSが算出される。
Next, in step S44, the area S of the separated substance detected in step S42 is calculated. Further, in step S44, the difference ΔTG between the temperature G of the center of gravity of the cow and the maximum temperature T m of the separated product calculated in step S32 of the flowchart shown in FIG. 8, and the maximum temperature M of the cow and the maximum temperature of the separated product. The difference ΔTM in T m is calculated respectively.
Further, in step S45, the area ratio ΔS obtained by dividing the area S of the separated product calculated in step S44 by the area of the cow is calculated.

次に、ステップS46においては、ステップS45において計算された面積比ΔSと所定の閾値B3が比較されると共に、ステップS44において計算された温度差ΔTG、ΔTMと所定の閾値B4が夫々比較され、破水の有無が判断される。これらの閾値B3、B4は予め入力され、サブシステム基板18のメモリに記憶されている。本実施形態においては、閾値B3として0.05が設定され、閾値B4として±8℃が設定されている。即ち、分離物の面積Sが牛の面積の0.05倍(牛の面積の5%)以上である場合には、分離物が羊水である可能性がある。また、牛の重心点の温度Gと分離物の最高温度Tmの差ΔTGの絶対値が8℃以下である場合、又は牛の最高温度Mと分離物の最高温度Tmの差ΔTMの絶対値が8℃以下である場合には、分離物が羊水である可能性がある。 Next, in step S46, the area ratio ΔS calculated in step S45 is compared with a predetermined threshold B 3 , and the temperature differences ΔTG, ΔTM calculated in step S44 are compared with a predetermined threshold B 4 , respectively. The presence or absence of water breakage is judged. These threshold values B 3 and B 4 are input in advance and stored in the memory of the subsystem board 18. In this embodiment, the threshold B 3 is set to 0.05 and the threshold B 4 is set to ±8°C. That is, when the area S of the separated product is 0.05 times the area of the cow (5% of the area of the cow) or more, the separated product may be amniotic fluid. Further, when the absolute value of the difference ΔTG between the temperature G of the center of gravity of the cow and the maximum temperature T m of the separated product is 8° C. or less, or the difference ΔTM between the maximum temperature M of the cow and the maximum temperature T m of the separated product is absolute. If the value is below 8°C, the isolate may be amniotic fluid.

ここで、尿などの牛の排泄物も分離物として検知される可能性があるが、上記のような閾値B3、B4を設定して判定を行うことにより、破水が誤検知される確率を低くしている。本実施形態においては、温度差ΔTG又はΔTMの絶対値が8℃以下であり、且つ分離物の面積Sが牛の面積の5%以上である場合には、分離物が羊水であると判断される。牛に破水があったと判断された場合にはステップS47に進み、牛に破水がなかったと判断された場合には図9に示すフローチャートの1回の処理を終了する。 Here, cow excrement such as urine may also be detected as a separated substance, but by making the determination by setting the threshold values B 3 and B 4 as described above, the probability that the water breakage is erroneously detected. Is low. In the present embodiment, when the absolute value of the temperature difference ΔTG or ΔTM is 8° C. or less and the area S of the separated product is 5% or more of the area of the cow, the separated product is determined to be amniotic fluid. It When it is determined that the cow has been ruptured, the process proceeds to step S47, and when it is determined that the cow has not been ruptured, one process of the flowchart shown in FIG. 9 is ended.

次いで、ステップS47においては、牛に破水があったと判断されているため、分離物の緊急異常フラグFの値を1に設定し、図9に示すフローチャートの1回の処理を終了する。 Next, in step S47, it is determined that the cattle have been ruptured, so the value of the emergency abnormality flag F of the separated product is set to 1, and one processing of the flowchart shown in FIG. 9 is ended.

なお、ステップS44〜45では分離物の温度および面積から牛に破水があったと判断する構成を例に説明したが、本発明はこれに限定されるものではなく、ステップS44、S45の何れかの判定を行う(つまり、分離物の温度のみ、又は面積のみの判定を行う)ことにより破水の有無を判断する構成を採用することもできる。 In addition, in step S44-45, although the structure which judges that the cow was broken by the temperature and area of the isolate|separated material was demonstrated as an example, this invention is not limited to this, either of step S44, S45. It is also possible to employ a configuration in which the presence or absence of water rupture is determined by making a determination (that is, making a determination only on the temperature of the separated substance or only the area).

更に、ステップS44〜45に加えて又はステップS44〜45に替えて、分離物の出現時間を算出することで破水の有無を判断する構成を採用してもよい。具体的な一例としては、ステップS43において分離物があると判断された場合、まず、分離物があると判断される直前までに取得されていた画像から、牛の面積の変化を算出する。次に、牛の面積の変化が始まった変化開始時刻と牛の面積の変化が終わった変化終了時刻(又は分離物があると判断された時刻)を抽出し、この変化開始時刻と変化終了時刻の間隔の長さを算出することで分離物の出現時間を算出する。そして、出現時間を所定の出現時間閾値と比較し、出現時間が出現時間閾値より短い場合に破水があったと判断する。 Furthermore, in addition to steps S44 to 45 or instead of steps S44 to 45, a configuration may be adopted in which the presence or absence of water breakage is determined by calculating the appearance time of the separated substance. As a specific example, when it is determined in step S43 that there is a separated substance, first, the change in the area of the cow is calculated from the images acquired immediately before the determination that there is a separated substance. Next, the change start time when the change of the cow area started and the change end time when the change of the cow area ended (or the time when it was judged that there was a separation) were extracted, and the change start time and the change end time were extracted. The appearance time of the separated substance is calculated by calculating the length of the interval. Then, the appearance time is compared with a predetermined appearance time threshold value, and when the appearance time is shorter than the appearance time threshold value, it is determined that there is water breakage.

ここで、破水に要する時間は排尿に要する時間に比べて短いことから、上述のように出現時間が出現時間閾値より短い場合にのみ破水があったと判断することで、分離物が羊水でなく尿である場合に誤って破水があったと判断してしまうことを効果的に抑制することが可能になる。出現時間閾値としては、例えば5秒などを挙げることができるが特にこれに限定されるものではなく、排尿に要する時間には個体差もあることから、通常時に排尿に要する時間を算出してその平均値を出現時間閾値として設定する構成を採用することもできる。これによれば、より高い精度で排尿と破水とを区別することが可能となる。 Here, since the time required for water rupture is shorter than the time required for urination, it is judged that there was water rupture only when the appearance time is shorter than the appearance time threshold value as described above, and the separated product is not amniotic fluid but urine. In this case, it is possible to effectively prevent erroneous determination that water has broken. The appearance time threshold value may be, for example, 5 seconds, but is not particularly limited to this. Since there are individual differences in the time required for urination, the time required for urination during normal operation is calculated. It is also possible to adopt a configuration in which the average value is set as the appearance time threshold value. According to this, it becomes possible to distinguish between urination and water rupture with higher accuracy.

次に、図10を参照して、異常の通知処理を説明する。
上述したように、図10に示すフローチャートは、図6乃至図9に示すフローチャートが1回ずつ実行された後で実行される。まず、図10のステップS51においては、図6乃至図9に示すフローチャートによって求められた異常値の個数C1、C2、緊急異常フラグFに基づいて、監視対象動物の状態、即ち、牛の分娩又は分娩の兆候を緊急レベルとして判定する。まず、図9のフローチャートにおいて、緊急異常フラグFの値が1に設定されている場合には、他の異常値の個数C1、C2の値に関わらず「緊急レベル4」が設定される。この「緊急レベル4」は、牛の分娩が始まっているか、最も差し迫っている状態を表している。
Next, the abnormality notification processing will be described with reference to FIG.
As described above, the flowchart shown in FIG. 10 is executed after the flowcharts shown in FIGS. 6 to 9 have been executed once. First, in step S51 of FIG. 10, based on the number of abnormal values C 1 and C 2 and the emergency abnormal flag F obtained by the flowcharts shown in FIGS. Determining labor or signs of labor as an emergency level. First, in the flowchart of FIG. 9, when the value of the emergency abnormality flag F is set to 1 , "emergency level 4" is set regardless of the values of the other abnormal value numbers C 1 and C 2. .. This "emergency level 4" represents that the calving has started or is most imminent.

また、異常値の個数C1、C2の値が何れも1以上であり、C1とC2の和が4以上である場合にも、「緊急レベル4」が設定される。さらに、C1とC2の和が3以上であり、「緊急レベル4」に該当しない場合には「緊急レベル3」が設定される。また、C1とC2の和が2である場合には「緊急レベル2」が設定され、C1とC2の和が1である場合には「緊急レベル1」が設定される。さらに、緊急異常フラグFの値が0で、C1とC2の和も0である場合には分娩の兆候がないため「異常なし」と判定され、図10に示すフローチャートによる1回の処理を終了する。 Also, when the values of the abnormal value numbers C 1 and C 2 are both 1 or more and the sum of C 1 and C 2 is 4 or more, the “emergency level 4” is set. Furthermore, when the sum of C 1 and C 2 is 3 or more and does not correspond to “emergency level 4”, “emergency level 3” is set. When the sum of C 1 and C 2 is 2, “urgent level 2” is set, and when the sum of C 1 and C 2 is 1, “urgent level 1” is set. Further, when the value of the emergency abnormality flag F is 0 and the sum of C 1 and C 2 is also 0, there is no sign of delivery, so it is determined that there is no abnormality, and one process according to the flowchart shown in FIG. To finish.

次に、ステップS52においては、「緊急レベル2」乃至「緊急レベル4」を判定する基礎となった遠赤外線画像と同一時刻に撮影された近赤外線カメラ12による近赤外線画像が、近赤外線カメラ12のUSB信号変換基板16cを介してサブシステム基板18に読み出される。 Next, in step S52, the near-infrared image captured by the near-infrared camera 12 at the same time as the far-infrared image that is the basis for determining "emergency level 2" to "emergency level 4" is the near-infrared camera 12 It is read out to the subsystem board 18 via the USB signal conversion board 16c.

次いで、ステップS53においては、ステップS51において判定された緊急レベル、及びステップS52において読み出された近赤外線画像が、通信基板18cを介してサーバ4に送信される。なお、判定された緊急レベルが「緊急レベル1」である場合には緊急性が低いため、近赤外線画像は送信せず、送信データの容量を削減している。緊急レベル等をサーバ4へ送信した後、図10に示すフローチャートによる1回の処理を終了する。 Next, in step S53, the emergency level determined in step S51 and the near-infrared image read in step S52 are transmitted to the server 4 via the communication board 18c. When the determined urgent level is "emergency level 1", the urgency is low, and therefore the near-infrared image is not transmitted, and the transmission data capacity is reduced. After transmitting the urgency level and the like to the server 4, the one-time process according to the flowchart shown in FIG. 10 ends.

サーバ4は、サブシステム基板18から送られた緊急レベル等を受信すると、サーバ4に予め登録されている使用者の携帯端末20に、サブシステム基板18から送信された緊急レベル等を送信する。従って、サーバ4は、動物状態判断部18bによって、牛に分娩又は分娩の兆候があると判断された場合に、使用者の携帯端末20に報知を行う報知部4aとして機能する。これにより、使用者は分娩の兆候があり、緊急レベルを報知された牛の様子を近赤外線画像で観察することができる。使用者は、サーバ4(報知部4a)から送信された緊急レベルや、報知の対象となった牛の近赤外線画像に基づいて、適切に対処することができる。 When the server 4 receives the emergency level or the like sent from the subsystem board 18, the server 4 sends the emergency level or the like sent from the subsystem board 18 to the mobile terminal 20 of the user registered in advance in the server 4. Therefore, the server 4 functions as a notification unit 4a that notifies the mobile terminal 20 of the user when the animal state determination unit 18b determines that the cow has calving or signs of calving. As a result, the user can observe the state of the cow, which is informed of the calving and whose emergency level is notified, by the near-infrared image. The user can take appropriate measures based on the emergency level transmitted from the server 4 (notification unit 4a) and the near-infrared image of the cow that is the subject of the notification.

本発明の実施形態の動物監視システム1によれば、動物から放射される遠赤外線の画像を遠赤外線カメラ10によって取得し、これに基づいて監視対象動物である牛の分娩の兆候を監視するので、昼夜を問わず、牛8に負担を掛けることなく状態を監視することができる。また、本実施形態の動物監視システム1によれば、監視対象解析部18aが牛8の特性を特定し、これに基づいて動物状態判断部18bが牛8の状態を判断する。このため、使用者は、牛8をモニタ等により常時監視することなく、牛8に分娩の兆候があることを認識することができる。 According to the animal monitoring system 1 of the embodiment of the present invention, a far-infrared image emitted from an animal is acquired by the far-infrared camera 10, and based on this, a sign of calving, which is a monitored animal, is monitored. It is possible to monitor the condition without burdening the cow 8 day or night. Further, according to the animal monitoring system 1 of the present embodiment, the monitoring target analysis unit 18a identifies the characteristic of the cow 8, and the animal state determination unit 18b determines the state of the cow 8 based on this. Therefore, the user can recognize that the cow 8 has a sign of calving without constantly monitoring the cow 8 with a monitor or the like.

また、本実施形態の動物監視システム1によれば、監視対象解析部18aが、複数の異なる日の同時刻に特定された特性を累積した値を平均して同時刻あたりの特性平均値を算出し、動物状態判断部が、同時刻あたりの特性平均値を状態基準値として、現在の監視対象動物の状態を判断する。このため、監視対象動物が通常の1日の行動パターンとは異なった行動をとったことを早期に検出することができ、監視対象動物である牛8が所定の状態にあることを正確に検出することができる。 Further, according to the animal monitoring system 1 of the present embodiment, the monitoring target analysis unit 18a averages the values obtained by accumulating the characteristics specified at the same time on a plurality of different days, and calculates the characteristic average value at the same time. Then, the animal state determination unit determines the current state of the monitored animal by using the characteristic average value at the same time as the state reference value. For this reason, it is possible to early detect that the monitored animal has behaved differently from the normal daily activity pattern, and it is possible to accurately detect that the cow 8, which is the monitored animal, is in a predetermined state. can do.

さらに、本実施形態の動物監視システム1によれば、監視対象解析部18aは、特定された特性を累積した値を平均して累積値の特性平均値を算出し、動物状態判断部は、累積値の特性平均値を状態基準値として、現在の監視対象動物の状態を判断する。このため、解析におけるノイズ等の影響を受けにくい、より正確な状態基準値を設定することができ、監視対象動物の状態を適確に判断することができる。 Further, according to the animal monitoring system 1 of the present embodiment, the monitoring target analysis unit 18a averages the values obtained by accumulating the identified characteristics to calculate the characteristic average value of the accumulated values, and the animal state determination unit calculates the accumulated values. The current state of the monitored animal is judged using the average value of the characteristic values as the state reference value. Therefore, a more accurate state reference value that is less likely to be affected by noise or the like in the analysis can be set, and the state of the monitored animal can be accurately determined.

また、本実施形態の動物監視システム1によれば、監視対象解析部18aは、所定期間内に特定された特性に基づいて特性平均値を算出するので、特性平均値を、季節の変化等に起因する長期的な特性の変化に追随させることができる。 Further, according to the animal monitoring system 1 of the present embodiment, the monitoring target analysis unit 18a calculates the characteristic average value based on the characteristics specified within the predetermined period, so that the characteristic average value is used for seasonal changes and the like. It is possible to follow a long-term change in characteristics due to the change.

さらに、本実施形態の動物監視システム1によれば、監視対象解析部18aは、一週間内に特定された特性を累積した値を平均して所定期間累積行動平均値を算出するので、特定された特性に混入したノイズの影響を抑制しつつ、特性平均値を特性の長期的な変化に追随させることができる。 Further, according to the animal monitoring system 1 of the present embodiment, the monitoring target analysis unit 18a averages the values obtained by accumulating the characteristics specified within one week, and calculates the cumulative action average value for the predetermined period. The characteristic average value can be made to follow a long-term change of the characteristic while suppressing the influence of noise mixed in the characteristic.

また、本実施形態の動物監視システム1によれば、動物状態判断部18bは、監視対象動物の状態として分娩又は分娩の兆候を判断するので、動物の分娩時における事故率を効果的に低下させることができる。 Further, according to the animal monitoring system 1 of the present embodiment, the animal state determination unit 18b determines delivery or a sign of delivery as the state of the monitored animal, and thus effectively reduces the accident rate during delivery of the animal. be able to.

さらに、本実施形態の動物監視システム1によれば、動物状態判断部18bは、監視対象解析部18aによって特定された監視対象動物の特性が、状態基準値よりも所定値以上上昇した場合に、当該監視対象動物の分娩が近いと判断する。このため、監視対象動物の分娩を適確に判定することができる。 Further, according to the animal monitoring system 1 of the present embodiment, the animal state determination unit 18b, when the characteristics of the monitoring target animal specified by the monitoring target analysis unit 18a is higher than the state reference value by a predetermined value or more, It is determined that the monitored animal is about to deliver. Therefore, the delivery of the monitored animal can be accurately determined.

一般に、分娩の近い監視対象動物は羊水を破水し、この羊水は監視対象動物の体温に近い熱源として、遠赤外線カメラに取得される。本実施形態の動物監視システム1によれば、監視対象解析部18aは、赤外線画像に基づき監視対象動物から分離した熱源を検知した場合、当該監視対象動物の状態として分娩が近いと判断する。このため、分娩の兆候として、監視対象動物の破水を検出することが可能になり、より正確に分娩の兆候を判断することができる。 In general, a monitored animal near delivery breaks amniotic fluid, and this amniotic fluid is acquired by a far infrared camera as a heat source close to the body temperature of the monitored animal. According to the animal monitoring system 1 of the present embodiment, when the heat source separated from the monitored animal is detected based on the infrared image, the monitored analysis unit 18a determines that the state of the monitored animal is close to delivery. Therefore, it is possible to detect the rupture of the monitored animal as a sign of labor, and it is possible to more accurately determine the sign of labor.

さらに、本実施形態の動物監視システム1によれば、監視対象解析部18aは、監視対象動物の温度と分離した熱源の温度とを比較して温度の差が所定の範囲内であると判断した場合に、当該監視対象動物の状態として分娩が近いと判断する。このため、監視対象動物の破水をより正確に判定することができる。 Further, according to the animal monitoring system 1 of the present embodiment, the monitoring target analysis unit 18a compares the temperature of the monitoring target animal with the temperature of the separated heat source and determines that the temperature difference is within a predetermined range. In this case, it is determined that the monitored animal is in the state of delivery soon. Therefore, it is possible to more accurately determine the water rupture of the monitored animal.

また、本実施形態の動物監視システム1によれば、監視対象解析部18aは、分離した熱源の面積が所定の面積以上であると判断した場合に、当該監視対象動物の状態として分娩が近いと判断する。このため、ノイズ等に起因する破水の誤検知を効果的に抑制することができる。 Further, according to the animal monitoring system 1 of the present embodiment, when the monitoring target analysis unit 18a determines that the area of the separated heat source is equal to or larger than the predetermined area, the monitoring target analysis unit 18a determines that the delivery of the monitored animal is close. to decide. Therefore, erroneous detection of water breakage due to noise or the like can be effectively suppressed.

また、本実施形態の動物監視システム1によれば、監視対象動物が所定の状態にあると判断されたことを、外部の携帯端末20に送信する報知部4aを備えている。このため、使用者が遠隔地に居る場合でも、監視対象動物が所定の状態にあることを認識することができ、適切な措置を講じることができる。 Further, according to the animal monitoring system 1 of the present embodiment, the notification unit 4a is provided that transmits to the external mobile terminal 20 that the monitored animal is determined to be in a predetermined state. Therefore, even when the user is in a remote place, it is possible to recognize that the monitored animal is in a predetermined state and take appropriate measures.

さらに、本実施形態の動物監視システム1によれば、遠赤外線カメラ10と略同一の領域を撮影する近赤外線カメラ12を備え、報知部4aは、近赤外線カメラ12によって撮影された画像を使用者の携帯端末20に送信する。このため、動物状態判断部18bにより監視対象動物が所定の状態にあると判断された場合等に、使用者は、所定の状態にある監視対象動物を近赤外線画像により観察することができる。これにより、使用者は、より正確に監視対象動物の状態を知ることができ、適切に対処することができる。 Further, according to the animal monitoring system 1 of the present embodiment, the near-infrared camera 12 that captures an area substantially the same as the far-infrared camera 10 is provided, and the notification unit 4a uses the image captured by the near-infrared camera 12 as the user. To the mobile terminal 20. Therefore, when the animal state determination unit 18b determines that the monitored animal is in the predetermined state, the user can observe the monitored animal in the predetermined state by the near-infrared image. As a result, the user can know the condition of the monitored animal more accurately and can take appropriate action.

以上、本発明の実施形態による動物監視システムを説明したが、上述した実施形態に種々の変更を加えることができる。特に、上述した実施形態においては、動物監視システムが牛房の中の牛の監視に利用されていたが、本発明の動物監視システムは、任意の動物の、様々な状態の監視に適用することができる。 Although the animal monitoring system according to the embodiment of the present invention has been described above, various modifications can be made to the above-described embodiment. In particular, in the above-described embodiment, the animal monitoring system was used to monitor the cows in the cattle, but the animal monitoring system of the present invention is applicable to monitoring various conditions of any animal. You can

さらに、上述した実施形態においては、遠赤外線画像の画像データに対して種々の処理が行われているが、各処理を実行する装置は適宜変更することができる。例えば、上述した実施形態において、遠赤外線画像処理装置14内で実行されている処理を、サーバ4又はサブシステム基板18で行うこともできる。また、上述した実施形態において、サブシステム基板18上で実行されている処理を、遠赤外線画像処理装置14又はサーバ4で実行することもできる。 Further, in the above-described embodiment, various processes are performed on the image data of the far infrared image, but the device that executes each process can be appropriately changed. For example, in the above-described embodiment, the processing executed in the far infrared image processing device 14 can be performed by the server 4 or the subsystem board 18. Further, in the above-described embodiment, the processing executed on the subsystem board 18 can be executed by the far infrared image processing device 14 or the server 4.

1 動物監視システム
2 カメラボックス
4 サーバ
4a 報知部
6 牛房
8 牛
8a 移動軌跡
8b 領域
10 遠赤外線カメラ
10a 遠赤外広角レンズ
10b 熱画像アレイ
10c ボロメータ基板
12 近赤外線カメラ
12a 広角レンズ
12b CMOSセンサ
12c 近赤外LED投光器
12d LED点等制御基板
14 遠赤外線画像処理装置(遠赤外線画像処理部)
14a USB信号変換基板(処理画像出力部)
16 信号処理基板
16a ISP画像処理基板
16b 通信・制御処理基板
16c USB信号変換基板
18 サブシステム基板
18a 監視対象解析部
18b 動物状態判断部
18c 通信基板
20 携帯端末
1 Animal Monitoring System 2 Camera Box 4 Server 4a Notification Section 6 Beef Stall 8 Cow 8a Movement Path 8b Area 10 Far-infrared Camera 10a Far-infrared Wide-angle Lens 10b Thermal Image Array 10c Bolometer Substrate 12 Near-infrared Camera 12a Wide-angle Lens 12b CMOS Sensor 12c Near infrared LED projector 12d LED point control board 14 Far infrared image processing device (far infrared image processing unit)
14a USB signal conversion board (processed image output unit)
16 signal processing board 16a ISP image processing board 16b communication/control processing board 16c USB signal conversion board 18 subsystem board 18a monitoring target analysis section 18b animal state determination section 18c communication board 20 mobile terminal

Claims (13)

動物から放射される遠赤外線を取得して動物を監視するシステムであって、
上記遠赤外線を取得して遠赤外線画像を取得する遠赤外線カメラと、
この遠赤外線カメラによって取得された上記遠赤外線画像に基づいて、監視対象となる監視対象動物の温度、移動距離、移動速度、及び加速度の少なくとも何れかを当該監視対象動物の特性として特定する監視対象解析部と、
この監視対象解析部によって特定された上記特性に基づいて上記監視対象動物の状態を判断する動物状態判断部と、を備え、
上記監視対象解析部は、上記特性を用いて上記監視対象動物の状態を判断するための状態基準値を算出し、
上記動物状態判断部は、上記監視対象解析部において特定された最新の特性と上記状態基準値とを比較することにより上記状態を判断する、
ことを特徴とする動物監視システム。
A system for monitoring animals by acquiring far infrared rays emitted from animals,
A far infrared camera that acquires the far infrared image by acquiring the far infrared image,
Based on the far-infrared image acquired by the far-infrared camera, a monitoring target that specifies at least one of the temperature, the moving distance, the moving speed, and the acceleration of the monitoring target animal as the monitoring target as the characteristic of the monitoring target animal. An analysis section,
An animal state determination unit that determines the state of the monitored animal based on the characteristics specified by the monitoring target analysis unit, and
The monitoring target analysis unit calculates a state reference value for determining the state of the monitoring target animal using the characteristics,
The animal state determination unit determines the state by comparing the latest characteristic specified in the monitoring target analysis unit and the state reference value,
An animal monitoring system characterized in that
上記監視対象解析部は、複数の異なる日の同時刻に特定された上記特性を累積した値を平均して同時刻あたりの特性平均値を算出し、
上記動物状態判断部は、上記同時刻あたりの特性平均値を上記状態基準値として、現在の上記監視対象動物の状態を判断する、請求項1に記載の動物監視システム。
The monitoring target analysis unit calculates a characteristic average value per same time by averaging the values obtained by accumulating the characteristics specified at the same time on a plurality of different days,
The animal monitoring system according to claim 1, wherein the animal status determination unit determines the current status of the monitored animal by using the characteristic average value for the same time as the status reference value.
上記監視対象解析部は、特定された上記特性を累積した値を平均して累積値の特性平均値を算出し、
上記動物状態判断部は、上記累積値の特性平均値を上記状態基準値として、現在の上記監視対象動物の状態を判断する、請求項1に記載の動物監視システム。
The monitoring target analysis unit calculates a characteristic average value of accumulated values by averaging values obtained by accumulating the specified characteristics,
The animal monitoring system according to claim 1, wherein the animal status determination unit determines the current status of the monitored animal using the characteristic average value of the cumulative values as the status reference value.
上記監視対象解析部は、所定期間内に特定された上記特性に基づいて上記特性平均値を算出する、請求項2又は3に記載の動物監視システム。 The animal monitoring system according to claim 2 or 3, wherein the monitoring target analysis unit calculates the characteristic average value based on the characteristics identified within a predetermined period. 上記監視対象解析部は、一週間内に特定された上記特性を累積した値を平均して所定期間累積行動平均値を算出する、請求項4に記載の動物監視システム。 The animal monitoring system according to claim 4, wherein the monitoring target analysis unit averages values obtained by accumulating the characteristics specified within one week to calculate a cumulative behavior average value for a predetermined period. 上記動物状態判断部は、上記監視対象動物の状態として分娩又は分娩の兆候を判断する、請求項1から5の何れか1項に記載の動物監視システム。 The animal monitoring system according to any one of claims 1 to 5, wherein the animal state determination unit determines delivery or a sign of delivery as the state of the monitored animal. 上記動物状態判断部は、上記監視対象解析部によって特定された上記監視対象動物の特性が、上記状態基準値よりも所定値以上上昇した場合に、当該監視対象動物の分娩が近いと判断する請求項6記載の動物監視システム。 The animal state determination unit determines that the delivery of the monitored animal is near when the characteristics of the monitored animal identified by the monitored analysis unit are higher than the state reference value by a predetermined value or more. Item 7. The animal monitoring system according to item 6. 上記監視対象解析部は、上記赤外線画像に基づき上記監視対象動物から分離した熱源を検知した場合、当該監視対象動物の状態として分娩が近いと判断する、請求項1から7の何れか1項に記載の動物監視システム。 8. The monitoring target analysis unit, when detecting a heat source separated from the monitoring target animal based on the infrared image, determines that the delivery of the monitored animal is close to delivery, any one of claims 1 to 7. The described animal surveillance system. 上記監視対象解析部は、上記監視対象動物の温度と上記分離した熱源の温度とを比較して温度の差が所定の範囲内であると判断した場合に、当該監視対象動物の状態として分娩が近いと判断する、請求項8に記載の動物監視システム。 If the monitoring target analysis unit compares the temperature of the monitored animal with the temperature of the separated heat source and determines that the difference in temperature is within a predetermined range, delivery is performed as the state of the monitored animal. The animal monitoring system according to claim 8, which is determined to be close. 上記監視対象解析部は、上記分離した熱源の面積が所定の面積以上であると判断した場合に、当該監視対象動物の状態として分娩が近いと判断する、請求項8又は9に記載の動物監視システム。 The animal monitoring according to claim 8 or 9, wherein the monitoring target analysis unit determines that the state of the monitored animal is close to delivery when it determines that the area of the separated heat source is equal to or larger than a predetermined area. system. 上記監視対象動物が所定の状態にあると判断されたことを、外部の携帯端末に送信する報知部を備える、請求項1から10の何れか1項に記載の動物監視システム。 The animal monitoring system according to any one of claims 1 to 10, further comprising: a notification unit that transmits a notification that the monitored animal is in a predetermined state to an external mobile terminal. 上記遠赤外線カメラと略同一の領域を撮影する近赤外線カメラ又は可視光カメラを備え、
上記報知部は、上記近赤外線カメラ又は上記可視光カメラによって撮影された画像を使用者の携帯端末に送信する、請求項11に記載の動物監視システム。
A near-infrared camera or a visible light camera that captures an area substantially the same as the far-infrared camera is provided,
The animal monitoring system according to claim 11, wherein the notification unit transmits an image captured by the near-infrared camera or the visible light camera to a mobile terminal of a user.
上記監視対象動物は、牛である、請求項1から12の何れか1項に記載の動物監視システム。 The animal monitoring system according to any one of claims 1 to 12, wherein the monitored animal is a cow.
JP2019004610A 2019-01-15 2019-01-15 Animal monitoring system Pending JP2020110116A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019004610A JP2020110116A (en) 2019-01-15 2019-01-15 Animal monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019004610A JP2020110116A (en) 2019-01-15 2019-01-15 Animal monitoring system

Publications (1)

Publication Number Publication Date
JP2020110116A true JP2020110116A (en) 2020-07-27

Family

ID=71665672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019004610A Pending JP2020110116A (en) 2019-01-15 2019-01-15 Animal monitoring system

Country Status (1)

Country Link
JP (1) JP2020110116A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022004035A1 (en) * 2020-06-30 2022-01-06
JP2022031005A (en) * 2020-08-07 2022-02-18 ライブストック・アグリテクノ株式会社 Determination device, determination method, and program
KR20230046797A (en) * 2021-09-30 2023-04-06 한국화학연구원 Method and Apparatus for Recognizing Animal State using Sound
JP2023524243A (en) * 2020-04-27 2023-06-09 アイティー テック カンパニー リミテッド Smart livestock management system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002153162A (en) * 2000-11-22 2002-05-28 Fuji Electric Co Ltd Birth sign detector
JP2005058056A (en) * 2003-08-08 2005-03-10 Mitsubishi Electric System & Service Co Ltd Daily cow-controlling system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002153162A (en) * 2000-11-22 2002-05-28 Fuji Electric Co Ltd Birth sign detector
JP2005058056A (en) * 2003-08-08 2005-03-10 Mitsubishi Electric System & Service Co Ltd Daily cow-controlling system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023524243A (en) * 2020-04-27 2023-06-09 アイティー テック カンパニー リミテッド Smart livestock management system and method
JP7460798B2 (en) 2020-04-27 2024-04-02 アイティー テック カンパニー リミテッド Smart livestock management system and method
JPWO2022004035A1 (en) * 2020-06-30 2022-01-06
WO2022004035A1 (en) * 2020-06-30 2022-01-06 三菱電機株式会社 Livestock management system, learning device and inference device, and biometric monitoring system
JP7455209B2 (en) 2020-06-30 2024-03-25 三菱電機株式会社 Livestock management systems, learning devices and reasoning devices
JP2022031005A (en) * 2020-08-07 2022-02-18 ライブストック・アグリテクノ株式会社 Determination device, determination method, and program
JP7156616B2 (en) 2020-08-07 2022-10-19 ライブストック・アグリテクノ株式会社 Determination device, determination method, and program
KR20230046797A (en) * 2021-09-30 2023-04-06 한국화학연구원 Method and Apparatus for Recognizing Animal State using Sound
KR102648259B1 (en) 2021-09-30 2024-03-14 한국화학연구원 Method and Apparatus for Recognizing Animal State using Sound

Similar Documents

Publication Publication Date Title
JP2020110116A (en) Animal monitoring system
JP7460798B2 (en) Smart livestock management system and method
JP2016178636A (en) Weak light trail camera
JP2017112857A (en) Animal husbandry management system
US20050111696A1 (en) Imaging surveillance system and method for event detection in low illumination
JP2019024482A (en) Information processing system, information processing device, and program
KR102230552B1 (en) Device For Computing Position of Detected Object Using Motion Detect and Radar Sensor
JP2021012744A (en) Monitored person monitoring system, monitored person monitoring device and monitored person monitoring method
CN111601501B (en) Chicken raising system, chicken raising method, and recording medium
WO2020158307A1 (en) Livestock house monitoring method and livestock house monitoring system
US20200315141A1 (en) Information processing apparatus and information processing method
KR102527322B1 (en) Method and device for managing livestock through object recognition based on deep learning
JP7387170B2 (en) Estrus detection device, estrus detection method, estrus detection program, and recording medium
JP2005058056A (en) Daily cow-controlling system
JP6644311B2 (en) Livestock condition monitoring device, information processing device, livestock condition monitoring method, and livestock condition monitoring program
JP6189284B2 (en) Image sensing device
US11917308B2 (en) Imaging device, image recording device, and imaging method for capturing a predetermined event
KR101568979B1 (en) Cattle monitoring system and method using depth information
González et al. Real-time monitoring of poultry activity in breeding farms
CN108366210B (en) Unmanned aerial vehicle and unmanned aerial vehicle control method
KR20100051148A (en) Warning system of accidental situation in monitoring area
CN116959189A (en) Pet behavior correction method and pet behavior correction system based on camera device
TWI614698B (en) Detection system for estrus of quadruped
KR20180111297A (en) Apparatus for monitoring health of livestock
JPWO2017022435A1 (en) Image recognition system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220912

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230327