JP2021121176A - 分娩タイミング報知システム及び分娩タイミング報知方法 - Google Patents

分娩タイミング報知システム及び分娩タイミング報知方法 Download PDF

Info

Publication number
JP2021121176A
JP2021121176A JP2020014673A JP2020014673A JP2021121176A JP 2021121176 A JP2021121176 A JP 2021121176A JP 2020014673 A JP2020014673 A JP 2020014673A JP 2020014673 A JP2020014673 A JP 2020014673A JP 2021121176 A JP2021121176 A JP 2021121176A
Authority
JP
Japan
Prior art keywords
delivery timing
parameters
unit
delivery
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020014673A
Other languages
English (en)
Other versions
JP7406752B2 (ja
Inventor
康孝 面家
Yasutaka Omoya
康孝 面家
敦也 平野
Atsuya Hirano
敦也 平野
智之 石井
Tomoyuki Ishii
智之 石井
耕次 北
Koji Kita
耕次 北
久 鍋西
Hisashi Nabenishi
久 鍋西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kitasato Institute
Noritsu Precision Co Ltd
Original Assignee
Kitasato Institute
Noritsu Precision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kitasato Institute, Noritsu Precision Co Ltd filed Critical Kitasato Institute
Priority to JP2020014673A priority Critical patent/JP7406752B2/ja
Publication of JP2021121176A publication Critical patent/JP2021121176A/ja
Application granted granted Critical
Publication of JP7406752B2 publication Critical patent/JP7406752B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】より正確な分娩兆候をユーザに報知可能な分娩タイミング報知システム及び分娩タイミング報知方法を提供する。【解決手段】分娩タイミング報知システム10は、撮影部と、算出部と、生成部と、報知部とを備える。撮影部は、家畜に関する画像データを生成するように構成されている。算出部は、各々が家畜400の分娩タイミングと相関を有する複数のパラメータを画像データに基づいて算出するように構成されている。生成部は、複数のパラメータと分娩タイミングとを教師データに用いた機械学習を通じて構築された学習済みモデルに、複数のパラメータを入力することによって、分娩タイミングに関連する情報を生成するように構成されている。報知部は、分娩タイミングに関連する情報に基づいて、ユーザに報知するように構成されている。【選択図】図1

Description

本発明は、分娩タイミング報知システム及び分娩タイミング報知方法に関する。
WO2017/158698(特許文献1)は、監視装置を開示する。この監視装置は、牛舎内に設置され、牛を監視する。この監視装置においては、牛舎内における牛の移動量が算出され、該移動量に応じて牛の分娩兆候がユーザに通知される(特許文献1参照)。
WO2017/158698
上記特許文献1に開示されている監視装置においては、牛(家畜の一例)の分娩兆候の判定に牛舎内における牛の移動量が用いられている。しかしながら、牛の移動量は個体差が大きく、移動量のみに基づいて分娩兆候を正確に判定することは難しい。牛の分娩兆候と相関を有するパラメータとしては、移動量の他にも複数のパラメータが知られているが、それぞれがメリット及びデメリットを有する。
本発明は、このような問題を解決するためになされたものであって、その目的は、より正確な分娩兆候をユーザに報知可能な分娩タイミング報知システム及び分娩タイミング報知方法を提供することである。
本発明のある局面に従う分娩タイミング報知システムは、撮影部と、算出部と、生成部と、報知部とを備える。撮影部は、家畜に関する画像データを生成するように構成されている。算出部は、各々が家畜の分娩タイミングと相関を有する複数のパラメータを画像データに基づいて算出するように構成されている。生成部は、複数のパラメータと分娩タイミングとを教師データに用いた機械学習を通じて構築された学習済みモデルに、複数のパラメータを入力することによって、分娩タイミングに関連する情報を生成するように構成されている。報知部は、分娩タイミングに関連する情報に基づいて、ユーザに報知するように構成されている。
この分娩タイミング報知システムにおいては、複数のパラメータと分娩タイミングとを教師データに用いた機械学習を通じて構築された学習済みモデルに、複数のパラメータを入力することによって、分娩タイミングに関連する情報が生成される。したがって、この分娩タイミング報知システムによれば、学習済みモデルが複数のパラメータを考慮してより正確な分娩タイミングに関連する情報を生成するため、より正確な分娩兆候をユーザに報知することができる。
上記分娩タイミング報知システムにおいて、画像データは、サーモグラフィー画像のデータであってもよい。
この分娩タイミング報知システムによれば、画像データがサーモグラフィー画像のデータであるため、周囲の明るさに拘わらず、画像データに基づいて複数のパラメータを算出することができる。
上記分娩タイミング報知システムにおいて、複数のパラメータは、第1所定時間内における家畜の起居動作の回数を含んでもよい。
上記分娩タイミング報知システムにおいて、複数のパラメータは、家畜の起居動作の回数の推移を示す情報を含んでもよい。
上記分娩タイミング報知システムにおいて、複数のパラメータは、第2所定時間内における家畜の移動量をさらに含み、第1所定時間は、第2所定時間よりも長くてもよい。
家畜(たとえば、牛)が起居動作を行なう頻度は、家畜が移動する頻度よりも低い。したがって、第1所定時間を第2所定時間と同じように短い時間とすると、第1所定時間内における起居動作がほとんど発生しないという事態が生じ得る。この分娩タイミング報知システムにおいては、第1所定時間が第2所定時間よりも長い。したがって、この分娩タイミング報知システムによれば、パラメータの種類毎に適切な時間間隔が設定された上で各パラメータのカウントが行なわれるため、各パラメータについて、学習済みモデルに入力するパラメータとして適切な値を算出することができる。
本発明の他の局面に従う分娩タイミング報知方法は、家畜に関する画像データを生成するステップと、各々が家畜の分娩タイミングと相関を有する複数のパラメータを画像データに基づいて算出するステップと、複数のパラメータと分娩タイミングとを教師データに用いた機械学習を通じて構築された学習済みモデルに、複数のパラメータを入力することによって、分娩タイミングに関連する情報を生成するステップと、分娩タイミングに関連する情報に基づいて、ユーザに報知するステップとを含む。
この分娩タイミング報知方法においては、複数のパラメータと分娩タイミングとを教師データに用いた機械学習を通じて構築された学習済みモデルに、複数のパラメータを入力することによって、分娩タイミングに関連する情報が生成される。したがって、この分娩タイミング報知方法によれば、学習済みモデルが複数のパラメータを考慮してより正確な分娩タイミングに関連する情報を生成するため、より正確な分娩兆候をユーザに報知することができる。
本発明によれば、より正確な分娩兆候をユーザに報知可能な分娩タイミング報知システム及び分娩タイミング報知方法を提供することができる。
分娩タイミング報知システムの構成を示す図である。 カメラユニットのハードウェア構成の一例を示す図である。 クラウドサーバのハードウェア構成の一例を示す図である。 分娩タイミング報知システムにおいて実現されているソフトウェアモジュールの構成を示す図である。 パラメータDBについて説明するための図である。 姿勢判定用の学習済みモデルを生成する場合に用いられる教師データの一例を示す図である。 分娩タイミング推定用の学習済みモデルを生成する場合に用いられる教師データの一例を示す図である。 特定区間について説明するための図である。 分娩タイミングの報知に関し、カメラユニットにおいて実行される手順を示すフローチャートである。 行動量算出処理の手順を示すフローチャートである。 起居動作回数算出処理の手順を示すフローチャートである。 体温算出処理の手順を示すフローチャートである。 分娩タイミングの報知に関し、クラウドサーバにおいて実行される手順を示すフローチャートである。
以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一又は相当部分には同一符号を付してその説明は繰り返さない。
[1.概要]
牛(家畜の一例)の分娩時に人が立ち会うことによって、牛の分娩事故の発生確率が大幅に低下することが知られている。牛の分娩タイミングの予測精度が向上すると、分娩の監視に要している労力が軽減される。本実施の形態に従う分娩タイミング報知システム10においては、牛の分娩タイミングの予測精度が従来よりも向上している。
図1は、分娩タイミング報知システム10の構成を示す図である。図1に示されるように、分娩タイミング報知システム10は、カメラユニット100と、クラウドサーバ200と、ユーザ500とを含んでいる。
カメラユニット100は、牛400を収容する分娩室300内に設置される。カメラユニット100は、牛400の分娩タイミングまでの時間が所定時間以下となった可能性が高まった場合に、クラウドサーバ200にその旨を通知する。クラウドサーバ200は、カメラユニット100からの通知を受けて、分娩タイミングが近い旨を示すメールをユーザ500に送信する。これにより、ユーザ500は、牛400の分娩タイミングが近いことを認識することができる。以下、分娩タイミング報知システム10の構成等について順に説明する。
[2.構成]
<2−1.ハードウェア構成>
図2は、カメラユニット100のハードウェア構成の一例を示す図である。図2に示されるように、カメラユニット100は、サーモグラフィーカメラ130と、温度センサ140と、制御部170と、記憶部180と、通信モジュール190とを含んでいる。カメラユニット100に含まれる各構成要素は、バスを介して電気的に接続されている。
サーモグラフィーカメラ130は、牛に関する画像データを生成するように構成されている。より詳細には、サーモグラフィーカメラ130は、撮影範囲における温度分布を示す画像データを生成する。サーモグラフィーカメラ130は、たとえば、サーモグラフィー画像を連続的に生成することによって、撮影範囲における温度分布を示す動画像データを生成する。サーモグラフィーカメラ130は、たとえば、赤外線センサを含んでいる。
温度センサ140は、たとえば、分娩室300内の温度を検出するように構成されている。
制御部170は、CPU(Central Processing Unit)172、RAM(Random Access Memory)174及びROM(Read Only Memory)176等を含み、情報処理に応じて各構成要素の制御を行なうように構成されている。
記憶部180は、たとえば、フラッシュメモリ等のメモリである。記憶部180は、たとえば、制御プログラム181を記憶するように構成されている。制御プログラム181は、制御部170によって実行されるカメラユニット100の制御プログラムである。制御部170が制御プログラム181を実行する場合に、制御プログラム181は、RAM174に展開される。そして、制御部170は、RAM174に展開された制御プログラム181をCPU172によって解釈及び実行することにより、各構成要素を制御する。
通信モジュール190は、外部機器と通信するように構成されている。通信モジュール190は、たとえば、無線LANモジュール、有線LANモジュール、LTE(Long Term Evolution)モジュール等で構成される。
図3は、クラウドサーバ200のハードウェア構成の一例を示す図である。図3に示されるように、クラウドサーバ200は、入力部230と、出力部240と、制御部270と、記憶部280と、通信モジュール290とを含んでいる。クラウドサーバ200に含まれる各構成要素は、バスを介して電気的に接続されている。
入力部230及び出力部240は、それぞれクラウドサーバ200の入力装置及び出力装置である。入力部230は、たとえば、キーボード及びマウスで構成されており、出力部240は、たとえば、ディスプレイで構成されている。
制御部270は、CPU272、RAM274及びROM276等を含み、情報処理に応じて各構成要素の制御を行なうように構成されている。
記憶部280は、たとえば、フラッシュメモリ等のメモリである。記憶部280は、たとえば、制御プログラム281を記憶するように構成されている。制御プログラム281は、制御部270によって実行されるクラウドサーバ200の制御プログラムである。制御部270が制御プログラム281を実行する場合に、制御プログラム281は、RAM274に展開される。そして、制御部270は、RAM274に展開された制御プログラム281をCPU272によって解釈及び実行することにより、各構成要素を制御する。
通信モジュール290は、外部機器と通信するように構成されている。通信モジュール290は、たとえば、無線LANモジュール、有線LANモジュール、LTEモジュール等で構成される。
<2−2.ソフトウェア構成>
図4は、分娩タイミング報知システム10において実現されているソフトウェアモジュールの構成を示す図である。図4に示されるように、カメラユニット100においては、画像取得部110と、学習済みモデル112と、環境温度測定部114と、算出部120と、学習済みモデル142と、生成部144と、通信部146とがソフトウェア的に実現されている。
画像取得部110は、サーモグラフィーカメラ130によって生成された画像データを取得するように構成されている。
学習済みモデル112は、画像取得部110によって取得されたサーモグラフィー画像データを入力データとして、サーモグラフィー画像に含まれている牛の姿勢が立位又は座位のいずれであるかを判定するように構成されている。学習済みモデル112は、たとえば、後述の教師データを用いた学習(機械学習)を行なうことによって生成される。なお、機械学習としては、ニューラルネットワーク、決定木学習、相関ルール学習及びベイジアンネットワーク等の公知の種々の方法を適用することができる。
環境温度測定部114は、温度センサ140によって検出された温度データを取得するように構成されている。
算出部120は、画像取得部110によって取得された画像データに基づいて、各種パラメータを算出するように構成されている。詳細については後述するが、算出部120によって算出される各種パラメータは、牛400(図1)の分娩タイミングの予測に用いられる。
算出部120は、行動量算出処理部122と、起居動作回数算出処理部124と、体温算出処理部126とを含んでいる。行動量算出処理部122は、画像取得部110によって取得された画像データに基づいて、牛400の行動量(移動量)を算出するように構成されている。起居動作回数算出処理部124は、
画像取得部110によって取得された画像データを学習済みモデル112に入力し、学習済みモデル112から得られた牛400の姿勢情報(立位又は座位)に基づいて牛400の起居動作回数を算出するように構成されている。体温算出処理部126は、画像取得部110によって取得された画像データ及び環境温度取得部114によって取得された温度データに基づいて牛400の体温を算出するように構成されている。画像取得部110によって取得される画像データがサーモグラフィー画像データであるため、分娩室300内の明るさに拘わらず、各パラメータが適切に算出される。
パラメータDB135は、算出部120によって算出されたデータを蓄積するように構成されたデータベース(DB)である。すなわち、制御部170は、パラメータDB135を参照することによって、牛400に関して、行動量、起居動作回数及び体温の各々の推移を認識することができる。なお、パラメータDB135は、記憶部180に記憶されている。
図5は、パラメータDB135について説明するための図である。図5に示されるように、パラメータDB135は、行動量テーブル136と、起居動作回数テーブル137と、体温テーブル138とを管理する。行動量テーブル136においては、行動量算出処理部122によって算出された行動量データが時刻と対応付けて管理される。起居動作回数テーブル137においては、起居動作回数算出処理部124によって算出された起居動作回数データが時刻と対応付けて管理される。体温テーブル138においては、体温算出処理部126によって算出された体温データが時刻と対応付けて管理される。
再び図4を参照して、学習済みモデル142は、行動量、起居動作回数及び体温の各々の推移を入力データとして、牛の分娩のタイミングを推定するように構成されている。学習済みモデル142は、たとえば、後述の教師データを用いた学習(機械学習)を行なうことによって生成される。なお、機械学習としては、ニューラルネットワーク、決定木学習、相関ルール学習及びベイジアンネットワーク等の公知の種々の方法を適用することができる。
生成部144は、学習済みモデル142に複数のパラメータ(行動量データ、起居動作回数データ及び体温データ)を入力することによって、分娩タイミングに関連する情報を生成するように構成されている。生成部144は、学習済みモデル142に複数のパラメータを入力することによって、たとえば、所定時間後に分娩タイミングが到来する確率を示す情報を生成する。
通信部146は、報知条件に合致した場合に、クラウドサーバ200に通知を行なうように構成されている。たとえば、通信部146は、所定時間後に分娩タイミングが到来する確率が所定パーセント以上である場合に、クラウドサーバ200に通知を行なう。たとえば、通信部146は、分娩タイミングまでの時間が24時間である確率が所定確率以上となった場合と、分娩タイミングまでの時間が2時間である確率が所定確率以上となった場合とにクラウドサーバ200に通知を行なう。
クラウドサーバ200においては、通信部210と、メール生成部220とがソフトウェア的に実現されている。
通信部210は、通信部146からの通知を受けるように構成されている。通信部210は、通知内容に応じたメールをメール生成部220に生成させ、生成されたメールをユーザ500の通信端末に送信する。すなわち、通信部210は、「報知部」として機能する。
メール生成部220は、カメラユニット100からの通知内容に応じたメールを生成するように構成されている。メール生成部220は、たとえば、分娩タイミングまでの時間が24時間である確率が所定確率以上である旨等を示すメールを生成する。
[3.学習済みモデル]
<3−1.姿勢判定用の学習済みモデル>
上述のように、学習済みモデル112は、サーモグラフィー画像に含まれている牛400の姿勢(立位又は座位)を判定するように構成されている。学習済みモデル112は、たとえば、以下の教師データを用いた機械学習を行なうことによって生成される。
図6は、姿勢判定用の学習済みモデル112を生成する場合に用いられる教師データの一例を示す図である。図6に示されるように、教師データ600には、立位状態の牛400が含まれている複数(多数)のサーモグラフィー画像610と、座位状態の牛400が含まれている複数(多数)のサーモグラフィー画像620とが含まれている。サーモグラフィー画像610には「立位」である旨を示すラベルが対応付けられており、サーモグラフィー画像620には「座位」である旨を示すラベルが対応付けられている。
このような教師データを用いた機械学習を行なうことによって、学習済みモデル112は生成されている。なお、上述のように、機械学習としては、ニューラルネットワーク、決定木学習、相関ルール学習及びベイジアンネットワーク等の公知の種々の方法を適用することができる。
<3−2.分娩タイミング推定用の学習済みモデル>
上述のように、学習済みモデル142は、牛400の分娩タイミングを推定するように構成されている。学習済みモデル142は、たとえば、以下の教師データを用いた機械学習を行なうことによって生成される。なお、牛400の分娩タイミングは、行動量、起居動作回数及び体温の各々と相関を有する。
図7は、分娩タイミング推定用の学習済みモデル142を生成する場合に用いられる教師データの一例を示す図である。教師データ700は、一度の分娩を通じて得られるデータである。学習済みモデル142の生成には、複数(多数)の分娩を通じて得られたデータが教師データとして使用される。
図7に示されるように、教師データ700は、特定区間データ710,720,730等の24個の特定区間データを含んでいる。
図8は、特定区間について説明するための図である。図8に示されるように、横軸は時間を示す。この例では、時刻txが実際の分娩タイミングであった。たとえば、分娩タイミングの48時間前(時刻tx−48h)から24時間前(時刻tx−24h)までの区間が特定区間I1であり、分娩タイミングの47時間前(時刻tx−47h)から23時間前(時刻tx−23h)までの区間が特定区間I2であり、分娩タイミングの46時間前(時刻tx−46h)から22時間前(時刻tx−22h)までの区間が特定区間I3である。また、分娩タイミングの26時間前(時刻tx−26h)から2時間前(時刻tx−2h)までの区間が特定区間I23であり、分娩タイミングの25時間前(時刻tx−25h)から1時間前(時刻tx−1h)までの区間が特定区間I24である。すなわち、各特定区間の時間的な長さは、たとえば、1時間である。
再び図7を参照して、各特定区間データは、行動量データ712と、起居動作回数データ714と、体温データ716とを含んでいる。この例では、行動量が10分間隔で算出され、起居動作回数が1時間間隔で算出され、体温が1分間隔で算出されている。たとえば、特定区間データ710は、特定区間I1におけるデータである。特定区間データ710には、「分娩の24時間前」である旨を示すラベルが対応付けられている。特定区間データ710には、144個の行動量データと、24個の起居動作回数データと、1440個の体温データとが含まれている。
このように、分娩タイミング報知システム10においては、起居動作回数が算出される間隔(1時間)が、行動量が算出される間隔(10分)よりも長い。この理由について次に説明する。牛が起居動作を行なう頻度は、牛が移動する頻度よりも低い。したがって、起居動作を算出する時間間隔と行動量を算出する時間間隔とを同じように短くすると、該時間間隔において起居動作がほとんど発生しないという事態が生じ得る。分娩タイミング報知システム10においては、起居動作回数が算出される間隔が、行動量が算出される間隔よりも長い。したがって、分娩タイミング報知システム10によれば、パラメータの種類毎に適切な時間間隔が設定された上で各パラメータのカウントが行なわれるため、各パラメータについて、学習済みモデル142に入力するパラメータとして適切な値を算出することができる。
このような教師データを用いた機械学習を行なうことによって、学習済みモデル142は生成されている。なお、上述のように、機械学習としては、ニューラルネットワーク、決定木学習、相関ルール学習及びベイジアンネットワーク等の公知の種々の方法を適用することができる。
[4.動作]
図9は、分娩タイミングの報知に関し、カメラユニット100において実行される手順を示すフローチャートである。このフローチャートに示される処理は、カメラユニット100の制御部170によって実行される。
図9を参照して、カメラユニット100の電源がONされる等すると、制御部170は、行動量算出処理(ステップS100)、起居動作回数算出処理(ステップS110)及び体温算出処理(ステップS120)の実行を開始する。
図10は、行動量算出処理の手順を示すフローチャートである。このフローチャートに示される処理は、たとえば、1秒サイクルで実行される。
図10を参照して、制御部170は、サーモグラフィー画像を取得する(ステップS200)。制御部170は、サーモグラフィー画像に含まれる牛領域を検出する(ステップS210)。制御部170は、サーモグラフィー画像に牛領域が含まれているか否かを判定する(ステップS220)。牛領域の判定には、公知の技術が用いられる。
牛領域が含まれていると判定されると(ステップS220においてYES)、制御部170は、牛領域の重心を算出する(ステップS230)。牛領域の重心の算出には、公知の技術が用いられる。一方、牛領域が含まれていないと判定されると(ステップS220においてNO)、制御部170は、牛領域の重心として前回値を設定する(ステップS240)。
制御部170は、重心に関し、前回値からの変化量を算出する(ステップS250)。制御部170は、牛400の行動量に変化量を加算する(ステップS260)。制御部170は、(前回所定時間T2が経過してから)所定時間T2が経過したか否かを判定する(ステップS270)。所定時間T2は、たとえば図5の例では10分である。
所定時間T2が経過していないと判定されると(ステップS270においてNO)、処理はステップS200に戻る。一方、所定時間T2が経過したと判定されると(ステップS270においてYES)、制御部170は、算出された行動量を時刻と対応付けてパラメータDB135に記憶する(ステップS280)。その後、制御部170は、行動量の値を初期値(0)にリセットする(ステップS290)。
図11は、起居動作回数算出処理の手順を示すフローチャートである。このフローチャートに示される処理は、たとえば、1秒サイクルで実行される。
図11を参照して、制御部170は、サーモグラフィー画像を取得する(ステップS300)。制御部170は、サーモグラフィー画像に含まれる牛領域を検出する(ステップS310)。制御部170は、サーモグラフィー画像に牛領域が含まれているか否かを判定する(ステップS320)。牛領域の判定には、公知の技術が用いられる。
牛領域が含まれていると判定されると(ステップS320においてYES)、制御部170は、牛400の姿勢を判定する(ステップS330)。牛400の姿勢判定には、学習済みモデル112が用いられる。一方、牛領域が含まれていないと判定されると(ステップS320においてNO)、制御部170は、牛400の姿勢として前回値を設定する(ステップS340)。
制御部170は、牛400の姿勢に関し、前回値からの変化を検出する(ステップS350)。前回値からの変化が検出されると(ステップS350においてYES)、制御部170は、起居動作回数をカウントアップする(ステップS360)。一方、前回値からの変化が検出されないと(ステップS350においてNO)、処理はステップS370に進む。
その後、制御部170は、(前回所定時間T3が経過してから)所定時間T3が経過したか否かを判定する(ステップS370)。所定時間T3は、たとえば図5の例では1時間である。
所定時間T3が経過していないと判定されると(ステップS370においてNO)、処理はステップS300に戻る。一方、所定時間T3が経過したと判定されると(ステップS370においてYES)、制御部170は、算出された起居動作回数を時刻と対応付けてパラメータDB135に記憶する(ステップS380)。その後、制御部170は、起居動作回数の値を初期値(0)にリセットする(ステップS390)。
図12は、体温算出処理の手順を示すフローチャートである。このフローチャートに示される処理は、たとえば、1分サイクルで実行される。
図12を参照して、制御部170は、サーモグラフィー画像を取得する(ステップS400)。制御部170は、サーモグラフィー画像に含まれる牛領域を検出する(ステップS410)。制御部170は、サーモグラフィー画像に牛領域が含まれているか否かを判定する(ステップS420)。牛領域の判定には、公知の技術が用いられる。
牛領域が含まれていると判定されると(ステップS420においてYES)、制御部170は、環境温度データを取得する(ステップS430)。制御部170は、サーモグラフィー画像から認識される牛400の体温を環境温度データに基づいて補正する(ステップS440)。たとえば、制御部170は、環境温度が牛400の体温よりも所定温度以上高い場合には、牛400の体温を下げる方向の補正を行ない、環境温度が牛400の体温よりも所定温度以上低い場合には、牛400の体温を上げる方向の補正を行なう。一方、牛領域が含まれていないと判定されると(ステップS420においてNO)、制御部170は、牛400の体温として前回値を設定する(ステップS450)。
制御部170は、算出された体温を時刻と対応付けてパラメータDB135に記憶する(ステップS460)。その後、制御部170は、牛400の体温の値を初期値(0)にリセットする(ステップS470)。
再び図9を参照して、行動量算出処理、起居動作回数算出処理及び体温算出処理が開始されると、制御部170は、(前回所定時間T1が経過してから)所定時間T1が経過したか否かを判定する(ステップS130)。所定時間T1は、たとえば、1時間である。所定時間T1が経過していないと判定されると(ステップS130においてNO)、再びステップS130が実行される。
一方、所定時間T1が経過したと判定されると(ステップS130においてYES)、制御部170は、学習済みモデル142に各パラメータ(行動量データ、起居動作回数データ及び体温データ)を入力する(ステップS140)。たとえば、制御部170は、現時点から24時間遡った時点から現時点までのデータであって、パラメータDB135に含まれているデータを学習済みモデル142に入力する。これにより、学習済みモデル142による判定結果が出力される(たとえば、「24時間以内に分娩タイミングが生じる確率がX%以上」、「2時間以内に分娩タイミングが生じる確率がY%以上」等)。
制御部170は、学習済みモデル142による判定結果が報知条件に合致するか否かを判定する(ステップS150)。報知条件の一例は、「24時間以内に分娩タイミングが生じる確率が所定確率以上」、「2時間以内に分娩タイミングが生じる確率が所定確率以上」等である。
報知条件を満たさないと判定されると(ステップS150においてNO)、処理はステップS170に進む。一方、報知条件を満たすと判定されると(ステップS150においてYES)、制御部170は、報知条件が満たされた旨をクラウドサーバ200に通知する(ステップS160)。その後、制御部170は、カメラユニット100の電源がOFFされた等の終了条件が満たされているか否かを判定する(ステップS170)。終了条件が満たされていないと判定されると(ステップS170においてNO)、処理はステップS130に進む。一方、終了条件が満たされていると判定されると(ステップS170においてYES)、処理は終了する。
図13は、分娩タイミングの報知に関し、クラウドサーバ200において実行される手順を示すフローチャートである。このフローチャートに示される処理は、クラウドサーバ200の制御部270によって実行される。
図13を参照して、制御部270は、カメラユニット100から通知を受けたか否かを判定する(ステップS500)。カメラユニット100から通知を受けていないと判定されると(ステップS500においてNO)、処理はリターンに移行する。一方、カメラユニット100から通知を受けたと判定されると(ステップS500においてYES)、制御部270は、カメラユニット100からの通知内容が反映されたメールを生成する(ステップS510)。制御部270は、生成されたメールを送信するように通信モジュール290を制御する(ステップS520)。
[5.特徴]
以上のように、本実施の形態に従う分娩タイミング報知システム10においては、複数のパラメータと分娩タイミングとを教師データに用いた機械学習を通じて構築された学習済みモデル142に、複数のパラメータを入力することによって、分娩タイミングに関連する情報が生成される。したがって、分娩タイミング報知システム10によれば、学習済みモデル142が複数のパラメータを考慮してより正確な分娩タイミングに関連する情報を生成するため、より正確な分娩兆候をユーザに報知することができる。
[6.変形例]
以上、実施の形態について説明したが、本発明は、上記実施の形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。以下、変形例について説明する。
上記実施の形態においては、学習済みモデル112,142がカメラユニット100に実装された。しかしながら、学習済みモデル112,142の少なくとも一方はクラウドサーバ200又は他のサーバに実装されてもよい。また、上記実施の形態におけるクラウドサーバ200の機能は、カメラユニット100において実現されてもよい。
また、上記実施の形態における所定時間T1,T2,T3等の各時間は、あくまでも一例であって、どのような時間であってもよい。
また、上記実施の形態においては、サーモグラフィー画像に基づいて各パラメータが生成されたが、各パラメータは必ずしもサーモグラフィー画像に基づいて生成される必要はない。各パラメータは、たとえば、通常の動画像データに基づいて生成されてもよい。
また、上記実施の形態においては、分娩タイミングと相関を有するパラメータとして、3つのパラメータ(行動量、起居動作回数、体温)が用いられた。しかしながら、学習済みモデル142の生成時に用いられるパラメータ、及び、学習済みモデル142に入力されるパラメータの数は、3つに限定されない。たとえば、学習済みモデル142の生成時に用いられるパラメータ、及び、学習済みモデル142に入力されるパラメータの数は、2つであってもよいし、4つ以上であってもよい。各パラメータが家畜の分娩タイミングと相関を有する限り、パラメータの数はいくつであってもよい。
また、上記実施の形態においては、「家畜」の一例として牛が挙げられた。しかしながら、「家畜」は必ずしも牛に限られず、豚、馬、羊等であってもよい。たとえば、「家畜」が豚である場合には、分娩タイミングと相関を有するパラメータとして、たとえば、i)餌を食べる回数、ii)鼻先を地面に接触させる回数、iii)寝返りの回数が挙げられる。また、「家畜」が馬である場合には、分娩タイミングと相関を有するパラメータとして、たとえば、i)行動量、ii)前掻きの回数が挙げられる。また、「家畜」が羊である場合には、分娩タイミングと相関を有するパラメータとして、i)前掻きの回数、ii)起居動作回数、iii)鳴き声を発する回数が挙げられる。
10 分娩タイミング報知システム、100 カメラユニット、110 画像取得部、112,142 学習済みモデル、114 環境温度取得部、120 算出部、122 行動量算出処理部、124 起居動作回数算出処理部、126 体温算出処理部、130 サーモグラフィーカメラ、135 パラメータDB、136 行動量テーブル、137 起居動作回数テーブル、138 体温テーブル、140 温度センサ、144 生成部、146,210 通信部、170,270 制御部、172,272 CPU、174,274 RAM、176,276 ROM、180,280 記憶部、181,281 制御プログラム、190,290 通信モジュール、200 クラウドサーバ、220 メール生成部、230 入力部、240 出力部、300 分娩室、400 牛、500 ユーザ、600,700 教師データ、610,620 サーモグラフィー画像、710,720,730 特定区間データ、712 行動量データ、714 起居動作回数データ、716 体温データ。

Claims (6)

  1. 家畜に関する画像データを生成するように構成された撮影部と、
    各々が家畜の分娩タイミングと相関を有する複数のパラメータを前記画像データに基づいて算出するように構成された算出部と、
    前記複数のパラメータと前記分娩タイミングとを教師データに用いた機械学習を通じて構築された学習済みモデルに、前記複数のパラメータを入力することによって、前記分娩タイミングに関連する情報を生成するように構成された生成部と、
    前記分娩タイミングに関連する情報に基づいて、ユーザに報知するように構成された報知部とを備える、分娩タイミング報知システム。
  2. 前記画像データは、サーモグラフィー画像のデータである、請求項1に記載の分娩タイミング報知システム。
  3. 前記複数のパラメータは、第1所定時間内における家畜の起居動作の回数を含む、請求項1又は請求項2に記載の分娩タイミング報知システム。
  4. 前記複数のパラメータは、前記家畜の起居動作の回数の推移を示す情報を含む、請求項3に記載の分娩タイミング報知システム。
  5. 前記複数のパラメータは、第2所定時間内における家畜の移動量をさらに含み、
    前記第1所定時間は、前記第2所定時間よりも長い、請求項3に記載の分娩タイミング報知システム。
  6. 家畜に関する画像データを生成するステップと、
    各々が家畜の分娩タイミングと相関を有する複数のパラメータを前記画像データに基づいて算出するステップと、
    前記複数のパラメータと前記分娩タイミングとを教師データに用いた機械学習を通じて構築された学習済みモデルに、前記複数のパラメータを入力することによって、前記分娩タイミングに関連する情報を生成するステップと、
    前記分娩タイミングに関連する情報に基づいて、ユーザに報知するステップとを含む、分娩タイミング報知方法。
JP2020014673A 2020-01-31 2020-01-31 分娩タイミング報知システム及び分娩タイミング報知方法 Active JP7406752B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020014673A JP7406752B2 (ja) 2020-01-31 2020-01-31 分娩タイミング報知システム及び分娩タイミング報知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020014673A JP7406752B2 (ja) 2020-01-31 2020-01-31 分娩タイミング報知システム及び分娩タイミング報知方法

Publications (2)

Publication Number Publication Date
JP2021121176A true JP2021121176A (ja) 2021-08-26
JP7406752B2 JP7406752B2 (ja) 2023-12-28

Family

ID=77364677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020014673A Active JP7406752B2 (ja) 2020-01-31 2020-01-31 分娩タイミング報知システム及び分娩タイミング報知方法

Country Status (1)

Country Link
JP (1) JP7406752B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102372107B1 (ko) * 2021-09-16 2022-03-10 주식회사 일루베이션 영상기반의 모돈 분만 알림 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017158698A1 (ja) * 2016-03-14 2017-09-21 富士通株式会社 監視装置、監視方法および監視プログラム
WO2019057456A1 (en) * 2017-09-19 2019-03-28 Norwegian University Of Life Sciences SYSTEM AND METHOD FOR PREDICTING THE BEGINNING OF BEGINNING
JP2019169011A (ja) * 2018-03-25 2019-10-03 株式会社知能フレームワーク研究所 予兆検知システムおよびプログラム
JP2020014421A (ja) * 2018-07-26 2020-01-30 日本ユニシス株式会社 家畜出産予測システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017158698A1 (ja) * 2016-03-14 2017-09-21 富士通株式会社 監視装置、監視方法および監視プログラム
WO2019057456A1 (en) * 2017-09-19 2019-03-28 Norwegian University Of Life Sciences SYSTEM AND METHOD FOR PREDICTING THE BEGINNING OF BEGINNING
JP2019169011A (ja) * 2018-03-25 2019-10-03 株式会社知能フレームワーク研究所 予兆検知システムおよびプログラム
JP2020014421A (ja) * 2018-07-26 2020-01-30 日本ユニシス株式会社 家畜出産予測システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102372107B1 (ko) * 2021-09-16 2022-03-10 주식회사 일루베이션 영상기반의 모돈 분만 알림 시스템

Also Published As

Publication number Publication date
JP7406752B2 (ja) 2023-12-28

Similar Documents

Publication Publication Date Title
JP6844609B2 (ja) 情報処理装置、情報処理方法及びプログラム
Cornou et al. Modeling of sows diurnal activity pattern and detection of parturition using acceleration measurements
KR102537863B1 (ko) 모돈 관리 및 환경 제어 시스템
JP2013240318A (ja) 動物の監視装置
CN110765972A (zh) 一种动物的监控方法、装置、电子设备及存储介质
CN111275911B (zh) 一种危险提示方法、设备和计算机可读存储介质
CN113011505B (zh) 热力图转换模型训练方法以及装置
KR101694946B1 (ko) 동물 발정 감지 방법 및 이를 수행하기 위한 장치
Lee IoT livestock estrus monitoring system based on machine learning
JP2021121176A (ja) 分娩タイミング報知システム及び分娩タイミング報知方法
JP2019010004A (ja) 情報処理システム及びプログラム
US20220183811A1 (en) Estrus determination device for sow, method for determining estrus of sow, and program for determining estrus of sow
CN105193420A (zh) 一种猪行为监测方法及装置
JP2023015924A (ja) 生産管理システム、生産管理方法及びプログラム
CN105147256A (zh) 一种猪生理状态预测方法及装置
KR101633180B1 (ko) 펫 성장 및 경험을 반영할 수 있는 펫 중심적인 온라인 커뮤니케이션 서비스 제공 장치, 온라인 커뮤니케이션 서비스 제공 방법 및 기록 매체
KR102372107B1 (ko) 영상기반의 모돈 분만 알림 시스템
JP7243439B2 (ja) 食事リスク判定方法、食事リスク判定プログラムおよび情報処理装置
JP2020106422A (ja) 体重推定装置、体重推定方法及びプログラム
CN117918023A (zh) 基于图像数据确定与动物相关的生物特征数据的方法
KR102355681B1 (ko) 가축사양표준에 기초한 가축사양관리 가이드 제공 방법
CN111144202B (zh) 一种对象控制方法、装置、系统、电子设备及存储介质
JP2023014766A (ja) 体重推定装置、体向き判定装置、体部位画像生成装置、機械学習装置、推論装置、体重推定方法、及び、体重推定プログラム
WO2022181131A1 (ja) 体重推定システム、及び、体重推定方法
JP2022185800A (ja) 判定方法及び判定システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231207

R150 Certificate of patent or registration of utility model

Ref document number: 7406752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150