JP2021136868A - 動物の健康状態を推定する推定システム、推定方法、学習モデルの生成方法 - Google Patents
動物の健康状態を推定する推定システム、推定方法、学習モデルの生成方法 Download PDFInfo
- Publication number
- JP2021136868A JP2021136868A JP2020034629A JP2020034629A JP2021136868A JP 2021136868 A JP2021136868 A JP 2021136868A JP 2020034629 A JP2020034629 A JP 2020034629A JP 2020034629 A JP2020034629 A JP 2020034629A JP 2021136868 A JP2021136868 A JP 2021136868A
- Authority
- JP
- Japan
- Prior art keywords
- individual
- data
- estimation
- learning model
- animal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K29/00—Other apparatus for animal husbandry
- A01K29/005—Monitoring or measuring activity
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Environmental Sciences (AREA)
- Biophysics (AREA)
- Animal Husbandry (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
【課題】畜産業においては、家畜を個体毎に健康管理することが重要であるが、すべての個体について人手により毎日行うことは負担である。このような点から、従来技術として、距離画像から牛の3次元形状を取得することで、牛の第一胃のへこみ具合などの健康具合を表すスコアを算出する健康状態推定装置が提案されている。
しかし、牛の健康状態の確認のために検討すべき観点は他にも多数あるが、食欲の変化や、発熱の有無など、目で見ただけでの判断が困難な項目もある。
【解決手段】そこで、本発明では、牛を撮影した映像データに加えて、牛の各個体に取り付けたセンサから取得する測定データを用いて、学習モデルを生成し、生成した学習モデルを用いて各個体の健康状態の異常の有無を推定する。
これにより、牛の健康状態の異常の早期発見や見落としの防止が可能な、システムを提供することができる。
【選択図】図5
しかし、牛の健康状態の確認のために検討すべき観点は他にも多数あるが、食欲の変化や、発熱の有無など、目で見ただけでの判断が困難な項目もある。
【解決手段】そこで、本発明では、牛を撮影した映像データに加えて、牛の各個体に取り付けたセンサから取得する測定データを用いて、学習モデルを生成し、生成した学習モデルを用いて各個体の健康状態の異常の有無を推定する。
これにより、牛の健康状態の異常の早期発見や見落としの防止が可能な、システムを提供することができる。
【選択図】図5
Description
本発明は、学習モデルを用いて牛などの動物の健康状態を推定する推定システムなどに関する。
畜産業において、飼育している牛などの家畜が病気にかかると、患畜の価値の低下や治療の必要が発生となる。また、病気の発見が遅れた場合、他の健康な家畜に伝染する可能性もある。特に、病気が伝染病である場合、感染拡大を防ぐために患畜や疑似患畜の大規模な殺処分が必要となり、経済的に大きな打撃となりうる。そのため、家畜の病気を早期に発見することは非常に重要である。
家畜の病気の早期に発見するためには、家畜の健康状態を観察し、異常や普段と異なる点がないかといった確認を、個々の家畜に対して毎日行う必要がある。
しかし、家畜の健康状態の確認を人の手ですべての個体に対して毎日行うことには大きな負担となる。こうした作業を他の作業の間に行うことは、特に、畜産業に従事する人材が不足している中、困難である。また、人の目による確認では、見逃しが発生する可能性があるため、家畜の健康管理の自動化が求められている。
しかし、家畜の健康状態の確認を人の手ですべての個体に対して毎日行うことには大きな負担となる。こうした作業を他の作業の間に行うことは、特に、畜産業に従事する人材が不足している中、困難である。また、人の目による確認では、見逃しが発生する可能性があるため、家畜の健康管理の自動化が求められている。
このような点から、特許文献1には、牛の健康状態を推定する健康状態推定装置が開示されている。特許文献1では、距離画像から牛の3次元形状を取得することで、牛の第一胃のへこみ具合や、背線の曲がり具合、歩き方、体格などの特徴量を取得し、それぞれの健康具合を表すスコアを算出することが記載されている。
また、非特許文献1にも、乳牛の3次元形状から抽出した歩容特徴から跛行スコアを算出し、軽度の蹄病を発見するシステムが開示されている。
また、非特許文献1にも、乳牛の3次元形状から抽出した歩容特徴から跛行スコアを算出し、軽度の蹄病を発見するシステムが開示されている。
砂川翔哉、大倉史生、生熊沙絢、中田健、八木康史 「乳牛の歩行映像解析による軽度蹄病の検出」 情報処理学会研究報告コンピュータビジョンとイメージメディア 情報処理学会 vol.2017-CVIM-206, no.2 第1頁から第8頁
鍋西久 「ICTを活用した牛の体表面温度モニタリングによる健康管理効率化技術の開発」 畜産の情報 農畜産業振興機構 2016.12 第51頁から第63頁
例えば、特許文献1では、距離画像から取得した3次元形状から牛の健康状態を推定するが、牛の健康状態の確認のために検討すべき観点は他にも多数ある。例えば、排泄物の状態、皮膚の状態など目で見て判断できる項目もあるが、食欲、運動量、咳の有無など行動の変化、発熱の有無など、目で見ただけでの判断では困難な項目もある。
本発明では、このような課題に対応するために、動物を撮影した映像に加えて、個々の動物の状態を測定するセンサから取得されるデータを用いて、動物の個体毎に健康状態の異常があるか否かを推定するシステムを提案することを目的とする。
本発明は、1又は複数の動物の映像を撮影する撮影手段と、前記動物の個体毎の状態を測定する測定手段と、前記撮影手段から取得された前記動物の映像データと前記測定手段から取得された前記個体毎の測定データとに基づいて、学習モデルを用いて前記個体毎の健康状態を推定する、推定手段と、を備えることを特徴とする動物の健康状態を推定する推定システム。
本発明により、動物の健康状態の異常を早期発見し、また、異常の見落としの防止が可能な、システムを提供することができる。
以下に、図面を参照して、本発明を実施するための各実施例について説明する。以下の実施例では、本発明を牛の健康状態の管理に適用した例について説明する。
ただし、以下に説明する実施例はあくまで例示であり、本発明の範囲をそれらに限定する趣旨のものではない。また、以下の各実施例で説明されている特徴の組み合わせのすべてが本発明の解決手段に必須のものとは限らない。
ただし、以下に説明する実施例はあくまで例示であり、本発明の範囲をそれらに限定する趣旨のものではない。また、以下の各実施例で説明されている特徴の組み合わせのすべてが本発明の解決手段に必須のものとは限らない。
<実施例1>
<学習・推定システムの全体構成>
図1は、本実施例を実施するための学習・推定システム100の全体的なシステム構成を示す図である。本実施例では、学習・推定システム100により管理する対象の動物として、家畜である牛に適用した例について説明する。
<学習・推定システムの全体構成>
図1は、本実施例を実施するための学習・推定システム100の全体的なシステム構成を示す図である。本実施例では、学習・推定システム100により管理する対象の動物として、家畜である牛に適用した例について説明する。
図1において、学習・推定システム100は、カメラ101a及び101b、センサ102a及び102a、データ収集サーバ103、推定サーバ104、ユーザ端末105の各デバイスを備えている。学習・推定システム100において、各デバイスは、ネットワーク110を介して接続されている。
ネットワーク110は、例えば、インターネットなどのLAN、WAN、電話回線、専用デジタル回線、ATMやフレームリレー回線、ケーブルテレビ回線、データ放送用無線回線などにより実現される、いわゆる通信ネットワークである。ネットワーク110は、データの送受信が可能であればよい。本実施例では、ネットワーク110は、学習・推定システム100が利用される動物の飼育場などで使用できるネットワークである。
カメラ101a及び101bは、動物の飼育場内の飼育舎や放牧場などに設置されたカメラである。カメラ101a及び101bは、ネットワーク110に接続されており、牛の様子を撮影し、撮影した映像データをデータ収集サーバ103に送信する。
なお、図1では2台のカメラが図示されているが、飼育場の大きさや管理する家畜の数などに応じて、1台であっても、より多数であってもよい。また、1台のカメラが複数の牛の映像を撮影してもよく、また、複数のカメラが牛の映像を撮影してもよい。なお、以下では、説明のため、適宜、カメラ101a及び101bを、まとめて「カメラ101」ともいう。
なお、図1では2台のカメラが図示されているが、飼育場の大きさや管理する家畜の数などに応じて、1台であっても、より多数であってもよい。また、1台のカメラが複数の牛の映像を撮影してもよく、また、複数のカメラが牛の映像を撮影してもよい。なお、以下では、説明のため、適宜、カメラ101a及び101bを、まとめて「カメラ101」ともいう。
センサ102a及び102b、図1に示されるように、牛の各個体について一つずつ取り付けられ、牛の生理や動作などに関する状態を測定する。本実施例では、センサ102a及び102bは、牛の頸部に取り付けられる。センサ102a及び102bは、それぞれ、温度を測定する機能、音を検知する機能、加速度を測定する機能、などを備える。
なお、図1では2頭の牛が図示されているが、1頭であっても、より多数であってもよい。また、各カメラ101が多数の牛の映像を撮影するように構成されてもよい。なお、以下では、説明のため、適宜、センサ102a及び102bを、まとめて「センサ102」ともいう。
なお、図1では2頭の牛が図示されているが、1頭であっても、より多数であってもよい。また、各カメラ101が多数の牛の映像を撮影するように構成されてもよい。なお、以下では、説明のため、適宜、センサ102a及び102bを、まとめて「センサ102」ともいう。
センサ102により測定された測定データは、それぞれ、ネットワーク110により、データ収集サーバ103に送信される。また、測定データは、センサ102から、不図示の送受信機を介して、ネットワーク110によりデータ収集サーバ103に送信されてもよい。
データ収集サーバ103、推定サーバ104は、それぞれ、コンピュータにより実現される。
データ収集サーバ103は、カメラ101から撮影データを受信し、また、センサ102から測定データを受信する。そして、各データを受信した次第、解析を行う。データ収集サーバ103は、解析したデータに基づいて、個々の牛について健康状態の判別に必要な項目の抽出を行う。抽出された項目は、推定サーバ104に送信される。
データ収集サーバ103は、カメラ101から撮影データを受信し、また、センサ102から測定データを受信する。そして、各データを受信した次第、解析を行う。データ収集サーバ103は、解析したデータに基づいて、個々の牛について健康状態の判別に必要な項目の抽出を行う。抽出された項目は、推定サーバ104に送信される。
推定サーバ104は、データ収集サーバ103から受信した項目のデータから、個々の牛の健康状態に異常があるか否かを推定する機能を備える。推定結果は、ユーザ端末105に送信される。
ユーザ端末105は、スマートホン、タブレット、デスクトップパソコンなどからなる情報端末である。ユーザ端末105は、推定サーバ104から個々の牛の健康状態に関する推定結果を受信する。ユーザ端末105には、推定サーバ104が送信する推定結果を受信するなどの実行環境が内蔵されている。
<健康状態の推定に用いられる項目>
本実施例において、牛の健康状態に異常があるか否かの推定に用いる項目としては、鼻鏡の渇き、表面体温、排泄物の状態、よだれの異常、鼻水の異常、咳の有無、皮膚の状態、食欲、反芻の有無、歩数、跛行の状態、などが用いられる。
本実施例において、牛の健康状態に異常があるか否かの推定に用いる項目としては、鼻鏡の渇き、表面体温、排泄物の状態、よだれの異常、鼻水の異常、咳の有無、皮膚の状態、食欲、反芻の有無、歩数、跛行の状態、などが用いられる。
鼻鏡の渇き、表面体温は、いずれも、発熱の有無を確認するために用いられる項目である。牛の場合、体温の測定には直腸温や膣内温度など、深部体温を用いる場合が多いが、直腸温の測定は一頭ずつ行う必要があり、また、測定器具を装着するための牛の保定や測定作業に労力がかかる。そこで、本実施例では、発熱の有無を確認するために、表面温度と鼻鏡の渇きを観察する。
表面温度が深部温度を反映していると考えられることは、非特許文献2に記載されている。また、牛の鼻鏡は、普段は湿っているが、発熱時には乾く場合が多いため、発熱の有無の指標に使うことができる。
表面温度が深部温度を反映していると考えられることは、非特許文献2に記載されている。また、牛の鼻鏡は、普段は湿っているが、発熱時には乾く場合が多いため、発熱の有無の指標に使うことができる。
食欲、反芻の有無、歩数、跛行の状態も、牛の健康状態を推定する上で確認すべき項目である。牛は、健康状態が悪化すると、食欲が低下したり、活動量が落ちたりするため、食欲や歩数の変化は、体調の変化を表すと考えられる。また、牛は胃に異常がある場合には反芻が止まるため、反芻の有無も体調の指標となりうる。また、跛行の有無や程度から、蹄疾患をはじめとした体調の悪化を見て取れると考えられる。
排泄物の状態、皮膚の状態、よだれの異常、鼻水の異常、咳の有無も、同様に、牛の健康状態を推定できる項目である。特に、これらの項目は、家畜伝染病予防法により家畜伝染病や届出伝染病に指定された疾病の症状としても現れるため、家畜の健康管理において重要な項目である。
上述した項目のうち、鼻鏡の渇き、排泄物の状態、よだれの異常、鼻水の異常、跛行の状態、皮膚の状態については、カメラで牛の様子を撮影した映像データを解析することで抽出する。
また、食欲、反芻の有無、表面体温、咳の有無、歩数については、個々の牛に取り付けたセンサからの測定データとして取得する。
また、食欲、反芻の有無、表面体温、咳の有無、歩数については、個々の牛に取り付けたセンサからの測定データとして取得する。
<データ収集サーバ及び推定サーバのハードウェア構成>
図2A(a)は、データ収集サーバ103及び推定サーバ104のハードウェア構成図である。なお、データ収集サーバ103と推定サーバ104は同様のハードウェア構成を採用することができるため、以下では、代表してデータ収集サーバ103について説明する。
図2A(a)は、データ収集サーバ103及び推定サーバ104のハードウェア構成図である。なお、データ収集サーバ103と推定サーバ104は同様のハードウェア構成を採用することができるため、以下では、代表してデータ収集サーバ103について説明する。
図2A(a)において、CPU(Central Processing Unit)202は、データ収集サーバ103全体の制御を行う。CPU202は、HDD205に格納されているアプリケーションプログラム、OS(Operating System)などを実行し、RAM204にプログラムの実行に必要な情報、ファイルなどを一時的に格納する制御を行う。
GPU(Graphic Processing Unit)206は、ディープラーニングのような学習モデルを用いて複数回にわたり学習を行う場合の処理を行う。GPU206を利用することで、データをより多く並列処理することが可能となり、効率的な演算を行うことができる。ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合、GPU206で処理を行うことが有効である。そこで、実施形態1では、学習部342による処理については、CPU202に加えて、GPU209を用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPU202とGPU206が協働して演算を行うことにより学習を行う。なお、学習部342における処理は、CPU202又はGPU209の一方のみにより演算が行われてもよい。また、推定部341も学習部342についても、同様に、GPU209を用いてもよい。
ROM(Read Only Memory)203は、記憶手段であり、CPU202、GPU206の主メモリ、ワークエリアなどとして機能する。
RAM(Random Access Memory)204も、記憶手段であり、プログラムの実行に必要な情報、ファイルなどを一時的に格納する。
HDD(Hard Disk Drive)は、外部記憶手段の一つであり、大容量メモリとして機能し、Webブラウザなどのアプリケーションプログラム、サービスサーバ群のプログラム、OS、関連プログラムなどを格納する。
RAM(Random Access Memory)204も、記憶手段であり、プログラムの実行に必要な情報、ファイルなどを一時的に格納する。
HDD(Hard Disk Drive)は、外部記憶手段の一つであり、大容量メモリとして機能し、Webブラウザなどのアプリケーションプログラム、サービスサーバ群のプログラム、OS、関連プログラムなどを格納する。
表示部209は、ディスプレイなどにより構成される表示手段であり、入力部208から入力されたコマンドなどを表示する。
インターフェース210は、外部装置I/Fであり、不図示のUSB機器、周辺機器を接続する。
入力部208は、キーボードやマウスなどにより構成される指示入力手段である。
システムバス201は、データ収集サーバ103内におけるデータの流れを司るものである。
NIC(Network Interface Card)207は、ネットワーク110と介して、不図示の外部装置との間でデータのやり取りを行う。
インターフェース210は、外部装置I/Fであり、不図示のUSB機器、周辺機器を接続する。
入力部208は、キーボードやマウスなどにより構成される指示入力手段である。
システムバス201は、データ収集サーバ103内におけるデータの流れを司るものである。
NIC(Network Interface Card)207は、ネットワーク110と介して、不図示の外部装置との間でデータのやり取りを行う。
なお、図2A(a)に示したハードウェア構成は一例であり、このような構成に限られるものではない。例えば、データやプログラムの格納先は、その特徴に応じて、ROM203、RAM204、HDD205なども変更することも可能である。また、図3で後述するソフトウェア構成による処理は、CPU202及びGPU206が、HDD205に記憶されているプログラムに基づき処理を実行することによって、実現される。
<カメラのハードウェア構成>
図2A(b)は、カメラ101のハードウェア構成図である。なお、カメラ101aとカメラ101bは同様のハードウェア構成を採用することができる。
図2A(b)は、カメラ101のハードウェア構成図である。なお、カメラ101aとカメラ101bは同様のハードウェア構成を採用することができる。
図2(B)において、CPU212は、カメラ101全体の制御を行う。CPU212は、HDD215に格納されているアプリケーションプログラム、OSなどを実行し、RAM214にプログラムの実行に必要な情報、ファイルなどを一時的に格納する制御を行う。
ROM213は、記憶手段であり、CPU212の主メモリ、ワークエリアなどとして機能する。
RAM214も、記憶手段であり、プログラムの実行に必要な情報、ファイルなどを一時的に格納する。
HDD215は、外部記憶手段の一つであり、大容量メモリとして機能し、Webブラウザなどのアプリケーションプログラム、サービスサーバ群のプログラム、OS、関連プログラムなどを格納する。
RAM214も、記憶手段であり、プログラムの実行に必要な情報、ファイルなどを一時的に格納する。
HDD215は、外部記憶手段の一つであり、大容量メモリとして機能し、Webブラウザなどのアプリケーションプログラム、サービスサーバ群のプログラム、OS、関連プログラムなどを格納する。
表示部219は、ディスプレイなどにより構成される表示手段であり、入力部218から入力されたコマンドなどを表示する。
インターフェース220は、外部装置I/Fであり、不図示のUSB機器、周辺機器を接続する。
入力部218は、キーボードやマウスなどにより構成される指示入力手段である。
システムバス211は、カメラ101a内におけるデータの流れを司るものである。
インターフェース220は、外部装置I/Fであり、不図示のUSB機器、周辺機器を接続する。
入力部218は、キーボードやマウスなどにより構成される指示入力手段である。
システムバス211は、カメラ101a内におけるデータの流れを司るものである。
NIC217は、ネットワーク110と介して、不図示の外部装置とのデータのやり取りを行う。
レンズ221は、画像を撮影するためのレンズである。カメラ101aは、レンズ221を介して入力された光をイメージセンサ216で読み取り、イメージセンサ216で読み取った結果をHDD215に格納することで、画像を記録することができる。
レンズ221は、画像を撮影するためのレンズである。カメラ101aは、レンズ221を介して入力された光をイメージセンサ216で読み取り、イメージセンサ216で読み取った結果をHDD215に格納することで、画像を記録することができる。
なお、図2A(b)に示したハードウェア構成は一例であり、このような構成に限られるものではない。例えば、データやプログラムの格納先は、その特徴に応じて、ROM213、RAM214、HDD215などに変更することも可能である。また、図3で後述するソフトウェア構成による処理は、CPU212がHDD215に記憶されているプログラムに基づき処理を実行することによって、実現される。
<センサのハードウェア構成>
図2Bは、センサ102のハードウェア構成図である。なお、センサ102aとセンサ102bは同様のハードウェア構成を採用することができる。
図2Bは、センサ102のハードウェア構成図である。なお、センサ102aとセンサ102bは同様のハードウェア構成を採用することができる。
図2Bにおいて、CPU222は、センサ102a全体の制御を行う。CPU222はHDD225に格納されているアプリケーションプログラム、OSなどを実行し、RAM214にプログラムの実行に必要な情報、ファイルなどを一時的に格納する制御を行う。
ROM223は、記憶手段であり、CPU222の主メモリ、ワークエリアなどとして機能する。
RAM224も、記憶手段であり、プログラムの実行に必要な情報、ファイルなどを一時的に格納する。
HDD225は、外部記憶手段の一つであり、大容量メモリとして機能し、Webブラウザなどのアプリケーションプログラム、サービスサーバ群のプログラム、OS、関連プログラムなどを格納する。
RAM224も、記憶手段であり、プログラムの実行に必要な情報、ファイルなどを一時的に格納する。
HDD225は、外部記憶手段の一つであり、大容量メモリとして機能し、Webブラウザなどのアプリケーションプログラム、サービスサーバ群のプログラム、OS、関連プログラムなどを格納する。
表示部228は、ディスプレイなどにより構成される表示手段であり、入力部227から入力したコマンドなどを表示する。
インターフェース229は、外部装置I/Fであり、不図示のUSB機器、周辺機器を接続する。
入力部227は、キーボードやマウスなどにより構成される指示入力手段である。
システムバス221は、センサ102内におけるデータの流れを司るものである。
NIC226は、ネットワーク110と介して、不図示の外部装置とのデータのやり取りを行う。
インターフェース229は、外部装置I/Fであり、不図示のUSB機器、周辺機器を接続する。
入力部227は、キーボードやマウスなどにより構成される指示入力手段である。
システムバス221は、センサ102内におけるデータの流れを司るものである。
NIC226は、ネットワーク110と介して、不図示の外部装置とのデータのやり取りを行う。
温度センサ230は、センサ102が接触している部分の温度を測定する。音センサ231は、センサ102周辺の音声を取得する。加速度センサ232は、センサ102にかかる加速度を測定する。
なお、図2Bに示したハードウェア構成は一例であり、このような構成に限られるものではない。例えば、データやプログラムの格納先は、その特徴に応じて、ROM223、RAM224、HDD225などに変更することも可能である。
また、図3で後述するソフトウェア構成による処理は、CPU222及びGPU226が、HDD225に記憶されているプログラムに基づき処理を実行することによって、実現される。
また、図3で後述するソフトウェア構成による処理は、CPU222及びGPU226が、HDD225に記憶されているプログラムに基づき処理を実行することによって、実現される。
<学習・推定システムのソフトウェア構成>
図3は、学習・推定システム100における、特徴的な機能を抜粋したソフトウェア構成図である。学習・推定システム100が、カメラ101、センサ102、データ収集サーバ103、推定サーバ104、ユーザ端末105を備えるのは、図1で説明したとおりである。
図3は、学習・推定システム100における、特徴的な機能を抜粋したソフトウェア構成図である。学習・推定システム100が、カメラ101、センサ102、データ収集サーバ103、推定サーバ104、ユーザ端末105を備えるのは、図1で説明したとおりである。
<カメラのソフトウェア構成>
まず、カメラ101について、説明する。
カメラ101は、データ送信部311と、撮影部312と、から構成される。
撮影部312は、レンズ221及びイメージセンサ216を介して入力された光を画像信号に変換してHDD215に格納する。
データ送信部311は、撮影部312において変換された映像信号をデータ収集サーバ103に送信する。
まず、カメラ101について、説明する。
カメラ101は、データ送信部311と、撮影部312と、から構成される。
撮影部312は、レンズ221及びイメージセンサ216を介して入力された光を画像信号に変換してHDD215に格納する。
データ送信部311は、撮影部312において変換された映像信号をデータ収集サーバ103に送信する。
<センサのソフトウェア構成>
次に、センサ102について説明する。
センサ102は、データ送信部321と、データ取得部322から構成される。
データ送信部321は、データ取得部322において取得した測定データを、データ収集サーバ103へ送信する。
各センサ102は、それぞれ、牛の首に取り付けられ、図2Bで説明した各種センサ230〜232を用いて、動物の健康状態を推定するために必要なデータを取得する。本実施例においてセンサ102が取得するデータの具体例を、以下で説明する。
次に、センサ102について説明する。
センサ102は、データ送信部321と、データ取得部322から構成される。
データ送信部321は、データ取得部322において取得した測定データを、データ収集サーバ103へ送信する。
各センサ102は、それぞれ、牛の首に取り付けられ、図2Bで説明した各種センサ230〜232を用いて、動物の健康状態を推定するために必要なデータを取得する。本実施例においてセンサ102が取得するデータの具体例を、以下で説明する。
<測定データから取得される項目>
食欲を示すデータとしては、一日の採食時間を計測する。
採食行動を行っているか否かは、加速度センサ232が測定する牛の首の姿勢や振動から判別する。また、音センサ231が測定した咀嚼音・食塊の通過音も判別のために用いることができる。これらのデータにより、採食行動を行っている時間を計測する。
食欲を示すデータとしては、一日の採食時間を計測する。
採食行動を行っているか否かは、加速度センサ232が測定する牛の首の姿勢や振動から判別する。また、音センサ231が測定した咀嚼音・食塊の通過音も判別のために用いることができる。これらのデータにより、採食行動を行っている時間を計測する。
飼料の反芻をしているか否かを表すデータとしては、一日の反芻時間を計測する。
牛が反芻を行っているか否かは、音センサ231が測定した反芻の咀嚼音、食塊の通過音や、加速度センサ232が測定した牛の首の姿勢や振動から判別する。
牛が反芻を行っているか否かは、音センサ231が測定した反芻の咀嚼音、食塊の通過音や、加速度センサ232が測定した牛の首の姿勢や振動から判別する。
表面体温を示すデータとしては、温度センサ230が測定した、センサ102を装着した牛の体表面の体温について、代表値として一日の平均体温が用いられる。また、代表値としては、一日の平均体温の他に、指定時刻における体温を用いることもできる。
咳の有無を示すデータとしては、音センサ231が測定した、一日における咳の音を検知した回数が用いられる。
咳の検出には、あらかじめ対象となる種類の動物の咳の音をサンプリングして作成した、咳の音を判別するモデルをセンサ102に組み込むことで検出する。
咳の検出には、あらかじめ対象となる種類の動物の咳の音をサンプリングして作成した、咳の音を判別するモデルをセンサ102に組み込むことで検出する。
歩数を示すデータとしては、加速度センサ232が測定した歩数が用いられる。
歩数の計測は、一般的な歩数計と同様にして行うことができる。
歩数の計測は、一般的な歩数計と同様にして行うことができる。
また、これらのデータがどの個体についての情報であるのかを示す情報として、各牛の耳標に記載された個体識別番号を用いる。
センサ102は牛の各個体に取り付けられるため、センサ毎にどの個体についてのデータであるかの情報が添付されて、上記のデータはデータ収集サーバ103に送信される。
データ送信部321は、データを一日にわたり測定した後、測定した一日間のデータをまとめてデータ収集サーバ103へ送信する。
センサ102は牛の各個体に取り付けられるため、センサ毎にどの個体についてのデータであるかの情報が添付されて、上記のデータはデータ収集サーバ103に送信される。
データ送信部321は、データを一日にわたり測定した後、測定した一日間のデータをまとめてデータ収集サーバ103へ送信する。
<データ収集サーバのソフトウェア構成>
次に、データ収集サーバ103について説明する。
データ収集サーバ103は、データ受信部331、データ解析部332、データ記憶部333、解析データ提供部334から構成される。
データ受信部331は、カメラ101のデータ送信部311、及びセンサ102のデータ送信部321から、それぞれ、映像データと測定データを受信する。
データ解析部332は、データ受信部331を介して受信した映像データを解析し、その判別結果を映像解析データとして生成する。
データ解析部332は、映像解析データから、鼻鏡の渇き、排泄物の状態、唾液の異常、鼻水の異常、皮膚の状態、跛行の状態、を抽出する。以下に、それぞれの解析方法を示す。
次に、データ収集サーバ103について説明する。
データ収集サーバ103は、データ受信部331、データ解析部332、データ記憶部333、解析データ提供部334から構成される。
データ受信部331は、カメラ101のデータ送信部311、及びセンサ102のデータ送信部321から、それぞれ、映像データと測定データを受信する。
データ解析部332は、データ受信部331を介して受信した映像データを解析し、その判別結果を映像解析データとして生成する。
データ解析部332は、映像解析データから、鼻鏡の渇き、排泄物の状態、唾液の異常、鼻水の異常、皮膚の状態、跛行の状態、を抽出する。以下に、それぞれの解析方法を示す。
<映像データから取得される項目>
鼻鏡の渇きの有無を判別するためには、深層学習などにより、画像から、乾いた鼻鏡と湿った鼻鏡とを判別する画像認識プログラムが作成済みであることを前提とする。鼻鏡の渇き)の有無は、このような画像認識プログラムを用いて判別される。
鼻鏡の渇きの有無を判別するためには、深層学習などにより、画像から、乾いた鼻鏡と湿った鼻鏡とを判別する画像認識プログラムが作成済みであることを前提とする。鼻鏡の渇き)の有無は、このような画像認識プログラムを用いて判別される。
排泄物の状態の異常の有無を判別するためには、深層学習などにより、画像から、下痢を起こしている液体状であるなど、排泄物の形状に異常があるか否かを判別する画像認識プログラムが作成済であることを前提とする。排泄物の状態の異常の有無は、このような画像認識プログラムを用いて判別される。
唾液の異常の有無を判別するためには、深層学習などにより、画像から、唾液が多量である、泡状であるなど、唾液の異常があるか否かを判別する画像認識プログラムが作成済であることを前提とする。唾液の異常の有無は、このような画像認識プログラムを用いて判別される。
鼻水の異常の有無を判別するためには、深層学習などにより、画像から、鼻水を出しているか否かを判別する画像認識プログラムが作成済であることを前提とする。鼻水の異常の有無は、このような画像認識プログラムを用いて判別される。
皮膚の異常の有無については、深層学習などにより、画像から、皮膚に水泡やびらんなどの異常が見られるか否かを判別する画像認識プログラムが作成済であることを前提とする。皮膚の異常の有無は、このような画像認識プログラムを用いて判別される。
跛行の状態については、跛行の程度を示す値として跛行スコアを用いる。特許文献1に示されているように、人間用の人物歩行映像解析技術を牛の歩行に適用することで、牛の歩行の仕方を特徴化し、それにも跛行の程度を計測することができる。これにより、データ解析部332により映像から歩行の仕方を特徴化し、跛行スコアを算出する。
また、測定データ402と同様に、これらの判別結果がどの個体の情報であるのかを示す情報として、各牛の耳標に記載された個体識別番号を用いる。
なお、個体を識別する方法としては、耳標に限られ、顔認証技術を牛に適用し、データ解析部332で顔などの外見から個体を判別して個体識別番号と結びつけるなど方法であってもよい。
なお、個体を識別する方法としては、耳標に限られ、顔認証技術を牛に適用し、データ解析部332で顔などの外見から個体を判別して個体識別番号と結びつけるなど方法であってもよい。
<解析データ>
データ解析部332により、カメラ101から取得された映像解析データ401と、センサ102から取得された測定データ402を合わせて、解析データという。解析データは、機械学習に用いるための学習データであり、また、その結果生成される学習モデル403の入力データである(図4も参照)。解析データは、管理する牛の個体毎に、データ記憶部333において管理される。
データ解析部332により、カメラ101から取得された映像解析データ401と、センサ102から取得された測定データ402を合わせて、解析データという。解析データは、機械学習に用いるための学習データであり、また、その結果生成される学習モデル403の入力データである(図4も参照)。解析データは、管理する牛の個体毎に、データ記憶部333において管理される。
表1に、データ記憶部333において管理されている、ある個体についての解析データの一例を示す。
解析データID列は、表1の各行に示される解析データ毎に一意に付与されるIDである。それぞれの解析データは、前述のとおり、映像解析データ401から取得される項目と、測定データ402から取得される項目と、からなる。
映像解析データ401から取得される項目は、カメラ101が撮影した映像データをデータ解析部332が解析した結果であり、鼻鏡の渇き、排泄物の状態、よだれの異常の有無、鼻水の有無、跛行スコア、皮膚の異常の有無の判別結果、からなる。
また、測定データ402から取得される項目は、センサ102が取得した値自体であり、採食時間、反芻時間、表面体温、咳の有無、歩数、からなる。
映像解析データ401から取得される項目は、カメラ101が撮影した映像データをデータ解析部332が解析した結果であり、鼻鏡の渇き、排泄物の状態、よだれの異常の有無、鼻水の有無、跛行スコア、皮膚の異常の有無の判別結果、からなる。
また、測定データ402から取得される項目は、センサ102が取得した値自体であり、採食時間、反芻時間、表面体温、咳の有無、歩数、からなる。
以下に、それぞれの項目について、具体例を用いて説明する。まず、映像解析データ401から取得される項目について説明する。
鼻鏡の渇きについて、「0」は鼻鏡の渇きなし、「1」は鼻鏡の渇きあり、を表す。
排泄物の状態について、「0」は正常、「1」は下痢、「2」は便秘、を表す。
唾液の異常の有無について、「0」はよだれの正常、「1」はよれだの量や泡状などの異常があること、を表す。
鼻水の有無は、「0」は鼻水なし、「1」は鼻水あり、を表す。
跛行スコアは、「1」は跛行の程度が小、「2」は跛行の程度が中、「3」は跛行の程度が大、を表す。
皮膚の異常の有無は、「0」は正常、「1」は水泡やびらんなどの異常があること、を示す。
鼻鏡の渇きについて、「0」は鼻鏡の渇きなし、「1」は鼻鏡の渇きあり、を表す。
排泄物の状態について、「0」は正常、「1」は下痢、「2」は便秘、を表す。
唾液の異常の有無について、「0」はよだれの正常、「1」はよれだの量や泡状などの異常があること、を表す。
鼻水の有無は、「0」は鼻水なし、「1」は鼻水あり、を表す。
跛行スコアは、「1」は跛行の程度が小、「2」は跛行の程度が中、「3」は跛行の程度が大、を表す。
皮膚の異常の有無は、「0」は正常、「1」は水泡やびらんなどの異常があること、を示す。
次に、測定データ402から取得される項目について説明する。
採食時間は、センサ102が計測した一日間の採食時間を分単位で表したものである。例えば、採食時間が「150」であるとは、一日間の採食時間が150分であることを表す。
反芻時間は、センサ102が計測した一日間の反芻時間を分単位で表したものである。
例えば、反芻時間が「200」であるとは、一日間の反芻時間が200分であることを示す。
表面体温は、センサ102が計測した体温の代表値を表す。例えば、表面体温が「36」であるとは、センサ102が計測した体温の代表値が36℃であることを表す。
咳の有無は、センサ102が検知した一日間の咳の回数を表す。例えば、咳の有無が「5」であるとは、一日間の咳の回数が5回であることを表す。
歩数は、センサが検知した一日間の歩数を表す。例えば、歩数が「1200」であるとは、一日間の歩数が1200歩であることを示す。
採食時間は、センサ102が計測した一日間の採食時間を分単位で表したものである。例えば、採食時間が「150」であるとは、一日間の採食時間が150分であることを表す。
反芻時間は、センサ102が計測した一日間の反芻時間を分単位で表したものである。
例えば、反芻時間が「200」であるとは、一日間の反芻時間が200分であることを示す。
表面体温は、センサ102が計測した体温の代表値を表す。例えば、表面体温が「36」であるとは、センサ102が計測した体温の代表値が36℃であることを表す。
咳の有無は、センサ102が検知した一日間の咳の回数を表す。例えば、咳の有無が「5」であるとは、一日間の咳の回数が5回であることを表す。
歩数は、センサが検知した一日間の歩数を表す。例えば、歩数が「1200」であるとは、一日間の歩数が1200歩であることを示す。
解析データは、各個体について、一日毎に、生成される。また、解析データに取得できなかった項目があった場合は、前日に取得された同じ項目の値を用いてもよい。
解析データ提供部334は、データ記憶部333に記録した解析データを、推定サーバ104に送信する。
解析データ提供部334は、データ記憶部333に記録した解析データを、推定サーバ104に送信する。
<推定サーバのソフトウェア構成>
最後に、推定サーバ104について説明する。
推定サーバ104は、推定部341、学習部342、推定結果送信部343、学習モデル記憶部344から構成される。
学習部342は、データ収集サーバ103の解析データ提供部334から取得した解析データを、学習データとして機械学習を行い、学習モデルを生成する。学習部342は、学習を動物の個体毎に行い、個体毎に健康状態を推定する学習モデルを生成する。
推定部341は、学習部342によって生成された学習モデルを用いて推定を行う。すなわち、推定部341は、ある個体の健康状態に異常があるか否かを、その個体について生成された学習モデルを用いて推定する。
「0054」
推定結果送信部343は、推定部341が推定した健康状態の異常に関する結果を、ユーザ端末105に送信する。
学習モデル記憶部344は、学習部342が生成した学習モデルを記録する。学習モデル記憶部344は、管理する動物の個体毎に生成された学習モデルをすべて記録し、推定部341が推定を行う際に、対応する個体の学習モデルを提供する。
最後に、推定サーバ104について説明する。
推定サーバ104は、推定部341、学習部342、推定結果送信部343、学習モデル記憶部344から構成される。
学習部342は、データ収集サーバ103の解析データ提供部334から取得した解析データを、学習データとして機械学習を行い、学習モデルを生成する。学習部342は、学習を動物の個体毎に行い、個体毎に健康状態を推定する学習モデルを生成する。
推定部341は、学習部342によって生成された学習モデルを用いて推定を行う。すなわち、推定部341は、ある個体の健康状態に異常があるか否かを、その個体について生成された学習モデルを用いて推定する。
「0054」
推定結果送信部343は、推定部341が推定した健康状態の異常に関する結果を、ユーザ端末105に送信する。
学習モデル記憶部344は、学習部342が生成した学習モデルを記録する。学習モデル記憶部344は、管理する動物の個体毎に生成された学習モデルをすべて記録し、推定部341が推定を行う際に、対応する個体の学習モデルを提供する。
<学習モデルの概念図>
図4は、学習モデルを用いた入出力の構造を示す概念図である。
学習モデル403は、学習部342が生成する学習モデルである。学習モデルは、動物の個体毎に一つずつ生成される。
映像解析データ401は、カメラ101が撮影した映像データを、データ収集サーバ103のデータ解析部332が解析して生成したデータである。
測定データ402は、センサ102が取得したデータ自体である。
図4は、学習モデルを用いた入出力の構造を示す概念図である。
学習モデル403は、学習部342が生成する学習モデルである。学習モデルは、動物の個体毎に一つずつ生成される。
映像解析データ401は、カメラ101が撮影した映像データを、データ収集サーバ103のデータ解析部332が解析して生成したデータである。
測定データ402は、センサ102が取得したデータ自体である。
映像解析データ401とセンサデータ402を学習モデル403に入力すると、出力データ404が出力される。
出力データ404は、対象となる動物の個体について、健康状態に異常があるか否かを示す推定結果である。本実施例においては、異常である可能性の点数や確率などの値を算出し、算出した値が所定の閾値を超えるか否かにより対象となる個体の健康状態に異常があるか否かを判定し、その判定結果を推定結果として出力する
本実施例においては、図4に示される学習モデルを用いた健康状態の推定は、健康状態の異常の有無を確認したい動物毎に、毎日一回、実行される。
出力データ404は、対象となる動物の個体について、健康状態に異常があるか否かを示す推定結果である。本実施例においては、異常である可能性の点数や確率などの値を算出し、算出した値が所定の閾値を超えるか否かにより対象となる個体の健康状態に異常があるか否かを判定し、その判定結果を推定結果として出力する
本実施例においては、図4に示される学習モデルを用いた健康状態の推定は、健康状態の異常の有無を確認したい動物毎に、毎日一回、実行される。
本実施例に用いられる学習モデル403、すなわち、推定部341において用いられる機械学習アルゴリズムは、正常範囲から逸脱したデータを検出する機械学習アルゴリズムであれば、各種のものを適用することができる。具体的に適用可能な機械学習アルゴリズムとしては、例えば、MT法、ニューラルネットワークなどが挙げられる。
また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。本実施例では、適宜、利用可能なアルゴリズム適用する。
また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。本実施例では、適宜、利用可能なアルゴリズム適用する。
また、学習部342は、誤差検出部と更新部とを備えてもよい。
誤差検出部は、入力層に入力される入力データに応じて、ニューラルネットワークの出力層から出力される出力データと、教師データとの誤差を取得する。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと教師データとの誤差を計算するようにしてもよい。
誤差検出部は、入力層に入力される入力データに応じて、ニューラルネットワークの出力層から出力される出力データと、教師データとの誤差を取得する。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと教師データとの誤差を計算するようにしてもよい。
更新部は、誤差検出部が取得した誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数などを更新する。更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数などを更新する。なお、誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数などを調整する手法である。
<推定処理の概要>
図5は、図4で示した学習モデルを用いて、本実施例の学習・予測システム100において実施される推定処理の概要を説明する図である。図5に示すような処理により、動物の個体毎に、カメラが撮影した映像データと、センサが取得した測定データを用いて、毎日一回、健康状態に異常があるか否かを推定することができる。これにより、動物の個体毎の健康管理を効率化し、病気の早期発見や見落とし防止に貢献することができる。
図5は、図4で示した学習モデルを用いて、本実施例の学習・予測システム100において実施される推定処理の概要を説明する図である。図5に示すような処理により、動物の個体毎に、カメラが撮影した映像データと、センサが取得した測定データを用いて、毎日一回、健康状態に異常があるか否かを推定することができる。これにより、動物の個体毎の健康管理を効率化し、病気の早期発見や見落とし防止に貢献することができる。
<学習処理の流れ>
次に、図6を用いて、本実施例の学習フェーズにおいて実行される学習処理について説明する。図6は、推定サーバ104の学習部342が学習モデル403を生成するまでの処理を示すフローチャートである。
次に、図6を用いて、本実施例の学習フェーズにおいて実行される学習処理について説明する。図6は、推定サーバ104の学習部342が学習モデル403を生成するまでの処理を示すフローチャートである。
まず、図6A(1)に示したフローチャートを用いて、学習フェーズにおいて、カメラ101が実行する処理について説明する。
ステップS611において、カメラ101の撮影部312は、一日にわたり、飼育場にいる、本システムが管理する動物の各個体の様子を撮影し、映像データを取得する。
ステップS612において、データ送信部311は、撮影部312が撮影した一日分の映像データを、データ収集サーバ103のデータ受信部331に送信する。
ステップS611において、カメラ101の撮影部312は、一日にわたり、飼育場にいる、本システムが管理する動物の各個体の様子を撮影し、映像データを取得する。
ステップS612において、データ送信部311は、撮影部312が撮影した一日分の映像データを、データ収集サーバ103のデータ受信部331に送信する。
次に、図6A(2)に示したフローチャートを用いて、学習フェーズにおいて、センサ102が実行する処理について説明する。
ステップS621において、センサ102のデータ取得部322は、一日にわたり、センサ102を取り付けた、本システムが管理するすべての個体から、測定データを取得する。
ステップS622において、データ送信部321は、データ取得部322が取得した一日分の測定データを、データ収集サーバ103のデータ受信部331に送信する。
ステップS621において、センサ102のデータ取得部322は、一日にわたり、センサ102を取り付けた、本システムが管理するすべての個体から、測定データを取得する。
ステップS622において、データ送信部321は、データ取得部322が取得した一日分の測定データを、データ収集サーバ103のデータ受信部331に送信する。
次に、図6B(1)に示したフローチャートを用いて、学習フェーズにおいて、データ収集サーバ103が実行する処理について説明する。
ステップS631において、データ収集サーバ103のデータ受信部331は、カメラ101とセンサ102から、それぞれ、一日分の映像データと測定データを受信したか否かを確認する。
一日分の映像データとセンサデータを受信すると、ステップS632に進む。それ以外の場合は、データ受信部331は、ステップS631においてデータの受信を待ち続ける。
ステップS632において、データ収集サーバ103のデータ解析部332は、カメラ101から受信した映像データの解析を行い、映像解析データを生成する。
ステップS631において、データ収集サーバ103のデータ受信部331は、カメラ101とセンサ102から、それぞれ、一日分の映像データと測定データを受信したか否かを確認する。
一日分の映像データとセンサデータを受信すると、ステップS632に進む。それ以外の場合は、データ受信部331は、ステップS631においてデータの受信を待ち続ける。
ステップS632において、データ収集サーバ103のデータ解析部332は、カメラ101から受信した映像データの解析を行い、映像解析データを生成する。
データ解析部332は、ステップS633からステップS637までの処理を、本システムが管理する動物すべての個体について繰り返す。ここでは、処理の対象である個体を「個体N」として説明する。
ステップS634において、データ解析部332は、個体Nについて、ステップS631で受信した測定データとステップS632で生成した映像解析データを、個体N用の解析データとして、表1の形式で記録する。
ステップS635において、データ記憶部333に蓄積された個体Nについての解析データの個数が、所定の閾値を超えたかを否かを判断する。この閾値とは、機械学習の実施に十分なデータの個数である。
解析データの個数が閾値を超えた場合は、ステップS636に進む。閾値をまだ超えていない場合は、S633に戻る。
ステップS635において、データ記憶部333に蓄積された個体Nについての解析データの個数が、所定の閾値を超えたかを否かを判断する。この閾値とは、機械学習の実施に十分なデータの個数である。
解析データの個数が閾値を超えた場合は、ステップS636に進む。閾値をまだ超えていない場合は、S633に戻る。
ステップS636において、解析データ提供部334は、データ記録部333に記録された個体Nについての解析データを、推定サーバ104の学習部342に送信。
本システムが管理するすべての個体について、ステップS633からステップS637までの処理を行ったら、図6B(1)のフローチャートは終了する。
本システムが管理するすべての個体について、ステップS633からステップS637までの処理を行ったら、図6B(1)のフローチャートは終了する。
次に、図6B(2)に示したフローチャートを用いて、学習フェーズにおいて、推定サーバ104が実行する処理について説明する。
ステップS641において、推定サーバ104の学習部342は、データ収集サーバ103の解析データ提供部334から個体Nについての解析データを受信したら、ステップS642へ進む。それ以外の場合は、学習部342は、ステップS641において解析データの受信を待ち続ける。
ステップS641において、推定サーバ104の学習部342は、データ収集サーバ103の解析データ提供部334から個体Nについての解析データを受信したら、ステップS642へ進む。それ以外の場合は、学習部342は、ステップS641において解析データの受信を待ち続ける。
ステップS642において、学習部342は、ステップS641で受信した個体Nについて解析データを入力として、機械学習を実施し、個体Nについての学習モデルを生成する。
ステップS643において、学習モデル記憶部344は、ステップS642において生成された個体Nについての学習モデルを、記録する。
以上のように、図6の各フローチャートに示した処理により、動物の個体毎の学習モデルが生成される。
ステップS643において、学習モデル記憶部344は、ステップS642において生成された個体Nについての学習モデルを、記録する。
以上のように、図6の各フローチャートに示した処理により、動物の個体毎の学習モデルが生成される。
<推定処理の流れ>
次に、図7を用いて、本実施例の推定フェーズにおいて実行される推定処理について説明する。図7は、推定サーバ104の学習部342が、生成した学習モデル403を用いて、出力データ404として推定結果を出力し、ユーザ端末105に通知するまでの処理を示すフローチャートである。
次に、図7を用いて、本実施例の推定フェーズにおいて実行される推定処理について説明する。図7は、推定サーバ104の学習部342が、生成した学習モデル403を用いて、出力データ404として推定結果を出力し、ユーザ端末105に通知するまでの処理を示すフローチャートである。
まず、図7A(1)に示したフローチャートを用いて、推定フェーズにおいて、カメラ102が実行する処理について説明する。
ステップS711において、カメラ101の撮影部312は、一日にわたり、動物の飼育場にいる、本システムが管理する動物の各個体の様子を撮影し、映像データを取得する。
ステップS712において、データ送信部311は、撮影部312が撮影した一日分の映像データを、データ収集サーバ103のデータ受信部331に送信する。
ステップS711において、カメラ101の撮影部312は、一日にわたり、動物の飼育場にいる、本システムが管理する動物の各個体の様子を撮影し、映像データを取得する。
ステップS712において、データ送信部311は、撮影部312が撮影した一日分の映像データを、データ収集サーバ103のデータ受信部331に送信する。
次に、図7A(2)に示したフローチャートを用いて、推定フェーズにおいて、センサ102が実行する処理について説明する。
ステップS721において、センサ102のデータ取得部322は、一日にわたり、センサ102を取り付けた、本システムが管理するすべての個体から、測定データを取得する。
ステップS722において、データ送信部321は、データ取得部322が取得した一日分の測定データを、データ収集サーバ103のデータ受信部331に送信する。
ステップS721において、センサ102のデータ取得部322は、一日にわたり、センサ102を取り付けた、本システムが管理するすべての個体から、測定データを取得する。
ステップS722において、データ送信部321は、データ取得部322が取得した一日分の測定データを、データ収集サーバ103のデータ受信部331に送信する。
次に、図7B(1)に示したフローチャートを用いて、推定フェーズにおいて、データ収集サーバ103が実行する処理について説明する。
ステップS731において、データ収集サーバ103のデータ受信部331は、カメラ101とセンサ102から、それぞれ、一日分の映像データと測定データを受信したか否かを確認する。
一日分の映像データとセンサデータを受信すると、ステップS632に進む。それ以外の場合は、データ受信部331は、ステップS731においてデータの受信を待ち続ける。
ステップS732において、データ収集サーバ103のデータ解析部332は、カメラ101から受信した映像データの解析を行い、映像解析データを生成する。
ステップS731において、データ収集サーバ103のデータ受信部331は、カメラ101とセンサ102から、それぞれ、一日分の映像データと測定データを受信したか否かを確認する。
一日分の映像データとセンサデータを受信すると、ステップS632に進む。それ以外の場合は、データ受信部331は、ステップS731においてデータの受信を待ち続ける。
ステップS732において、データ収集サーバ103のデータ解析部332は、カメラ101から受信した映像データの解析を行い、映像解析データを生成する。
データ解析部332は、ステップS733からステップS737までの処理を、本システムが管理するすべての個体について繰り返す。ここでは、処理の対象である個体を「個体N」として説明する。
ステップS734において、データ解析部332は、個体Nについて、ステップS631で受信した測定データとステップS632で生成した映像解析データを、個体N用の解析データとして、表1の形式で記録する。
ステップS735において、解析データ提供部334は、データ記録部333に記録された個体Nについての解析データを、推定サーバ104の推定部341に送信する。
ステップS735において、解析データ提供部334は、データ記録部333に記録された個体Nについての解析データを、推定サーバ104の推定部341に送信する。
最後に、図7B(2)に示したフローチャートを用いて、推定フェーズにおいて、推定サーバ104が実行する処理について説明する。
ステップS741において、推定サーバ104の学習部342は、データ収集サーバ103の解析データ提供部334から個体Nについての解析データを受信したら、ステップS742へ進む。それ以外の場合は、学習部342は、ステップS741において解析データの受信を待ち続ける。
ステップS741において、推定サーバ104の学習部342は、データ収集サーバ103の解析データ提供部334から個体Nについての解析データを受信したら、ステップS742へ進む。それ以外の場合は、学習部342は、ステップS741において解析データの受信を待ち続ける。
ステップS742において、学習部342は、ステップS741において受信した個体Nに対応する学習モデル403を、学習モデル記憶部344から読み込む。
ステップS743において、学習部342は、ステップS742において読み込んだ学習モデル403に、ステップS741で受け取った解析データを入力し、個体Nについての健康状態の異常の有無の推定を実行する。
ステップS744において、ステップS743において実行した、個体Nについての健康状態の異常の有無を、推定結果として、個体識別番号と合わせて、ユーザ端末105へ送信する。
以上のように、図7の各フローチャートに示した処理により、牛の個体毎に学習モデルを用いた健康状態の異常の有無の推定を行う。
ステップS743において、学習部342は、ステップS742において読み込んだ学習モデル403に、ステップS741で受け取った解析データを入力し、個体Nについての健康状態の異常の有無の推定を実行する。
ステップS744において、ステップS743において実行した、個体Nについての健康状態の異常の有無を、推定結果として、個体識別番号と合わせて、ユーザ端末105へ送信する。
以上のように、図7の各フローチャートに示した処理により、牛の個体毎に学習モデルを用いた健康状態の異常の有無の推定を行う。
図8は、図7のフローチャートのステップS744において推定サーバ104がユーザ端末105に対して推定結果を送信した際の、ユーザ端末105において表示される推定結果の一例である。
ユーザ端末105の推定結果受信部351が推定サーバ104の推定結果送信部343から推定結果を受信すると、表示部352は、受信したすべての個体について、個体識別番号とその個体の健康状態の推定結果を表示する。
ユーザ端末105の推定結果受信部351が推定サーバ104の推定結果送信部343から推定結果を受信すると、表示部352は、受信したすべての個体について、個体識別番号とその個体の健康状態の推定結果を表示する。
以上のように、実施例1によれば、牛などの動物の各個体について、毎日取得する映像データと測定データを学習データとして機械学習を実施し、健康状態の異常の有無を推定するための学習モデルを生成する。そして、各個体について生成した学習モデルを用いて、映像データと測定データとから各個体の健康状態の異常の有無を推定する。
これにより、畜産業における動物の健康管理の効率化や負担の軽減、病気の早期発見や見落とし防止などを実現することができる。
これにより、畜産業における動物の健康管理の効率化や負担の軽減、病気の早期発見や見落とし防止などを実現することができる。
<実施例2>
畜産業においては、通常よりも厳しい条件で動物の健康管理を実施したいような状況が発生する場合がある。
例えば、近隣の飼育場において感染症のような異常が発生しているという情報がある場合がある。このような緊急時の場合、通常時であれば異常と判定しない程度の小さなものであっても、動物の健康状態の変化を早期に発見することが求められる。
畜産業においては、通常よりも厳しい条件で動物の健康管理を実施したいような状況が発生する場合がある。
例えば、近隣の飼育場において感染症のような異常が発生しているという情報がある場合がある。このような緊急時の場合、通常時であれば異常と判定しない程度の小さなものであっても、動物の健康状態の変化を早期に発見することが求められる。
そこで、実施例2では、近隣の飼育場で感染症が発生しているという情報があるなどの緊急時には、学習モデル403が推定結果として「異常あり」と判断する閾値を下げて判定を行う。
具体的には、実施例1で示した推定フェーズである図7B(1)のステップS743において、実施例2では、学習モデル403が異常の有無の判定を行う際に用いる閾値を、緊急時では通常時よりも低く設定する。閾値を通常時よりも低くする程度としては、例えば、20パーセントなどが考えられるが、状況に応じて閾値は任意の値に設定することができる。
具体的には、実施例1で示した推定フェーズである図7B(1)のステップS743において、実施例2では、学習モデル403が異常の有無の判定を行う際に用いる閾値を、緊急時では通常時よりも低く設定する。閾値を通常時よりも低くする程度としては、例えば、20パーセントなどが考えられるが、状況に応じて閾値は任意の値に設定することができる。
以上のように、実施例2によれば、近隣の飼育場において感染症のような異常が発生しているなどの緊急時の場合、学習モデルが用いる閾値を変更して動物の健康状態の異常の有無を推定する。
これにより、状況に応じて、動物の健康状態の変化を早期に発見することができる。
これにより、状況に応じて、動物の健康状態の変化を早期に発見することができる。
<実施例3>
畜産業においては、繁殖や新たな買い付けなどによって、新たに管理の対象となる個体が導入される場合がある。この場合、新たに導入された個体については、まだ機械学習に十分な数の解析データが蓄積されておらず、学習モデル403が生成されていないため、それを用いた健康状態の異常の有無を推定することができない。
畜産業においては、繁殖や新たな買い付けなどによって、新たに管理の対象となる個体が導入される場合がある。この場合、新たに導入された個体については、まだ機械学習に十分な数の解析データが蓄積されておらず、学習モデル403が生成されていないため、それを用いた健康状態の異常の有無を推定することができない。
そこで、実施例3では、新たに導入された個体については、学習に必要な個数の解析データが蓄積されるまでの期間、同じ飼育場内の類似する個体について生成された学習モデル403を用いて、健康状態の異常の有無の推定を行う。
新たに導入された個体の代わりとして利用する個体は、性別が一致し、年齢、体重が近い個体を選択するのがよい。そして、新たに導入された個体については、このように選択された個体について生成された学習モデル403を使用する。
新たに導入された個体の代わりとして利用する個体は、性別が一致し、年齢、体重が近い個体を選択するのがよい。そして、新たに導入された個体については、このように選択された個体について生成された学習モデル403を使用する。
具体的には、実施例1に示した推定フェーズである図7B(1)のS742において、実施例3では、まだ対応する学習モデル403が生成されていない個体については、すでに学習モデル403が生成されている類似した個体の学習モデルを採用する。そして、ステップS743において、ステップS741で取得した解析データを入力し、推定を実施する。
新たに導入された個体について、ステップS635において学習に必要な個数の解析データが蓄積された後は、実施例1と同様に、解析データを推定サーバ104に送信し、推定サーバ104にて機械学習を行い、学習モデル403を生成する。
新たに導入された個体について、ステップS635において学習に必要な個数の解析データが蓄積された後は、実施例1と同様に、解析データを推定サーバ104に送信し、推定サーバ104にて機械学習を行い、学習モデル403を生成する。
以上のように、実施例3によれば、新たに個体が導入された場合は、その個体に類似した個体について生成された学習モデル403を用いて、動物の健康状態の異常の有無を推定する。
これにより、新しく管理する動物が増えた場合、まだ対応する学習モデル403が生成されていない期間においても、健康状態の異常の有無を推定することが可能になる。
これにより、新しく管理する動物が増えた場合、まだ対応する学習モデル403が生成されていない期間においても、健康状態の異常の有無を推定することが可能になる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。
本発明は上述の実施形態に限定されるものではなく、本発明の趣旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。すなわち、上述した構成例及びその変形例を組み合わせた構成もすべて本発明に含まれるものである。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。
本発明は上述の実施形態に限定されるものではなく、本発明の趣旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。すなわち、上述した構成例及びその変形例を組み合わせた構成もすべて本発明に含まれるものである。
100 学習・推定システム
101 カメラ
102 センサ
103 データ収集サーバ
104 推定サーバ
105 ユーザ端末
401 映像解析データ
402 測定データ
403 学習モデル
101 カメラ
102 センサ
103 データ収集サーバ
104 推定サーバ
105 ユーザ端末
401 映像解析データ
402 測定データ
403 学習モデル
Claims (12)
- 1又は複数の動物の映像を撮影する撮影手段と、
前記動物の個体毎の状態を測定する測定手段と、
前記撮影手段から取得された前記動物の映像データと前記測定手段から取得された前記個体毎の測定データとに基づいて、学習モデルを用いて前記個体毎の健康状態を推定する、推定手段と、を備える
ことを特徴とする動物の健康状態を推定する推定システム。 - 前記測定手段は、前記個体毎に取り付けられる
ことを特徴とする請求項1に記載の推定システム。 - 前記学習モデルは、前記個体毎に備えられる
ことを特徴とする請求項1又は2に記載の推定システム。 - 前記推定手段は、前記個体の健康状態を、該個体について生成された前記学習モデルを用いて推定する
ことを特徴とする請求項3に記載の推定システム。 - 前記推定手段は、前記個体の健康状態を、該個体とは異なる個体について生成された前記学習モデルを用いて推定する
ことを特徴とする請求項3に記載の推定システム。 - 前記健康状態は、異常の有無である
ことを特徴とする請求項1乃至5のいずれか1項に記載の推定システム。 - 前記推定手段は、所定の閾値を用いて前記異常の有無を推定する
ことを特徴とする請求項6に記載の推定システム。 - 前記閾値は、設定の変更が可能である
ことを特徴とする請求項7に記載の推定システム。 - 前記推定手段が推定した前記個体毎の健康状態を表示する表示手段を有する
ことを特徴とする請求項1乃至8のいずれか1項に記載の推定システム。 - 撮影手段により撮影された1又は複数の動物についての映像データを取得する工程と、
測定手段により測定された前記動物の個体毎の状態である測定データを取得する工程と、
前記映像データと前記測定データとに基づいて前記個体毎の健康状態を推定するための学習モデルを生成する工程と、を有する
ことを特徴とする動物の健康状態を推定する学習モデルを生成する生成方法。 - 前記学習モデルは、請求項10に記載の生成方法により生成された
ことを特徴とする請求項1乃至9のいずれか1項に記載の推定システム。 - 1又は複数の動物の映像を撮影する撮影工程と、
前記動物の個体毎の状態を測定する測定工程と、
前記撮影工程において取得された前記動物の映像データと前記測定工程において取得された前記個体毎の測定データとに基づいて、学習モデルを用いて前記個体毎の健康状態を推定する工程と、を有する
ことを特徴とする動物の健康状態を推定する推定方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020034629A JP2021136868A (ja) | 2020-03-02 | 2020-03-02 | 動物の健康状態を推定する推定システム、推定方法、学習モデルの生成方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020034629A JP2021136868A (ja) | 2020-03-02 | 2020-03-02 | 動物の健康状態を推定する推定システム、推定方法、学習モデルの生成方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2021136868A true JP2021136868A (ja) | 2021-09-16 |
Family
ID=77666694
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020034629A Pending JP2021136868A (ja) | 2020-03-02 | 2020-03-02 | 動物の健康状態を推定する推定システム、推定方法、学習モデルの生成方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2021136868A (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7204859B1 (ja) | 2021-10-29 | 2023-01-16 | アニコム ホールディングス株式会社 | 性格判定システム及び性格判定方法 |
| JPWO2023113009A1 (ja) * | 2021-12-17 | 2023-06-22 | ||
| WO2023191043A1 (ja) * | 2022-03-31 | 2023-10-05 | 古河電気工業株式会社 | 動物行動記録装置、動物行動記録方法及びプログラム |
| WO2023191045A1 (ja) * | 2022-03-31 | 2023-10-05 | 古河電気工業株式会社 | 情報処理装置、情報処理方法及びプログラム |
| JP7693780B1 (ja) | 2023-12-07 | 2025-06-17 | キヤノン株式会社 | 画像検査システム |
-
2020
- 2020-03-02 JP JP2020034629A patent/JP2021136868A/ja active Pending
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7204859B1 (ja) | 2021-10-29 | 2023-01-16 | アニコム ホールディングス株式会社 | 性格判定システム及び性格判定方法 |
| JP2023066950A (ja) * | 2021-10-29 | 2023-05-16 | アニコム ホールディングス株式会社 | 性格判定システム及び性格判定方法 |
| JPWO2023113009A1 (ja) * | 2021-12-17 | 2023-06-22 | ||
| WO2023113009A1 (ja) * | 2021-12-17 | 2023-06-22 | 日本電気通信システム株式会社 | 健康状態把握装置、健康状態把握方法、及びプログラム |
| WO2023191043A1 (ja) * | 2022-03-31 | 2023-10-05 | 古河電気工業株式会社 | 動物行動記録装置、動物行動記録方法及びプログラム |
| WO2023191045A1 (ja) * | 2022-03-31 | 2023-10-05 | 古河電気工業株式会社 | 情報処理装置、情報処理方法及びプログラム |
| JP2023150555A (ja) * | 2022-03-31 | 2023-10-16 | 古河電気工業株式会社 | 情報処理装置、情報処理方法及びプログラム |
| CN118973387A (zh) * | 2022-03-31 | 2024-11-15 | 古河电气工业株式会社 | 信息处理装置、信息处理方法及程序 |
| JP7693780B1 (ja) | 2023-12-07 | 2025-06-17 | キヤノン株式会社 | 画像検査システム |
| JP2025094290A (ja) * | 2023-12-07 | 2025-06-25 | キヤノン株式会社 | 画像検査システム |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2021136868A (ja) | 動物の健康状態を推定する推定システム、推定方法、学習モデルの生成方法 | |
| US11516992B2 (en) | System, client terminal, control method for system, and storage medium | |
| US20240382109A1 (en) | Systems and methods for the automated monitoring of animal physiological conditions and for the prediction of animal phenotypes and health outcomes | |
| Chaudhry et al. | Internet of Things (IoT) and machine learning (ML) enabled livestock monitoring | |
| KR102341715B1 (ko) | 가축 모니터링 장치 및 방법 | |
| CN112580552A (zh) | 一种鼠类行为分析方法及装置 | |
| CN114118755B (zh) | 基于rpa和ai的牲畜养殖管理方法、装置、设备及存储介质 | |
| KR20220064712A (ko) | 영상 기반 가축 개체 성장 추이 모니터링 장치 및 방법 | |
| CN117379016A (zh) | 用于肉牛养殖的远程监控系统及其方法 | |
| JP2023073478A (ja) | 行動型分析装置、行動型分析方法、行動型分析プログラム、及び記録媒体 | |
| Yin et al. | Analysis and classification of pig health status using hourly activity data: Combining statistical analysis and machine learning | |
| AU2023391479A1 (en) | Canine ecg monitoring via wearable inertial measurement units | |
| Azarpajouh et al. | Farm 4.0: innovative smart dairy technologies and their applications as tools for welfare assessment in dairy cattle | |
| JP7092624B2 (ja) | 行動特定装置、行動特定方法及びプログラム | |
| Xu et al. | Posture identification for stall-housed sows around estrus using a robotic imaging system | |
| Nigade et al. | Review paper on IOT based cattle health monitoring system | |
| US20230084267A1 (en) | System and a control method thereof | |
| WO2025112389A1 (zh) | 基于机器学习的动物背膘、眼肌厚度测定方法及装置 | |
| Dissanayake et al. | Personalized Weighted AdaBoost for Animal Behavior Recognition from Sensor Data | |
| KR20220089443A (ko) | 축산 동물용 비접촉식 스마트 진료 시스템 | |
| CN118758409B (zh) | 一种面向畜禽饲养的称重测量方法及其系统、介质 | |
| Yuan et al. | Stress-free detection technologies for pig growth based on welfare farming: A review | |
| Benjamin et al. | Precision livestock farming and technology in swine welfare | |
| Hewawasam et al. | Accurate Poultry Disease Identification and Risk Assessment through Object Detection | |
| Zhang et al. | A non-contact rabbit temperature detection model based on improved YOLO11 |
