JP7260922B2 - Learning data generation device, learning device, behavior analysis device, behavior analysis device, program, and recording medium - Google Patents
Learning data generation device, learning device, behavior analysis device, behavior analysis device, program, and recording medium Download PDFInfo
- Publication number
- JP7260922B2 JP7260922B2 JP2021110070A JP2021110070A JP7260922B2 JP 7260922 B2 JP7260922 B2 JP 7260922B2 JP 2021110070 A JP2021110070 A JP 2021110070A JP 2021110070 A JP2021110070 A JP 2021110070A JP 7260922 B2 JP7260922 B2 JP 7260922B2
- Authority
- JP
- Japan
- Prior art keywords
- individual
- image
- learning
- unit
- learning data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/70—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry
Landscapes
- Image Analysis (AREA)
Description
本発明は、学習用データ生成装置、学習装置、行動分析装置、行動型分析装置、プログラム、及び記録媒体に関する。 The present invention relates to a learning data generation device, a learning device, a behavior analysis device, a behavior analysis device, a program, and a recording medium.
酪農経営の大規模化に対応した省力的な牛群管理技術の開発に向けて、牛群内の各個体の行動を自動でモニタリングできる手法が求められている。牛群内を個体毎にモニタリングする技術として、各個体に加速度計等のウェアラブルセンサを装着してモニタリングする技術が実用化されている。このような技術の一例として、牛の活動量を把握するための首輪型センサを牛に装着し、活動、反芻及び休息の時間を計算して、その情報から発情、疾病の疑い等の注意すべきウシを検出する技術が知られている。 In order to develop a labor-saving herd management technology that corresponds to the scale of dairy farming, there is a need for a method that can automatically monitor the behavior of each individual in the herd. As a technology for monitoring individual cows in a herd, a technology for monitoring by attaching a wearable sensor such as an accelerometer to each individual has been put into practical use. As an example of such technology, a collar-type sensor is attached to the cow to grasp the amount of activity of the cow, and the time of activity, rumination and rest is calculated. Techniques for detecting slaughtered cattle are known.
しかしながら、このような技術では、牛群が大規模であるほど導入コストが増大すると共に、機器の管理に係る労力が大きくなる。このような技術の導入、運用にかかる費用は、例えば、ウシの活動量を把握するための首輪型センサが1台数万円、利用料が1頭数千円/年とされている。 However, with such a technique, the larger the cattle herd, the greater the introduction cost and the greater the labor involved in managing the equipment. The cost of introducing and operating such technology is, for example, several tens of thousands of yen per collar-type sensor for grasping the amount of activity of a cow, and several thousand yen per year for usage fees.
これに対して、映像解析に基づいて牛をモニタリングする技術では、牛にセンサを取り付ける必要がないのでコストを削減でき、また、管理が容易であるという利点がある。映像解析に基づいて牛をモニタリングする技術として、非特許文献1及び2に記載された技術が例として挙げられる。非特許文献1には、牛の深度カメラ映像から牛の歩様を解析し、蹄病を検出できることが示されている。また、非特許文献2には、分娩予兆としての姿勢の変化等を牛の撮影画像から検知することが記載されている。
In contrast, technology that monitors cows based on video analysis has the advantage of reducing costs and facilitating management because there is no need to attach sensors to cows. Techniques described in
また、人を対象とした個体の識別及び追跡する技術として、特許文献1及び2に記載された技術が例として挙げられる。特許文献1には、特定地域内を移動するヒトを検知すると共に当該人の静止画を取得して住人か非住人かを判断し、時系列で行動を追う構成が記載されている。また、特許文献2には、映像中の動体を検出し、人物の判別のための特徴量を抽出する構成が記載されている。
In addition, examples of techniques for identifying and tracking individuals targeting humans include techniques described in
しかしながら、非特許文献1及び2に記載された技術は、単独の個体をモニタリングすることを想定したものであるため、複数の牛個体の行動を個体毎に解析する態様に適したものではない。
However, the techniques described in
一方、特許文献1及び2に記載された技術は、複数の個体をモニタリングするものであり、個体識別に機械学習済みモデルを利用することが記載されているが、機械学習のための学習用データの収集についてなんら記載されていない。個体構成や撮影条件が異なる様々な牛群に対して汎用利用可能な個体識別技術とするためには、牛群毎に簡便に構築可能な学習済みモデルを利用した個体識別システムであることが求められる。
On the other hand, the techniques described in
本発明の一態様は、上述した問題点を解決するためになされたものであり、その目的は、様々な個体群に適用できる汎用性の高い、映像からの行動解析システムを実現することである。 One aspect of the present invention was made to solve the above-described problems, and the purpose thereof is to realize a highly versatile video-based behavior analysis system that can be applied to various populations. .
上記の課題を解決するために、本発明は、以下の態様を含む。
1) 個体を含む画像を取得する画像取得部と、取得した前記画像中の動体を検知する動体検知部と、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲み部と、枠囲みが付与された前記体領域の体領域画像を抽出する抽出部と、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成部とを備えている。
2) 前記枠囲み部は、個体を含む画像から当該個体の体全体を含む体領域を抽出するように機械学習した判別モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される体領域に枠囲みを付与する、1)に記載の学習用データ生成装置。
3) 前記枠囲み部は、個体の体の一部を表す画像から当該個体の体全体を表す画像を生成するように機械学習した生成モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される個体の体全体を表す画像を体領域とし、当該体領域に枠囲みを付与する、1)又は2)に記載の学習用データ生成装置。
4) 前記個体は、多頭飼育されている家畜個体である、1)から3)のいずれかに記載の学習用データ生成装置。
5) 前記生成部は、前記体領域画像を個体毎に分類して蓄積し、前記学習用データを生成する、1)から4)のいずれか1項に記載の学習用データ生成装置。
6) 1)から5)のいずれかに記載の学習用データ生成装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、取得した前記画像中の動体を検知する動体検知ステップと、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成ステップとを実行することを特徴とする、プログラム。
7) 個体を含む画像を取得する画像取得部と、1)から5)のいずれかに記載の学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部と、識別した個体の時系列の画像を取得する識別画像取得部と、取得した前記画像を参照して、前記個体の行動を分析する分析部とを備えている、行動分析装置。
8) 7)に記載の行動分析装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、1)から5)のいずれかに記載の学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、識別した個体の時系列の画像を取得する識別画像取得ステップと、取得した前記画像を参照して、前記個体の行動を分析する分析ステップとを実行することを特徴とする、プログラム。
9) 1)から5)のいずれかに記載の学習用データ生成装置が生成した学習用データを取得する学習用データ取得部と、取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、個体を識別する識別モデルを構築する学習部とを備えている、学習装置。
10) 9)に記載の学習装置としてコンピュータを機能させるためのプログラムであって、1)から5)の何れかに記載の学習用データ生成装置が生成した学習用データを取得する学習用データ取得ステップと、取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、個体を識別する識別モデルを構築する学習ステップとを実行することを特徴とする、プログラム。
11) 個体を含む画像を取得する画像取得部と、9)に記載の学習装置によって構築された前記識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部とを備えている、個体識別装置。
12) 11)に記載の個体識別装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、9)に記載の学習装置によって構築された前記識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップとを実行することを特徴とする、プログラム。
前記個体識別装置が備える各部としてコンピュータを機能させるためのプログラム。
13) 6)、8)、10)又は12)に記載のプログラムを記録した記録媒体。
14) 個体を含む画像を取得する画像取得ステップと、取得した前記画像中の動体を検知する動体検知ステップと、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成ステップとを含む、学習用データ生成方法。
15) 個体を含む画像を取得する画像取得ステップと、14)に記載の学習用データ生成方法により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、識別した個体の時系列の画像を取得する識別画像取得ステップと、取得した前記画像を参照して、前記個体の行動を分析する分析ステップとを含む、行動分析方法。
16) 学習用データ生成装置は、個体を含む画像を取得する画像取得部と、取得した前記画像中の前記個体を検出する検出部と、検出した前記個体の体全体を含む体領域を特定する体領域特定部と、特定した前記体領域の体領域画像を抽出する抽出部と、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成部とを備えている。
17) 16)に記載の学習用データ生成装置において、前記検出部は、個体を含む画像を入力データとして、当該画像中の当該個体を検出するように機械学習した検出モデルに、前記画像取得部が取得した前記画像を入力データとして入力することにより出力される前記個体を検出する。
18) 16)又は17)に記載の学習用データ生成装置において、前記体領域特定部は、前記検出部が検出した前記個体の体全体を含む体領域を画像セグメンテーションにより特定する。
19) 16)~18)のいずれかに記載の学習用データ生成装置において、前記体領域特定部は、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検出した前記個体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、個体の体全体を表す体領域を特定する。
20) 16)~19)のいずれかに記載の学習用データ生成装置において、前記生成部は、体領域画像を同一個体毎に分類して蓄積し、前記学習用データを生成する。
21) 行動型分析装置は、個体を含む画像を取得する画像取得部と、取得した前記画像中の前記個体を検出する検出部と、検出した前記個体を識別する識別部と、識別した個体の体の部位の位置を特定する位置特定部と、特定した前記位置の所定時間内の変化を表す時系列情報を取得する情報取得部と、取得した前記時系列情報を参照して、前記個体の行動型を分析する行動型分析部とを備えている。
22) 21)に記載の行動型分析装置において、前記位置特定部は、個体を含む画像を入力データとして、当該画像中の当該個体の体の部位の位置を特定するように機械学習した位置特定モデルに、前記画像取得部が取得した前記画像を入力データとして入力することにより出力される前記位置を特定する。
23) 21)又は22)に記載の行動型分析装置において、位置特定部は、前記個体の体の部位の位置の座標を取得する。
24) 21)から23)のいずれかに記載の行動型分析装置において、前記行動型分析部は、時系列情報を入力データとして、当該時系列情報に対応した行動型を推定するように機械学習した分析モデルに、前記情報取得部が取得した前記時系列情報を入力データとして入力することにより出力される行動型を分析結果として取得する。
25) 21)から24)のいずれかに記載の行動型分析装置において、前記位置特定部は、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検出した前記個体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、前記位置を特定する。
In order to solve the above problems, the present invention includes the following aspects.
1) An image acquisition unit that acquires an image including an individual, a moving object detection unit that detects a moving object in the acquired image, and a body region including the entire body of the individual in the detected moving object is framed. an extraction unit for extracting a body region image of the body region to which the frame is attached; and a generation unit for generating training data for a discrimination model that identifies an individual from the extracted body region image It has
2) The frame enclosing unit inputs image data of the detected moving object as input data to a discriminant model subjected to machine learning so as to extract a body region including the entire body of the individual from an image including the individual, and outputs the result. The learning data generation device according to 1), which gives a frame to the body region to be processed.
3) The frame enclosing unit inputs the image data of the detected moving object as input data to a generative model that performs machine learning so as to generate an image representing the entire body of the individual from an image representing a part of the body of the individual. The learning data generating device according to 1) or 2), wherein the image representing the entire body of the individual output by the above is set as a body region, and the body region is surrounded by a frame.
4) The learning data generating device according to any one of 1) to 3), wherein the individual is a livestock individual raised in multiple animals.
5) The learning data generation device according to any one of 1) to 4), wherein the generation unit classifies and accumulates the body region images for each individual to generate the learning data.
6) A program for causing a computer to function as the learning data generation device according to any one of 1) to 5), comprising: an image acquisition step of acquiring an image containing an individual; a moving body detection step for detecting; a frame surrounding step for giving a frame surrounding a body region including the entire body of the individual among the detected moving bodies; and extracting a body region image of the body region given the frame surrounding. A program characterized by executing an extraction step and a generation step of generating training data for a discrimination model for identifying an individual from the extracted body region image.
7) using an image acquisition unit that acquires an image containing an individual and learning data generated by the learning data generation device according to any one of 1) to 5) to identify the individual contained in the image; an identification unit that outputs individual identification information of an individual contained in the image by inputting the data of the acquired image as input data into an identification model that identifies an individual, which is constructed by machine learning; 1. A behavior analysis apparatus, comprising: an identification image acquisition unit that acquires time-series images of an individual that has been identified; and an analysis unit that analyzes the behavior of the individual by referring to the acquired images.
8) A program for causing a computer to function as the behavior analysis device according to 7), comprising an image acquisition step of acquiring an image including an individual, and the learning data generation device according to any one of 1) to 5). Inputting the obtained image data as input data to an identification model for identifying an individual, which is constructed by machine learning so as to identify the individual contained in the image using the learning data generated by an identification step of outputting individual identification information of an individual contained in the image; an identification image obtaining step of obtaining time-series images of the identified individual; and referring to the obtained image to determine the behavior of the individual. A program characterized by performing an analysis step of analyzing.
9) a learning data acquisition unit that acquires learning data generated by the learning data generation device according to any one of 1) to 5); and an individual included in an image using the acquired learning data. and a learning unit that builds a discrimination model that discriminates an individual by performing machine learning so as to discriminate.
10) A program for causing a computer to function as the learning device according to 9), which acquires learning data generated by the learning data generation device according to any one of 1) to 5). and a learning step of building an identification model for identifying individuals by performing machine learning so as to identify individuals contained in images using the acquired learning data. program.
11) An image acquisition unit that acquires an image including an individual, and by inputting the data of the acquired image into the discrimination model constructed by the learning device according to 9) as input data, the image included in the image and an identification unit that outputs individual identification information of an individual.
12) A program for causing a computer to function as the individual identification device according to 11), comprising: an image acquisition step of acquiring an image containing an individual; and an identification step of outputting individual identification information of an individual contained in the image by inputting data of the obtained image as input data.
A program for causing a computer to function as each unit included in the individual identification device.
13) A recording medium recording the program according to 6), 8), 10) or 12).
14) An image acquisition step of acquiring an image including the individual, a moving object detection step of detecting a moving object in the acquired image, and a body region including the entire body of the individual in the detected moving object is framed. an extraction step of extracting a body region image of the body region to which the frame is attached; and a generation step of generating learning data for a discrimination model that identifies an individual from the extracted body region image A method for generating data for learning, including
15) An image acquisition step of acquiring an image containing an individual, and the learning data generated by the learning data generation method according to 14) are used to perform machine learning so as to identify the individual contained in the image. an identification step of outputting individual identification information of the individual contained in the image by inputting the acquired image data as input data to the identification model for identifying the individual, and a time series of the identified individual. A behavior analysis method, comprising: an identification image acquisition step of acquiring an image; and an analysis step of analyzing the behavior of the individual with reference to the acquired image.
16) The learning data generation device includes an image acquisition unit that acquires an image including an individual, a detection unit that detects the individual in the acquired image, and a body region that includes the entire body of the detected individual. A body region specifying unit, an extracting unit for extracting a body region image of the specified body region, and a generating unit for generating learning data for a discrimination model for identifying an individual from the extracted body region image. .
17) In the learning data generation device according to 16), the detection unit uses an image including an individual as input data, and the detection model machine-learned to detect the individual in the image is added to the image acquisition unit. detects the individual output by inputting the acquired image as input data.
18) In the learning data generation device according to 16) or 17), the body region identifying unit identifies a body region including the entire body of the individual detected by the detecting unit by image segmentation.
19) In the learning data generation device according to any one of 16) to 18), the body region identifying unit detects a skeleton of the individual from an image representing a part of the body of the individual and estimates the posture. A body region representing the entire body of the individual is identified by referring to the output posture of the individual by inputting the detected image data of the individual as input data to the posture estimation model machine-learned in (1).
20) In the learning data generation device according to any one of 16) to 19), the generation unit classifies and accumulates body region images for each same individual to generate the learning data.
21) The behavioral analysis device includes an image acquisition unit that acquires an image including an individual, a detection unit that detects the individual in the acquired image, an identification unit that identifies the detected individual, and the identified individual. a position specifying unit that specifies a position of a body part; an information acquisition unit that acquires time-series information representing a change in the specified position within a predetermined time period; and a behavioral analysis unit that analyzes behavioral patterns.
22) In the behavioral analysis device according to 21), the position specifying unit uses an image including an individual as input data, and uses machine learning to specify the position of the body part of the individual in the image. The position output by inputting the image acquired by the image acquisition unit into the model as input data is specified.
23) In the behavioral analysis device described in 21) or 22), the position specifying unit acquires the coordinates of the position of the body part of the individual.
24) In the behavioral analysis device according to any one of 21) to 23), the behavioral analysis unit uses time-series information as input data and performs machine learning to estimate a behavioral pattern corresponding to the time-series information. The behavior pattern outputted by inputting the time-series information acquired by the information acquiring unit as input data into the analysis model thus obtained is acquired as an analysis result.
25) In the behavioral analysis device according to any one of 21) to 24), the position specifying unit detects a skeleton of the individual from an image representing a part of the body of the individual and estimates the posture of the individual. The position is identified by referring to the posture of the individual output by inputting the detected image data of the individual to the learned posture estimation model as input data.
本発明の一態様によれば、様々な個体群に適用できる汎用性の高い、映像からの行動解析システムを実現することができる。 According to one aspect of the present invention, it is possible to realize a highly versatile video-based behavior analysis system that can be applied to various populations.
〔学習用データ生成装置〕
本発明の一態様に係る学習用データ生成装置は、個体を含む画像を取得する画像取得部と、取得した前記画像中の動体を検知する動体検知部と、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲み部と、枠囲みが付与された前記体領域の体領域画像を抽出する抽出部と、抽出した前記体領域画像から、個体を識別する個体識別モデルの学習用データを生成する生成部とを備えている。
[Learning data generator]
A learning data generation device according to an aspect of the present invention includes an image acquisition unit that acquires an image including an individual, a moving object detection unit that detects a moving object in the acquired image, and the individual in the detected moving object. an extracting unit for extracting a body region image of the framed body region; and an individual identified from the extracted body region image. a generation unit that generates learning data for the individual identification model.
図1は、本発明の一態様に係る学習用データ生成装置の要部構成を示すブロック図である。学習用データ生成装置10は、画像取得部11、動体検知部12、枠囲み部13、抽出部14、学習用データ生成部(生成部)15、及び学習用データ記憶部16を備えている。学習用データ生成装置10は、機械学習により個体識別モデルを構築するために用いられる学習用データを生成する。
FIG. 1 is a block diagram showing the main configuration of a learning data generation device according to one aspect of the present invention. The learning
(個体)
学習用データ生成装置10により生成する学習用データを機械学習させた個体識別モデルは、複数の個体が撮影された画像において個体を識別する機械学習済モデルである。個体識別モデルにより識別する個体は、ヒト、動物、他の移動体等であり得るが、閉鎖された空間内で群毎に管理される個体であることが好ましい。個体識別モデルにより識別する個体は、多頭飼育されている家畜個体であることがより好ましく、ウシ個体であることがさらに好ましく、乳牛個体であることがさらにより好ましく、最も好ましくはホルスタイン種の乳牛個体である。なお、以下では、識別する個体の例としてホルスタイン種の乳牛個体について説明するが、本発明はこれに限定されず、他の乳牛個体又は他の動物個体であっても、紋様や体型の違い、あるいは簡易なマーカー等を利用することにより、ホルスタイン種の乳牛個体と同様に適用することができる。例えば、錦鯉、豚、猫や犬等にも、本発明を適用することができる。簡易なマーカーを利用する構成の例として、図16に示すように、首輪に数値などの標識を装着する構成が挙げられる。図16は、本発明の一態様に係る学習用データ生成装置で利用する個体識別の一例を説明する図である。このような簡易なマーカーを利用することによって、紋様による識別が難しい種であっても容易に個体識別することが可能であり、様々な種の個体に本発明を適用することができる。
(individual)
An individual identification model obtained by machine-learning the learning data generated by the learning
なお、多頭飼育されている個体は、図2に示すように、屋内で放し飼いにされている個体であってもよいし、鎖等に繋がれてつなぎ飼いにされている個体であってもよい。図2は、本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。また、多頭飼育されている個体は、屋外の管理区域内で飼育されている個体であってもよい。本実施形態においては、個体がウシ個体である場合を例として説明する。 As shown in FIG. 2, the multi-headed individual may be an individual that is kept free-range indoors, or an individual that is tied to a chain or the like and kept in a tie. . FIG. 2 is a diagram illustrating learning data generation processing of the learning data generation device according to one aspect of the present invention. In addition, an individual that is reared with multiple animals may be an individual that is reared outdoors in a controlled area. In this embodiment, a case where the individual is a bovine individual will be described as an example.
(画像取得部11)
画像取得部11は、ウシ個体を含む画像を取得する。画像取得部11は、入出力部(図示せず)を介して、ウシ個体を撮像したカメラ20から個体を含む画像を取得する。画像取得部11は、無線通信又は有線通信によりカメラ20からウシ個体を含む画像を取得する。画像取得部11は、カメラ20によりウシ個体を撮像する度毎に画像を取得してもよいし、所定時間毎に画像を取得してもよい。
(Image acquisition unit 11)
The
カメラ20は、ウシ個体を上から撮影するものであってもよいし、斜め上方から撮影するものであってもよい。学習用データ生成装置10においては、ウシ個体を上から撮影した画像のみならず、斜め上方から撮影した画像であっても好適に使用可能である。一例として、ウシ個体が屋内において飼育されている場合には、カメラ20を天井に設置していてもよいし、壁面に設置していてもよい。また、ウシ個体が屋外において飼育されている場合には、カメラ20をポールや柵等に固定して設置していてもよい。
The
ウシ個体を含む画像は、ウシ個体が撮像された画像であり、可視光画像であってもよいし、サーモカメラ等で撮影した赤外線画像であってもよいし、3次元レーザーセンサー等により得られた3次元画像であってもよい。赤外線画像やレーザーセンサーによる3次元画像を用いることにより、照明を用いずに夜間の画像を取得することができる。また、ウシ個体を含む画像は、静止画であっても、動画であってもよい。画像取得部11は、複数のカメラ20からウシ個体を含む画像を取得することが好ましく、複数のカメラ20がそれぞれ異なる方向からウシ個体を撮像した画像を取得することがより好ましい。画像取得部11は、取得したウシ個体を含む画像を動体検知部12に送る。
An image containing an individual bovine is an image obtained by capturing an individual bovine, and may be a visible light image, an infrared image captured by a thermo camera or the like, or obtained by a three-dimensional laser sensor or the like. It may also be a three-dimensional image. Night images can be obtained without illumination by using infrared images or three-dimensional images obtained by laser sensors. Also, the image containing the bovine individual may be a still image or a moving image. The
(動体検知部12)
動体検知部12は、取得したウシ個体を含む画像中の動体を検知する。動体検知部12は、ウシ個体を含む画像において物体の動きを検知し、動いた物体を動体として検知する。動体検知部12は、例えば、撮像された時間が異なる複数の画像フレーム間で比較を行うフレーム間差分処理、撮像された画像と事前に取得した背景画像とで比較を行う背景差分処理等により、画像中の動体を検知する。動体検知部12は、検知した動体の、画像中の位置情報を取得し、枠囲み部13に送る。
(Moving body detection unit 12)
The moving
(枠囲み部13)
枠囲み部13は、検知した動体のうちのウシ個体の体全体を含む体領域に枠囲みを付与する。枠囲み部13は、検知した動体がウシ個体である場合に、当該ウシ個体の体領域に枠囲みを付与する。枠囲み部13は、取得した動体の位置情報に対応する部分領域の画像において、ウシ個体の体領域を特定し、枠囲みを付与する。
(Frame Surrounding Part 13)
The framing
ウシ個体の体領域を特定せずに、動体の位置情報に対応する部分領域の画像に枠囲みを付与すると、図3に示すように、ウシ個体の頭部や尾部のみのような体の一部にのみ枠囲みが付与される場合がある。また、ウシ個体以外の動体に枠囲みが付与される場合もある。 If the image of the partial region corresponding to the positional information of the moving object is framed without specifying the body region of the individual cow, as shown in FIG. A frame may be given only to the part. In some cases, a moving object other than a cow is given a frame.
一方、枠囲み部13は、動体の位置情報に対応する部分領域の画像において、ウシ個体の体領域を特定して枠囲みを付与するので、図4に示すように、ウシ個体の体全体が枠の内側に存在するように枠囲みが付与される。図4は、本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。
On the other hand, the framing
枠囲み部13におけるウシ個体の体領域の特定は、例えば、ウシ個体の体領域を特定するように機械学習した学習済みモデルを用いる方法や、特徴点マッチング、パターンマッチング等の方法により行うことができる。すなわち、枠囲み部13は、ウシ個体を含む画像から当該ウシ個体の体全体を含む体領域を抽出するように機械学習した判別モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される体領域に枠囲みを付与する。このような機械学習済みの判別モデルは、例えば、数千~数万頭のウシ個体の体全体を撮像した画像を蓄積した、図5に示すような学習用データを用いて、サポートベクターマシン、ランダムフォレスト、k-means法、畳み込みニューラルネットワークのような公知の学習アルゴリズムを適用することで得られる。図5は、本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。
The body region of the bovine individual in the framed
また、枠囲み部13は、撮像された画像にウシ個体の一部しか含まれていない、ウシ個体同士が重なっている、柱や壁のような障害物にウシ個体の一部が隠れている等の場合には、ウシ個体の一部を表す画像から体領域画像を生成し、生成した体領域画像に枠囲みを付与する。すなわち、枠囲み部13は、個体の体の一部を表す画像から当該個体の体全体を表す画像を生成するように機械学習した生成モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される個体の体全体を表す画像を体領域とし、当該体領域に枠囲みを付与する。
In addition, the
このような生成モデルとして、変分オートエンコーダ(VAE)、敵対的生成ネットワーク(GAN)等の公知の生成モデルを用いることができる。例えば、変分オートエンコーダを用いる場合、図6に示すように、ウシ個体の体の一部の画像データから、エンコーダの畳み込みにより画像データの特徴を表す数値が得られる。そして、特徴を表す数値を逆畳み込みすることにより、ウシ個体の体全体の画像が復元される。図6は、本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。例えば、図6に示すような、数千~数万頭のウシ個体の体全体を撮像した画像を蓄積した学習用データを用いて、公知の生成モデルを適用することで、機械学習済みの生成モデルが得られる。このように、ウシ個体の体の一部の画像から体全体の体領域画像を復元するように学習した生成モデルを用いることで、入力画像データとしてウシ個体の体の一部の画像を用いて、ウシ個体の体全体の画像を復元することができる。なお、図6に示す例において生成モデルから出力されるデータは、体全体を囲む枠のみであってもよく、模様や色等は出力されなくてもよい。 Known generative models such as variational autoencoders (VAE) and generative adversarial networks (GAN) can be used as such generative models. For example, when a variational autoencoder is used, as shown in FIG. 6, from image data of a part of the body of an individual cow, numerical values representing features of the image data are obtained by convolution of the encoder. Then, by deconvolving the characteristic values, an image of the whole body of the individual cow is reconstructed. FIG. 6 is a diagram illustrating learning data generation processing of the learning data generation device according to one aspect of the present invention. For example, as shown in FIG. 6, machine-learned generation can be performed by applying a known generation model using learning data that accumulates images of the entire body of thousands to tens of thousands of cows. a model is obtained. In this way, by using a generative model that has been trained to restore a body region image of the entire body from an image of a part of the body of an individual bovine, an image of a part of the body of an individual bovine can be used as input image data. , can reconstruct an image of the whole body of the bovine individual. In the example shown in FIG. 6, the data output from the generative model may be only the frame surrounding the entire body, and patterns, colors, and the like may not be output.
図7及び8は、本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。機械学習済みの生成モデルに、図7に示すように、ウシ個体の体の一部を表す画像データを入力すると、デコーダの畳み込みにより画像データの特徴を表す数値Zが得られる。数値Zは、入力された画像の特徴を表す数値であり、例えば、画像の縮尺や、画像に含まれる領域が体全体のどの範囲に該当するか等に関する情報を表す数値である。そして、得られた数値Zを逆畳み込みにより復元することで、ウシ個体の体領域を表す体領域画像が生成され、出力される。また、この機械学習済みの生成モデルに、図7に示すように、学習データに含まれていないような特徴を含むウシ個体の体の一部を表す画像データを入力すると、ウシ個体の体領域画像が生成され、出力される。このように、未知のウシ画像データを生成モデルに入力した場合でも、ウシ個体の体全体を枠囲みしたデータが出力される。このように、学習データに含まれていないような特徴を含むウシ個体の体の一部を表す画像データを生成モデルに入力した場合でも、ウシ個体の体全体を枠囲みしたデータが出力される。また、図8に示す入力データのように、ウシ個体の体の一部を表す画像の縮尺が図7と比較して大きい場合でも、入力画像の縮尺に応じた大きさで枠囲みされたウシ個体の体領域画像が出力される。 7 and 8 are diagrams for explaining the learning data generation process of the learning data generation device according to one aspect of the present invention. As shown in FIG. 7, inputting image data representing a part of the body of an individual cow into a machine-learned generative model yields a numerical value Z representing the feature of the image data through decoder convolution. The numerical value Z is a numerical value representing the characteristics of the input image, for example, a numerical value representing information regarding the scale of the image and the area of the entire body to which the area included in the image corresponds. Then, by deconvolving the obtained numerical value Z to restore it, a body region image representing the body region of the bovine individual is generated and output. In addition, as shown in FIG. 7, inputting image data representing a part of the body of a bovine individual that includes features not included in the training data to this machine-learned generative model yields a body region of the bovine individual. An image is generated and output. In this way, even when unknown bovine image data is input to the generative model, data in which the entire body of the bovine individual is framed is output. In this way, even when image data representing a part of the body of a cow containing features not included in the training data is input to the generative model, the output is data that encloses the entire body of the cow. . 8, even if the scale of the image representing the part of the body of the individual cow is larger than that in FIG. A body region image of the individual is output.
このように、動体の画像がウシ個体の一部のみである場合、枠囲み部13は、個体の体の一部を表す画像から当該個体の体全体を表す画像を生成するように機械学習した生成モデルを用いることで、ウシ個体の体領域を生成し、枠囲みを付与する。
In this way, when the image of the moving object is only a part of the individual cow, the enclosing
(抽出部14)
抽出部14は、枠囲みが付与された体領域画像を抽出する。抽出部14は、カメラ20が撮像した画像から、枠囲みの外側の画像を取り除き、枠囲みの内側の体領域画像を切り出す。抽出部14は、抽出した体領域画像を学習用データ生成部15に送る。
(Extraction unit 14)
The extracting
(学習用データ生成部15)
学習用データ生成部15は、抽出した前記体領域画像から、個体を識別する個体識別モデルの学習用データを生成する。学習用データは、ラベル付されていない教師なしデータであり得、例えば、数百~数万の体領域画像データを含む。学習用データ生成部15は、体領域画像を同一個体毎に分類して蓄積し、学習用データを生成し得る。学習用データ生成部15は、予め定められた数の体領域画像が蓄積された時点、又は、ユーザからの学習用データ生成指示を受け付けた時点において、蓄積されている体領域画像により学習用データを生成してもよい。
(Learning data generator 15)
The learning
なお、学習用データ生成部15による体領域画像の同一個体毎の分類は、一例として、体領域画像の類似度、時系列における前後の画像との位置関係等の情報を参照することによって行うことができる。このような体領域画像の同一個体毎の分類は、体領域画像から当該体領域画像の類似度による推定や時系列における前後の画像との位置関係による推定をするように機械学習した分類推定モデルを用いて実行してもよい。
Note that the classification of the body region images for each identical individual by the learning
学習用データ生成部15は、個体識別モデルが識別する個体群に対応した学習用データを生成する。例えば、学習用データにより機械学習する個体識別モデルが、ウシ個体No.1~ウシ個体No.10までの10頭のウシ個体が含まれる個体群Xを識別する場合、個体群Xに含まれる10頭のウシ個体の体領域画像データを含む学習用データを生成する。学習用データ生成部15は、生成した学習用データを、対応する個体群の情報と関連付けて学習用データ記憶部16に格納する。
The learning
(学習用データ記憶部16)
学習用データ記憶部16には、生成された学習用データが格納される。また、学習用データ記憶部16には、画像取得部11が取得した画像や、動体検知部12が検知した動体の、画像における位置情報等のデータが格納されてもよい。また、学習用データ記憶部16には、学習用データ生成装置10が行う動作に必要な一連の処理を示すプログラムが格納されていてもよい。
(Learning data storage unit 16)
The learning
(学習用データ生成処理)
図9を参照して、学習用データ生成装置10による学習用データ生成処理の一例について説明する。図9は、図1の学習用データ生成装置10による学習用データ生成処理を示すフローチャートである。
(Learning data generation processing)
An example of the learning data generation process by the learning
まず、ステップS91において、画像取得部11は、ウシ個体を含む画像を取得する。なお、学習用データ生成装置10による学習用データ生成処理は、カメラ20から撮像画像データの入力を受け付けることにより開始してもよい。
First, in step S91, the
次に、動体検知部12は、取得したウシ個体を含む画像中の動体を検知する(ステップS92)。続いて、ステップS93において、枠囲み部13は、検知した動体のうちのウシ個体の体領域に枠囲みを付与する。次に、ステップS94において、抽出部14は、枠囲みが付与された体領域画像を抽出する。そして、学習用データ生成部15は、体領域画像から学習用データを生成する(ステップS94)。学習用データ生成部15は、生成した学習用データを学習用データ記憶部16に格納し、学習用データ生成処理を終了する。
Next, the moving
このように、学習用データ生成装置10は、動体検知したウシ個体の体領域画像を抽出して蓄積することで、機械学習により個体識別モデルを構築するために用いられる学習用データを自動生成する。これにより、個体識別モデルを構築するための学習用データの生成が容易である。そのため、個体構成や撮影条件が異なる様々な個体群に対して、個体群毎に簡便に学習用データを生成することができる。また、学習用データ生成装置10により生成した学習用データには、様々な向きのウシ個体の体領域画像が含まれる。そのため、このような学習用データを用いて学習した個体識別モデルを用いて個体識別することによって、識別する画像におけるウシ個体の向きに関わらず個体識別が可能となる。
In this way, the learning
画像認識の機械学習においては、従来、学習用データの準備に時間及び労力がかかる点が問題となっている。学習用データ生成装置10によれば、個体識別モデルの機械学習に用いられる学習用データを自動的に蓄積できる。これにより、例えば、ウシ個体群の個体構成や撮影条件が異なる酪農現場毎に対応した個体識別モデルを簡便に構築することが可能であり、個体識別モデルの汎用利用を実現できる。
Conventionally, machine learning for image recognition has a problem that it takes time and effort to prepare data for learning. According to the learning
〔学習装置〕
本発明の一実施形態に係る学習装置は、本発明の一実施形態に係る学習用データ生成装置が生成した学習用データを取得する学習用データ取得部と、取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、個体を識別する個体識別モデルを構築する学習部とを備えている。
[Learning device]
A learning device according to an embodiment of the present invention includes a learning data acquisition unit that acquires learning data generated by a learning data generation device according to an embodiment of the present invention; and a learning unit for constructing an individual identification model for identifying an individual by performing machine learning so as to identify the individual contained in the image.
図10は、本発明の一態様に係る学習装置の要部構成を示すブロック図である。学習装置100は、学習用データ取得部101、学習部102、及び学習モデル記憶部103を備えている。学習装置100は、個体を識別する個体識別モデルを構築する。
FIG. 10 is a block diagram showing a main configuration of a learning device according to one aspect of the present invention. The
(学習用データ取得部101)
学習用データ取得部101は、学習用データ生成装置10の学習用データ記憶部16に格納された学習用データを、入出力部(図示せず)を介して取得する。学習用データ取得部101は、学習部102において機械学習する個体識別モデルが識別する個体群に対応した学習用データを取得する。例えば、個体識別モデルが、ウシ個体No.1~ウシ個体No.10までの10頭のウシ個体が含まれる個体群Xのウシ個体を識別する学習済みモデルである場合、学習用データ取得部101は、個体群Xに対応した学習用データを取得する。学習用データ取得部101は、取得した学習用データを学習部102に送る。
(Learning data acquisition unit 101)
The learning
(学習部102)
学習部102は、取得した学習用データを用いて、個体を識別する個体識別モデルを構築する。学習部102は、取得した学習用データを用いて、サポートベクタ―マシン、ランダムフォレスト、k-means法、畳み込みニューラルネットワークのような公知の学習アルゴリズムを適用して個体識別モデルを機械学習する。
(Learning unit 102)
The
学習部102において構築した機械学習済みの個体識別モデルは、個体を含む画像データを入力データとして入力することにより、当該個体を識別する識別情報を出力する学習済みモデルである。例えば、個体識別モデルが個体群Xのウシ個体を識別する場合、個体識別モデルは、入力された画像データ中のウシ個体が、個体群X中の何れのウシ個体(ウシ個体No.1、ウシ個体No.2、・・・又はウシ個体No.10)であるかを出力する。学習部102は、機械学習済みの個体識別モデルを、学習モデル記憶部103に格納する。
The machine-learned individual identification model constructed in the
(学習モデル記憶部103)
学習モデル記憶部103には、機械学習済みの個体識別モデルが格納される。また、学習モデル記憶部103には、学習用データ取得部101が取得した学習用データ等が格納されてもよい。また、学習モデル記憶部103には、学習装置100が行う動作に必要な一連の処理を示すプログラムが格納されていてもよい。
(Learning model storage unit 103)
The learning
(学習処理)
図11を参照して、学習装置100による学習処理の一例について説明する。図11は、図10の学習装置100による学習処理を示すフローチャートである。
(learning process)
An example of the learning process by the
まず、ステップS111において、学習用データ取得部101は、学習用データ生成装置10から学習用データを取得する。次に、学習部102は、取得した学習用データを用いて、個体を識別する個体識別モデルを機械学習させる(ステップS112)。そして、学習部102は、機械学習済みの個体識別モデルを学習モデル記憶部103に格納し(ステップS113)、学習処理を終了する。
First, in step S<b>111 , the learning
このように、学習装置100は、個体群毎に対応して生成された学習用データを用いて機械学習により個体識別モデルを構築するので、例えば、ウシ個体群の個体構成や撮影条件が異なる酪農現場毎に対応した個体識別モデルを簡便に構築することが可能である。その結果、個体識別モデルの汎用利用を実現できる。
In this way, the
〔個体識別装置〕
本発明の一実施形態に係る個体識別装置は、個体を含む画像を取得する画像取得部と、本発明の一実施形態に係る学習装置によって構築された前記個体識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部とを備えている。
[Individual identification device]
An individual identification device according to an embodiment of the present invention includes an image acquisition unit that acquires an image including an individual, and an individual identification model constructed by a learning device according to an embodiment of the present invention, which includes an image of the acquired image. an identification unit that outputs individual identification information of an individual contained in the image by inputting data as input data.
図12は、本発明の一態様に係る個体識別装置の要部構成を示すブロック図である。個体識別装置120は、画像取得部121、識別部122、及び識別画像蓄積部123を備えている。個体識別装置は、個体識別モデルを用いて個体群中の個体を識別する。
FIG. 12 is a block diagram showing the main configuration of an individual identification device according to one aspect of the present invention. The
(個体)
個体識別装置120により識別する個体は、ヒト、動物、他の移動体等であり得るが、閉鎖された空間内で群毎に管理される個体であることが好ましい。個体識別モデルにより識別する個体は、多頭飼育されている家畜個体であることがより好ましく、ウシ個体であることがさらに好ましく、乳牛個体であることがさらにより好ましく、最も好ましくはホルスタイン種の乳牛個体である。なお、多頭飼育されている個体は、図2に示すように、屋内で放し飼いにされている個体であってもよいし、鎖等に繋がれてつなぎ飼いにされている個体であってもよい。また、多頭飼育されている個体は、屋外の管理区域内で飼育されている個体であってもよい。本実施形態においては、個体がウシ個体である場合を例として説明する。
(individual)
Individuals to be identified by the
(画像取得部121)
画像取得部121は、ウシ個体を含む画像を取得する。画像取得部121は、入出力部(図示せず)を介して、ウシ個体を撮像したカメラ20から個体を含む画像を取得する。画像取得部121は、無線通信又は有線通信によりカメラ20からウシ個体を含む画像を取得する。画像取得部121は、カメラ20によりウシ個体を撮像する度毎に画像を取得してもよいし、所定時間毎に画像を取得してもよい。
(Image acquisition unit 121)
The image acquisition unit 121 acquires an image including an individual bovine. The image acquisition unit 121 acquires an image including an individual from the
カメラ20は、ウシ個体を上から撮影するものであってもよいし、斜め上方から撮影するものであってもよい。個体識別装置120においては、ウシ個体を上から撮影した画像のみならず、斜め上方から撮影した画像であっても好適に使用可能である。一例として、ウシ個体が屋内において飼育されている場合には、カメラ20を天井に設置していてもよいし、壁面に設置していてもよい。また、ウシ個体が屋外において飼育されている場合には、カメラ20をポールや柵等に固定して設置していてもよい。
The
ウシ個体を含む画像は、ウシ個体が撮像された画像であり、可視光画像であってもよいし、サーモカメラ等で撮影した赤外線画像であってもよいし、3次元レーザーセンサー等により得られた3次元画像であってもよい。赤外線画像やレーザーセンサーによる3次元画像を用いることにより、照明を用いずに夜間の画像を取得することができる。また、ウシ個体を含む画像は、静止画であっても、動画であってもよい。画像取得部121は、取得したウシ個体を含む画像を識別部122に送る。
An image containing an individual bovine is an image obtained by capturing an individual bovine, and may be a visible light image, an infrared image captured by a thermo camera or the like, or obtained by a three-dimensional laser sensor or the like. It may also be a three-dimensional image. Night images can be obtained without illumination by using infrared images or three-dimensional images obtained by laser sensors. Also, the image containing the bovine individual may be a still image or a moving image. The image acquisition unit 121 sends the acquired image containing the bovine individual to the
(識別部122)
識別部122は、学習装置100によって構築された個体識別モデルに、取得した画像のデータを入力データとして入力することにより、当該画像中のウシ個体の個体識別情報を出力する。識別部122は、学習装置100の学習モデル記憶部103に格納された個体識別モデルを、入出力部(図示せず)を介して取得する。個体識別モデルは、個体識別装置120により識別する個体群に対応した機械学習済みモデルである。例えば、個体識別装置120により識別する個体群が、ウシ個体No.1~ウシ個体No.10までの10頭のウシ個体が含まれる個体群Xである場合、個体識別モデルは、個体群Xに対応した機械学習済みモデルである。
(Identification unit 122)
The
識別部122は、取得した画像に含まれるウシ個体が何れのウシ個体であるかを表す個体識別情報と、当該画像データとを関連付けて識別画像蓄積部123に格納する。また、識別部122は、図4に示すように、個体識別情報を画像データに付して表示部(図示せず)に表示してもよい。例えば、識別部122は、図4に示すように、画像中のウシ個体にそのウシ個体を識別するウシ個体No.を付して表示する。
The
識別部122が識別する画像は、画像取得部121からウシ個体の体全体を含む体領域画像を抽出した画像であり得る。すなわち、個体識別装置120は、画像取得部121が取得した画像中のウシ個体の体領域に枠囲みを付与する枠囲み部と、枠囲みが付与された体領域画像を抽出する抽出部とをさらに備えていてもよい。また、画像取得部121が取得した画像中の動体を検知する動体検知部をさらに備えていてもよい。そして、識別部122は、抽出部が抽出した体領域画像を入力データとして個体識別モデルに入力することにより、当該画像中のウシ個体の個体識別情報を出力する。なお、識別部122が識別する画像は、例えば画像中のウシ個体が単独である場合には、画像取得部121がカメラ20から取得した画像そのものであってもよい。
The image identified by the
このように、個体識別装置120は、個体識別の対象となる画像を、カメラ20から取得した画像そのものではなく、学習用データ生成装置10による学習用データ生成処理と同様の処理が施された体領域画像としてもよい。これにより、個体識別の対象となる画像に個体識別に不要な部分が含まれず、より正確な個体識別が可能である。
In this way, the
(識別画像蓄積部123)
識別画像蓄積部123には、個体識別された画像が格納される。また、識別画像蓄積部123には、個体識別装置120が行う動作に必要な一連の処理を示すプログラムが格納されていてもよい。
(Identification image accumulation unit 123)
The identification
(個体識別処理)
図13を参照して、個体識別装置120による個体識別処理の一例について説明する。図13は、図12の個体識別装置120による個体識別処理を示すフローチャートである。
(Individual identification processing)
An example of individual identification processing by the
まず、ステップS131において、画像取得部121は、ウシ個体を含む画像を取得する。なお、個体識別装置120による個体識別処理は、カメラ20から撮像画像データの入力を受け付けることにより開始してもよい。
First, in step S131, the image acquiring unit 121 acquires an image including a bovine individual. It should be noted that the individual identification processing by the
次に、識別部122は、学習装置100から学習済みの個体識別モデルを読み出す(ステップS132)。続いて、ステップS133において、識別部122は、読み出した個体識別モデルに画像データを入力する。そして、ステップS134において、識別部122は、個体識別モデルが出力したウシ個体の個体識別情報と画像とを関連付けて識別画像蓄積部123に格納し、個体識別処理を終了する。
Next, the
このように、個体識別装置120は、個体群毎に対応した個体識別モデルを用いて個体を識別するので、例えば、ウシ個体群の個体構成や撮影条件が異なる酪農現場毎に対応した個体識別が可能である。また、学習装置100により学習済みの個体識別モデルを用いることによって、識別する画像中のウシ個体の向きに関わらず個体識別可能である。個体識別装置120によれば、個体識別モデルの汎用利用が可能である。
In this way, the
〔行動分析装置〕
本発明の一実施形態に係る行動分析装置は、個体を含む画像を取得する画像取得部と、上記学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部と、識別した個体の時系列の画像を取得する識別画像取得部と、取得した前記画像を参照して、前記個体の行動を分析する分析部とを備えている。すなわち、行動分析装置は、本発明の一実施形態に係る個体識別装置により識別した個体の時系列の画像を取得する識別画像取得部と、取得した前記画像を参照して、前記個体の行動を分析する分析部とを備えている。
[Behavior analysis device]
A behavior analysis device according to an embodiment of the present invention uses an image acquisition unit that acquires an image including an individual, and learning data generated by the learning data generation device to identify the individual included in the image. an identification unit that outputs individual identification information of an individual contained in the image by inputting the data of the acquired image as input data into an identification model that identifies an individual, which is constructed by machine learning; It comprises an identification image acquisition unit that acquires time-series images of the identified individual, and an analysis unit that analyzes the behavior of the individual by referring to the acquired images. That is, the behavior analysis device includes an identification image acquisition unit that acquires time-series images of an individual identified by the individual identification device according to an embodiment of the present invention; and an analysis unit for analyzing.
図14は、本発明の一態様に係る行動分析装置の要部構成を示すブロック図である。行動分析装置140は、識別画像取得部141、分析部142、及び分析結果記憶部143を備えている。行動分析装置は、識別した個体の行動を追跡して分析する。
FIG. 14 is a block diagram showing the main configuration of a behavior analysis device according to one aspect of the present invention. The
(識別画像取得部141)
識別画像取得部141は、個体識別装置120の識別画像蓄積部123に蓄積されたウシ個体の画像を、入出力部(図示せず)を介して取得する。識別画像取得部141は、個体識別装置120において識別したウシ個体の時系列の画像を取得する。識別画像取得部141は、取得したウシ個体の時系列の画像を分析部142に送る。
(Identification image acquisition unit 141)
The identification
(分析部142)
分析部142は、ウシ個体の時系列の画像を参照して、ウシ個体の行動を分析する。ウシ個体の時系列の画像により、ウシ個体の行動を追跡することができる。分析部142は、ウシ個体の時系列の画像に基づいてウシ個体の行動を追跡することによって、所定時間内のウシの行動を分析する。分析部142は、ウシ個体の時系列の画像に基づいてウシ個体の行動を追跡することで、例えば、所定時間内のウシ個体の行動量、行動範囲、行動パターンを分析する。分析部142は、ウシ個体の分析結果を分析結果記憶部143に格納する。
(Analysis unit 142)
The
分析部142は、ウシ個体が座っている時間や立っている時間、動き回っている時間等の行動パターンを分析することによって、ウシ個体の身体状態、発情状態、疾患等を予測してもよい。また、分析部142は、ウシ個体が水を飲む回数や時間、餌を食べる回数や時間等の行動パターンを分析することによって、ウシ個体の飼養管理をしてもよい。
The
分析部142は、ウシ個体の画像から、ウシ個体の画像における位置座標を取得し、当該位置座標をウシ個体が存在する空間の空間座標に変換することで、空間内におけるウシ個体の行動範囲、行動パターン等を追跡及び分析してもよい。位置座標から空間座標への変換は、例えば、画像上の空間座標が既知である基準点の情報を用いて、取得した位置座標をウシ個体が存在する空間の空間座標に変換することにより行うことができる。分析部142が参照するウシ個体の画像が、ウシ個体の体全体を含む体領域画像であれば、ウシ個体の足の位置座標を取得することができるので、空間内におけるウシ個体の行動を正確に追跡することができる。ウシ個体の足の位置座標又は空間座標は、図4に示すようにウシ個体の体領域画像と共に表示部(図示せず)に表示させてもよい。
The
(行動分析処理)
図15を参照して、行動分析装置140による行動分析処理の一例について説明する。図15は、図14の行動分析装置140による行動分析処理を示すフローチャートである。
(behavior analysis processing)
An example of behavior analysis processing by the
まず、ステップS151において、識別画像取得部141は、ウシ個体の時系列の画像データを取得する。次に、分析部142は、ウシ個体の時系列の画像によりウシ個体の行動を追跡して、ウシ個体の行動を分析する(ステップS152)。分析部142は、分析結果を分析結果記憶部143に格納し、行動分析処理を終了する。
First, in step S151, the identification
このように、行動分析装置140は、個体群毎に対応した個体識別モデルを用いて識別した個体の画像を追跡することで個体の行動を分析するので、例えば、ウシ個体群の個体構成や撮影条件が異なる酪農現場毎に対応した正確かつ容易な個体の行動分析が可能である。なお、図1に示す学習用データ生成装置10、図10に示す学習装置100、図12に示す個体識別装置120、及び、図14に示す行動分析装置140を備えた行動分析システムについても本発明の範疇に含まれる。
In this way, the
〔学習用データ生成方法及び行動分析方法〕
本発明の一態様に係る学習用データ生成方法は、個体を含む画像を取得する画像取得ステップと、取得した前記画像中の動体を検知する動体検知ステップと、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成ステップとを含む。一例として、本発明の一態様に係る学習用データ生成方法は、上述した本発明の一態様に係る学習用データ生成装置により実現されるものである。したがって、本発明の一態様に係る学習用データ生成方法の説明は、上述した本発明の一態様に係る学習用データ生成装置の説明に準じる。
[Learning data generation method and behavior analysis method]
A learning data generation method according to an aspect of the present invention includes an image acquisition step of acquiring an image including an individual, a moving object detection step of detecting a moving object in the acquired image, and the individual detected in the moving object. a framing step of giving a framing to a body region including the entire body of the individual; an extracting step of extracting a body region image of the body region given the framing; and identifying an individual from the extracted body region image and a generation step of generating training data for the discriminative model. As an example, a learning data generating method according to an aspect of the present invention is realized by the learning data generating device according to an aspect of the present invention described above. Therefore, the description of the learning data generating method according to one aspect of the present invention conforms to the description of the learning data generating device according to one aspect of the present invention described above.
本発明の一態様に係る行動分析方法は、個体を含む画像を取得する画像取得ステップと、上記学習用データ生成方法により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、識別した個体の時系列の画像を取得する識別画像取得ステップと、取得した前記画像を参照して、前記個体の行動を分析する分析ステップとを含む。一例として、本発明の一態様に係る行動分析方法は、上述した本発明の一態様に係る行動分析装置により実現されるものである。したがって、本発明の一態様に係る行動分析方法の説明は、上述した本発明の一態様に係る行動分析装置の説明に準じる。 A behavior analysis method according to an aspect of the present invention includes an image acquisition step of acquiring an image including an individual, and using the learning data generated by the learning data generation method described above to identify the individual included in the image. an identification step of outputting individual identification information of an individual contained in the image by inputting the data of the acquired image as input data into an identification model for identifying an individual constructed by machine learning; and an analysis step of analyzing the behavior of the individual with reference to the acquired images. As an example, a behavior analysis method according to one aspect of the present invention is realized by the behavior analysis device according to one aspect of the present invention described above. Therefore, the description of the behavior analysis method according to one aspect of the present invention conforms to the description of the behavior analysis device according to one aspect of the present invention described above.
〔ソフトウェアによる実現例〕
学習用データ生成装置10、学習装置100、個体識別装置120、及び行動分析装置140の制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The control blocks of the learning
後者の場合、上述した各装置は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, each device described above comprises a computer that executes program instructions, which are software that implements each function. This computer includes, for example, one or more processors, and a computer-readable recording medium storing the program. In the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-temporary tangible medium" such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. In addition, a RAM (Random Access Memory) for developing the above program may be further provided. Also, the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. Note that one aspect of the present invention can also be implemented in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
すなわち、本発明の各態様に係る学習用データ生成装置、学習装置、個体識別装置、行動分析装置140は、コンピュータによって実現してもよく、この場合には、コンピュータを前記各装置が備える各部(ソフトウェア要素)として動作させることにより前記各装置をコンピュータにて実現させるプログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
That is, the learning data generation device, the learning device, the individual identification device, and the
具体的には、下記のプログラムについても、本発明の範疇に入る:
本発明の各態様に係る学習用データ生成装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、取得した前記画像中の動体を検知する動体検知ステップと、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成ステップとを実行することを特徴とする、プログラム:
本発明の各態様に係る行動分析装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、本発明の各態様に係る学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、識別した個体の時系列の画像を取得する識別画像取得ステップと、取得した前記画像を参照して、前記個体の行動を分析する分析ステップとを実行することを特徴とする、プログラム:
本発明の各態様に係る学習装置としてコンピュータを機能させるためのプログラムであって、本発明の各態様に係る学習用データ生成装置が生成した学習用データを取得する学習用データ取得ステップと、取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、個体を識別する識別モデルを構築する学習ステップとを実行することを特徴とする、プログラム:
本発明の各態様に係る個体識別装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、本発明の各態様に係る学習装置によって構築された前記識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップとを実行することを特徴とする、プログラム。
Specifically, the following program also falls within the scope of the present invention:
A program for causing a computer to function as a learning data generation device according to each aspect of the present invention, comprising: an image acquisition step of acquiring an image containing an individual; and a moving object detection step of detecting a moving object in the acquired image. a framing step of giving a framing to a body region including the entire body of the individual in the detected moving body; an extracting step of extracting a body region image of the body region given the framing; A program characterized by executing a generation step of generating learning data for a discrimination model that identifies an individual from the body region image:
A program for causing a computer to function as a behavior analysis device according to each aspect of the present invention, comprising an image acquisition step of acquiring an image including an individual, and learning generated by the learning data generation device according to each aspect of the present invention By inputting the acquired data of the image as input data to an identification model for identifying an individual, which is constructed by machine learning so as to identify the individual contained in the image, using the data for the image an identification step of outputting individual identification information of an individual included in the identification step, an identification image obtaining step of obtaining time-series images of the identified individual, and an analysis step of analyzing the behavior of the individual by referring to the obtained images. A program characterized by executing and
A program for causing a computer to function as a learning device according to each aspect of the present invention, comprising: a learning data acquisition step for acquiring learning data generated by the learning data generation device according to each aspect of the present invention; A program characterized by:
A program for causing a computer to function as an individual identification device according to each aspect of the present invention, comprising an image acquisition step of acquiring an image including an individual, and the identification model constructed by the learning device according to each aspect of the present invention. and an identification step of outputting individual identification information of an individual contained in the image by inputting data of the acquired image as input data.
〔変形例〕
本発明の他の態様に係る学習用データ生成装置は、個体を含む画像を取得する画像取得部と、取得した前記画像中の前記個体を検出する検出部と、検出した前記個体の体全体を含む体領域を特定する体領域特定部と、特定した前記体領域の体領域画像を抽出する抽出部と、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成部とを備えている。
[Modification]
A learning data generation device according to another aspect of the present invention includes an image acquisition unit that acquires an image including an individual, a detection unit that detects the individual in the acquired image, and a whole body of the individual that has been detected. a body region specifying unit that specifies a body region including a body region, an extraction unit that extracts a body region image of the specified body region, and a generator that generates training data for a discrimination model that identifies an individual from the extracted body region image and
すなわち、学習用データ生成装置において、画像中の個体を検出する方法は、動体検知方法に限定されず、個体を検出する他の方法により実現してもよい。画像中の個体を検出する他の例として、機械学習を利用した方法が挙げられる。よって、学習用データ生成装置において、動体検知部に替えて機械学習を利用して画像中の個体を検出する検出部を用いる構成についても、本発明の範疇に含まれる。 That is, in the learning data generation device, the method for detecting an individual in an image is not limited to the moving object detection method, and other methods for detecting an individual may be used. Another example of detecting individuals in images is a method using machine learning. Therefore, in the training data generation device, a configuration using a detection unit that detects an individual in an image using machine learning instead of the moving object detection unit is also included in the scope of the present invention.
機械学習を利用して画像中の個体を検出する場合、画像の撮影方向に応じて、個体の検出に適した機械学習モデルを作成することが好ましい。例えば、個体を斜め上方から撮影した画像を用いる場合、斜め上方から撮影した画像中の個体の検出に適するように生成した機械学習モデルを用いる。機械学習を利用して画像中の個体を検出する方法には、機械学習を利用して物体を検出する方法及び個体の骨格を検出する方法が含まれる。そして、このような検出部は、本発明の一態様に係る個体識別装置において使用することもできる。 When using machine learning to detect an individual in an image, it is preferable to create a machine learning model suitable for detecting the individual in accordance with the imaging direction of the image. For example, when an image of an individual photographed obliquely from above is used, a machine learning model generated so as to be suitable for detecting an individual in the image photographed obliquely from above is used. Methods for detecting individuals in images using machine learning include methods for detecting objects and methods for detecting skeletons of individuals using machine learning. Such a detection unit can also be used in the individual identification device according to one aspect of the present invention.
画像から物体を検出するように作成した機械学習モデルを用いる場合、図17に示すように、ウシ個体の画像データを入力データとして物体検出機械学習モデルに入力することにより、画像中におけるウシ個体部分の検出結果が出力される。また、画像から骨格を検出するように作成した機械学習モデルを用いる場合、図18に示すように、ウシ個体の画像データを入力データとして骨格検知機械学習モデルに入力する。これにより、画像中のウシ個体の骨格位置が検出されて個体毎にまとめられ、画像中におけるウシ個体部分の検出結果が出力される。 When using a machine learning model created to detect an object from an image, as shown in FIG. 17, by inputting image data of an individual cow into the object detection machine learning model as input data, the part of the individual cow in the image is obtained. is output. When using a machine learning model created to detect a skeleton from an image, as shown in FIG. 18, image data of an individual cow is input to the skeleton detection machine learning model as input data. As a result, the skeletal position of the bovine individual in the image is detected and grouped for each individual, and the detection result of the bovine individual part in the image is output.
また、学習用データ生成装置において、検出した個体の体全体を含む体領域を特定する方法は、枠囲みを付与する方法に限定されず、個体の体領域を特定する他の方法により実現してもよい。個体の体領域を特定する他の例として、図19に示すように、画像セグメンテーションを利用した方法が挙げられる。図19は、本発明の一態様に係る学習用データ生成装置において体領域を特定する形態の一例を説明する図である。図19に示すように、ウシ個体を含む画像において画像セグメンテーションにより体領域を特定し、例えば、特定した体領域範囲のみを示す位置座標を取得する。このように、学習用データ生成装置において、枠囲み部に替えて画像セグメンテーションにより個体の体領域を特定する体領域特定部を用いる構成についても、本発明の範疇に含まれる。また、このような体領域特定部は、本発明の一態様に係る個体識別装置において使用することもできる。 In addition, in the learning data generation device, the method of specifying the body region including the entire body of the detected individual is not limited to the method of adding a frame, but can be realized by other methods of specifying the body region of the individual. good too. Another example of identifying the body region of an individual is a method using image segmentation, as shown in FIG. FIG. 19 is a diagram illustrating an example of a form of specifying a body region in the learning data generation device according to one aspect of the present invention. As shown in FIG. 19, a body region is specified by image segmentation in an image containing a bovine individual, and, for example, position coordinates indicating only the specified body region range are obtained. In this way, in the training data generation device, a configuration that uses a body region specifying unit that specifies the body region of an individual by image segmentation instead of the frame enclosing unit is also included in the scope of the present invention. Also, such a body region identifying unit can be used in an individual identification device according to one aspect of the present invention.
さらに、学習用データ生成装置において、個体の体の一部を表す画像から体全体の画像を特定する方法は、体の他の部分を表す画像を復元する方法に限定されず、体の一部を表す画像から体全体の画像を特定する他の方法により実現してもよい。体の一部を表す画像から体全体の画像を特定する他の例として、機械学習を利用した骨格検知に基づいて推定された姿勢を参照する方法が挙げられる。 Furthermore, in the learning data generation device, the method of identifying the image of the whole body from the image representing the part of the body of the individual is not limited to the method of restoring the image representing the other part of the body. It may be realized by another method of identifying the image of the whole body from the image representing the . Another example of identifying an image of the whole body from an image representing a part of the body is a method of referring to a posture estimated based on bone structure detection using machine learning.
骨格検知に基づいて推定された姿勢を参照して、体の一部を表す画像から体全体の画像を特定する例を、図20に示す。図20は、本発明の一態様に係る学習用データ生成装置において体の一部を表す画像から体全体の画像を特定するために用いられる姿勢推定モデルの一例を説明する図である。図20に示すように、ウシ個体の一部のみが含まれる画像データを取得した場合に、画像に含まれる部位(見えている部位)から推定した姿勢を参照して、画像に含まれない部位(見えない部位)の位置を特定する。 FIG. 20 shows an example of specifying an image of the whole body from an image representing a part of the body by referring to the posture estimated based on bone structure detection. FIG. 20 is a diagram illustrating an example of a posture estimation model used to identify an image of the entire body from images representing a part of the body in the learning data generation device according to one aspect of the present invention. As shown in FIG. 20, when image data containing only a part of a bovine individual is obtained, the posture estimated from the parts included in the image (visible parts) is referred to, and the parts not included in the image are extracted. Identify the position of (invisible parts).
例えば、図20の画像データにおいて見えているのは鼻、左目、右目、左耳、右耳、左肩、及び左腰の7箇所のみである。この画像データを姿勢推定モデルに入力すると、機械学習により、見えている部位の骨格を検知する。そして、見えていない10箇所の部位の位置(右肩、右腰、左前足首、左前蹄、左後足首、左後蹄、右前足首、右前蹄、右後足首、右後蹄)を含む骨格フレーム情報が姿勢の推定結果として出力される。なお、ここに示したウシ個体の部位は例示であり、画像に含まれる部位及び画像に含まれない部位の種類や数はこれらに限定されず、適宜設定可能である。 For example, only the nose, left eye, right eye, left ear, right ear, left shoulder, and left waist are visible in the image data of FIG. When this image data is input to the posture estimation model, machine learning detects the skeleton of the visible parts. And a skeletal frame including the positions of 10 invisible parts (right shoulder, right hip, left front ankle, left front foot, left rear foot, left rear foot, right front foot, right front foot, right rear foot, right rear foot). Information is output as the result of the pose estimation. The parts of the bovine individual shown here are examples, and the types and number of parts included in the image and not included in the image are not limited to these, and can be set as appropriate.
これにより、画像中に遮蔽物があり、個体の一部しか含まれないような場合であっても、体領域の全体を特定し、個体の行動解析に利用することができる。このように、画像に含まれない部位を推定するための情報として、画像中に含まれる部位の情報を用いている。また、入力データとして、例えば、対象となる画像の時系列の前後の画像において検出した各部位の位置を利用してもよい。 This makes it possible to identify the entire body region and use it for analyzing the behavior of the individual, even if the image contains only a part of the individual due to an obstructing object. In this way, information on parts included in the image is used as information for estimating parts not included in the image. Also, as the input data, for example, the position of each part detected in images before and after the target image in time series may be used.
このように、学習用データ生成装置において、体領域特定部が、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、個体の体全体を表す体領域を特定する構成についても、本発明の範疇に含まれる。また、このような体領域特定部は、本発明の一態様に係る個体識別装置において使用することもできる。 In this way, in the learning data generation device, the body region identifying unit detects the skeleton of the individual from an image representing a part of the body of the individual and estimates the posture of the individual by machine learning. The scope of the present invention also includes a configuration for identifying a body region representing the entire body of an individual by referring to the posture of the individual output by inputting the image data of the moving object as input data. Also, such a body region identifying unit can be used in an individual identification device according to one aspect of the present invention.
〔行動型分析システム〕
動物各個体の行動種別(行動型)は動物を管理する上で重要な情報である。例えば、採食行動や休息行動は維持行動が確保されていることの指標となる。また、反芻家畜において、行動型の中でも特に反芻行動は、飼料摂取量をはじめ各種疾病の徴候や回復状態、あるいはストレス状態を反映するバロメーターとなる有用な情報とされている。従来、ウェアラブルセンサ等を利用して行動型を把握するシステムが実用化しているがコストや管理に係る労力の点で問題がある。一方、従来の画像解析では、特に反芻のような動作の把握が必要な行動の検出が困難であった。本発明の一形態によれば、画像解析を利用して動物の行動型を把握することで、省力的かつ容易に行動型データを取得することができる。また、本発明の一形態によれば、動作の把握が必要な行動型であっても検出することができる。
[Behavioral analysis system]
The behavior type (behavior type) of each individual animal is important information for managing animals. For example, eating behavior and resting behavior serve as indicators that maintenance behavior is ensured. In addition, in ruminant livestock, ruminant behavior, among other behavioral patterns, is regarded as useful information that serves as a barometer reflecting signs of various diseases including feed intake, recovery state, or stress state. Conventionally, systems that use wearable sensors and the like to grasp behavior patterns have been put into practical use, but there are problems in terms of cost and labor involved in management. On the other hand, with conventional image analysis, it is difficult to detect behaviors such as rumination, which require understanding. ADVANTAGE OF THE INVENTION According to one aspect of this invention, it is labor-saving and can acquire behavior type data easily by grasping|ascertaining the behavior type of an animal using image analysis. In addition, according to one aspect of the present invention, it is possible to detect even behavioral types that require grasping of actions.
図21を参照して、本発明の一態様に係る行動型分析システムについて説明する。図21は、本発明の一態様に係る行動型分析システム200の要部構成を示すブロック図である。行動型分析システム200は、行動型分析装置220を備えている。また、行動型分析システム200は、カメラ20、学習用データ生成装置210及び学習装置100を備えている。
A behavioral analysis system according to one aspect of the present invention will be described with reference to FIG. FIG. 21 is a block diagram showing the main configuration of a behavioral analysis system 200 according to one aspect of the present invention. The behavioral analysis system 200 includes a
(行動型分析装置220)
行動型分析装置220は、画像取得部221、検出部222、識別部223、位置特定部224、情報取得部225、及び、行動型分析部226を備えている。行動型分析装置220は、さらに、分析結果記憶部227を備えている。行動型分析装置220は、個体の行動型を検出して分析する。
(Behavioral analysis device 220)
The
<個体>
行動型分析装置220により行動型を分析する個体は、ヒト、動物、他の移動体等であり得るが、閉鎖された空間内で群毎に管理される個体であってもよいし、個体毎に管理されている個体であってもよい。このような個体には、多頭飼育されている家畜個体及び単頭飼育されている家畜個体が含まれる。家畜個体は、ウシ個体のような反芻動物個体であってもよく、例えば、乳牛個体、より具体的には、ホルスタイン種の乳牛個体であってもよい。多頭飼育されている個体は、屋内で放し飼いにされている個体であってもよいし、鎖等に繋がれてつなぎ飼いにされている個体であってもよい。また、多頭飼育されている個体は、屋外の管理区域内で飼育されている個体であってもよい。本実施形態においては、個体がウシ個体である場合を例として説明する。
<Individual>
The individuals whose behavior patterns are analyzed by the behavior
<画像取得部221>
画像取得部221は、カメラ20により撮影されたウシ個体を含む画像を取得する。画像取得部221は、上述した個体識別装置120の画像取得部121と同様に構成される。そのため、画像取得部221の説明として、個体識別装置120の画像取得部121の説明を援用し、その詳細な説明は省略する。カメラ20についても、個体識別装置120に関して説明したカメラ20と同一であるため、その詳細な説明は省略する。
<
The
<検出部222>
検出部222は、画像取得部221が取得した画像中のウシ個体を検出する。画像中のウシ個体を検出する方法としては、動体検知方法、機械学習を利用した方法等が挙げられる。動体検知方法を利用する場合、検出部222は、学習用データ生成装置10の動体検知部12と同様に構成することができる。機械学習を利用する場合、図17に示す物体検出機械学習モデル、及び、図18に示す骨格検知機械学習モデルのような、機械学習モデルを用いることができる。なお、画像中にウシ個体が単体で含まれる場合には、ウシ個体の検出は不要であり、取得した画像において後述する位置特定が行なわれてもよい。
<
The
<識別部223>
識別部223は、検出部222が検出したウシ個体を識別する。識別部223は、上述した個体識別装置120の識別部122と同様に構成される。そのため、識別部223の説明として、個体識別装置120の識別部122の説明を援用し、その詳細な説明は省略する。なお、画像中にウシ個体が単体で含まれる場合には、ウシ個体の識別は不要であり、取得した画像において後述する位置特定が行なわれてもよい。
<
The
<位置特定部224>
位置特定部224は、識別した個体の体の部位の位置を特定する。位置特定部224が特定する個体の体の部位の位置は、例えば、鼻先、口元、前肢踵、前肢蹄、等の個体の体の部位である。図22に、位置特定部224がウシ個体の体の部位を特定する例を示す。図22の左側には、座位のウシ個体の鼻先、口元、前肢踵、及び前肢蹄を特定した例を、右側に立位のウシ個体の鼻先、口元、前肢踵、及び前肢蹄を特定した例を示す。なお、特定する個体の体の部位の数はこれに限定されず、より少なくても、より多くてもよい。
<
The
位置特定部224は、機械学習を利用して個体の体の部位の位置を特定してもよい。例えば、個体を含む画像を入力データとして、当該画像中の当該個体の体の部位の位置を特定するように機械学習した位置特定モデルに、画像取得部が取得した画像を入力データとして入力することにより出力される位置を特定する。位置特定モデルに個体を含む画像を入力することにより、図22のように個体の体の部位が特定された画像が出力され得る。
The
位置特定部224は、個体の体の部位の位置の座標を取得することで、当該位置を特定してもよい。位置特定部224は、画像中における個体の体の部位の位置座標を取得する。位置特定部224は、取得した位置座標をウシ個体が存在する空間の空間座標に変換してもよい。位置特定部224は、撮像された時間が異なる複数のフレーム分の画像において位置座標を取得する。
The
位置特定部224は、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検出した前記個体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、前記位置を特定してもよい。位置特定部224において用いる姿勢推定モデルは、図20に示す姿勢推定モデルと同一である。また、位置特定部224は、学習用データ生成装置10の枠囲み部13において用いられる個体の体の一部を表す画像から当該個体の体全体を表す画像を生成するように機械学習した生成モデルを用いてもよい。これにより、画像中に遮蔽物があり、個体の体の一部しか含まれないような場合であっても、個体の体の部位を特定することが可能であり、また、位置座標を取得することも可能である。
The
なお、位置特定部224は、画像データに個体の体の一部しか含まれていない場合、個体の体全体を表す画像を生成することなく、個体の体の一部の画像において個体の体の部位を特定し、位置座標を取得してもよい。この場合、例えば、個体の体の一部の画像から個体の体の部位を特定することが可能なように学習させた位置特定モデルを用いて、個体の体の部位を特定してもよい。個体の体の一部の画像から体全体の画像を復元することなく、個体の体の一部の画像をそのまま利用しても、行動型分析を行うことができる。
Note that when the image data includes only a part of the body of the individual, the
<情報取得部225>
情報取得部225は、特定した位置の所定時間内の変化を表す時系列情報を取得する。情報取得部225が取得する時系列情報は、所定時間内の連続する画像から得られるウシ個体の部位の変化を表す情報であり、位置特定部224が取得した位置座標に基づいて得られる各部位間の平均距離及び各部位の画像フレーム間の平均変位であり得る。
<
The
<行動型分析部226>
行動型分析部226は、取得した時系列情報を参照して、個体の行動型を分析する。行動型分析部226は、時系列情報を参照することで、ウシ個体の動作を検出することが可能であり、また、ウシ個体の行動を追跡することもできる。これにより、所定のタイミングや所定の時間内における、ウシ個体の動作や行動から行動型を分析することができる。行動型分析部226は、ウシ個体の行動型の分析結果を分析結果記憶部217に格納する。
<
The behavior
行動型分析部226により分析されるウシ個体の行動型は、例えば、横臥休息、横臥反芻、立位休息、立位反芻、採食、等のような行動の種別である。図23に示すように、所定時間内の連続する画像から得られる時系列情報と、その時系列情報に対応するウシ個体の行動型とを対応付けた情報を予め取得しておくことで、時系列情報に基づいてウシ個体の行動型を分析することができる。
The behavioral pattern of the bovine individual analyzed by the behavioral
行動型分析部226は、時系列情報とウシ個体の行動型とが対応付けられた教師データを用いて構築された分析モデルを用いて、ウシ個体の行動型を分析してもよい。このような分析モデルに、時系列情報を入力データとして入力することにより、ウシ個体の行動型が出力される。行動型分析部226は、図23に示すように、分析したウシ個体の行動型をウシ個体の画像と共に表示部(図示せず)に表示させてもよい。また、行動型分析部226は、画像データに個体の体の一部しか含まれていない場合、特定した体の一部の部位の位置座標の情報のみを用いて、個体の行動型を分析してもよい。この場合、体の部位の位置座標に欠損データがあっても行動型を分析することが可能なように学習させた分析モデルを用いて、個体の行動型を分析してもよい。
The behavioral
<学習用データ生成装置210>
行動型分析システム200が備える学習用データ生成装置210は、個体を含む画像を取得する画像取得部11と、取得した画像中の前記個体を検出する検出部212と、検出した個体の体領域を特定する特定部213と、特定した体領域の体領域画像を抽出する抽出部14と、抽出した体領域画像から、個体を識別する識別モデルの学習用データを生成する学習用データ生成部15とを備えている。学習用データ生成装置210は、生成した学習用データを記憶する学習用データ記憶部16をさらに備えている。
<Learning
The learning
検出部212は、動体検知法、機械学習を利用した方法等を用いて、画像中の個体を検出する。機械学習を利用して画像中の個体を検出する方法には、機械学習を利用して物体を検出する方法及び個体の骨格を検出する方法が含まれる。特定部213は、検出した個体の体全体を含む体領域に枠囲みを付与する方法、画像セグメンテーションを利用する方法等を用いて、検出した個体の体領域を特定する。
The
画像取得部11、抽出部14、及び、学習用データ生成部15は、図1に示す学習用データ生成装置10におけるこれらの部材と同一である。すなわち、学習用データ生成装置210は、学習用データ生成装置10と同様に構成されている。そのため、学習用データ生成装置210の説明として、学習用データ生成装置10の説明を援用し、その詳細な説明は省略する。
The
学習用データ生成装置210は、識別モデルを構築するための学習用データのみならず、行動型分析部226が行動型を分析するために用いる分析モデルを構築するための学習用データを生成するために用いることもできる。
The learning
<学習装置100>
学習装置100は、学習用データ生成装置210が生成した学習用データを用いて、識別モデル、分析モデル等を構築する。行動型分析システム200が備える学習装置100は、図10に示す学習装置100と同一である。したがって、行動型分析システム200が備える学習装置100の説明として、図10に示す学習装置100の説明を援用し、その詳細な説明は省略する。
<
The
<行動型分析処理>
図24を参照して、行動型分析装置220による行動型分析処理の一例について説明する。図24は、図23の行動型分析装置220による行動型分析処理を示すフローチャートである。
<Behavioral analysis processing>
An example of behavioral analysis processing by the
まず、ステップS241において、画像取得部221は、ウシ個体を含む画像を取得する。なお、行動型分析装置220による行動型分析処理は、カメラ20から撮像画像データの入力を受け付けることにより開始してもよいし、ユーザからの行動型分析処理を開始する操作入力を受け付けることにより開始してもよい。
First, in step S241, the
次に、検出部222は、骨格検知機械学習モデルに画像データを入力し、画像データ中のウシ個体を検出する(ステップS242)。そして、識別部223は、検出されたウシ個体の画像データを識別モデルに入力し、ウシ個体の個体識別情報を取得し、ウシ個体を識別する(ステップS243)。
Next, the
位置特定部224は、識別されたウシ個体の画像データを位置特定モデルに入力し、ウシ個体の体の部位を特定する位置座標を取得する(ステップS244)。そして、情報取得部225は、特定された位置座標を連続する数フレーム分取得し、各部位間の平均距離及び各部位のフレーム間の平均変位を時系列情報として算出する(ステップS245)。
The
行動型分析部226は、時系列情報を分析モデルに入力し、ウシ個体の行動型を分析する(ステップS246)。行動型分析部226は、分析結果を分析結果記憶部227に格納し、行動型分析処理を終了する。
The behavioral
このように、行動型分析装置220は、画像データから個体の体の部位の位置を特定し、当該位置の変化を追跡することで、個体の行動型を分析することができる。これにより、省力的かつ容易に行動型分析することが可能であり、また、反芻行動のような動作の把握が必要な行動型であっても検出することができる。
In this way, the
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.
10 学習用データ生成装置、11 画像取得部、12 動体検知部、13 枠囲み部、14 抽出部、15 学習用データ生成部(生成部)、100 学習装置、101 学習用データ取得部、102 学習部、120 個体識別装置、121 画像取得部、122 識別部、140 行動分析装置、141 識別画像取得部、142 分析部、200 行動型分析システム、220 行動型分析装置、221 画像取得部、222 検出部、223 識別部、224 位置特定部、225 情報取得部、226 行動型分析部
10 learning
Claims (25)
取得した前記画像中の動体を検知する動体検知部と、
検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲み部と、
枠囲みが付与された前記体領域の体領域画像を抽出する抽出部と、
抽出した前記体領域画像から、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルの学習用データを生成する生成部と
を備えている、学習用データ生成装置。 an image acquisition unit that acquires an image containing an individual;
a moving body detection unit that detects a moving body in the acquired image;
a frame enclosing unit that encloses a body region including the entire body of the individual in the detected moving body;
an extracting unit that extracts a body region image of the body region to which the frame is attached;
A learning data generation device, comprising: a generation unit that generates learning data for a discrimination model that discriminates one individual included in a group of individuals to be identified from other individuals from the extracted body region image.
個体を含む画像を取得する画像取得ステップと、
取得した前記画像中の動体を検知する動体検知ステップと、
検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、
枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、
抽出した前記体領域画像から、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルの学習用データを生成する生成ステップと
を実行することを特徴とする、プログラム。 A program for causing a computer to function as the learning data generation device according to any one of claims 1 to 5,
an image acquisition step of acquiring an image containing the individual;
a moving body detection step of detecting a moving body in the acquired image;
a framing step of framing a body region including the entire body of the individual in the detected moving body;
an extracting step of extracting a body region image of the body region to which a frame is attached;
and a generation step of generating learning data for a discrimination model that discriminates one individual included in a group of individuals to be identified from other individuals from the extracted body region image.
請求項1から5のいずれか1項に記載の学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部と、
識別した個体の時系列の画像を取得する識別画像取得部と、
取得した前記画像を参照して、前記個体の行動を分析する分析部と
を備えている、行動分析装置。 an image acquisition unit that acquires an image containing an individual;
An identification target constructed by machine learning to identify an individual contained in an image using learning data generated by the learning data generation device according to any one of claims 1 to 5. an identification unit that outputs the individual identification information of the individual contained in the image by inputting the data of the obtained image as input data to a identification model that identifies one individual contained in the population from other individuals; ,
an identification image acquisition unit that acquires time-series images of the identified individual;
and an analysis unit that analyzes the behavior of the individual by referring to the acquired image.
個体を含む画像を取得する画像取得ステップと、
請求項1から5のいずれか1項に記載の学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、
識別した個体の時系列の画像を取得する識別画像取得ステップと、
取得した前記画像を参照して、前記個体の行動を分析する分析ステップと
を実行することを特徴とする、プログラム。 A program for causing a computer to function as the behavior analysis device according to claim 7,
an image acquisition step of acquiring an image containing the individual;
An identification target constructed by machine learning to identify an individual contained in an image using learning data generated by the learning data generation device according to any one of claims 1 to 5. an identification step of outputting individual identification information of an individual included in the image by inputting data of the acquired image as input data to a discrimination model that identifies one individual included in the population from other individuals; ,
an identification image acquisition step of acquiring time-series images of the identified individual;
and an analysis step of analyzing the behavior of the individual with reference to the acquired image.
取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルを構築する学習部と
を備えている、学習装置。 A learning data acquisition unit that acquires learning data generated by the learning data generation device according to any one of claims 1 to 5;
Learning to construct a discrimination model that discriminates one individual contained in a group of individuals to be identified from other individuals by performing machine learning so as to identify individuals contained in images using the acquired learning data. A learning device comprising:
請求項1から5のいずれか1項に記載の学習用データ生成装置が生成した学習用データを取得する学習用データ取得ステップと、
取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルを構築する学習ステップと
を実行することを特徴とする、プログラム。 A program for causing a computer to function as the learning device according to claim 9,
A learning data acquisition step of acquiring learning data generated by the learning data generation device according to any one of claims 1 to 5;
Learning to construct a discrimination model that discriminates one individual contained in a group of individuals to be identified from other individuals by performing machine learning so as to identify individuals contained in images using the acquired learning data. A program characterized by executing a step.
請求項9に記載の学習装置によって構築された前記識別モデルに、取得した前記画像の
データを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部と
を備えている、個体識別装置。 an image acquisition unit that acquires an image containing an individual;
an identification unit that outputs individual identification information of an individual contained in the image by inputting data of the acquired image as input data to the identification model constructed by the learning device according to claim 9. identification device.
個体を含む画像を取得する画像取得ステップと、
請求項9に記載の学習装置によって構築された前記識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと
を実行することを特徴とする、プログラム。 A program for causing a computer to function as the individual identification device according to claim 11,
an image acquisition step of acquiring an image containing the individual;
and inputting data of the obtained image as input data to the identification model constructed by the learning device according to claim 9, and outputting individual identification information of the individual contained in the image. A program characterized by:
取得した前記画像中の動体を検知する動体検知ステップと、
検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、
枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、
抽出した前記体領域画像から、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルの学習用データを生成する生成ステップと
を含む、学習用データ生成方法。 an image acquisition step of acquiring an image containing the individual;
a moving body detection step of detecting a moving body in the acquired image;
a framing step of framing a body region including the entire body of the individual in the detected moving body;
an extracting step of extracting a body region image of the body region to which a frame is attached;
and a generating step of generating learning data for a discrimination model for discriminating one individual contained in a group of individuals to be identified from other individuals from the extracted body region image.
請求項14に記載の学習用データ生成方法により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、
識別した個体の時系列の画像を取得する識別画像取得ステップと、
取得した前記画像を参照して、前記個体の行動を分析する分析ステップと
を含む、行動分析方法。 an image acquisition step of acquiring an image containing the individual;
15. Using the learning data generated by the learning data generation method according to claim 14, one of the individuals included in the identification target population constructed by machine learning so as to identify the individuals included in the image an identification step of outputting individual identification information of an individual contained in the image by inputting the data of the acquired image as input data to a identification model that identifies the individual from other individuals;
an identification image acquisition step of acquiring time-series images of the identified individual;
and an analysis step of analyzing the behavior of the individual with reference to the acquired image.
取得した前記画像中の前記個体を検出する検出部と、
検出した前記個体の体全体を含む体領域を特定する体領域特定部と、
特定した前記体領域の体領域画像を抽出する抽出部と、
抽出した前記体領域画像から、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルの学習用データを生成する生成部と
を備えている、学習用データ生成装置。 an image acquisition unit that acquires an image containing an individual;
a detection unit that detects the individual in the acquired image;
a body region identifying unit that identifies a body region including the entire body of the detected individual;
an extraction unit that extracts a body region image of the identified body region;
A learning data generation device, comprising: a generation unit that generates learning data for a discrimination model that discriminates one individual included in a group of individuals to be identified from other individuals from the extracted body region image.
取得した前記画像中の前記個体を検出する検出部と、
請求項1~5および16~20のいずれか1項に記載の学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体を他の個体と識別する識別部と、
識別した個体の体の部位の位置を特定する位置特定部と、
特定した前記位置の所定時間内の変化を表す時系列情報を取得する情報取得部と、
取得した前記時系列情報を参照して、前記個体の行動型を分析する行動型分析部と
を備えている、行動型分析装置。 an image acquisition unit that acquires an image containing an individual;
a detection unit that detects the individual in the acquired image;
Using learning data generated by the learning data generation device according to any one of claims 1 to 5 and 16 to 20, machine learning is performed to identify individuals included in images. inputting the obtained data of the image as input data to a discrimination model that distinguishes one individual contained in the population to be identified from other individuals, thereby distinguishing the individual contained in the image from other individuals an identification unit that
a position specifying unit that specifies the position of the body part of the identified individual;
an information acquisition unit that acquires time-series information representing changes in the identified position within a predetermined time period;
and a behavioral analysis unit that analyzes the behavioral pattern of the individual by referring to the acquired time-series information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023059075A JP2023073478A (en) | 2020-07-01 | 2023-03-31 | Behavioral analyzer, behavioral analysis method, behavioral analysis program, and recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020114316 | 2020-07-01 | ||
JP2020114316 | 2020-07-01 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023059075A Division JP2023073478A (en) | 2020-07-01 | 2023-03-31 | Behavioral analyzer, behavioral analysis method, behavioral analysis program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022013910A JP2022013910A (en) | 2022-01-18 |
JP7260922B2 true JP7260922B2 (en) | 2023-04-19 |
Family
ID=80169776
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021110070A Active JP7260922B2 (en) | 2020-07-01 | 2021-07-01 | Learning data generation device, learning device, behavior analysis device, behavior analysis device, program, and recording medium |
JP2023059075A Pending JP2023073478A (en) | 2020-07-01 | 2023-03-31 | Behavioral analyzer, behavioral analysis method, behavioral analysis program, and recording medium |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023059075A Pending JP2023073478A (en) | 2020-07-01 | 2023-03-31 | Behavioral analyzer, behavioral analysis method, behavioral analysis program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7260922B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012046392A1 (en) | 2010-10-08 | 2012-04-12 | パナソニック株式会社 | Posture estimation device and posture estimation method |
JP2019024482A (en) | 2017-07-31 | 2019-02-21 | 株式会社コンピューター総合研究所 | Information processing system, information processing device, and program |
JP2020038572A (en) | 2018-09-05 | 2020-03-12 | 京セラ株式会社 | Image learning program, image learning method, image recognition program, image recognition method, creation program for learning data set, creation method for learning data set, learning data set, and image recognition device |
JP2021144631A (en) | 2020-03-13 | 2021-09-24 | エヌ・ティ・ティ・ビズリンク株式会社 | Animal behavior estimation system, animal behavior estimation support device, animal behavior estimation method, and program |
-
2021
- 2021-07-01 JP JP2021110070A patent/JP7260922B2/en active Active
-
2023
- 2023-03-31 JP JP2023059075A patent/JP2023073478A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012046392A1 (en) | 2010-10-08 | 2012-04-12 | パナソニック株式会社 | Posture estimation device and posture estimation method |
JP2019024482A (en) | 2017-07-31 | 2019-02-21 | 株式会社コンピューター総合研究所 | Information processing system, information processing device, and program |
JP2020038572A (en) | 2018-09-05 | 2020-03-12 | 京セラ株式会社 | Image learning program, image learning method, image recognition program, image recognition method, creation program for learning data set, creation method for learning data set, learning data set, and image recognition device |
JP2021144631A (en) | 2020-03-13 | 2021-09-24 | エヌ・ティ・ティ・ビズリンク株式会社 | Animal behavior estimation system, animal behavior estimation support device, animal behavior estimation method, and program |
Non-Patent Citations (1)
Title |
---|
Niki Parmar, et al.,Image Transformer,Proceedings of the 35 th International Conference on Machine, Stockholm, Sweden, PMLR 80, 2018,2018年06月15日,https://arxiv.org/pdf/1802.05751.pdf |
Also Published As
Publication number | Publication date |
---|---|
JP2022013910A (en) | 2022-01-18 |
JP2023073478A (en) | 2023-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wurtz et al. | Recording behaviour of indoor-housed farm animals automatically using machine vision technology: A systematic review | |
Nasirahmadi et al. | Implementation of machine vision for detecting behaviour of cattle and pigs | |
Fuentes et al. | Deep learning-based hierarchical cattle behavior recognition with spatio-temporal information | |
Bao et al. | Artificial intelligence in animal farming: A systematic literature review | |
Zhao et al. | Automatic lameness detection in dairy cattle based on leg swing analysis with an image processing technique | |
Lao et al. | Automatic recognition of lactating sow behaviors through depth image processing | |
US9521829B2 (en) | Livestock identification and monitoring | |
JP2021101668A (en) | Estrus diagnosis system, estrus diagnosis method, program and individual identification system | |
US11910784B2 (en) | Animal visual identification, tracking, monitoring and assessment systems and methods thereof | |
Roland et al. | Evaluation of a triaxial accelerometer for monitoring selected behaviors in dairy calves | |
Jia et al. | Segmentation of body parts of cows in RGB-depth images based on template matching | |
KR102341715B1 (en) | Apparatus and method for livestock monitoring | |
CA3230401A1 (en) | Systems and methods for the automated monitoring of animal physiological conditions and for the prediction of animal phenotypes and health outcomes | |
Oczak et al. | Comparison of the automated monitoring of the sow activity in farrowing pens using video and accelerometer data | |
Noe et al. | Automatic detection and tracking of mounting behavior in cattle using a deep learning-based instance segmentation model | |
EP3933766B1 (en) | A system and a method for livestock monitoring | |
KR20200071597A (en) | Prediction method and the apparatus for onset time of sow farrowing by image analysis | |
Mittek et al. | Health monitoring of group-housed pigs using depth-enabled multi-object tracking | |
Azarpajouh et al. | Farm 4.0: innovative smart dairy technologies and their applications as tools for welfare assessment in dairy cattle | |
Yaseer et al. | A review of sensors and Machine Learning in animal farming | |
JP7260922B2 (en) | Learning data generation device, learning device, behavior analysis device, behavior analysis device, program, and recording medium | |
CN111814698A (en) | Method for detecting calf-protecting behavior of cows in pasturing area based on artificial intelligence and aerial images | |
Yuan et al. | Stress-free detection technologies for pig growth based on welfare farming: A review | |
JP2024046596A (en) | State prediction device, state prediction method, program, and recording medium | |
Siegford et al. | Practical considerations for the use of precision livestock farming to improve animal welfare |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220614 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220614 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221017 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230331 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7260922 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |