JP7260922B2 - Learning data generation device, learning device, behavior analysis device, behavior analysis device, program, and recording medium - Google Patents

Learning data generation device, learning device, behavior analysis device, behavior analysis device, program, and recording medium Download PDF

Info

Publication number
JP7260922B2
JP7260922B2 JP2021110070A JP2021110070A JP7260922B2 JP 7260922 B2 JP7260922 B2 JP 7260922B2 JP 2021110070 A JP2021110070 A JP 2021110070A JP 2021110070 A JP2021110070 A JP 2021110070A JP 7260922 B2 JP7260922 B2 JP 7260922B2
Authority
JP
Japan
Prior art keywords
individual
image
learning
unit
learning data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021110070A
Other languages
Japanese (ja)
Other versions
JP2022013910A (en
Inventor
慎吾 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Agriculture and Food Research Organization
Original Assignee
National Agriculture and Food Research Organization
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Agriculture and Food Research Organization filed Critical National Agriculture and Food Research Organization
Publication of JP2022013910A publication Critical patent/JP2022013910A/en
Priority to JP2023059075A priority Critical patent/JP2023073478A/en
Application granted granted Critical
Publication of JP7260922B2 publication Critical patent/JP7260922B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/70Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry

Landscapes

  • Image Analysis (AREA)

Description

本発明は、学習用データ生成装置、学習装置、行動分析装置、行動型分析装置、プログラム、及び記録媒体に関する。 The present invention relates to a learning data generation device, a learning device, a behavior analysis device, a behavior analysis device, a program, and a recording medium.

酪農経営の大規模化に対応した省力的な牛群管理技術の開発に向けて、牛群内の各個体の行動を自動でモニタリングできる手法が求められている。牛群内を個体毎にモニタリングする技術として、各個体に加速度計等のウェアラブルセンサを装着してモニタリングする技術が実用化されている。このような技術の一例として、牛の活動量を把握するための首輪型センサを牛に装着し、活動、反芻及び休息の時間を計算して、その情報から発情、疾病の疑い等の注意すべきウシを検出する技術が知られている。 In order to develop a labor-saving herd management technology that corresponds to the scale of dairy farming, there is a need for a method that can automatically monitor the behavior of each individual in the herd. As a technology for monitoring individual cows in a herd, a technology for monitoring by attaching a wearable sensor such as an accelerometer to each individual has been put into practical use. As an example of such technology, a collar-type sensor is attached to the cow to grasp the amount of activity of the cow, and the time of activity, rumination and rest is calculated. Techniques for detecting slaughtered cattle are known.

しかしながら、このような技術では、牛群が大規模であるほど導入コストが増大すると共に、機器の管理に係る労力が大きくなる。このような技術の導入、運用にかかる費用は、例えば、ウシの活動量を把握するための首輪型センサが1台数万円、利用料が1頭数千円/年とされている。 However, with such a technique, the larger the cattle herd, the greater the introduction cost and the greater the labor involved in managing the equipment. The cost of introducing and operating such technology is, for example, several tens of thousands of yen per collar-type sensor for grasping the amount of activity of a cow, and several thousand yen per year for usage fees.

これに対して、映像解析に基づいて牛をモニタリングする技術では、牛にセンサを取り付ける必要がないのでコストを削減でき、また、管理が容易であるという利点がある。映像解析に基づいて牛をモニタリングする技術として、非特許文献1及び2に記載された技術が例として挙げられる。非特許文献1には、牛の深度カメラ映像から牛の歩様を解析し、蹄病を検出できることが示されている。また、非特許文献2には、分娩予兆としての姿勢の変化等を牛の撮影画像から検知することが記載されている。 In contrast, technology that monitors cows based on video analysis has the advantage of reducing costs and facilitating management because there is no need to attach sensors to cows. Techniques described in Non-Patent Documents 1 and 2 are examples of techniques for monitoring cattle based on image analysis. Non-Patent Document 1 discloses that hoof disease can be detected by analyzing a cow's gait from a depth camera image of the cow. In addition, Non-Patent Document 2 describes detecting a change in posture as a sign of parturition from a photographed image of a cow.

また、人を対象とした個体の識別及び追跡する技術として、特許文献1及び2に記載された技術が例として挙げられる。特許文献1には、特定地域内を移動するヒトを検知すると共に当該人の静止画を取得して住人か非住人かを判断し、時系列で行動を追う構成が記載されている。また、特許文献2には、映像中の動体を検出し、人物の判別のための特徴量を抽出する構成が記載されている。 In addition, examples of techniques for identifying and tracking individuals targeting humans include techniques described in Patent Literatures 1 and 2. Patent Literature 1 describes a configuration that detects a person moving within a specific area, acquires a still image of the person, determines whether the person is a resident or a non-resident, and follows the behavior in chronological order. Further, Patent Literature 2 describes a configuration for detecting a moving object in an image and extracting a feature amount for identifying a person.

特開2017-224249JP 2017-224249 特開2019-169843JP 2019-169843

砂川 翔ら、情報処理学会研究報告、Vol. 2017-CVIM-206, No.2(2017)Sho Sunagawa et al., Information Processing Society of Japan Research Report, Vol. 2017-CVIM-206, No.2(2017) 沖本祐典ら、人工知能学会全国大会論文集、第32回全国大会(2018)Yusuke Okimoto et al., Proceedings of the JSAI Annual Conference, 32nd Annual Conference (2018)

しかしながら、非特許文献1及び2に記載された技術は、単独の個体をモニタリングすることを想定したものであるため、複数の牛個体の行動を個体毎に解析する態様に適したものではない。 However, the techniques described in Non-Patent Documents 1 and 2 assume the monitoring of a single individual, and therefore are not suitable for analyzing the behavior of a plurality of individual cows.

一方、特許文献1及び2に記載された技術は、複数の個体をモニタリングするものであり、個体識別に機械学習済みモデルを利用することが記載されているが、機械学習のための学習用データの収集についてなんら記載されていない。個体構成や撮影条件が異なる様々な牛群に対して汎用利用可能な個体識別技術とするためには、牛群毎に簡便に構築可能な学習済みモデルを利用した個体識別システムであることが求められる。 On the other hand, the techniques described in Patent Documents 1 and 2 are for monitoring a plurality of individuals, and it is described that a machine-learned model is used for individual identification, but learning data for machine learning No mention is made of the collection of In order to develop an individual identification technology that can be used universally for various cattle herds with different individual composition and imaging conditions, an individual identification system using a trained model that can be easily constructed for each herd is required. be done.

本発明の一態様は、上述した問題点を解決するためになされたものであり、その目的は、様々な個体群に適用できる汎用性の高い、映像からの行動解析システムを実現することである。 One aspect of the present invention was made to solve the above-described problems, and the purpose thereof is to realize a highly versatile video-based behavior analysis system that can be applied to various populations. .

上記の課題を解決するために、本発明は、以下の態様を含む。
1) 個体を含む画像を取得する画像取得部と、取得した前記画像中の動体を検知する動体検知部と、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲み部と、枠囲みが付与された前記体領域の体領域画像を抽出する抽出部と、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成部とを備えている。
2) 前記枠囲み部は、個体を含む画像から当該個体の体全体を含む体領域を抽出するように機械学習した判別モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される体領域に枠囲みを付与する、1)に記載の学習用データ生成装置。
3) 前記枠囲み部は、個体の体の一部を表す画像から当該個体の体全体を表す画像を生成するように機械学習した生成モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される個体の体全体を表す画像を体領域とし、当該体領域に枠囲みを付与する、1)又は2)に記載の学習用データ生成装置。
4) 前記個体は、多頭飼育されている家畜個体である、1)から3)のいずれかに記載の学習用データ生成装置。
5) 前記生成部は、前記体領域画像を個体毎に分類して蓄積し、前記学習用データを生成する、1)から4)のいずれか1項に記載の学習用データ生成装置。
6) 1)から5)のいずれかに記載の学習用データ生成装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、取得した前記画像中の動体を検知する動体検知ステップと、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成ステップとを実行することを特徴とする、プログラム。
7) 個体を含む画像を取得する画像取得部と、1)から5)のいずれかに記載の学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部と、識別した個体の時系列の画像を取得する識別画像取得部と、取得した前記画像を参照して、前記個体の行動を分析する分析部とを備えている、行動分析装置。
8) 7)に記載の行動分析装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、1)から5)のいずれかに記載の学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、識別した個体の時系列の画像を取得する識別画像取得ステップと、取得した前記画像を参照して、前記個体の行動を分析する分析ステップとを実行することを特徴とする、プログラム。
9) 1)から5)のいずれかに記載の学習用データ生成装置が生成した学習用データを取得する学習用データ取得部と、取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、個体を識別する識別モデルを構築する学習部とを備えている、学習装置。
10) 9)に記載の学習装置としてコンピュータを機能させるためのプログラムであって、1)から5)の何れかに記載の学習用データ生成装置が生成した学習用データを取得する学習用データ取得ステップと、取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、個体を識別する識別モデルを構築する学習ステップとを実行することを特徴とする、プログラム。
11) 個体を含む画像を取得する画像取得部と、9)に記載の学習装置によって構築された前記識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部とを備えている、個体識別装置。
12) 11)に記載の個体識別装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、9)に記載の学習装置によって構築された前記識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップとを実行することを特徴とする、プログラム。
前記個体識別装置が備える各部としてコンピュータを機能させるためのプログラム。
13) 6)、8)、10)又は12)に記載のプログラムを記録した記録媒体。
14) 個体を含む画像を取得する画像取得ステップと、取得した前記画像中の動体を検知する動体検知ステップと、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成ステップとを含む、学習用データ生成方法。
15) 個体を含む画像を取得する画像取得ステップと、14)に記載の学習用データ生成方法により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、識別した個体の時系列の画像を取得する識別画像取得ステップと、取得した前記画像を参照して、前記個体の行動を分析する分析ステップとを含む、行動分析方法。
16) 学習用データ生成装置は、個体を含む画像を取得する画像取得部と、取得した前記画像中の前記個体を検出する検出部と、検出した前記個体の体全体を含む体領域を特定する体領域特定部と、特定した前記体領域の体領域画像を抽出する抽出部と、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成部とを備えている。
17) 16)に記載の学習用データ生成装置において、前記検出部は、個体を含む画像を入力データとして、当該画像中の当該個体を検出するように機械学習した検出モデルに、前記画像取得部が取得した前記画像を入力データとして入力することにより出力される前記個体を検出する。
18) 16)又は17)に記載の学習用データ生成装置において、前記体領域特定部は、前記検出部が検出した前記個体の体全体を含む体領域を画像セグメンテーションにより特定する。
19) 16)~18)のいずれかに記載の学習用データ生成装置において、前記体領域特定部は、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検出した前記個体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、個体の体全体を表す体領域を特定する。
20) 16)~19)のいずれかに記載の学習用データ生成装置において、前記生成部は、体領域画像を同一個体毎に分類して蓄積し、前記学習用データを生成する。
21) 行動型分析装置は、個体を含む画像を取得する画像取得部と、取得した前記画像中の前記個体を検出する検出部と、検出した前記個体を識別する識別部と、識別した個体の体の部位の位置を特定する位置特定部と、特定した前記位置の所定時間内の変化を表す時系列情報を取得する情報取得部と、取得した前記時系列情報を参照して、前記個体の行動型を分析する行動型分析部とを備えている。
22) 21)に記載の行動型分析装置において、前記位置特定部は、個体を含む画像を入力データとして、当該画像中の当該個体の体の部位の位置を特定するように機械学習した位置特定モデルに、前記画像取得部が取得した前記画像を入力データとして入力することにより出力される前記位置を特定する。
23) 21)又は22)に記載の行動型分析装置において、位置特定部は、前記個体の体の部位の位置の座標を取得する。
24) 21)から23)のいずれかに記載の行動型分析装置において、前記行動型分析部は、時系列情報を入力データとして、当該時系列情報に対応した行動型を推定するように機械学習した分析モデルに、前記情報取得部が取得した前記時系列情報を入力データとして入力することにより出力される行動型を分析結果として取得する。
25) 21)から24)のいずれかに記載の行動型分析装置において、前記位置特定部は、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検出した前記個体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、前記位置を特定する。
In order to solve the above problems, the present invention includes the following aspects.
1) An image acquisition unit that acquires an image including an individual, a moving object detection unit that detects a moving object in the acquired image, and a body region including the entire body of the individual in the detected moving object is framed. an extraction unit for extracting a body region image of the body region to which the frame is attached; and a generation unit for generating training data for a discrimination model that identifies an individual from the extracted body region image It has
2) The frame enclosing unit inputs image data of the detected moving object as input data to a discriminant model subjected to machine learning so as to extract a body region including the entire body of the individual from an image including the individual, and outputs the result. The learning data generation device according to 1), which gives a frame to the body region to be processed.
3) The frame enclosing unit inputs the image data of the detected moving object as input data to a generative model that performs machine learning so as to generate an image representing the entire body of the individual from an image representing a part of the body of the individual. The learning data generating device according to 1) or 2), wherein the image representing the entire body of the individual output by the above is set as a body region, and the body region is surrounded by a frame.
4) The learning data generating device according to any one of 1) to 3), wherein the individual is a livestock individual raised in multiple animals.
5) The learning data generation device according to any one of 1) to 4), wherein the generation unit classifies and accumulates the body region images for each individual to generate the learning data.
6) A program for causing a computer to function as the learning data generation device according to any one of 1) to 5), comprising: an image acquisition step of acquiring an image containing an individual; a moving body detection step for detecting; a frame surrounding step for giving a frame surrounding a body region including the entire body of the individual among the detected moving bodies; and extracting a body region image of the body region given the frame surrounding. A program characterized by executing an extraction step and a generation step of generating training data for a discrimination model for identifying an individual from the extracted body region image.
7) using an image acquisition unit that acquires an image containing an individual and learning data generated by the learning data generation device according to any one of 1) to 5) to identify the individual contained in the image; an identification unit that outputs individual identification information of an individual contained in the image by inputting the data of the acquired image as input data into an identification model that identifies an individual, which is constructed by machine learning; 1. A behavior analysis apparatus, comprising: an identification image acquisition unit that acquires time-series images of an individual that has been identified; and an analysis unit that analyzes the behavior of the individual by referring to the acquired images.
8) A program for causing a computer to function as the behavior analysis device according to 7), comprising an image acquisition step of acquiring an image including an individual, and the learning data generation device according to any one of 1) to 5). Inputting the obtained image data as input data to an identification model for identifying an individual, which is constructed by machine learning so as to identify the individual contained in the image using the learning data generated by an identification step of outputting individual identification information of an individual contained in the image; an identification image obtaining step of obtaining time-series images of the identified individual; and referring to the obtained image to determine the behavior of the individual. A program characterized by performing an analysis step of analyzing.
9) a learning data acquisition unit that acquires learning data generated by the learning data generation device according to any one of 1) to 5); and an individual included in an image using the acquired learning data. and a learning unit that builds a discrimination model that discriminates an individual by performing machine learning so as to discriminate.
10) A program for causing a computer to function as the learning device according to 9), which acquires learning data generated by the learning data generation device according to any one of 1) to 5). and a learning step of building an identification model for identifying individuals by performing machine learning so as to identify individuals contained in images using the acquired learning data. program.
11) An image acquisition unit that acquires an image including an individual, and by inputting the data of the acquired image into the discrimination model constructed by the learning device according to 9) as input data, the image included in the image and an identification unit that outputs individual identification information of an individual.
12) A program for causing a computer to function as the individual identification device according to 11), comprising: an image acquisition step of acquiring an image containing an individual; and an identification step of outputting individual identification information of an individual contained in the image by inputting data of the obtained image as input data.
A program for causing a computer to function as each unit included in the individual identification device.
13) A recording medium recording the program according to 6), 8), 10) or 12).
14) An image acquisition step of acquiring an image including the individual, a moving object detection step of detecting a moving object in the acquired image, and a body region including the entire body of the individual in the detected moving object is framed. an extraction step of extracting a body region image of the body region to which the frame is attached; and a generation step of generating learning data for a discrimination model that identifies an individual from the extracted body region image A method for generating data for learning, including
15) An image acquisition step of acquiring an image containing an individual, and the learning data generated by the learning data generation method according to 14) are used to perform machine learning so as to identify the individual contained in the image. an identification step of outputting individual identification information of the individual contained in the image by inputting the acquired image data as input data to the identification model for identifying the individual, and a time series of the identified individual. A behavior analysis method, comprising: an identification image acquisition step of acquiring an image; and an analysis step of analyzing the behavior of the individual with reference to the acquired image.
16) The learning data generation device includes an image acquisition unit that acquires an image including an individual, a detection unit that detects the individual in the acquired image, and a body region that includes the entire body of the detected individual. A body region specifying unit, an extracting unit for extracting a body region image of the specified body region, and a generating unit for generating learning data for a discrimination model for identifying an individual from the extracted body region image. .
17) In the learning data generation device according to 16), the detection unit uses an image including an individual as input data, and the detection model machine-learned to detect the individual in the image is added to the image acquisition unit. detects the individual output by inputting the acquired image as input data.
18) In the learning data generation device according to 16) or 17), the body region identifying unit identifies a body region including the entire body of the individual detected by the detecting unit by image segmentation.
19) In the learning data generation device according to any one of 16) to 18), the body region identifying unit detects a skeleton of the individual from an image representing a part of the body of the individual and estimates the posture. A body region representing the entire body of the individual is identified by referring to the output posture of the individual by inputting the detected image data of the individual as input data to the posture estimation model machine-learned in (1).
20) In the learning data generation device according to any one of 16) to 19), the generation unit classifies and accumulates body region images for each same individual to generate the learning data.
21) The behavioral analysis device includes an image acquisition unit that acquires an image including an individual, a detection unit that detects the individual in the acquired image, an identification unit that identifies the detected individual, and the identified individual. a position specifying unit that specifies a position of a body part; an information acquisition unit that acquires time-series information representing a change in the specified position within a predetermined time period; and a behavioral analysis unit that analyzes behavioral patterns.
22) In the behavioral analysis device according to 21), the position specifying unit uses an image including an individual as input data, and uses machine learning to specify the position of the body part of the individual in the image. The position output by inputting the image acquired by the image acquisition unit into the model as input data is specified.
23) In the behavioral analysis device described in 21) or 22), the position specifying unit acquires the coordinates of the position of the body part of the individual.
24) In the behavioral analysis device according to any one of 21) to 23), the behavioral analysis unit uses time-series information as input data and performs machine learning to estimate a behavioral pattern corresponding to the time-series information. The behavior pattern outputted by inputting the time-series information acquired by the information acquiring unit as input data into the analysis model thus obtained is acquired as an analysis result.
25) In the behavioral analysis device according to any one of 21) to 24), the position specifying unit detects a skeleton of the individual from an image representing a part of the body of the individual and estimates the posture of the individual. The position is identified by referring to the posture of the individual output by inputting the detected image data of the individual to the learned posture estimation model as input data.

本発明の一態様によれば、様々な個体群に適用できる汎用性の高い、映像からの行動解析システムを実現することができる。 According to one aspect of the present invention, it is possible to realize a highly versatile video-based behavior analysis system that can be applied to various populations.

本発明の一態様に係る学習用データ生成装置の要部構成を示すブロック図である。1 is a block diagram showing a main configuration of a learning data generation device according to one aspect of the present invention; FIG. 本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。It is a figure explaining the data generation process for learning of the data generation apparatus for learning which concerns on one aspect of this invention. 本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。It is a figure explaining the data generation process for learning of the data generation apparatus for learning which concerns on one aspect of this invention. 本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。It is a figure explaining the data generation process for learning of the data generation apparatus for learning which concerns on one aspect of this invention. 本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。It is a figure explaining the data generation process for learning of the data generation apparatus for learning which concerns on one aspect of this invention. 本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。It is a figure explaining the data generation process for learning of the data generation apparatus for learning which concerns on one aspect of this invention. 本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。It is a figure explaining the data generation process for learning of the data generation apparatus for learning which concerns on one aspect of this invention. 本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。It is a figure explaining the data generation process for learning of the data generation apparatus for learning which concerns on one aspect of this invention. 学習用データ生成装置による学習用データ生成処理を示すフローチャートである。4 is a flowchart showing learning data generation processing by a learning data generation device; 本発明の一態様に係る学習装置の要部構成を示すブロック図である。1 is a block diagram showing a configuration of a main part of a learning device according to one aspect of the present invention; FIG. 学習装置による学習処理を示すフローチャートである。4 is a flowchart showing learning processing by a learning device; 本発明の一態様に係る個体識別装置の要部構成を示すブロック図である。1 is a block diagram showing a configuration of a main part of an individual identification device according to one aspect of the present invention; FIG. 個体識別装置による個体識別処理を示すフローチャートである。It is a flow chart which shows individual identification processing by an individual identification device. 本発明の一態様に係る行動分析装置の要部構成を示すブロック図である。1 is a block diagram showing a configuration of main parts of a behavior analysis device according to one aspect of the present invention; FIG. 行動分析装置による行動分析処理を示すフローチャートである。It is a flowchart which shows the action-analysis process by a action-analysis apparatus. 本発明の一態様に係る学習用データ生成装置で利用する個体識別の一例を説明する図である。It is a figure explaining an example of individual identification used with the data generation device for learning concerning one mode of the present invention. 本発明の一態様に係る学習用データ生成装置において画像中の個体を検出するために用いられる物体検出機械学習モデルの一例を説明する図である。FIG. 5 is a diagram illustrating an example of an object detection machine learning model used for detecting an individual in an image in the learning data generating device according to one aspect of the present invention; 本発明の一態様に係る学習用データ生成装置において画像中の個体を検出するために用いられる骨格検知機械学習モデルの一例を説明する図である。FIG. 5 is a diagram illustrating an example of a skeleton detection machine learning model used for detecting an individual in an image in the learning data generation device according to one aspect of the present invention; 本発明の一態様に係る学習用データ生成装置において体領域を特定する形態の一例を説明する図である。FIG. 5 is a diagram illustrating an example of a form of specifying a body region in the learning data generation device according to one aspect of the present invention; 本発明の一態様に係る学習用データ生成装置において体の一部を表す画像から体全体の画像を特定するために用いられる姿勢推定モデルの一例を説明する図である。FIG. 5 is a diagram illustrating an example of a posture estimation model used to identify an image of the entire body from images representing a part of the body in the learning data generation device according to one aspect of the present invention; 本発明の一態様に係る行動型分析システムの要部構成を示すブロック図である。1 is a block diagram showing a configuration of main parts of a behavioral analysis system according to one aspect of the present invention; FIG. 行動型分析装置において特定される個体の体の部位を例示する図である。FIG. 4 is a diagram illustrating body parts of an individual identified by the behavioral analysis device; 行動型分析装置において分析される個体の行動型を例示する図である。FIG. 4 is a diagram illustrating behavior patterns of individuals analyzed by the behavior analysis device; 行動型分析装置による行動型分析処理を示すフローチャートである。4 is a flowchart showing behavioral analysis processing by the behavioral analysis device;

〔学習用データ生成装置〕
本発明の一態様に係る学習用データ生成装置は、個体を含む画像を取得する画像取得部と、取得した前記画像中の動体を検知する動体検知部と、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲み部と、枠囲みが付与された前記体領域の体領域画像を抽出する抽出部と、抽出した前記体領域画像から、個体を識別する個体識別モデルの学習用データを生成する生成部とを備えている。
[Learning data generator]
A learning data generation device according to an aspect of the present invention includes an image acquisition unit that acquires an image including an individual, a moving object detection unit that detects a moving object in the acquired image, and the individual in the detected moving object. an extracting unit for extracting a body region image of the framed body region; and an individual identified from the extracted body region image. a generation unit that generates learning data for the individual identification model.

図1は、本発明の一態様に係る学習用データ生成装置の要部構成を示すブロック図である。学習用データ生成装置10は、画像取得部11、動体検知部12、枠囲み部13、抽出部14、学習用データ生成部(生成部)15、及び学習用データ記憶部16を備えている。学習用データ生成装置10は、機械学習により個体識別モデルを構築するために用いられる学習用データを生成する。 FIG. 1 is a block diagram showing the main configuration of a learning data generation device according to one aspect of the present invention. The learning data generation device 10 includes an image acquisition unit 11 , a moving object detection unit 12 , a frame enclosing unit 13 , an extraction unit 14 , a learning data generation unit (generation unit) 15 , and a learning data storage unit 16 . The learning data generation device 10 generates learning data used for constructing an individual identification model by machine learning.

(個体)
学習用データ生成装置10により生成する学習用データを機械学習させた個体識別モデルは、複数の個体が撮影された画像において個体を識別する機械学習済モデルである。個体識別モデルにより識別する個体は、ヒト、動物、他の移動体等であり得るが、閉鎖された空間内で群毎に管理される個体であることが好ましい。個体識別モデルにより識別する個体は、多頭飼育されている家畜個体であることがより好ましく、ウシ個体であることがさらに好ましく、乳牛個体であることがさらにより好ましく、最も好ましくはホルスタイン種の乳牛個体である。なお、以下では、識別する個体の例としてホルスタイン種の乳牛個体について説明するが、本発明はこれに限定されず、他の乳牛個体又は他の動物個体であっても、紋様や体型の違い、あるいは簡易なマーカー等を利用することにより、ホルスタイン種の乳牛個体と同様に適用することができる。例えば、錦鯉、豚、猫や犬等にも、本発明を適用することができる。簡易なマーカーを利用する構成の例として、図16に示すように、首輪に数値などの標識を装着する構成が挙げられる。図16は、本発明の一態様に係る学習用データ生成装置で利用する個体識別の一例を説明する図である。このような簡易なマーカーを利用することによって、紋様による識別が難しい種であっても容易に個体識別することが可能であり、様々な種の個体に本発明を適用することができる。
(individual)
An individual identification model obtained by machine-learning the learning data generated by the learning data generation device 10 is a machine-learned model for identifying an individual in a photographed image of a plurality of individuals. Individuals to be identified by the individual identification model can be humans, animals, other moving objects, etc., but are preferably individuals managed in groups within a closed space. Individuals to be identified by the individual identification model are more preferably multi-headed livestock individuals, more preferably cattle individuals, still more preferably dairy cow individuals, and most preferably Holstein dairy cow individuals. is. In the following, an individual Holstein dairy cow will be described as an example of an individual to be identified, but the present invention is not limited to this. Alternatively, by using a simple marker or the like, it can be applied in the same manner as Holstein dairy cow individuals. For example, the present invention can be applied to Nishikigoi, pigs, cats and dogs. As an example of a configuration using a simple marker, as shown in FIG. 16, there is a configuration in which a marker such as a numerical value is attached to the collar. FIG. 16 is a diagram illustrating an example of individual identification used by the learning data generating device according to one aspect of the present invention. By using such a simple marker, it is possible to easily identify even species that are difficult to identify by patterns, and the present invention can be applied to individuals of various species.

なお、多頭飼育されている個体は、図2に示すように、屋内で放し飼いにされている個体であってもよいし、鎖等に繋がれてつなぎ飼いにされている個体であってもよい。図2は、本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。また、多頭飼育されている個体は、屋外の管理区域内で飼育されている個体であってもよい。本実施形態においては、個体がウシ個体である場合を例として説明する。 As shown in FIG. 2, the multi-headed individual may be an individual that is kept free-range indoors, or an individual that is tied to a chain or the like and kept in a tie. . FIG. 2 is a diagram illustrating learning data generation processing of the learning data generation device according to one aspect of the present invention. In addition, an individual that is reared with multiple animals may be an individual that is reared outdoors in a controlled area. In this embodiment, a case where the individual is a bovine individual will be described as an example.

(画像取得部11)
画像取得部11は、ウシ個体を含む画像を取得する。画像取得部11は、入出力部(図示せず)を介して、ウシ個体を撮像したカメラ20から個体を含む画像を取得する。画像取得部11は、無線通信又は有線通信によりカメラ20からウシ個体を含む画像を取得する。画像取得部11は、カメラ20によりウシ個体を撮像する度毎に画像を取得してもよいし、所定時間毎に画像を取得してもよい。
(Image acquisition unit 11)
The image acquisition unit 11 acquires an image including an individual bovine. The image acquisition unit 11 acquires an image including the individual from the camera 20 that has captured the individual bovine through an input/output unit (not shown). The image acquisition unit 11 acquires an image including the bovine individual from the camera 20 by wireless communication or wired communication. The image acquisition unit 11 may acquire an image each time the camera 20 captures an image of the individual bovine, or may acquire an image at predetermined time intervals.

カメラ20は、ウシ個体を上から撮影するものであってもよいし、斜め上方から撮影するものであってもよい。学習用データ生成装置10においては、ウシ個体を上から撮影した画像のみならず、斜め上方から撮影した画像であっても好適に使用可能である。一例として、ウシ個体が屋内において飼育されている場合には、カメラ20を天井に設置していてもよいし、壁面に設置していてもよい。また、ウシ個体が屋外において飼育されている場合には、カメラ20をポールや柵等に固定して設置していてもよい。 The camera 20 may photograph the bovine individual from above, or may photograph it obliquely from above. In the learning data generation device 10, not only an image photographed from above but also an image photographed obliquely from above can be suitably used. As an example, when a cow is raised indoors, the camera 20 may be installed on the ceiling or on the wall. Further, when the cow is raised outdoors, the camera 20 may be fixed to a pole, fence, or the like.

ウシ個体を含む画像は、ウシ個体が撮像された画像であり、可視光画像であってもよいし、サーモカメラ等で撮影した赤外線画像であってもよいし、3次元レーザーセンサー等により得られた3次元画像であってもよい。赤外線画像やレーザーセンサーによる3次元画像を用いることにより、照明を用いずに夜間の画像を取得することができる。また、ウシ個体を含む画像は、静止画であっても、動画であってもよい。画像取得部11は、複数のカメラ20からウシ個体を含む画像を取得することが好ましく、複数のカメラ20がそれぞれ異なる方向からウシ個体を撮像した画像を取得することがより好ましい。画像取得部11は、取得したウシ個体を含む画像を動体検知部12に送る。 An image containing an individual bovine is an image obtained by capturing an individual bovine, and may be a visible light image, an infrared image captured by a thermo camera or the like, or obtained by a three-dimensional laser sensor or the like. It may also be a three-dimensional image. Night images can be obtained without illumination by using infrared images or three-dimensional images obtained by laser sensors. Also, the image containing the bovine individual may be a still image or a moving image. The image acquisition unit 11 preferably acquires images including the individual bovine from the plurality of cameras 20, and more preferably acquires images of the individual bovine captured from different directions by the plurality of cameras 20, respectively. The image acquisition unit 11 sends the acquired image containing the individual cow to the moving object detection unit 12 .

(動体検知部12)
動体検知部12は、取得したウシ個体を含む画像中の動体を検知する。動体検知部12は、ウシ個体を含む画像において物体の動きを検知し、動いた物体を動体として検知する。動体検知部12は、例えば、撮像された時間が異なる複数の画像フレーム間で比較を行うフレーム間差分処理、撮像された画像と事前に取得した背景画像とで比較を行う背景差分処理等により、画像中の動体を検知する。動体検知部12は、検知した動体の、画像中の位置情報を取得し、枠囲み部13に送る。
(Moving body detection unit 12)
The moving body detection unit 12 detects a moving body in the image including the acquired bovine individual. The moving object detection unit 12 detects the movement of an object in the image containing the individual cow, and detects the moving object as a moving object. The moving object detection unit 12 performs, for example, inter-frame difference processing for comparing a plurality of image frames captured at different times, background difference processing for comparing a captured image with a background image acquired in advance, and the like. Detect moving objects in images. The moving body detection unit 12 acquires the position information of the detected moving body in the image and sends it to the enclosing unit 13 .

(枠囲み部13)
枠囲み部13は、検知した動体のうちのウシ個体の体全体を含む体領域に枠囲みを付与する。枠囲み部13は、検知した動体がウシ個体である場合に、当該ウシ個体の体領域に枠囲みを付与する。枠囲み部13は、取得した動体の位置情報に対応する部分領域の画像において、ウシ個体の体領域を特定し、枠囲みを付与する。
(Frame Surrounding Part 13)
The framing unit 13 gives a framing to a body region including the whole body of the individual cow among the detected moving bodies. When the detected moving object is a bovine individual, the framing unit 13 gives a frame to the body region of the bovine individual. The framing unit 13 specifies the body region of the bovine individual in the image of the partial region corresponding to the acquired position information of the moving body, and adds a frame to it.

ウシ個体の体領域を特定せずに、動体の位置情報に対応する部分領域の画像に枠囲みを付与すると、図3に示すように、ウシ個体の頭部や尾部のみのような体の一部にのみ枠囲みが付与される場合がある。また、ウシ個体以外の動体に枠囲みが付与される場合もある。 If the image of the partial region corresponding to the positional information of the moving object is framed without specifying the body region of the individual cow, as shown in FIG. A frame may be given only to the part. In some cases, a moving object other than a cow is given a frame.

一方、枠囲み部13は、動体の位置情報に対応する部分領域の画像において、ウシ個体の体領域を特定して枠囲みを付与するので、図4に示すように、ウシ個体の体全体が枠の内側に存在するように枠囲みが付与される。図4は、本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。 On the other hand, the framing unit 13 specifies the body region of the bovine individual in the image of the partial region corresponding to the position information of the moving body and adds a frame to it. A border is added to exist inside the frame. FIG. 4 is a diagram illustrating learning data generation processing of the learning data generation device according to one aspect of the present invention.

枠囲み部13におけるウシ個体の体領域の特定は、例えば、ウシ個体の体領域を特定するように機械学習した学習済みモデルを用いる方法や、特徴点マッチング、パターンマッチング等の方法により行うことができる。すなわち、枠囲み部13は、ウシ個体を含む画像から当該ウシ個体の体全体を含む体領域を抽出するように機械学習した判別モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される体領域に枠囲みを付与する。このような機械学習済みの判別モデルは、例えば、数千~数万頭のウシ個体の体全体を撮像した画像を蓄積した、図5に示すような学習用データを用いて、サポートベクターマシン、ランダムフォレスト、k-means法、畳み込みニューラルネットワークのような公知の学習アルゴリズムを適用することで得られる。図5は、本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。 The body region of the bovine individual in the framed portion 13 can be specified, for example, by a method using a trained model that has undergone machine learning so as to specify the body region of the bovine individual, or by a method such as feature point matching or pattern matching. can. That is, the framing unit 13 inputs the image data of the detected moving object as input data to a discriminant model subjected to machine learning so as to extract a body region including the entire body of the bovine individual from an image including the bovine individual. Adds a bounding box to the body region output by . Such a machine-learned discriminant model, for example, accumulates images of the entire body of thousands to tens of thousands of cattle individuals, using learning data as shown in FIG. It is obtained by applying known learning algorithms such as random forest, k-means method, convolutional neural network. FIG. 5 is a diagram illustrating learning data generation processing of the learning data generation device according to one aspect of the present invention.

また、枠囲み部13は、撮像された画像にウシ個体の一部しか含まれていない、ウシ個体同士が重なっている、柱や壁のような障害物にウシ個体の一部が隠れている等の場合には、ウシ個体の一部を表す画像から体領域画像を生成し、生成した体領域画像に枠囲みを付与する。すなわち、枠囲み部13は、個体の体の一部を表す画像から当該個体の体全体を表す画像を生成するように機械学習した生成モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される個体の体全体を表す画像を体領域とし、当該体領域に枠囲みを付与する。 In addition, the frame enclosing part 13 indicates that only part of the individual cow is included in the captured image, individual cows overlap each other, and part of the individual cow is hidden behind an obstacle such as a pillar or wall. In such cases, a body region image is generated from an image representing a part of the bovine individual, and a frame is added to the generated body region image. That is, the framing unit 13 inputs the image data of the detected moving object as input data to a generation model that performs machine learning so as to generate an image representing the entire body of the individual from an image representing a part of the body of the individual. The image representing the entire body of the individual output by doing is set as the body region, and the body region is given a frame.

このような生成モデルとして、変分オートエンコーダ(VAE)、敵対的生成ネットワーク(GAN)等の公知の生成モデルを用いることができる。例えば、変分オートエンコーダを用いる場合、図6に示すように、ウシ個体の体の一部の画像データから、エンコーダの畳み込みにより画像データの特徴を表す数値が得られる。そして、特徴を表す数値を逆畳み込みすることにより、ウシ個体の体全体の画像が復元される。図6は、本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。例えば、図6に示すような、数千~数万頭のウシ個体の体全体を撮像した画像を蓄積した学習用データを用いて、公知の生成モデルを適用することで、機械学習済みの生成モデルが得られる。このように、ウシ個体の体の一部の画像から体全体の体領域画像を復元するように学習した生成モデルを用いることで、入力画像データとしてウシ個体の体の一部の画像を用いて、ウシ個体の体全体の画像を復元することができる。なお、図6に示す例において生成モデルから出力されるデータは、体全体を囲む枠のみであってもよく、模様や色等は出力されなくてもよい。 Known generative models such as variational autoencoders (VAE) and generative adversarial networks (GAN) can be used as such generative models. For example, when a variational autoencoder is used, as shown in FIG. 6, from image data of a part of the body of an individual cow, numerical values representing features of the image data are obtained by convolution of the encoder. Then, by deconvolving the characteristic values, an image of the whole body of the individual cow is reconstructed. FIG. 6 is a diagram illustrating learning data generation processing of the learning data generation device according to one aspect of the present invention. For example, as shown in FIG. 6, machine-learned generation can be performed by applying a known generation model using learning data that accumulates images of the entire body of thousands to tens of thousands of cows. a model is obtained. In this way, by using a generative model that has been trained to restore a body region image of the entire body from an image of a part of the body of an individual bovine, an image of a part of the body of an individual bovine can be used as input image data. , can reconstruct an image of the whole body of the bovine individual. In the example shown in FIG. 6, the data output from the generative model may be only the frame surrounding the entire body, and patterns, colors, and the like may not be output.

図7及び8は、本発明の一態様に係る学習用データ生成装置の学習用データ生成処理を説明する図である。機械学習済みの生成モデルに、図7に示すように、ウシ個体の体の一部を表す画像データを入力すると、デコーダの畳み込みにより画像データの特徴を表す数値Zが得られる。数値Zは、入力された画像の特徴を表す数値であり、例えば、画像の縮尺や、画像に含まれる領域が体全体のどの範囲に該当するか等に関する情報を表す数値である。そして、得られた数値Zを逆畳み込みにより復元することで、ウシ個体の体領域を表す体領域画像が生成され、出力される。また、この機械学習済みの生成モデルに、図7に示すように、学習データに含まれていないような特徴を含むウシ個体の体の一部を表す画像データを入力すると、ウシ個体の体領域画像が生成され、出力される。このように、未知のウシ画像データを生成モデルに入力した場合でも、ウシ個体の体全体を枠囲みしたデータが出力される。このように、学習データに含まれていないような特徴を含むウシ個体の体の一部を表す画像データを生成モデルに入力した場合でも、ウシ個体の体全体を枠囲みしたデータが出力される。また、図8に示す入力データのように、ウシ個体の体の一部を表す画像の縮尺が図7と比較して大きい場合でも、入力画像の縮尺に応じた大きさで枠囲みされたウシ個体の体領域画像が出力される。 7 and 8 are diagrams for explaining the learning data generation process of the learning data generation device according to one aspect of the present invention. As shown in FIG. 7, inputting image data representing a part of the body of an individual cow into a machine-learned generative model yields a numerical value Z representing the feature of the image data through decoder convolution. The numerical value Z is a numerical value representing the characteristics of the input image, for example, a numerical value representing information regarding the scale of the image and the area of the entire body to which the area included in the image corresponds. Then, by deconvolving the obtained numerical value Z to restore it, a body region image representing the body region of the bovine individual is generated and output. In addition, as shown in FIG. 7, inputting image data representing a part of the body of a bovine individual that includes features not included in the training data to this machine-learned generative model yields a body region of the bovine individual. An image is generated and output. In this way, even when unknown bovine image data is input to the generative model, data in which the entire body of the bovine individual is framed is output. In this way, even when image data representing a part of the body of a cow containing features not included in the training data is input to the generative model, the output is data that encloses the entire body of the cow. . 8, even if the scale of the image representing the part of the body of the individual cow is larger than that in FIG. A body region image of the individual is output.

このように、動体の画像がウシ個体の一部のみである場合、枠囲み部13は、個体の体の一部を表す画像から当該個体の体全体を表す画像を生成するように機械学習した生成モデルを用いることで、ウシ個体の体領域を生成し、枠囲みを付与する。 In this way, when the image of the moving object is only a part of the individual cow, the enclosing unit 13 performs machine learning so as to generate an image representing the entire body of the individual from an image representing a part of the body of the individual. By using the generative model, the body region of the bovine individual is generated and given a frame.

(抽出部14)
抽出部14は、枠囲みが付与された体領域画像を抽出する。抽出部14は、カメラ20が撮像した画像から、枠囲みの外側の画像を取り除き、枠囲みの内側の体領域画像を切り出す。抽出部14は、抽出した体領域画像を学習用データ生成部15に送る。
(Extraction unit 14)
The extracting unit 14 extracts the body region image with the surrounding frame. The extraction unit 14 removes the image outside the frame from the image captured by the camera 20, and cuts out the body region image inside the frame. The extraction unit 14 sends the extracted body region image to the learning data generation unit 15 .

(学習用データ生成部15)
学習用データ生成部15は、抽出した前記体領域画像から、個体を識別する個体識別モデルの学習用データを生成する。学習用データは、ラベル付されていない教師なしデータであり得、例えば、数百~数万の体領域画像データを含む。学習用データ生成部15は、体領域画像を同一個体毎に分類して蓄積し、学習用データを生成し得る。学習用データ生成部15は、予め定められた数の体領域画像が蓄積された時点、又は、ユーザからの学習用データ生成指示を受け付けた時点において、蓄積されている体領域画像により学習用データを生成してもよい。
(Learning data generator 15)
The learning data generation unit 15 generates learning data for an individual identification model for identifying an individual from the extracted body region image. The training data can be unlabeled, unsupervised data, and includes, for example, hundreds to tens of thousands of body region image data. The learning data generation unit 15 can classify and accumulate body region images for each individual and generate learning data. When a predetermined number of body region images are accumulated, or when an instruction to generate learning data from the user is received, the learning data generation unit 15 generates learning data using the accumulated body region images. may be generated.

なお、学習用データ生成部15による体領域画像の同一個体毎の分類は、一例として、体領域画像の類似度、時系列における前後の画像との位置関係等の情報を参照することによって行うことができる。このような体領域画像の同一個体毎の分類は、体領域画像から当該体領域画像の類似度による推定や時系列における前後の画像との位置関係による推定をするように機械学習した分類推定モデルを用いて実行してもよい。 Note that the classification of the body region images for each identical individual by the learning data generation unit 15 is performed, for example, by referring to information such as the degree of similarity of the body region images and the positional relationship between the images before and after in the time series. can be done. Such classification of body region images for each same individual is a classification and estimation model that has been machine-learned so as to perform estimation based on the similarity of the body region image from the body region image and estimation based on the positional relationship with the previous and next images in the time series. may be performed using

学習用データ生成部15は、個体識別モデルが識別する個体群に対応した学習用データを生成する。例えば、学習用データにより機械学習する個体識別モデルが、ウシ個体No.1~ウシ個体No.10までの10頭のウシ個体が含まれる個体群Xを識別する場合、個体群Xに含まれる10頭のウシ個体の体領域画像データを含む学習用データを生成する。学習用データ生成部15は、生成した学習用データを、対応する個体群の情報と関連付けて学習用データ記憶部16に格納する。 The learning data generating unit 15 generates learning data corresponding to the individual group identified by the individual identification model. For example, an individual identification model machine-learned from learning data is a cow individual number. 1 to bovine individual No. When identifying a population X containing up to 10 bovine individuals, learning data including body region image data of the ten bovine individuals contained in the population X is generated. The learning data generation unit 15 stores the generated learning data in the learning data storage unit 16 in association with information on the corresponding population.

(学習用データ記憶部16)
学習用データ記憶部16には、生成された学習用データが格納される。また、学習用データ記憶部16には、画像取得部11が取得した画像や、動体検知部12が検知した動体の、画像における位置情報等のデータが格納されてもよい。また、学習用データ記憶部16には、学習用データ生成装置10が行う動作に必要な一連の処理を示すプログラムが格納されていてもよい。
(Learning data storage unit 16)
The learning data storage unit 16 stores the generated learning data. Further, the learning data storage unit 16 may store data such as position information in the image of the image acquired by the image acquisition unit 11 and the moving object detected by the moving object detection unit 12 . Further, the learning data storage unit 16 may store a program indicating a series of processes necessary for the operation performed by the learning data generation device 10 .

(学習用データ生成処理)
図9を参照して、学習用データ生成装置10による学習用データ生成処理の一例について説明する。図9は、図1の学習用データ生成装置10による学習用データ生成処理を示すフローチャートである。
(Learning data generation processing)
An example of the learning data generation process by the learning data generation device 10 will be described with reference to FIG. 9 . FIG. 9 is a flowchart showing learning data generation processing by the learning data generation device 10 of FIG.

まず、ステップS91において、画像取得部11は、ウシ個体を含む画像を取得する。なお、学習用データ生成装置10による学習用データ生成処理は、カメラ20から撮像画像データの入力を受け付けることにより開始してもよい。 First, in step S91, the image acquiring unit 11 acquires an image including a bovine individual. Note that the learning data generation process by the learning data generation device 10 may be started by receiving input of captured image data from the camera 20 .

次に、動体検知部12は、取得したウシ個体を含む画像中の動体を検知する(ステップS92)。続いて、ステップS93において、枠囲み部13は、検知した動体のうちのウシ個体の体領域に枠囲みを付与する。次に、ステップS94において、抽出部14は、枠囲みが付与された体領域画像を抽出する。そして、学習用データ生成部15は、体領域画像から学習用データを生成する(ステップS94)。学習用データ生成部15は、生成した学習用データを学習用データ記憶部16に格納し、学習用データ生成処理を終了する。 Next, the moving body detection unit 12 detects a moving body in the image including the acquired bovine individual (step S92). Subsequently, in step S93, the enclosing unit 13 encloses the body region of the individual cow among the detected moving bodies. Next, in step S94, the extracting unit 14 extracts the body region image with the surrounding frame. Then, the learning data generator 15 generates learning data from the body region image (step S94). The learning data generation unit 15 stores the generated learning data in the learning data storage unit 16, and ends the learning data generation process.

このように、学習用データ生成装置10は、動体検知したウシ個体の体領域画像を抽出して蓄積することで、機械学習により個体識別モデルを構築するために用いられる学習用データを自動生成する。これにより、個体識別モデルを構築するための学習用データの生成が容易である。そのため、個体構成や撮影条件が異なる様々な個体群に対して、個体群毎に簡便に学習用データを生成することができる。また、学習用データ生成装置10により生成した学習用データには、様々な向きのウシ個体の体領域画像が含まれる。そのため、このような学習用データを用いて学習した個体識別モデルを用いて個体識別することによって、識別する画像におけるウシ個体の向きに関わらず個体識別が可能となる。 In this way, the learning data generation device 10 extracts and accumulates body region images of bovine individuals whose moving bodies have been detected, thereby automatically generating learning data used for constructing an individual identification model by machine learning. . This makes it easy to generate learning data for constructing an individual identification model. Therefore, it is possible to easily generate learning data for each individual group with respect to various individual groups having different individual configurations and imaging conditions. In addition, the learning data generated by the learning data generation device 10 includes body region images of individual cows in various orientations. Therefore, individual identification using an individual identification model learned using such learning data enables individual identification regardless of the orientation of the individual cow in the image to be identified.

画像認識の機械学習においては、従来、学習用データの準備に時間及び労力がかかる点が問題となっている。学習用データ生成装置10によれば、個体識別モデルの機械学習に用いられる学習用データを自動的に蓄積できる。これにより、例えば、ウシ個体群の個体構成や撮影条件が異なる酪農現場毎に対応した個体識別モデルを簡便に構築することが可能であり、個体識別モデルの汎用利用を実現できる。 Conventionally, machine learning for image recognition has a problem that it takes time and effort to prepare data for learning. According to the learning data generation device 10, learning data used for machine learning of an individual identification model can be automatically accumulated. As a result, for example, it is possible to easily construct an individual identification model corresponding to each dairy farm site with different individual compositions of cattle populations and different photographing conditions, and it is possible to realize general-purpose use of the individual identification model.

〔学習装置〕
本発明の一実施形態に係る学習装置は、本発明の一実施形態に係る学習用データ生成装置が生成した学習用データを取得する学習用データ取得部と、取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、個体を識別する個体識別モデルを構築する学習部とを備えている。
[Learning device]
A learning device according to an embodiment of the present invention includes a learning data acquisition unit that acquires learning data generated by a learning data generation device according to an embodiment of the present invention; and a learning unit for constructing an individual identification model for identifying an individual by performing machine learning so as to identify the individual contained in the image.

図10は、本発明の一態様に係る学習装置の要部構成を示すブロック図である。学習装置100は、学習用データ取得部101、学習部102、及び学習モデル記憶部103を備えている。学習装置100は、個体を識別する個体識別モデルを構築する。 FIG. 10 is a block diagram showing a main configuration of a learning device according to one aspect of the present invention. The learning device 100 includes a learning data acquisition unit 101 , a learning unit 102 , and a learning model storage unit 103 . The learning device 100 constructs an individual identification model for identifying individuals.

(学習用データ取得部101)
学習用データ取得部101は、学習用データ生成装置10の学習用データ記憶部16に格納された学習用データを、入出力部(図示せず)を介して取得する。学習用データ取得部101は、学習部102において機械学習する個体識別モデルが識別する個体群に対応した学習用データを取得する。例えば、個体識別モデルが、ウシ個体No.1~ウシ個体No.10までの10頭のウシ個体が含まれる個体群Xのウシ個体を識別する学習済みモデルである場合、学習用データ取得部101は、個体群Xに対応した学習用データを取得する。学習用データ取得部101は、取得した学習用データを学習部102に送る。
(Learning data acquisition unit 101)
The learning data acquisition unit 101 acquires the learning data stored in the learning data storage unit 16 of the learning data generation device 10 via an input/output unit (not shown). The learning data acquisition unit 101 acquires learning data corresponding to a group of individuals identified by an individual identification model machine-learned in the learning unit 102 . For example, if the individual identification model is a bovine individual no. 1 to bovine individual No. In the case of a trained model that identifies bovine individuals in a population X including up to ten bovine individuals, the learning data acquisition unit 101 acquires learning data corresponding to the population X. The learning data acquisition unit 101 sends the acquired learning data to the learning unit 102 .

(学習部102)
学習部102は、取得した学習用データを用いて、個体を識別する個体識別モデルを構築する。学習部102は、取得した学習用データを用いて、サポートベクタ―マシン、ランダムフォレスト、k-means法、畳み込みニューラルネットワークのような公知の学習アルゴリズムを適用して個体識別モデルを機械学習する。
(Learning unit 102)
The learning unit 102 constructs an individual identification model for identifying individuals using the acquired learning data. The learning unit 102 machine-learns an individual identification model by applying known learning algorithms such as a support vector machine, a random forest, a k-means method, and a convolutional neural network, using the acquired learning data.

学習部102において構築した機械学習済みの個体識別モデルは、個体を含む画像データを入力データとして入力することにより、当該個体を識別する識別情報を出力する学習済みモデルである。例えば、個体識別モデルが個体群Xのウシ個体を識別する場合、個体識別モデルは、入力された画像データ中のウシ個体が、個体群X中の何れのウシ個体(ウシ個体No.1、ウシ個体No.2、・・・又はウシ個体No.10)であるかを出力する。学習部102は、機械学習済みの個体識別モデルを、学習モデル記憶部103に格納する。 The machine-learned individual identification model constructed in the learning unit 102 is a learned model that outputs identification information for identifying an individual by inputting image data including an individual as input data. For example, when the individual identification model identifies a bovine individual in the population X, the individual identification model identifies any bovine individual in the population X (bovine individual No. 1, cow Individual No. 2, ... or bovine individual No. 10) is output. The learning unit 102 stores the machine-learned individual identification model in the learning model storage unit 103 .

(学習モデル記憶部103)
学習モデル記憶部103には、機械学習済みの個体識別モデルが格納される。また、学習モデル記憶部103には、学習用データ取得部101が取得した学習用データ等が格納されてもよい。また、学習モデル記憶部103には、学習装置100が行う動作に必要な一連の処理を示すプログラムが格納されていてもよい。
(Learning model storage unit 103)
The learning model storage unit 103 stores machine-learned individual identification models. Further, the learning data acquired by the learning data acquisition unit 101 may be stored in the learning model storage unit 103 . Also, the learning model storage unit 103 may store a program indicating a series of processes necessary for the operation performed by the learning device 100 .

(学習処理)
図11を参照して、学習装置100による学習処理の一例について説明する。図11は、図10の学習装置100による学習処理を示すフローチャートである。
(learning process)
An example of the learning process by the learning device 100 will be described with reference to FIG. FIG. 11 is a flow chart showing learning processing by the learning device 100 of FIG.

まず、ステップS111において、学習用データ取得部101は、学習用データ生成装置10から学習用データを取得する。次に、学習部102は、取得した学習用データを用いて、個体を識別する個体識別モデルを機械学習させる(ステップS112)。そして、学習部102は、機械学習済みの個体識別モデルを学習モデル記憶部103に格納し(ステップS113)、学習処理を終了する。 First, in step S<b>111 , the learning data acquisition unit 101 acquires learning data from the learning data generation device 10 . Next, the learning unit 102 machine-learns an individual identification model for identifying an individual using the acquired learning data (step S112). Then, the learning unit 102 stores the machine-learned individual identification model in the learning model storage unit 103 (step S113), and ends the learning process.

このように、学習装置100は、個体群毎に対応して生成された学習用データを用いて機械学習により個体識別モデルを構築するので、例えば、ウシ個体群の個体構成や撮影条件が異なる酪農現場毎に対応した個体識別モデルを簡便に構築することが可能である。その結果、個体識別モデルの汎用利用を実現できる。 In this way, the learning device 100 constructs an individual identification model by machine learning using learning data generated for each individual population. It is possible to easily construct an individual identification model corresponding to each site. As a result, general-purpose use of the individual identification model can be realized.

〔個体識別装置〕
本発明の一実施形態に係る個体識別装置は、個体を含む画像を取得する画像取得部と、本発明の一実施形態に係る学習装置によって構築された前記個体識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部とを備えている。
[Individual identification device]
An individual identification device according to an embodiment of the present invention includes an image acquisition unit that acquires an image including an individual, and an individual identification model constructed by a learning device according to an embodiment of the present invention, which includes an image of the acquired image. an identification unit that outputs individual identification information of an individual contained in the image by inputting data as input data.

図12は、本発明の一態様に係る個体識別装置の要部構成を示すブロック図である。個体識別装置120は、画像取得部121、識別部122、及び識別画像蓄積部123を備えている。個体識別装置は、個体識別モデルを用いて個体群中の個体を識別する。 FIG. 12 is a block diagram showing the main configuration of an individual identification device according to one aspect of the present invention. The individual identification device 120 includes an image acquisition section 121 , an identification section 122 and an identification image accumulation section 123 . The individual identification device identifies individuals in the population using the individual identification model.

(個体)
個体識別装置120により識別する個体は、ヒト、動物、他の移動体等であり得るが、閉鎖された空間内で群毎に管理される個体であることが好ましい。個体識別モデルにより識別する個体は、多頭飼育されている家畜個体であることがより好ましく、ウシ個体であることがさらに好ましく、乳牛個体であることがさらにより好ましく、最も好ましくはホルスタイン種の乳牛個体である。なお、多頭飼育されている個体は、図2に示すように、屋内で放し飼いにされている個体であってもよいし、鎖等に繋がれてつなぎ飼いにされている個体であってもよい。また、多頭飼育されている個体は、屋外の管理区域内で飼育されている個体であってもよい。本実施形態においては、個体がウシ個体である場合を例として説明する。
(individual)
Individuals to be identified by the individual identification device 120 can be humans, animals, other mobile objects, etc., but are preferably individuals managed in groups within a closed space. Individuals to be identified by the individual identification model are more preferably multi-headed livestock individuals, more preferably cattle individuals, still more preferably dairy cow individuals, and most preferably Holstein dairy cow individuals. is. As shown in FIG. 2, the multi-headed individual may be an individual that is kept free-range indoors, or an individual that is tied to a chain or the like and kept in a tie. . In addition, an individual that is reared with multiple animals may be an individual that is reared outdoors in a controlled area. In this embodiment, a case where the individual is a bovine individual will be described as an example.

(画像取得部121)
画像取得部121は、ウシ個体を含む画像を取得する。画像取得部121は、入出力部(図示せず)を介して、ウシ個体を撮像したカメラ20から個体を含む画像を取得する。画像取得部121は、無線通信又は有線通信によりカメラ20からウシ個体を含む画像を取得する。画像取得部121は、カメラ20によりウシ個体を撮像する度毎に画像を取得してもよいし、所定時間毎に画像を取得してもよい。
(Image acquisition unit 121)
The image acquisition unit 121 acquires an image including an individual bovine. The image acquisition unit 121 acquires an image including an individual from the camera 20 that has captured the image of the individual bovine through an input/output unit (not shown). The image acquisition unit 121 acquires an image including the bovine individual from the camera 20 by wireless communication or wired communication. The image acquisition unit 121 may acquire an image each time the camera 20 captures an image of an individual bovine, or may acquire an image at predetermined time intervals.

カメラ20は、ウシ個体を上から撮影するものであってもよいし、斜め上方から撮影するものであってもよい。個体識別装置120においては、ウシ個体を上から撮影した画像のみならず、斜め上方から撮影した画像であっても好適に使用可能である。一例として、ウシ個体が屋内において飼育されている場合には、カメラ20を天井に設置していてもよいし、壁面に設置していてもよい。また、ウシ個体が屋外において飼育されている場合には、カメラ20をポールや柵等に固定して設置していてもよい。 The camera 20 may photograph the bovine individual from above, or may photograph it obliquely from above. In the individual identification device 120, it is possible to suitably use not only an image of an individual bovine photographed from above, but also an image photographed obliquely from above. As an example, when a cow is raised indoors, the camera 20 may be installed on the ceiling or on the wall. Further, when the cow is raised outdoors, the camera 20 may be fixed to a pole, fence, or the like.

ウシ個体を含む画像は、ウシ個体が撮像された画像であり、可視光画像であってもよいし、サーモカメラ等で撮影した赤外線画像であってもよいし、3次元レーザーセンサー等により得られた3次元画像であってもよい。赤外線画像やレーザーセンサーによる3次元画像を用いることにより、照明を用いずに夜間の画像を取得することができる。また、ウシ個体を含む画像は、静止画であっても、動画であってもよい。画像取得部121は、取得したウシ個体を含む画像を識別部122に送る。 An image containing an individual bovine is an image obtained by capturing an individual bovine, and may be a visible light image, an infrared image captured by a thermo camera or the like, or obtained by a three-dimensional laser sensor or the like. It may also be a three-dimensional image. Night images can be obtained without illumination by using infrared images or three-dimensional images obtained by laser sensors. Also, the image containing the bovine individual may be a still image or a moving image. The image acquisition unit 121 sends the acquired image containing the bovine individual to the identification unit 122 .

(識別部122)
識別部122は、学習装置100によって構築された個体識別モデルに、取得した画像のデータを入力データとして入力することにより、当該画像中のウシ個体の個体識別情報を出力する。識別部122は、学習装置100の学習モデル記憶部103に格納された個体識別モデルを、入出力部(図示せず)を介して取得する。個体識別モデルは、個体識別装置120により識別する個体群に対応した機械学習済みモデルである。例えば、個体識別装置120により識別する個体群が、ウシ個体No.1~ウシ個体No.10までの10頭のウシ個体が含まれる個体群Xである場合、個体識別モデルは、個体群Xに対応した機械学習済みモデルである。
(Identification unit 122)
The identification unit 122 inputs data of the acquired image as input data to the individual identification model constructed by the learning device 100, and outputs individual identification information of the cow individual in the image. The identification unit 122 acquires the individual identification model stored in the learning model storage unit 103 of the learning device 100 via an input/output unit (not shown). The individual identification model is a machine-learned model corresponding to the individual group identified by the individual identification device 120 . For example, the individual group to be identified by the individual identification device 120 is cow individual No. 1 to bovine individual No. In the case of a population X containing up to 10 10 cattle individuals, the individual identification model is a machine-learned model corresponding to the population X.

識別部122は、取得した画像に含まれるウシ個体が何れのウシ個体であるかを表す個体識別情報と、当該画像データとを関連付けて識別画像蓄積部123に格納する。また、識別部122は、図4に示すように、個体識別情報を画像データに付して表示部(図示せず)に表示してもよい。例えば、識別部122は、図4に示すように、画像中のウシ個体にそのウシ個体を識別するウシ個体No.を付して表示する。 The identification unit 122 associates individual identification information indicating which bovine individual contained in the acquired image with the image data and stores them in the identification image storage unit 123 . In addition, as shown in FIG. 4, the identification unit 122 may attach the individual identification information to the image data and display it on the display unit (not shown). For example, as shown in FIG. 4, the identifying unit 122 assigns a bovine individual No. to each bovine individual in the image to identify the bovine individual. is displayed.

識別部122が識別する画像は、画像取得部121からウシ個体の体全体を含む体領域画像を抽出した画像であり得る。すなわち、個体識別装置120は、画像取得部121が取得した画像中のウシ個体の体領域に枠囲みを付与する枠囲み部と、枠囲みが付与された体領域画像を抽出する抽出部とをさらに備えていてもよい。また、画像取得部121が取得した画像中の動体を検知する動体検知部をさらに備えていてもよい。そして、識別部122は、抽出部が抽出した体領域画像を入力データとして個体識別モデルに入力することにより、当該画像中のウシ個体の個体識別情報を出力する。なお、識別部122が識別する画像は、例えば画像中のウシ個体が単独である場合には、画像取得部121がカメラ20から取得した画像そのものであってもよい。 The image identified by the identification unit 122 may be an image obtained by extracting a body region image including the entire body of the bovine from the image acquisition unit 121 . That is, the individual identification device 120 includes a frame enclosing unit that encloses the body region of the bovine individual in the image acquired by the image acquisition unit 121, and an extraction unit that extracts the body region image to which the frame encloses. You may have more. Further, a moving object detection unit that detects a moving object in the image acquired by the image acquisition unit 121 may be further provided. Then, the identifying unit 122 inputs the body region image extracted by the extracting unit as input data to the individual identification model, thereby outputting the individual identification information of the bovine individual in the image. The image identified by the identifying unit 122 may be the image itself obtained by the image obtaining unit 121 from the camera 20, for example, when the individual cow in the image is alone.

このように、個体識別装置120は、個体識別の対象となる画像を、カメラ20から取得した画像そのものではなく、学習用データ生成装置10による学習用データ生成処理と同様の処理が施された体領域画像としてもよい。これにより、個体識別の対象となる画像に個体識別に不要な部分が含まれず、より正確な個体識別が可能である。 In this way, the individual identification device 120 does not use the image itself acquired from the camera 20 as an image to be identified by the individual identification device 120, but an image that has been subjected to the same processing as the learning data generation processing by the learning data generation device 10. A region image may also be used. As a result, the image that is the target of individual identification does not include portions unnecessary for individual identification, and more accurate individual identification is possible.

(識別画像蓄積部123)
識別画像蓄積部123には、個体識別された画像が格納される。また、識別画像蓄積部123には、個体識別装置120が行う動作に必要な一連の処理を示すプログラムが格納されていてもよい。
(Identification image accumulation unit 123)
The identification image accumulating unit 123 stores images that have undergone individual identification. Further, the identification image storage unit 123 may store a program indicating a series of processes required for the operation performed by the individual identification device 120 .

(個体識別処理)
図13を参照して、個体識別装置120による個体識別処理の一例について説明する。図13は、図12の個体識別装置120による個体識別処理を示すフローチャートである。
(Individual identification processing)
An example of individual identification processing by the individual identification device 120 will be described with reference to FIG. 13 . FIG. 13 is a flowchart showing individual identification processing by the individual identification device 120 of FIG.

まず、ステップS131において、画像取得部121は、ウシ個体を含む画像を取得する。なお、個体識別装置120による個体識別処理は、カメラ20から撮像画像データの入力を受け付けることにより開始してもよい。 First, in step S131, the image acquiring unit 121 acquires an image including a bovine individual. It should be noted that the individual identification processing by the individual identification device 120 may be started by receiving input of captured image data from the camera 20 .

次に、識別部122は、学習装置100から学習済みの個体識別モデルを読み出す(ステップS132)。続いて、ステップS133において、識別部122は、読み出した個体識別モデルに画像データを入力する。そして、ステップS134において、識別部122は、個体識別モデルが出力したウシ個体の個体識別情報と画像とを関連付けて識別画像蓄積部123に格納し、個体識別処理を終了する。 Next, the identification unit 122 reads a trained individual identification model from the learning device 100 (step S132). Subsequently, in step S133, the identification unit 122 inputs image data to the read individual identification model. Then, in step S134, the identification unit 122 associates the individual identification information of the bovine individual output by the individual identification model with the image, stores them in the identification image storage unit 123, and terminates the individual identification process.

このように、個体識別装置120は、個体群毎に対応した個体識別モデルを用いて個体を識別するので、例えば、ウシ個体群の個体構成や撮影条件が異なる酪農現場毎に対応した個体識別が可能である。また、学習装置100により学習済みの個体識別モデルを用いることによって、識別する画像中のウシ個体の向きに関わらず個体識別可能である。個体識別装置120によれば、個体識別モデルの汎用利用が可能である。 In this way, the individual identification device 120 identifies individuals using an individual identification model corresponding to each individual group. It is possible. Further, by using an individual identification model trained by the learning device 100, individual identification is possible regardless of the orientation of the individual cow in the image to be identified. According to the individual identification device 120, general-purpose use of the individual identification model is possible.

〔行動分析装置〕
本発明の一実施形態に係る行動分析装置は、個体を含む画像を取得する画像取得部と、上記学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部と、識別した個体の時系列の画像を取得する識別画像取得部と、取得した前記画像を参照して、前記個体の行動を分析する分析部とを備えている。すなわち、行動分析装置は、本発明の一実施形態に係る個体識別装置により識別した個体の時系列の画像を取得する識別画像取得部と、取得した前記画像を参照して、前記個体の行動を分析する分析部とを備えている。
[Behavior analysis device]
A behavior analysis device according to an embodiment of the present invention uses an image acquisition unit that acquires an image including an individual, and learning data generated by the learning data generation device to identify the individual included in the image. an identification unit that outputs individual identification information of an individual contained in the image by inputting the data of the acquired image as input data into an identification model that identifies an individual, which is constructed by machine learning; It comprises an identification image acquisition unit that acquires time-series images of the identified individual, and an analysis unit that analyzes the behavior of the individual by referring to the acquired images. That is, the behavior analysis device includes an identification image acquisition unit that acquires time-series images of an individual identified by the individual identification device according to an embodiment of the present invention; and an analysis unit for analyzing.

図14は、本発明の一態様に係る行動分析装置の要部構成を示すブロック図である。行動分析装置140は、識別画像取得部141、分析部142、及び分析結果記憶部143を備えている。行動分析装置は、識別した個体の行動を追跡して分析する。 FIG. 14 is a block diagram showing the main configuration of a behavior analysis device according to one aspect of the present invention. The behavior analysis device 140 includes an identification image acquisition unit 141 , an analysis unit 142 and an analysis result storage unit 143 . A behavior analysis device tracks and analyzes the behavior of the identified individual.

(識別画像取得部141)
識別画像取得部141は、個体識別装置120の識別画像蓄積部123に蓄積されたウシ個体の画像を、入出力部(図示せず)を介して取得する。識別画像取得部141は、個体識別装置120において識別したウシ個体の時系列の画像を取得する。識別画像取得部141は、取得したウシ個体の時系列の画像を分析部142に送る。
(Identification image acquisition unit 141)
The identification image acquisition unit 141 acquires the image of the individual cow accumulated in the identification image accumulation unit 123 of the individual identification device 120 via an input/output unit (not shown). The identification image acquisition unit 141 acquires time-series images of the individual cow identified by the individual identification device 120 . The identification image acquisition unit 141 sends the acquired time-series images of the bovine individual to the analysis unit 142 .

(分析部142)
分析部142は、ウシ個体の時系列の画像を参照して、ウシ個体の行動を分析する。ウシ個体の時系列の画像により、ウシ個体の行動を追跡することができる。分析部142は、ウシ個体の時系列の画像に基づいてウシ個体の行動を追跡することによって、所定時間内のウシの行動を分析する。分析部142は、ウシ個体の時系列の画像に基づいてウシ個体の行動を追跡することで、例えば、所定時間内のウシ個体の行動量、行動範囲、行動パターンを分析する。分析部142は、ウシ個体の分析結果を分析結果記憶部143に格納する。
(Analysis unit 142)
The analysis unit 142 analyzes the behavior of the bovine individual by referring to the time-series images of the bovine individual. A time-series image of a bovine individual allows the behavior of the bovine individual to be tracked. The analysis unit 142 analyzes the behavior of the bovine within a predetermined period of time by tracking the behavior of the bovine based on the time-series images of the bovine. The analysis unit 142 analyzes, for example, the amount of behavior, the range of behavior, and the pattern of behavior of the individual cow within a predetermined period of time by tracking the behavior of the individual bovine based on the time-series images of the individual bovine. The analysis unit 142 stores the analysis result of the bovine individual in the analysis result storage unit 143 .

分析部142は、ウシ個体が座っている時間や立っている時間、動き回っている時間等の行動パターンを分析することによって、ウシ個体の身体状態、発情状態、疾患等を予測してもよい。また、分析部142は、ウシ個体が水を飲む回数や時間、餌を食べる回数や時間等の行動パターンを分析することによって、ウシ個体の飼養管理をしてもよい。 The analysis unit 142 may predict the physical condition, estrous state, disease, etc. of the bovine by analyzing behavioral patterns such as the time the bovine is sitting, standing, and moving around. In addition, the analysis unit 142 may manage the rearing of individual cows by analyzing behavior patterns such as the number and time of drinking water and the number and time of eating food.

分析部142は、ウシ個体の画像から、ウシ個体の画像における位置座標を取得し、当該位置座標をウシ個体が存在する空間の空間座標に変換することで、空間内におけるウシ個体の行動範囲、行動パターン等を追跡及び分析してもよい。位置座標から空間座標への変換は、例えば、画像上の空間座標が既知である基準点の情報を用いて、取得した位置座標をウシ個体が存在する空間の空間座標に変換することにより行うことができる。分析部142が参照するウシ個体の画像が、ウシ個体の体全体を含む体領域画像であれば、ウシ個体の足の位置座標を取得することができるので、空間内におけるウシ個体の行動を正確に追跡することができる。ウシ個体の足の位置座標又は空間座標は、図4に示すようにウシ個体の体領域画像と共に表示部(図示せず)に表示させてもよい。 The analysis unit 142 obtains the positional coordinates in the image of the individual cow from the image of the individual cow, and converts the positional coordinates into the spatial coordinates of the space in which the individual cow exists, thereby determining the range of behavior of the individual cow in the space, Behavioral patterns and the like may be tracked and analyzed. Conversion from positional coordinates to spatial coordinates is carried out by, for example, using information on reference points whose spatial coordinates on the image are known to convert the acquired positional coordinates into spatial coordinates of the space in which the bovine individual exists. can be done. If the image of the bovine individual referred to by the analysis unit 142 is a body region image including the entire body of the bovine individual, the positional coordinates of the feet of the bovine individual can be obtained. can be tracked. The position coordinates or spatial coordinates of the feet of the bovine individual may be displayed on a display unit (not shown) together with the body region image of the bovine individual as shown in FIG.

(行動分析処理)
図15を参照して、行動分析装置140による行動分析処理の一例について説明する。図15は、図14の行動分析装置140による行動分析処理を示すフローチャートである。
(behavior analysis processing)
An example of behavior analysis processing by the behavior analysis device 140 will be described with reference to FIG. 15 . FIG. 15 is a flowchart showing action analysis processing by the action analysis device 140 of FIG.

まず、ステップS151において、識別画像取得部141は、ウシ個体の時系列の画像データを取得する。次に、分析部142は、ウシ個体の時系列の画像によりウシ個体の行動を追跡して、ウシ個体の行動を分析する(ステップS152)。分析部142は、分析結果を分析結果記憶部143に格納し、行動分析処理を終了する。 First, in step S151, the identification image acquisition unit 141 acquires time-series image data of an individual bovine. Next, the analysis unit 142 analyzes the behavior of the bovine by tracking the behavior of the bovine using the time-series images of the bovine (step S152). The analysis unit 142 stores the analysis result in the analysis result storage unit 143 and ends the behavior analysis process.

このように、行動分析装置140は、個体群毎に対応した個体識別モデルを用いて識別した個体の画像を追跡することで個体の行動を分析するので、例えば、ウシ個体群の個体構成や撮影条件が異なる酪農現場毎に対応した正確かつ容易な個体の行動分析が可能である。なお、図1に示す学習用データ生成装置10、図10に示す学習装置100、図12に示す個体識別装置120、及び、図14に示す行動分析装置140を備えた行動分析システムについても本発明の範疇に含まれる。 In this way, the behavior analysis device 140 analyzes the behavior of individuals by tracking images of individuals identified using individual identification models corresponding to each individual group. Accurate and easy behavioral analysis of individuals corresponding to each dairy field with different conditions is possible. 1, the learning device 100 shown in FIG. 10, the individual identification device 120 shown in FIG. 12, and the behavior analysis system 140 shown in FIG. included in the category of

〔学習用データ生成方法及び行動分析方法〕
本発明の一態様に係る学習用データ生成方法は、個体を含む画像を取得する画像取得ステップと、取得した前記画像中の動体を検知する動体検知ステップと、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成ステップとを含む。一例として、本発明の一態様に係る学習用データ生成方法は、上述した本発明の一態様に係る学習用データ生成装置により実現されるものである。したがって、本発明の一態様に係る学習用データ生成方法の説明は、上述した本発明の一態様に係る学習用データ生成装置の説明に準じる。
[Learning data generation method and behavior analysis method]
A learning data generation method according to an aspect of the present invention includes an image acquisition step of acquiring an image including an individual, a moving object detection step of detecting a moving object in the acquired image, and the individual detected in the moving object. a framing step of giving a framing to a body region including the entire body of the individual; an extracting step of extracting a body region image of the body region given the framing; and identifying an individual from the extracted body region image and a generation step of generating training data for the discriminative model. As an example, a learning data generating method according to an aspect of the present invention is realized by the learning data generating device according to an aspect of the present invention described above. Therefore, the description of the learning data generating method according to one aspect of the present invention conforms to the description of the learning data generating device according to one aspect of the present invention described above.

本発明の一態様に係る行動分析方法は、個体を含む画像を取得する画像取得ステップと、上記学習用データ生成方法により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、識別した個体の時系列の画像を取得する識別画像取得ステップと、取得した前記画像を参照して、前記個体の行動を分析する分析ステップとを含む。一例として、本発明の一態様に係る行動分析方法は、上述した本発明の一態様に係る行動分析装置により実現されるものである。したがって、本発明の一態様に係る行動分析方法の説明は、上述した本発明の一態様に係る行動分析装置の説明に準じる。 A behavior analysis method according to an aspect of the present invention includes an image acquisition step of acquiring an image including an individual, and using the learning data generated by the learning data generation method described above to identify the individual included in the image. an identification step of outputting individual identification information of an individual contained in the image by inputting the data of the acquired image as input data into an identification model for identifying an individual constructed by machine learning; and an analysis step of analyzing the behavior of the individual with reference to the acquired images. As an example, a behavior analysis method according to one aspect of the present invention is realized by the behavior analysis device according to one aspect of the present invention described above. Therefore, the description of the behavior analysis method according to one aspect of the present invention conforms to the description of the behavior analysis device according to one aspect of the present invention described above.

〔ソフトウェアによる実現例〕
学習用データ生成装置10、学習装置100、個体識別装置120、及び行動分析装置140の制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The control blocks of the learning data generation device 10, the learning device 100, the individual identification device 120, and the behavior analysis device 140 may be realized by a logic circuit (hardware) formed on an integrated circuit (IC chip) or the like. , may be implemented by software.

後者の場合、上述した各装置は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, each device described above comprises a computer that executes program instructions, which are software that implements each function. This computer includes, for example, one or more processors, and a computer-readable recording medium storing the program. In the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-temporary tangible medium" such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. In addition, a RAM (Random Access Memory) for developing the above program may be further provided. Also, the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. Note that one aspect of the present invention can also be implemented in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

すなわち、本発明の各態様に係る学習用データ生成装置、学習装置、個体識別装置、行動分析装置140は、コンピュータによって実現してもよく、この場合には、コンピュータを前記各装置が備える各部(ソフトウェア要素)として動作させることにより前記各装置をコンピュータにて実現させるプログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 That is, the learning data generation device, the learning device, the individual identification device, and the behavior analysis device 140 according to each aspect of the present invention may be realized by a computer. A program that causes a computer to implement each of the above-described devices by operating as a software element, and a computer-readable recording medium recording the program are also included in the scope of the present invention.

具体的には、下記のプログラムについても、本発明の範疇に入る:
本発明の各態様に係る学習用データ生成装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、取得した前記画像中の動体を検知する動体検知ステップと、検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成ステップとを実行することを特徴とする、プログラム:
本発明の各態様に係る行動分析装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、本発明の各態様に係る学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、個体を識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、識別した個体の時系列の画像を取得する識別画像取得ステップと、取得した前記画像を参照して、前記個体の行動を分析する分析ステップとを実行することを特徴とする、プログラム:
本発明の各態様に係る学習装置としてコンピュータを機能させるためのプログラムであって、本発明の各態様に係る学習用データ生成装置が生成した学習用データを取得する学習用データ取得ステップと、取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、個体を識別する識別モデルを構築する学習ステップとを実行することを特徴とする、プログラム:
本発明の各態様に係る個体識別装置としてコンピュータを機能させるためのプログラムであって、個体を含む画像を取得する画像取得ステップと、本発明の各態様に係る学習装置によって構築された前記識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップとを実行することを特徴とする、プログラム。
Specifically, the following program also falls within the scope of the present invention:
A program for causing a computer to function as a learning data generation device according to each aspect of the present invention, comprising: an image acquisition step of acquiring an image containing an individual; and a moving object detection step of detecting a moving object in the acquired image. a framing step of giving a framing to a body region including the entire body of the individual in the detected moving body; an extracting step of extracting a body region image of the body region given the framing; A program characterized by executing a generation step of generating learning data for a discrimination model that identifies an individual from the body region image:
A program for causing a computer to function as a behavior analysis device according to each aspect of the present invention, comprising an image acquisition step of acquiring an image including an individual, and learning generated by the learning data generation device according to each aspect of the present invention By inputting the acquired data of the image as input data to an identification model for identifying an individual, which is constructed by machine learning so as to identify the individual contained in the image, using the data for the image an identification step of outputting individual identification information of an individual included in the identification step, an identification image obtaining step of obtaining time-series images of the identified individual, and an analysis step of analyzing the behavior of the individual by referring to the obtained images. A program characterized by executing and
A program for causing a computer to function as a learning device according to each aspect of the present invention, comprising: a learning data acquisition step for acquiring learning data generated by the learning data generation device according to each aspect of the present invention; A program characterized by:
A program for causing a computer to function as an individual identification device according to each aspect of the present invention, comprising an image acquisition step of acquiring an image including an individual, and the identification model constructed by the learning device according to each aspect of the present invention. and an identification step of outputting individual identification information of an individual contained in the image by inputting data of the acquired image as input data.

〔変形例〕
本発明の他の態様に係る学習用データ生成装置は、個体を含む画像を取得する画像取得部と、取得した前記画像中の前記個体を検出する検出部と、検出した前記個体の体全体を含む体領域を特定する体領域特定部と、特定した前記体領域の体領域画像を抽出する抽出部と、抽出した前記体領域画像から、個体を識別する識別モデルの学習用データを生成する生成部とを備えている。
[Modification]
A learning data generation device according to another aspect of the present invention includes an image acquisition unit that acquires an image including an individual, a detection unit that detects the individual in the acquired image, and a whole body of the individual that has been detected. a body region specifying unit that specifies a body region including a body region, an extraction unit that extracts a body region image of the specified body region, and a generator that generates training data for a discrimination model that identifies an individual from the extracted body region image and

すなわち、学習用データ生成装置において、画像中の個体を検出する方法は、動体検知方法に限定されず、個体を検出する他の方法により実現してもよい。画像中の個体を検出する他の例として、機械学習を利用した方法が挙げられる。よって、学習用データ生成装置において、動体検知部に替えて機械学習を利用して画像中の個体を検出する検出部を用いる構成についても、本発明の範疇に含まれる。 That is, in the learning data generation device, the method for detecting an individual in an image is not limited to the moving object detection method, and other methods for detecting an individual may be used. Another example of detecting individuals in images is a method using machine learning. Therefore, in the training data generation device, a configuration using a detection unit that detects an individual in an image using machine learning instead of the moving object detection unit is also included in the scope of the present invention.

機械学習を利用して画像中の個体を検出する場合、画像の撮影方向に応じて、個体の検出に適した機械学習モデルを作成することが好ましい。例えば、個体を斜め上方から撮影した画像を用いる場合、斜め上方から撮影した画像中の個体の検出に適するように生成した機械学習モデルを用いる。機械学習を利用して画像中の個体を検出する方法には、機械学習を利用して物体を検出する方法及び個体の骨格を検出する方法が含まれる。そして、このような検出部は、本発明の一態様に係る個体識別装置において使用することもできる。 When using machine learning to detect an individual in an image, it is preferable to create a machine learning model suitable for detecting the individual in accordance with the imaging direction of the image. For example, when an image of an individual photographed obliquely from above is used, a machine learning model generated so as to be suitable for detecting an individual in the image photographed obliquely from above is used. Methods for detecting individuals in images using machine learning include methods for detecting objects and methods for detecting skeletons of individuals using machine learning. Such a detection unit can also be used in the individual identification device according to one aspect of the present invention.

画像から物体を検出するように作成した機械学習モデルを用いる場合、図17に示すように、ウシ個体の画像データを入力データとして物体検出機械学習モデルに入力することにより、画像中におけるウシ個体部分の検出結果が出力される。また、画像から骨格を検出するように作成した機械学習モデルを用いる場合、図18に示すように、ウシ個体の画像データを入力データとして骨格検知機械学習モデルに入力する。これにより、画像中のウシ個体の骨格位置が検出されて個体毎にまとめられ、画像中におけるウシ個体部分の検出結果が出力される。 When using a machine learning model created to detect an object from an image, as shown in FIG. 17, by inputting image data of an individual cow into the object detection machine learning model as input data, the part of the individual cow in the image is obtained. is output. When using a machine learning model created to detect a skeleton from an image, as shown in FIG. 18, image data of an individual cow is input to the skeleton detection machine learning model as input data. As a result, the skeletal position of the bovine individual in the image is detected and grouped for each individual, and the detection result of the bovine individual part in the image is output.

また、学習用データ生成装置において、検出した個体の体全体を含む体領域を特定する方法は、枠囲みを付与する方法に限定されず、個体の体領域を特定する他の方法により実現してもよい。個体の体領域を特定する他の例として、図19に示すように、画像セグメンテーションを利用した方法が挙げられる。図19は、本発明の一態様に係る学習用データ生成装置において体領域を特定する形態の一例を説明する図である。図19に示すように、ウシ個体を含む画像において画像セグメンテーションにより体領域を特定し、例えば、特定した体領域範囲のみを示す位置座標を取得する。このように、学習用データ生成装置において、枠囲み部に替えて画像セグメンテーションにより個体の体領域を特定する体領域特定部を用いる構成についても、本発明の範疇に含まれる。また、このような体領域特定部は、本発明の一態様に係る個体識別装置において使用することもできる。 In addition, in the learning data generation device, the method of specifying the body region including the entire body of the detected individual is not limited to the method of adding a frame, but can be realized by other methods of specifying the body region of the individual. good too. Another example of identifying the body region of an individual is a method using image segmentation, as shown in FIG. FIG. 19 is a diagram illustrating an example of a form of specifying a body region in the learning data generation device according to one aspect of the present invention. As shown in FIG. 19, a body region is specified by image segmentation in an image containing a bovine individual, and, for example, position coordinates indicating only the specified body region range are obtained. In this way, in the training data generation device, a configuration that uses a body region specifying unit that specifies the body region of an individual by image segmentation instead of the frame enclosing unit is also included in the scope of the present invention. Also, such a body region identifying unit can be used in an individual identification device according to one aspect of the present invention.

さらに、学習用データ生成装置において、個体の体の一部を表す画像から体全体の画像を特定する方法は、体の他の部分を表す画像を復元する方法に限定されず、体の一部を表す画像から体全体の画像を特定する他の方法により実現してもよい。体の一部を表す画像から体全体の画像を特定する他の例として、機械学習を利用した骨格検知に基づいて推定された姿勢を参照する方法が挙げられる。 Furthermore, in the learning data generation device, the method of identifying the image of the whole body from the image representing the part of the body of the individual is not limited to the method of restoring the image representing the other part of the body. It may be realized by another method of identifying the image of the whole body from the image representing the . Another example of identifying an image of the whole body from an image representing a part of the body is a method of referring to a posture estimated based on bone structure detection using machine learning.

骨格検知に基づいて推定された姿勢を参照して、体の一部を表す画像から体全体の画像を特定する例を、図20に示す。図20は、本発明の一態様に係る学習用データ生成装置において体の一部を表す画像から体全体の画像を特定するために用いられる姿勢推定モデルの一例を説明する図である。図20に示すように、ウシ個体の一部のみが含まれる画像データを取得した場合に、画像に含まれる部位(見えている部位)から推定した姿勢を参照して、画像に含まれない部位(見えない部位)の位置を特定する。 FIG. 20 shows an example of specifying an image of the whole body from an image representing a part of the body by referring to the posture estimated based on bone structure detection. FIG. 20 is a diagram illustrating an example of a posture estimation model used to identify an image of the entire body from images representing a part of the body in the learning data generation device according to one aspect of the present invention. As shown in FIG. 20, when image data containing only a part of a bovine individual is obtained, the posture estimated from the parts included in the image (visible parts) is referred to, and the parts not included in the image are extracted. Identify the position of (invisible parts).

例えば、図20の画像データにおいて見えているのは鼻、左目、右目、左耳、右耳、左肩、及び左腰の7箇所のみである。この画像データを姿勢推定モデルに入力すると、機械学習により、見えている部位の骨格を検知する。そして、見えていない10箇所の部位の位置(右肩、右腰、左前足首、左前蹄、左後足首、左後蹄、右前足首、右前蹄、右後足首、右後蹄)を含む骨格フレーム情報が姿勢の推定結果として出力される。なお、ここに示したウシ個体の部位は例示であり、画像に含まれる部位及び画像に含まれない部位の種類や数はこれらに限定されず、適宜設定可能である。 For example, only the nose, left eye, right eye, left ear, right ear, left shoulder, and left waist are visible in the image data of FIG. When this image data is input to the posture estimation model, machine learning detects the skeleton of the visible parts. And a skeletal frame including the positions of 10 invisible parts (right shoulder, right hip, left front ankle, left front foot, left rear foot, left rear foot, right front foot, right front foot, right rear foot, right rear foot). Information is output as the result of the pose estimation. The parts of the bovine individual shown here are examples, and the types and number of parts included in the image and not included in the image are not limited to these, and can be set as appropriate.

これにより、画像中に遮蔽物があり、個体の一部しか含まれないような場合であっても、体領域の全体を特定し、個体の行動解析に利用することができる。このように、画像に含まれない部位を推定するための情報として、画像中に含まれる部位の情報を用いている。また、入力データとして、例えば、対象となる画像の時系列の前後の画像において検出した各部位の位置を利用してもよい。 This makes it possible to identify the entire body region and use it for analyzing the behavior of the individual, even if the image contains only a part of the individual due to an obstructing object. In this way, information on parts included in the image is used as information for estimating parts not included in the image. Also, as the input data, for example, the position of each part detected in images before and after the target image in time series may be used.

このように、学習用データ生成装置において、体領域特定部が、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、個体の体全体を表す体領域を特定する構成についても、本発明の範疇に含まれる。また、このような体領域特定部は、本発明の一態様に係る個体識別装置において使用することもできる。 In this way, in the learning data generation device, the body region identifying unit detects the skeleton of the individual from an image representing a part of the body of the individual and estimates the posture of the individual by machine learning. The scope of the present invention also includes a configuration for identifying a body region representing the entire body of an individual by referring to the posture of the individual output by inputting the image data of the moving object as input data. Also, such a body region identifying unit can be used in an individual identification device according to one aspect of the present invention.

〔行動型分析システム〕
動物各個体の行動種別(行動型)は動物を管理する上で重要な情報である。例えば、採食行動や休息行動は維持行動が確保されていることの指標となる。また、反芻家畜において、行動型の中でも特に反芻行動は、飼料摂取量をはじめ各種疾病の徴候や回復状態、あるいはストレス状態を反映するバロメーターとなる有用な情報とされている。従来、ウェアラブルセンサ等を利用して行動型を把握するシステムが実用化しているがコストや管理に係る労力の点で問題がある。一方、従来の画像解析では、特に反芻のような動作の把握が必要な行動の検出が困難であった。本発明の一形態によれば、画像解析を利用して動物の行動型を把握することで、省力的かつ容易に行動型データを取得することができる。また、本発明の一形態によれば、動作の把握が必要な行動型であっても検出することができる。
[Behavioral analysis system]
The behavior type (behavior type) of each individual animal is important information for managing animals. For example, eating behavior and resting behavior serve as indicators that maintenance behavior is ensured. In addition, in ruminant livestock, ruminant behavior, among other behavioral patterns, is regarded as useful information that serves as a barometer reflecting signs of various diseases including feed intake, recovery state, or stress state. Conventionally, systems that use wearable sensors and the like to grasp behavior patterns have been put into practical use, but there are problems in terms of cost and labor involved in management. On the other hand, with conventional image analysis, it is difficult to detect behaviors such as rumination, which require understanding. ADVANTAGE OF THE INVENTION According to one aspect of this invention, it is labor-saving and can acquire behavior type data easily by grasping|ascertaining the behavior type of an animal using image analysis. In addition, according to one aspect of the present invention, it is possible to detect even behavioral types that require grasping of actions.

図21を参照して、本発明の一態様に係る行動型分析システムについて説明する。図21は、本発明の一態様に係る行動型分析システム200の要部構成を示すブロック図である。行動型分析システム200は、行動型分析装置220を備えている。また、行動型分析システム200は、カメラ20、学習用データ生成装置210及び学習装置100を備えている。 A behavioral analysis system according to one aspect of the present invention will be described with reference to FIG. FIG. 21 is a block diagram showing the main configuration of a behavioral analysis system 200 according to one aspect of the present invention. The behavioral analysis system 200 includes a behavioral analysis device 220 . The behavioral analysis system 200 also includes a camera 20 , a learning data generation device 210 and a learning device 100 .

(行動型分析装置220)
行動型分析装置220は、画像取得部221、検出部222、識別部223、位置特定部224、情報取得部225、及び、行動型分析部226を備えている。行動型分析装置220は、さらに、分析結果記憶部227を備えている。行動型分析装置220は、個体の行動型を検出して分析する。
(Behavioral analysis device 220)
The behavioral analysis device 220 includes an image acquisition unit 221 , a detection unit 222 , an identification unit 223 , a position identification unit 224 , an information acquisition unit 225 and a behavioral analysis unit 226 . The behavioral analysis device 220 further includes an analysis result storage unit 227 . The behavioral analysis device 220 detects and analyzes behavioral patterns of individuals.

<個体>
行動型分析装置220により行動型を分析する個体は、ヒト、動物、他の移動体等であり得るが、閉鎖された空間内で群毎に管理される個体であってもよいし、個体毎に管理されている個体であってもよい。このような個体には、多頭飼育されている家畜個体及び単頭飼育されている家畜個体が含まれる。家畜個体は、ウシ個体のような反芻動物個体であってもよく、例えば、乳牛個体、より具体的には、ホルスタイン種の乳牛個体であってもよい。多頭飼育されている個体は、屋内で放し飼いにされている個体であってもよいし、鎖等に繋がれてつなぎ飼いにされている個体であってもよい。また、多頭飼育されている個体は、屋外の管理区域内で飼育されている個体であってもよい。本実施形態においては、個体がウシ個体である場合を例として説明する。
<Individual>
The individuals whose behavior patterns are analyzed by the behavior pattern analysis device 220 can be humans, animals, other moving bodies, etc., but they may be individuals managed in groups in a closed space, or individual It may be an individual managed by Such individuals include multi-housed domestic animals and single-housed domestic animals. The livestock individual may be a ruminant individual such as a cow individual, for example a dairy cow individual, more particularly a Holstein cow individual. The multi-headed individual may be an individual that is kept free-range indoors, or an individual that is tied up with a chain or the like. In addition, an individual that is reared with multiple animals may be an individual that is reared outdoors in a controlled area. In this embodiment, a case where the individual is a bovine individual will be described as an example.

<画像取得部221>
画像取得部221は、カメラ20により撮影されたウシ個体を含む画像を取得する。画像取得部221は、上述した個体識別装置120の画像取得部121と同様に構成される。そのため、画像取得部221の説明として、個体識別装置120の画像取得部121の説明を援用し、その詳細な説明は省略する。カメラ20についても、個体識別装置120に関して説明したカメラ20と同一であるため、その詳細な説明は省略する。
<Image acquisition unit 221>
The image acquisition unit 221 acquires an image including the individual cow photographed by the camera 20 . The image acquisition unit 221 is configured similarly to the image acquisition unit 121 of the individual identification device 120 described above. Therefore, the description of the image acquisition unit 121 of the individual identification device 120 is used as the description of the image acquisition unit 221, and detailed description thereof is omitted. Since the camera 20 is also the same as the camera 20 described with respect to the individual identification device 120, detailed description thereof will be omitted.

<検出部222>
検出部222は、画像取得部221が取得した画像中のウシ個体を検出する。画像中のウシ個体を検出する方法としては、動体検知方法、機械学習を利用した方法等が挙げられる。動体検知方法を利用する場合、検出部222は、学習用データ生成装置10の動体検知部12と同様に構成することができる。機械学習を利用する場合、図17に示す物体検出機械学習モデル、及び、図18に示す骨格検知機械学習モデルのような、機械学習モデルを用いることができる。なお、画像中にウシ個体が単体で含まれる場合には、ウシ個体の検出は不要であり、取得した画像において後述する位置特定が行なわれてもよい。
<Detector 222>
The detection unit 222 detects individual cows in the image acquired by the image acquisition unit 221 . Examples of methods for detecting individual cows in images include moving object detection methods and methods using machine learning. When using the moving object detection method, the detection unit 222 can be configured in the same manner as the moving object detection unit 12 of the learning data generation device 10 . When using machine learning, machine learning models can be used, such as the object detection machine learning model shown in FIG. 17 and the skeleton detection machine learning model shown in FIG. If the image contains a single bovine individual, it is not necessary to detect the bovine individual, and the acquired image may be subjected to position identification, which will be described later.

<識別部223>
識別部223は、検出部222が検出したウシ個体を識別する。識別部223は、上述した個体識別装置120の識別部122と同様に構成される。そのため、識別部223の説明として、個体識別装置120の識別部122の説明を援用し、その詳細な説明は省略する。なお、画像中にウシ個体が単体で含まれる場合には、ウシ個体の識別は不要であり、取得した画像において後述する位置特定が行なわれてもよい。
<Identification unit 223>
The identification unit 223 identifies the bovine individuals detected by the detection unit 222 . The identification unit 223 is configured similarly to the identification unit 122 of the individual identification device 120 described above. Therefore, the description of the identification unit 122 of the individual identification device 120 is used as the description of the identification unit 223, and detailed description thereof is omitted. If the image contains a single bovine individual, it is not necessary to identify the bovine individual, and the acquired image may be subjected to position identification, which will be described later.

<位置特定部224>
位置特定部224は、識別した個体の体の部位の位置を特定する。位置特定部224が特定する個体の体の部位の位置は、例えば、鼻先、口元、前肢踵、前肢蹄、等の個体の体の部位である。図22に、位置特定部224がウシ個体の体の部位を特定する例を示す。図22の左側には、座位のウシ個体の鼻先、口元、前肢踵、及び前肢蹄を特定した例を、右側に立位のウシ個体の鼻先、口元、前肢踵、及び前肢蹄を特定した例を示す。なお、特定する個体の体の部位の数はこれに限定されず、より少なくても、より多くてもよい。
<Position specifying unit 224>
The position specifying unit 224 specifies the position of the body part of the identified individual. The position of the part of the body of the individual specified by the position specifying unit 224 is, for example, the tip of the nose, the mouth, the heel of the forelimb, the toe of the forelimb, and the like. FIG. 22 shows an example in which the position specifying unit 224 specifies body parts of an individual cow. The left side of FIG. 22 shows an example of identifying the nose tip, mouth, forelimb heels, and forelimb hooves of a sitting bovine individual, and the right side shows an example of identifying the nose tip, mouth, forelimb heels, and forelimb hooves of a bovine individual in a standing position. indicates The number of body parts of the individual to be specified is not limited to this, and may be smaller or larger.

位置特定部224は、機械学習を利用して個体の体の部位の位置を特定してもよい。例えば、個体を含む画像を入力データとして、当該画像中の当該個体の体の部位の位置を特定するように機械学習した位置特定モデルに、画像取得部が取得した画像を入力データとして入力することにより出力される位置を特定する。位置特定モデルに個体を含む画像を入力することにより、図22のように個体の体の部位が特定された画像が出力され得る。 The position identifying unit 224 may use machine learning to identify the position of the body part of the individual. For example, using an image including an individual as input data, inputting the image acquired by the image acquiring unit as input data to a position specifying model that has undergone machine learning to specify the position of the body part of the individual in the image. Specifies the position output by . By inputting an image including an individual to the localization model, an image in which body parts of the individual are specified as shown in FIG. 22 can be output.

位置特定部224は、個体の体の部位の位置の座標を取得することで、当該位置を特定してもよい。位置特定部224は、画像中における個体の体の部位の位置座標を取得する。位置特定部224は、取得した位置座標をウシ個体が存在する空間の空間座標に変換してもよい。位置特定部224は、撮像された時間が異なる複数のフレーム分の画像において位置座標を取得する。 The position specifying unit 224 may specify the position by acquiring the coordinates of the position of the body part of the individual. The position specifying unit 224 acquires the position coordinates of the body part of the individual in the image. The position specifying unit 224 may convert the acquired position coordinates into spatial coordinates of the space in which the bovine individual exists. The position specifying unit 224 acquires position coordinates in a plurality of frames of images captured at different times.

位置特定部224は、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検出した前記個体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、前記位置を特定してもよい。位置特定部224において用いる姿勢推定モデルは、図20に示す姿勢推定モデルと同一である。また、位置特定部224は、学習用データ生成装置10の枠囲み部13において用いられる個体の体の一部を表す画像から当該個体の体全体を表す画像を生成するように機械学習した生成モデルを用いてもよい。これにより、画像中に遮蔽物があり、個体の体の一部しか含まれないような場合であっても、個体の体の部位を特定することが可能であり、また、位置座標を取得することも可能である。 The position specifying unit 224 inputs the detected image data of the individual as input data to a posture estimation model that has undergone machine learning so as to detect the skeleton of the individual from an image representing a part of the body of the individual and estimate the posture. The position may be identified by referring to the posture of the individual output by The posture estimation model used in position specifying section 224 is the same as the posture estimation model shown in FIG. In addition, the position specifying unit 224 is a generation model that performs machine learning so as to generate an image representing the entire body of the individual from an image representing a part of the body of the individual used in the enclosing unit 13 of the learning data generation device 10. may be used. As a result, even if there is a shielding object in the image and only a part of the individual's body is included, it is possible to specify the body part of the individual, and to acquire the position coordinates. is also possible.

なお、位置特定部224は、画像データに個体の体の一部しか含まれていない場合、個体の体全体を表す画像を生成することなく、個体の体の一部の画像において個体の体の部位を特定し、位置座標を取得してもよい。この場合、例えば、個体の体の一部の画像から個体の体の部位を特定することが可能なように学習させた位置特定モデルを用いて、個体の体の部位を特定してもよい。個体の体の一部の画像から体全体の画像を復元することなく、個体の体の一部の画像をそのまま利用しても、行動型分析を行うことができる。 Note that when the image data includes only a part of the body of the individual, the position specifying unit 224 does not generate an image representing the entire body of the individual, but rather A part may be identified and position coordinates may be obtained. In this case, for example, the body part of the individual may be identified using a position identification model trained so as to be able to identify the body part of the individual from an image of a part of the body of the individual. Behavioral analysis can be performed by using a partial image of an individual's body as it is without restoring an image of the entire body from an image of the partial body of the individual.

<情報取得部225>
情報取得部225は、特定した位置の所定時間内の変化を表す時系列情報を取得する。情報取得部225が取得する時系列情報は、所定時間内の連続する画像から得られるウシ個体の部位の変化を表す情報であり、位置特定部224が取得した位置座標に基づいて得られる各部位間の平均距離及び各部位の画像フレーム間の平均変位であり得る。
<Information Acquisition Unit 225>
The information acquisition unit 225 acquires time-series information representing changes in the specified position within a predetermined period of time. The time-series information acquired by the information acquisition unit 225 is information representing changes in parts of the bovine individual obtained from consecutive images within a predetermined time, and each part obtained based on the position coordinates acquired by the position specifying unit 224. and the average displacement between image frames for each site.

<行動型分析部226>
行動型分析部226は、取得した時系列情報を参照して、個体の行動型を分析する。行動型分析部226は、時系列情報を参照することで、ウシ個体の動作を検出することが可能であり、また、ウシ個体の行動を追跡することもできる。これにより、所定のタイミングや所定の時間内における、ウシ個体の動作や行動から行動型を分析することができる。行動型分析部226は、ウシ個体の行動型の分析結果を分析結果記憶部217に格納する。
<Behavioral Analysis Unit 226>
The behavior type analysis unit 226 refers to the acquired time-series information and analyzes the behavior type of the individual. By referring to the time-series information, the behavioral analysis unit 226 can detect the behavior of the bovine individual, and can also track the behavior of the bovine individual. As a result, it is possible to analyze the behavioral pattern from the movement and behavior of the individual cow at a predetermined timing and within a predetermined period of time. The behavior type analysis unit 226 stores the analysis result of the behavior type of the individual cow in the analysis result storage unit 217 .

行動型分析部226により分析されるウシ個体の行動型は、例えば、横臥休息、横臥反芻、立位休息、立位反芻、採食、等のような行動の種別である。図23に示すように、所定時間内の連続する画像から得られる時系列情報と、その時系列情報に対応するウシ個体の行動型とを対応付けた情報を予め取得しておくことで、時系列情報に基づいてウシ個体の行動型を分析することができる。 The behavioral pattern of the bovine individual analyzed by the behavioral pattern analysis unit 226 is, for example, a type of behavior such as lying down resting, lying down rumination, standing rest, standing rumination, feeding, and the like. As shown in FIG. 23, by acquiring in advance information that associates time-series information obtained from consecutive images within a predetermined time period with behavioral patterns of individual cows corresponding to the time-series information, time-series information can be obtained. Based on the information, the behavioral pattern of the bovine individual can be analyzed.

行動型分析部226は、時系列情報とウシ個体の行動型とが対応付けられた教師データを用いて構築された分析モデルを用いて、ウシ個体の行動型を分析してもよい。このような分析モデルに、時系列情報を入力データとして入力することにより、ウシ個体の行動型が出力される。行動型分析部226は、図23に示すように、分析したウシ個体の行動型をウシ個体の画像と共に表示部(図示せず)に表示させてもよい。また、行動型分析部226は、画像データに個体の体の一部しか含まれていない場合、特定した体の一部の部位の位置座標の情報のみを用いて、個体の行動型を分析してもよい。この場合、体の部位の位置座標に欠損データがあっても行動型を分析することが可能なように学習させた分析モデルを用いて、個体の行動型を分析してもよい。 The behavioral pattern analysis unit 226 may analyze behavioral patterns of individual bovines using an analysis model constructed using teacher data in which time-series information and behavioral patterns of individual bovines are associated with each other. By inputting time-series information as input data to such an analysis model, behavior patterns of individual cows are output. As shown in FIG. 23, the behavioral pattern analysis unit 226 may display the analyzed behavioral pattern of the bovine individual together with the image of the bovine individual on the display unit (not shown). Further, when the image data includes only a part of the body of the individual, the behavior analysis unit 226 analyzes the behavior of the individual using only the position coordinate information of the specified part of the body. may In this case, the behavior type of the individual may be analyzed using an analysis model trained so that the behavior type can be analyzed even if there is missing data in the position coordinates of the body parts.

<学習用データ生成装置210>
行動型分析システム200が備える学習用データ生成装置210は、個体を含む画像を取得する画像取得部11と、取得した画像中の前記個体を検出する検出部212と、検出した個体の体領域を特定する特定部213と、特定した体領域の体領域画像を抽出する抽出部14と、抽出した体領域画像から、個体を識別する識別モデルの学習用データを生成する学習用データ生成部15とを備えている。学習用データ生成装置210は、生成した学習用データを記憶する学習用データ記憶部16をさらに備えている。
<Learning data generation device 210>
The learning data generation device 210 included in the behavioral analysis system 200 includes an image acquisition unit 11 that acquires an image including an individual, a detection unit 212 that detects the individual in the acquired image, and a body region of the detected individual. an identifying unit 213 for identifying, an extracting unit 14 for extracting a body region image of the identified body region, and a learning data generating unit 15 for generating learning data for a discrimination model for identifying an individual from the extracted body region image. It has The learning data generation device 210 further includes a learning data storage unit 16 that stores the generated learning data.

検出部212は、動体検知法、機械学習を利用した方法等を用いて、画像中の個体を検出する。機械学習を利用して画像中の個体を検出する方法には、機械学習を利用して物体を検出する方法及び個体の骨格を検出する方法が含まれる。特定部213は、検出した個体の体全体を含む体領域に枠囲みを付与する方法、画像セグメンテーションを利用する方法等を用いて、検出した個体の体領域を特定する。 The detection unit 212 detects an individual in the image using a moving object detection method, a method using machine learning, or the like. Methods for detecting individuals in images using machine learning include methods for detecting objects and methods for detecting skeletons of individuals using machine learning. The specifying unit 213 specifies the body region of the detected individual by using a method of adding a frame to the body region including the entire body of the detected individual, a method of using image segmentation, or the like.

画像取得部11、抽出部14、及び、学習用データ生成部15は、図1に示す学習用データ生成装置10におけるこれらの部材と同一である。すなわち、学習用データ生成装置210は、学習用データ生成装置10と同様に構成されている。そのため、学習用データ生成装置210の説明として、学習用データ生成装置10の説明を援用し、その詳細な説明は省略する。 The image acquisition unit 11, the extraction unit 14, and the learning data generation unit 15 are the same as these members in the learning data generation device 10 shown in FIG. That is, the learning data generation device 210 is configured in the same manner as the learning data generation device 10 . Therefore, the description of the learning data generation device 10 is used as the description of the learning data generation device 210, and detailed description thereof is omitted.

学習用データ生成装置210は、識別モデルを構築するための学習用データのみならず、行動型分析部226が行動型を分析するために用いる分析モデルを構築するための学習用データを生成するために用いることもできる。 The learning data generation device 210 generates not only learning data for constructing a discriminant model but also learning data for constructing an analysis model used by the behavioral analysis unit 226 to analyze behavioral patterns. can also be used for

<学習装置100>
学習装置100は、学習用データ生成装置210が生成した学習用データを用いて、識別モデル、分析モデル等を構築する。行動型分析システム200が備える学習装置100は、図10に示す学習装置100と同一である。したがって、行動型分析システム200が備える学習装置100の説明として、図10に示す学習装置100の説明を援用し、その詳細な説明は省略する。
<Learning Device 100>
The learning device 100 uses the learning data generated by the learning data generation device 210 to construct a discriminative model, an analysis model, and the like. A learning device 100 included in the behavioral analysis system 200 is the same as the learning device 100 shown in FIG. Therefore, the description of the learning device 100 shown in FIG. 10 is used as the description of the learning device 100 included in the behavioral analysis system 200, and detailed description thereof is omitted.

<行動型分析処理>
図24を参照して、行動型分析装置220による行動型分析処理の一例について説明する。図24は、図23の行動型分析装置220による行動型分析処理を示すフローチャートである。
<Behavioral analysis processing>
An example of behavioral analysis processing by the behavioral analysis device 220 will be described with reference to FIG. 24 . FIG. 24 is a flowchart showing behavioral analysis processing by the behavioral analysis device 220 of FIG.

まず、ステップS241において、画像取得部221は、ウシ個体を含む画像を取得する。なお、行動型分析装置220による行動型分析処理は、カメラ20から撮像画像データの入力を受け付けることにより開始してもよいし、ユーザからの行動型分析処理を開始する操作入力を受け付けることにより開始してもよい。 First, in step S241, the image acquisition unit 221 acquires an image including an individual bovine. The behavioral analysis processing by the behavioral analysis device 220 may be started by receiving an input of captured image data from the camera 20, or by receiving an operation input for starting the behavioral analysis processing from the user. You may

次に、検出部222は、骨格検知機械学習モデルに画像データを入力し、画像データ中のウシ個体を検出する(ステップS242)。そして、識別部223は、検出されたウシ個体の画像データを識別モデルに入力し、ウシ個体の個体識別情報を取得し、ウシ個体を識別する(ステップS243)。 Next, the detection unit 222 inputs the image data to the skeleton detection machine learning model, and detects a bovine individual in the image data (step S242). Then, the identification unit 223 inputs the image data of the detected bovine individual to the identification model, acquires the individual identification information of the bovine individual, and identifies the bovine individual (step S243).

位置特定部224は、識別されたウシ個体の画像データを位置特定モデルに入力し、ウシ個体の体の部位を特定する位置座標を取得する(ステップS244)。そして、情報取得部225は、特定された位置座標を連続する数フレーム分取得し、各部位間の平均距離及び各部位のフレーム間の平均変位を時系列情報として算出する(ステップS245)。 The position specifying unit 224 inputs the image data of the identified bovine individual to the position specifying model, and obtains the position coordinates for specifying the part of the body of the bovine individual (step S244). Then, the information acquisition unit 225 acquires the specified position coordinates for several consecutive frames, and calculates the average distance between each part and the average displacement between frames of each part as time-series information (step S245).

行動型分析部226は、時系列情報を分析モデルに入力し、ウシ個体の行動型を分析する(ステップS246)。行動型分析部226は、分析結果を分析結果記憶部227に格納し、行動型分析処理を終了する。 The behavioral pattern analysis unit 226 inputs the time-series information into the analysis model and analyzes the behavioral pattern of the bovine individual (step S246). The behavioral analysis unit 226 stores the analysis result in the analysis result storage unit 227, and ends the behavioral analysis process.

このように、行動型分析装置220は、画像データから個体の体の部位の位置を特定し、当該位置の変化を追跡することで、個体の行動型を分析することができる。これにより、省力的かつ容易に行動型分析することが可能であり、また、反芻行動のような動作の把握が必要な行動型であっても検出することができる。 In this way, the behavioral analysis device 220 can analyze the behavioral pattern of an individual by identifying the position of the body part of the individual from the image data and tracking changes in the position. As a result, it is possible to easily and labor-savingly analyze the behavior type, and it is possible to detect even behavior types such as rumination behavior that require grasping of the behavior.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.

10 学習用データ生成装置、11 画像取得部、12 動体検知部、13 枠囲み部、14 抽出部、15 学習用データ生成部(生成部)、100 学習装置、101 学習用データ取得部、102 学習部、120 個体識別装置、121 画像取得部、122 識別部、140 行動分析装置、141 識別画像取得部、142 分析部、200 行動型分析システム、220 行動型分析装置、221 画像取得部、222 検出部、223 識別部、224 位置特定部、225 情報取得部、226 行動型分析部 10 learning data generation device 11 image acquisition unit 12 moving object detection unit 13 frame enclosing unit 14 extraction unit 15 learning data generation unit (generation unit) 100 learning device 101 learning data acquisition unit 102 learning Unit 120 Individual identification device 121 Image acquisition unit 122 Identification unit 140 Behavior analysis device 141 Identification image acquisition unit 142 Analysis unit 200 Behavioral analysis system 220 Behavioral analysis device 221 Image acquisition unit 222 Detection Unit 223 Identification Unit 224 Location Identification Unit 225 Information Acquisition Unit 226 Behavior Analysis Unit

Claims (25)

個体を含む画像を取得する画像取得部と、
取得した前記画像中の動体を検知する動体検知部と、
検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲み部と、
枠囲みが付与された前記体領域の体領域画像を抽出する抽出部と、
抽出した前記体領域画像から、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルの学習用データを生成する生成部と
を備えている、学習用データ生成装置。
an image acquisition unit that acquires an image containing an individual;
a moving body detection unit that detects a moving body in the acquired image;
a frame enclosing unit that encloses a body region including the entire body of the individual in the detected moving body;
an extracting unit that extracts a body region image of the body region to which the frame is attached;
A learning data generation device, comprising: a generation unit that generates learning data for a discrimination model that discriminates one individual included in a group of individuals to be identified from other individuals from the extracted body region image.
前記枠囲み部は、個体を含む画像から当該個体の体全体を含む体領域を抽出するように機械学習した判別モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される体領域に枠囲みを付与する、請求項1に記載の学習用データ生成装置。 The frame enclosing part is output by inputting image data of the detected moving object as input data to a discriminant model that has undergone machine learning so as to extract a body region that includes the entire body of the individual from an image that includes the individual. 2. The learning data generation device according to claim 1, wherein the body region is framed. 前記枠囲み部は、個体の体の一部を表す画像から当該個体の体全体を表す画像を生成するように機械学習した生成モデルに、検知した前記動体の画像データを入力データとして入力することにより出力される個体の体全体を表す画像を体領域とし、当該体領域に枠囲みを付与する、請求項1又は2に記載の学習用データ生成装置。 The frame enclosing unit inputs image data of the detected moving object as input data to a generative model that performs machine learning so as to generate an image representing the entire body of the individual from an image representing a part of the body of the individual. 3. The learning data generation device according to claim 1, wherein an image representing the entire body of an individual output by is used as a body region, and a frame is added to the body region. 前記個体は、多頭飼育されている家畜個体である、請求項1から3のいずれか1項に記載の学習用データ生成装置。 4. The learning data generation device according to any one of claims 1 to 3, wherein the individual is a livestock individual raised with multiple animals. 前記生成部は、前記体領域画像を個体毎に分類して蓄積し、前記学習用データを生成する、請求項1から4のいずれか1項に記載の学習用データ生成装置。 The learning data generation device according to any one of claims 1 to 4, wherein the generation unit classifies and accumulates the body region images for each individual to generate the learning data. 請求項1から5のいずれか1項に記載の学習用データ生成装置としてコンピュータを機能させるためのプログラムであって、
個体を含む画像を取得する画像取得ステップと、
取得した前記画像中の動体を検知する動体検知ステップと、
検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、
枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、
抽出した前記体領域画像から、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルの学習用データを生成する生成ステップと
を実行することを特徴とする、プログラム。
A program for causing a computer to function as the learning data generation device according to any one of claims 1 to 5,
an image acquisition step of acquiring an image containing the individual;
a moving body detection step of detecting a moving body in the acquired image;
a framing step of framing a body region including the entire body of the individual in the detected moving body;
an extracting step of extracting a body region image of the body region to which a frame is attached;
and a generation step of generating learning data for a discrimination model that discriminates one individual included in a group of individuals to be identified from other individuals from the extracted body region image.
個体を含む画像を取得する画像取得部と、
請求項1から5のいずれか1項に記載の学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部と、
識別した個体の時系列の画像を取得する識別画像取得部と、
取得した前記画像を参照して、前記個体の行動を分析する分析部と
を備えている、行動分析装置。
an image acquisition unit that acquires an image containing an individual;
An identification target constructed by machine learning to identify an individual contained in an image using learning data generated by the learning data generation device according to any one of claims 1 to 5. an identification unit that outputs the individual identification information of the individual contained in the image by inputting the data of the obtained image as input data to a identification model that identifies one individual contained in the population from other individuals; ,
an identification image acquisition unit that acquires time-series images of the identified individual;
and an analysis unit that analyzes the behavior of the individual by referring to the acquired image.
請求項7に記載の行動分析装置としてコンピュータを機能させるためのプログラムであって、
個体を含む画像を取得する画像取得ステップと、
請求項1から5のいずれか1項に記載の学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、
識別した個体の時系列の画像を取得する識別画像取得ステップと、
取得した前記画像を参照して、前記個体の行動を分析する分析ステップと
を実行することを特徴とする、プログラム。
A program for causing a computer to function as the behavior analysis device according to claim 7,
an image acquisition step of acquiring an image containing the individual;
An identification target constructed by machine learning to identify an individual contained in an image using learning data generated by the learning data generation device according to any one of claims 1 to 5. an identification step of outputting individual identification information of an individual included in the image by inputting data of the acquired image as input data to a discrimination model that identifies one individual included in the population from other individuals; ,
an identification image acquisition step of acquiring time-series images of the identified individual;
and an analysis step of analyzing the behavior of the individual with reference to the acquired image.
請求項1から5のいずれか1項に記載の学習用データ生成装置が生成した学習用データを取得する学習用データ取得部と、
取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルを構築する学習部と
を備えている、学習装置。
A learning data acquisition unit that acquires learning data generated by the learning data generation device according to any one of claims 1 to 5;
Learning to construct a discrimination model that discriminates one individual contained in a group of individuals to be identified from other individuals by performing machine learning so as to identify individuals contained in images using the acquired learning data. A learning device comprising:
請求項9に記載の学習装置としてコンピュータを機能させるためのプログラムであって、
請求項1から5のいずれか1項に記載の学習用データ生成装置が生成した学習用データを取得する学習用データ取得ステップと、
取得した前記学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルを構築する学習ステップと
を実行することを特徴とする、プログラム。
A program for causing a computer to function as the learning device according to claim 9,
A learning data acquisition step of acquiring learning data generated by the learning data generation device according to any one of claims 1 to 5;
Learning to construct a discrimination model that discriminates one individual contained in a group of individuals to be identified from other individuals by performing machine learning so as to identify individuals contained in images using the acquired learning data. A program characterized by executing a step.
個体を含む画像を取得する画像取得部と、
請求項9に記載の学習装置によって構築された前記識別モデルに、取得した前記画像の
データを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別部と
を備えている、個体識別装置。
an image acquisition unit that acquires an image containing an individual;
an identification unit that outputs individual identification information of an individual contained in the image by inputting data of the acquired image as input data to the identification model constructed by the learning device according to claim 9. identification device.
請求項11に記載の個体識別装置としてコンピュータを機能させるためのプログラムであって、
個体を含む画像を取得する画像取得ステップと、
請求項9に記載の学習装置によって構築された前記識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと
を実行することを特徴とする、プログラム。
A program for causing a computer to function as the individual identification device according to claim 11,
an image acquisition step of acquiring an image containing the individual;
and inputting data of the obtained image as input data to the identification model constructed by the learning device according to claim 9, and outputting individual identification information of the individual contained in the image. A program characterized by:
請求項6、8、10又は12に記載のプログラムを記録した記録媒体。 A recording medium recording the program according to claim 6, 8, 10 or 12. 個体を含む画像を取得する画像取得ステップと、
取得した前記画像中の動体を検知する動体検知ステップと、
検知した前記動体のうちの前記個体の体全体を含む体領域に枠囲みを付与する枠囲みステップと、
枠囲みが付与された前記体領域の体領域画像を抽出する抽出ステップと、
抽出した前記体領域画像から、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルの学習用データを生成する生成ステップと
を含む、学習用データ生成方法。
an image acquisition step of acquiring an image containing the individual;
a moving body detection step of detecting a moving body in the acquired image;
a framing step of framing a body region including the entire body of the individual in the detected moving body;
an extracting step of extracting a body region image of the body region to which a frame is attached;
and a generating step of generating learning data for a discrimination model for discriminating one individual contained in a group of individuals to be identified from other individuals from the extracted body region image.
個体を含む画像を取得する画像取得ステップと、
請求項14に記載の学習用データ生成方法により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体の個体識別情報を出力する識別ステップと、
識別した個体の時系列の画像を取得する識別画像取得ステップと、
取得した前記画像を参照して、前記個体の行動を分析する分析ステップと
を含む、行動分析方法。
an image acquisition step of acquiring an image containing the individual;
15. Using the learning data generated by the learning data generation method according to claim 14, one of the individuals included in the identification target population constructed by machine learning so as to identify the individuals included in the image an identification step of outputting individual identification information of an individual contained in the image by inputting the data of the acquired image as input data to a identification model that identifies the individual from other individuals;
an identification image acquisition step of acquiring time-series images of the identified individual;
and an analysis step of analyzing the behavior of the individual with reference to the acquired image.
個体を含む画像を取得する画像取得部と、
取得した前記画像中の前記個体を検出する検出部と、
検出した前記個体の体全体を含む体領域を特定する体領域特定部と、
特定した前記体領域の体領域画像を抽出する抽出部と、
抽出した前記体領域画像から、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルの学習用データを生成する生成部と
を備えている、学習用データ生成装置。
an image acquisition unit that acquires an image containing an individual;
a detection unit that detects the individual in the acquired image;
a body region identifying unit that identifies a body region including the entire body of the detected individual;
an extraction unit that extracts a body region image of the identified body region;
A learning data generation device, comprising: a generation unit that generates learning data for a discrimination model that discriminates one individual included in a group of individuals to be identified from other individuals from the extracted body region image.
前記検出部は、個体を含む画像を入力データとして、当該画像中の当該個体を検出するように機械学習した検出モデルに、前記画像取得部が取得した前記画像を入力データとして入力することにより出力される前記個体を検出する、請求項16に記載の学習用データ生成装置。 The detection unit inputs the image acquired by the image acquisition unit as input data to a detection model machine-learned to detect the individual in the image using an image including the individual as input data, and outputs the image. 17. The learning data generation device according to claim 16, which detects the individual who is being tested. 前記体領域特定部は、前記検出部が検出した前記個体の体全体を含む体領域を画像セグメンテーションにより特定する、請求項16又は17に記載の学習用データ生成装置。 18. The learning data generation device according to claim 16, wherein the body region identifying unit identifies a body region including the entire body of the individual detected by the detecting unit by image segmentation. 前記体領域特定部は、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検出した前記個体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、個体の体全体を表す体域を特定する、請求項16~18のいずれか1項に記載の学習用データ生成装置。 The body region identifying unit uses image data of the detected individual as input data for a posture estimation model that performs machine learning to detect the skeleton of the individual from an image representing a part of the body of the individual and to estimate the posture of the individual. 19. The learning data generation device according to any one of claims 16 to 18, wherein a body region representing the entire body of the individual is identified by referring to the posture of the individual that is output by the input. 前記生成部は、体領域画像を同一個体毎に分類して蓄積し、前記学習用データを生成する、請求項16~19のいずれか1項に記載の学習用データ生成装置。 The learning data generation device according to any one of claims 16 to 19, wherein the generation unit classifies and accumulates the body region images for each same individual to generate the learning data. 個体を含む画像を取得する画像取得部と、
取得した前記画像中の前記個体を検出する検出部と、
請求項1~5および16~20のいずれか1項に記載の学習用データ生成装置により生成した学習用データを用いて、画像に含まれる個体を識別するように機械学習することによって構築された、識別対象の個体群に含まれる一の個体を他の個体と識別する識別モデルに、取得した前記画像のデータを入力データとして入力することにより、当該画像に含まれる個体を他の個体と識別する識別部と、
識別した個体の体の部位の位置を特定する位置特定部と、
特定した前記位置の所定時間内の変化を表す時系列情報を取得する情報取得部と、
取得した前記時系列情報を参照して、前記個体の行動型を分析する行動型分析部と
を備えている、行動型分析装置。
an image acquisition unit that acquires an image containing an individual;
a detection unit that detects the individual in the acquired image;
Using learning data generated by the learning data generation device according to any one of claims 1 to 5 and 16 to 20, machine learning is performed to identify individuals included in images. inputting the obtained data of the image as input data to a discrimination model that distinguishes one individual contained in the population to be identified from other individuals, thereby distinguishing the individual contained in the image from other individuals an identification unit that
a position specifying unit that specifies the position of the body part of the identified individual;
an information acquisition unit that acquires time-series information representing changes in the identified position within a predetermined time period;
and a behavioral analysis unit that analyzes the behavioral pattern of the individual by referring to the acquired time-series information.
前記位置特定部は、個体を含む画像を入力データとして、当該画像中の当該個体の体の部位の位置を特定するように機械学習した位置特定モデルに、前記画像取得部が取得した前記画像を入力データとして入力することにより出力される前記位置を特定する、請求項21に記載の行動型分析装置。 The position specifying unit uses an image including an individual as input data, and applies the image acquired by the image acquisition unit to a position specifying model that has undergone machine learning so as to specify the position of the body part of the individual in the image. 22. The behavioral analysis device according to claim 21, wherein the output position is specified by inputting as input data. 前記位置特定部は、前記個体の体の部位の位置の座標を取得する、請求項21又は22に記載の行動型分析装置。 23. The behavioral analysis apparatus according to claim 21, wherein said position specifying unit acquires the coordinates of the position of the body part of said individual. 前記行動型分析部は、時系列情報を入力データとして、当該時系列情報に対応した行動型を推定するように機械学習した分析モデルに、前記情報取得部が取得した前記時系列情報を入力データとして入力することにより出力される行動型を分析結果として取得する、請求項21から23のいずれか1項に記載の行動型分析装置。 The behavioral analysis unit inputs the time-series information acquired by the information acquisition unit to an analysis model that performs machine learning so as to estimate a behavioral pattern corresponding to the time-series information as input data, using the time-series information as input data. 24. The behavioral analysis apparatus according to any one of claims 21 to 23, which acquires as an analysis result a behavioral pattern output by inputting as . 前記位置特定部は、個体の体の一部を表す画像から当該個体の骨格を検知して姿勢を推定するように機械学習した姿勢推定モデルに、検出した前記個体の画像データを入力データとして入力することにより出力される個体の姿勢を参照して、前記位置を特定する、請求項21から24のいずれか1項に記載の行動型分析装置。 The position specifying unit inputs the detected image data of the individual as input data to a posture estimation model that is machine-learned so as to detect the skeleton of the individual from an image representing a part of the body of the individual and estimate the posture of the individual. 25. The behavioral analysis apparatus according to any one of claims 21 to 24, wherein the position is specified by referring to the posture of the individual output by doing.
JP2021110070A 2020-07-01 2021-07-01 Learning data generation device, learning device, behavior analysis device, behavior analysis device, program, and recording medium Active JP7260922B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023059075A JP2023073478A (en) 2020-07-01 2023-03-31 Behavioral analyzer, behavioral analysis method, behavioral analysis program, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020114316 2020-07-01
JP2020114316 2020-07-01

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023059075A Division JP2023073478A (en) 2020-07-01 2023-03-31 Behavioral analyzer, behavioral analysis method, behavioral analysis program, and recording medium

Publications (2)

Publication Number Publication Date
JP2022013910A JP2022013910A (en) 2022-01-18
JP7260922B2 true JP7260922B2 (en) 2023-04-19

Family

ID=80169776

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021110070A Active JP7260922B2 (en) 2020-07-01 2021-07-01 Learning data generation device, learning device, behavior analysis device, behavior analysis device, program, and recording medium
JP2023059075A Pending JP2023073478A (en) 2020-07-01 2023-03-31 Behavioral analyzer, behavioral analysis method, behavioral analysis program, and recording medium

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023059075A Pending JP2023073478A (en) 2020-07-01 2023-03-31 Behavioral analyzer, behavioral analysis method, behavioral analysis program, and recording medium

Country Status (1)

Country Link
JP (2) JP7260922B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012046392A1 (en) 2010-10-08 2012-04-12 パナソニック株式会社 Posture estimation device and posture estimation method
JP2019024482A (en) 2017-07-31 2019-02-21 株式会社コンピューター総合研究所 Information processing system, information processing device, and program
JP2020038572A (en) 2018-09-05 2020-03-12 京セラ株式会社 Image learning program, image learning method, image recognition program, image recognition method, creation program for learning data set, creation method for learning data set, learning data set, and image recognition device
JP2021144631A (en) 2020-03-13 2021-09-24 エヌ・ティ・ティ・ビズリンク株式会社 Animal behavior estimation system, animal behavior estimation support device, animal behavior estimation method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012046392A1 (en) 2010-10-08 2012-04-12 パナソニック株式会社 Posture estimation device and posture estimation method
JP2019024482A (en) 2017-07-31 2019-02-21 株式会社コンピューター総合研究所 Information processing system, information processing device, and program
JP2020038572A (en) 2018-09-05 2020-03-12 京セラ株式会社 Image learning program, image learning method, image recognition program, image recognition method, creation program for learning data set, creation method for learning data set, learning data set, and image recognition device
JP2021144631A (en) 2020-03-13 2021-09-24 エヌ・ティ・ティ・ビズリンク株式会社 Animal behavior estimation system, animal behavior estimation support device, animal behavior estimation method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Niki Parmar, et al.,Image Transformer,Proceedings of the 35 th International Conference on Machine, Stockholm, Sweden, PMLR 80, 2018,2018年06月15日,https://arxiv.org/pdf/1802.05751.pdf

Also Published As

Publication number Publication date
JP2022013910A (en) 2022-01-18
JP2023073478A (en) 2023-05-25

Similar Documents

Publication Publication Date Title
Wurtz et al. Recording behaviour of indoor-housed farm animals automatically using machine vision technology: A systematic review
Nasirahmadi et al. Implementation of machine vision for detecting behaviour of cattle and pigs
Fuentes et al. Deep learning-based hierarchical cattle behavior recognition with spatio-temporal information
Bao et al. Artificial intelligence in animal farming: A systematic literature review
Zhao et al. Automatic lameness detection in dairy cattle based on leg swing analysis with an image processing technique
Lao et al. Automatic recognition of lactating sow behaviors through depth image processing
US9521829B2 (en) Livestock identification and monitoring
JP2021101668A (en) Estrus diagnosis system, estrus diagnosis method, program and individual identification system
US11910784B2 (en) Animal visual identification, tracking, monitoring and assessment systems and methods thereof
Roland et al. Evaluation of a triaxial accelerometer for monitoring selected behaviors in dairy calves
Jia et al. Segmentation of body parts of cows in RGB-depth images based on template matching
KR102341715B1 (en) Apparatus and method for livestock monitoring
CA3230401A1 (en) Systems and methods for the automated monitoring of animal physiological conditions and for the prediction of animal phenotypes and health outcomes
Oczak et al. Comparison of the automated monitoring of the sow activity in farrowing pens using video and accelerometer data
Noe et al. Automatic detection and tracking of mounting behavior in cattle using a deep learning-based instance segmentation model
EP3933766B1 (en) A system and a method for livestock monitoring
KR20200071597A (en) Prediction method and the apparatus for onset time of sow farrowing by image analysis
Mittek et al. Health monitoring of group-housed pigs using depth-enabled multi-object tracking
Azarpajouh et al. Farm 4.0: innovative smart dairy technologies and their applications as tools for welfare assessment in dairy cattle
Yaseer et al. A review of sensors and Machine Learning in animal farming
JP7260922B2 (en) Learning data generation device, learning device, behavior analysis device, behavior analysis device, program, and recording medium
CN111814698A (en) Method for detecting calf-protecting behavior of cows in pasturing area based on artificial intelligence and aerial images
Yuan et al. Stress-free detection technologies for pig growth based on welfare farming: A review
JP2024046596A (en) State prediction device, state prediction method, program, and recording medium
Siegford et al. Practical considerations for the use of precision livestock farming to improve animal welfare

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220614

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230331

R150 Certificate of patent or registration of utility model

Ref document number: 7260922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150