JP2022074009A - Behavior trajectory estimation device, behavior trajectory estimation program, and behavior trajectory estimation method - Google Patents

Behavior trajectory estimation device, behavior trajectory estimation program, and behavior trajectory estimation method Download PDF

Info

Publication number
JP2022074009A
JP2022074009A JP2021166583A JP2021166583A JP2022074009A JP 2022074009 A JP2022074009 A JP 2022074009A JP 2021166583 A JP2021166583 A JP 2021166583A JP 2021166583 A JP2021166583 A JP 2021166583A JP 2022074009 A JP2022074009 A JP 2022074009A
Authority
JP
Japan
Prior art keywords
individual
locus
unit
feature
fragment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021166583A
Other languages
Japanese (ja)
Other versions
JP7211601B2 (en
Inventor
行信 谷口
Yukinobu Taniguchi
諒佑 古田
Ryosuke Furuta
翔太郎 石渡
Shotaro Ishiwatari
和希 脇田
Kazuki Wakita
和宏 穐澤
Kazuhiro Akisawa
葵 松永
Aoi Matsunaga
敏行 土谷
Toshiyuki Tsuchiya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo University of Science
Mahle Filter Systems Japan Corp
Tsuchiya Seisakusho KK
Original Assignee
Tokyo University of Science
Mahle Filter Systems Japan Corp
Tsuchiya Seisakusho KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo University of Science, Mahle Filter Systems Japan Corp, Tsuchiya Seisakusho KK filed Critical Tokyo University of Science
Publication of JP2022074009A publication Critical patent/JP2022074009A/en
Application granted granted Critical
Publication of JP7211601B2 publication Critical patent/JP7211601B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a behavior trajectory estimation device, a behavior trajectory estimation program and a behavior trajectory estimation method that highly accurately identify a moving body for each individual while achieving wide area monitoring of a lot of moving bodies, and can correctly estimate a behavior trajectory for each individual.SOLUTION: A behavior trajectory estimation device 1, which can estimate a behavior trajectory of a moving body for each individual, has: an individual area detection unit 53 that detects an individual area within time-sequence monitoring images; a trace processing implementation unit 54 that traces the moving body for each individual; a trajectory fragment acquisition unit 55 that acquires a trajectory fragment of the individual area; an individual characteristic extraction unit 57 that extracts an individual characteristic from the individual area; an individual characteristic collation unit 58 that collates the individual characteristic with an individual characteristic database 42, and acquires an individual ID corresponding to the individual characteristic; and a trajectory fragment integration unit 59 that integrates the trajectory fragments, and outputs the integrated trajectory fragment as the behavior trajectory for each individual ID.SELECTED DRAWING: Figure 2

Description

本発明は、動物や人間等の移動体を複数の監視カメラで広域監視するのに好適な行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法に関するものである。 The present invention relates to a behavior trajectory estimation device, a behavior trajectory estimation program, and a behavior trajectory estimation method suitable for wide-area monitoring of moving objects such as animals and humans with a plurality of surveillance cameras.

従来、乳牛等の動物を監視する方法としては、人が直接監視する方法、家畜にセンサを取り付けて監視する方法、および監視カメラによって監視する方法等が知られている。例えば、特開2019-24482号公報には、空間情報(赤外画像等)から検出した物体情報(牛の輪郭情報等)と、互いに接触している牛の配置情報(個体識別情報等)とから生成した牛の行動情報(歩行距離、立位・座位・横臥時間、接触回数等)に基づいて、牛の異常行動を判定する技術が提案されている(特許文献1)。 Conventionally, as a method of monitoring an animal such as a dairy cow, a method of directly monitoring by a human, a method of attaching a sensor to a livestock for monitoring, a method of monitoring with a surveillance camera, and the like are known. For example, Japanese Patent Application Laid-Open No. 2019-24482 describes object information (cow contour information, etc.) detected from spatial information (infrared image, etc.) and cow placement information (individual identification information, etc.) in contact with each other. A technique for determining abnormal behavior of a cow based on the behavior information of the cow (walking distance, standing / sitting / lying time, number of contacts, etc.) generated from the above has been proposed (Patent Document 1).

特開2019-24482号公報Japanese Unexamined Patent Publication No. 2019-24482

しかしながら、近年は酪農の大規模化が進んでおり、フリーストール牛舎やフリーバーン牛舎のように、広い牛舎内で数百頭以上の牛を自由に行動させながら飼育する方法が主流となってきている。このため、人が直接監視する方法では、全ての牛を個体ごとに混同することなく十分に監視し、体調等を管理することは困難である。 However, in recent years, the scale of dairy farming has been increasing, and the mainstream method is to raise hundreds or more cows in a large barn while freely moving them, such as the free stall barn and the free burn barn. There is. For this reason, it is difficult to sufficiently monitor all cows without confusing them and manage their physical condition, etc. by the method of direct monitoring by humans.

また、家畜にセンサを取り付けて監視する方法では、全頭分のセンサを用意する必要があるため、大規模な牛舎になるほどコストがかさむ。また、センサが脱落、破損、電池切れ等するたびに、その牛を探し出して交換等する必要があり、メンテナンスにも手間と費用が掛かる。さらに、牛は何でも飲み込んでしまう習性があるため、脱落したセンサや電池を餌と一緒に飲み込んでしまう危険性もある。 In addition, in the method of attaching sensors to livestock for monitoring, it is necessary to prepare sensors for all the animals, so the larger the barn, the higher the cost. In addition, every time the sensor falls off, is damaged, or the battery runs out, it is necessary to find and replace the cow, which is troublesome and costly for maintenance. In addition, cows have a habit of swallowing anything, so there is a risk of swallowing a dropped sensor or battery with food.

さらに、監視カメラによって監視する方法については、特許文献1のように、狭い牛房内で少数頭の牛を監視するシステムでは、多数頭の広域監視に対応できないという問題がある。また、広域監視を実現するために、広角レンズを備えた監視カメラを使用すると、画像中の牛の位置や牛の姿勢によって見え方が大きく変化してしまう。このため、広角画像から牛を個体ごとに識別することが困難となり、個体ごとの行動軌跡を正しく推定することができないという問題がある。 Further, regarding the method of monitoring by a surveillance camera, there is a problem that a system for monitoring a small number of cows in a narrow cow cell, as in Patent Document 1, cannot support wide area monitoring of a large number of cows. In addition, if a surveillance camera equipped with a wide-angle lens is used to realize wide-area surveillance, the appearance will change significantly depending on the position of the cow and the posture of the cow in the image. For this reason, it becomes difficult to identify the cow for each individual from the wide-angle image, and there is a problem that the behavioral trajectory of each individual cannot be estimated correctly.

本発明は、このような問題点を解決するためになされたものであって、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定することができる行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法を提供することを目的としている。 The present invention has been made to solve such a problem, and while realizing wide-area monitoring of a large number of moving objects, the moving objects are identified for each individual with high accuracy, and the behavioral trajectory of each individual is achieved. It is an object of the present invention to provide a behavior locus estimation device, a behavior locus estimation program, and a behavior locus estimation method capable of accurately estimating.

本発明に係る行動軌跡推定装置は、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定装置であって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合部と、を有する。 The behavior trajectory estimation device according to the present invention solves the problem of identifying a moving object for each individual with high accuracy and correctly estimating the behavior trajectory for each individual while realizing wide area monitoring of a large number of moving objects. , A behavior trajectory estimation device that can estimate the behavior trajectory of a moving object for each individual, and detects the image area occupied by the individual as an individual area in each surveillance image of the time series taken by a plurality of surveillance cameras. A tracking process execution unit that tracks the moving object for each individual by associating an individual area detection unit and an individual region having a similar position, movement direction, and speed between adjacent surveillance images in time series, and the tracking process execution unit. A locus fragment acquisition unit that acquires a time-series position coordinate group in a predetermined coordinate system of an individual region associated with the unit as a locus fragment, and an individual feature that is a feature vector based on the appearance of the individual is extracted from the individual region. The individual characteristics extracted by the individual characteristics extraction unit, the individual characteristics extracted by the individual characteristics extraction unit, and the individual characteristics database in which the individual characteristics are registered in association with the individual ID that identifies the individual are collated and extracted. An individual characteristic collation unit that acquires an individual ID corresponding to an individual characteristic, and a locus fragment integration unit that integrates the locus fragments having the highest continuity between the locus fragments and outputs them as an action locus for each individual ID. Have.

また、本発明の一態様として、個体ごとの識別精度が低下するのを抑制するという課題を解決するために、前記個体領域に含まれる移動体の姿勢を推定する移動体姿勢推定部を有しており、前記個体特徴抽出部は、前記個体を識別するのに適した姿勢の移動体を含む個体領域のみから前記個体特徴を抽出してもよい。 Further, as one aspect of the present invention, there is a moving body posture estimation unit that estimates the posture of the moving body included in the individual region in order to solve the problem of suppressing the deterioration of the identification accuracy for each individual. The individual feature extraction unit may extract the individual feature only from the individual region including the moving body in a posture suitable for identifying the individual.

さらに、本発明の一態様として、簡易的に移動体の姿勢を高精度に推定するという課題を解決するために、前記監視カメラごとに、移動体の姿勢を推定可能な姿勢推定可能領域と、前記姿勢推定可能領域に存在する移動体がとることの多い姿勢とが設定されており、前記移動体姿勢推定部は、前記個体領域が前記姿勢推定可能領域に含まれる場合、当該姿勢推定可能領域に対応付けられた姿勢を前記個体領域に含まれる移動体の姿勢として推定してもよい。 Further, as one aspect of the present invention, in order to solve the problem of easily estimating the posture of the moving body with high accuracy, a posture estimable region in which the posture of the moving body can be estimated is provided for each surveillance camera. A posture that is often taken by a moving body existing in the posture estimable region is set, and the moving body posture estimation unit is in the posture estimable region when the individual region is included in the posture estimable region. The posture associated with the above may be estimated as the posture of the moving body included in the individual region.

また、本発明の一態様として、個体の識別精度を向上するという課題を解決するために、前記行動軌跡に基づいて、前記個体IDごとに、前記監視画像から前記個体領域を切り出して移動体画像列を取得し、各移動体画像の個体特徴を抽出して前記個体特徴データベースに追加する個体特徴追加部を有していてもよい。 Further, as one aspect of the present invention, in order to solve the problem of improving the identification accuracy of an individual, a moving body image is obtained by cutting out the individual region from the monitoring image for each individual ID based on the action locus. It may have an individual feature addition part that acquires a column, extracts an individual feature of each moving object image, and adds it to the individual feature database.

さらに、本発明の一態様として、個体ごとの行動軌跡を高精度に推定するという課題を解決するために、前記軌跡断片統合部は、前記軌跡断片間における時間的な連続性、空間的な連続性および個体特徴間の類似性に基づいて、前記軌跡断片間の連続性が最も高い軌跡断片を特定してもよい。 Further, as one aspect of the present invention, in order to solve the problem of estimating the action locus of each individual with high accuracy, the locus fragment integration unit has temporal continuity and spatial continuity between the locus fragments. The locus fragment with the highest continuity between the locus fragments may be identified based on the similarity between sex and individual characteristics.

また、本発明の一態様として、外見が似ている個体同士であっても、異なる個体の軌跡断片同士を誤って統合するのを防止するという課題を解決するために、前記軌跡断片統合部は、前記軌跡断片間の連続性が最も高い軌跡断片同士のそれぞれに対応付けられた個体IDが異なる場合、当該軌跡断片同士を統合しないようにしてもよい。 Further, as one aspect of the present invention, in order to solve the problem of preventing erroneous integration of locus fragments of different individuals even among individuals having similar appearances, the locus fragment integration unit is used. If the individual IDs associated with the locus fragments having the highest continuity between the locus fragments are different, the locus fragments may not be integrated.

本発明に係る行動軌跡推定プログラムは、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定プログラムであって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合部と、してコンピュータを機能させる。 The behavior trajectory estimation program according to the present invention solves the problem of identifying a moving object for each individual with high accuracy and correctly estimating the behavior trajectory of each individual while realizing wide-area monitoring of a large number of moving objects. , A behavior trajectory estimation program that can estimate the behavior trajectory of a moving object for each individual, and detects the image area occupied by the individual as an individual area in each surveillance image of the time series taken by a plurality of surveillance cameras. A tracking process execution unit that tracks the moving object for each individual by associating an individual area detection unit and an individual region having a similar position, movement direction, and speed between adjacent surveillance images in time series, and the tracking process execution unit. A locus fragment acquisition unit that acquires a time-series position coordinate group in a predetermined coordinate system of an individual region associated with the unit as a locus fragment, and an individual feature that is a feature vector based on the appearance of the individual is extracted from the individual region. The individual characteristics extracted by the individual characteristics extraction unit, the individual characteristics extracted by the individual characteristics extraction unit, and the individual characteristics database in which the individual characteristics are registered in association with the individual ID that identifies the individual are collated and extracted. An individual characteristic collation unit that acquires an individual ID corresponding to an individual characteristic, and a locus fragment integration unit that integrates the locus fragments having the highest continuity between the locus fragments and outputs them as an action locus for each individual ID. To make the computer work.

本発明に係る行動軌跡推定方法は、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定方法であって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出ステップと、時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行ステップと、前記追跡処理実行ステップで対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出ステップと、前記個体特徴抽出ステップで抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合ステップと、前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合ステップと、を有する。 The behavior trajectory estimation method according to the present invention solves the problem of identifying a moving object for each individual with high accuracy and correctly estimating the behavior trajectory for each individual while realizing wide-area monitoring of a large number of moving objects. , A behavior trajectory estimation method that can estimate the behavior trajectory of a moving object for each individual, and detects the image area occupied by the individual as an individual area in each surveillance image of the time series taken by a plurality of surveillance cameras. A tracking process execution step for tracking the moving object for each individual and a tracking process execution for each individual by associating the individual area detection step with individual areas having similar positions, movement directions, and speeds between adjacent surveillance images in time series. A locus fragment acquisition unit that acquires a time-series position coordinate group in a predetermined coordinate system of an individual region associated with a step as a locus fragment, and an individual feature that is a feature vector based on the appearance of the individual is extracted from the individual region. The individual feature extraction step, the individual feature extracted in the individual feature extraction step, and the individual feature database in which the individual feature is registered in association with the individual ID that identifies the individual are collated and extracted. An individual characteristic collation step for acquiring an individual ID corresponding to an individual characteristic, and a locus fragment integration step for integrating the locus fragments having the highest continuity between the locus fragments and outputting them as an action locus for each individual ID. Have.

本発明に係る行動軌跡推定装置は、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するとともに、当該推定演算に係る処理効率を向上するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定装置であって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力部と、を有する。 The behavior trajectory estimation device according to the present invention identifies a moving object for each individual with high accuracy while realizing wide area monitoring of a large number of moving objects, correctly estimates the behavior trajectory for each individual, and relates to the estimation calculation. In order to solve the problem of improving processing efficiency, it is a behavior trajectory estimation device that can estimate the behavior trajectory of a moving object for each individual, and in each surveillance image of the time series taken by a plurality of surveillance cameras. Of the entire image consisting of the individual area detection unit that detects the image area occupied by the individual as the individual area and all the monitoring images taken at the same time, the position, movement direction, and position / movement direction between the adjacent overall images in time series. By associating individual areas with similar speeds, a tracking process execution unit that tracks the moving object for each individual and a time-series position coordinate group in a predetermined coordinate system of the individual area associated with the tracking process execution unit A locus fragment acquisition unit acquired as a locus fragment, an individual feature extraction unit that extracts an individual feature that is a feature vector based on the appearance of the individual from the individual region, an individual feature extracted by the individual feature extraction unit, and the above-mentioned individual characteristics. The individual characteristic collating unit that collates with the individual characteristic database in which the individual characteristics are registered in association with the individual ID that identifies the individual and acquires the individual ID corresponding to the extracted individual characteristics, and the locus fragment are described above. It has an action locus output unit that outputs as an action locus for each individual ID.

本発明に係る行動軌跡推定プログラムは、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するとともに、当該推定演算に係る処理効率を向上するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定プログラムであって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力部と、してコンピュータを機能させる。 The behavior trajectory estimation program according to the present invention identifies a moving object for each individual with high accuracy while realizing wide-area monitoring of a large number of moving objects, correctly estimates the behavior trajectory for each individual, and relates to the estimation calculation. In order to solve the problem of improving processing efficiency, it is a behavior trajectory estimation program that can estimate the behavior trajectory of a moving body for each individual, and in each surveillance image of the time series taken by multiple surveillance cameras. Of the entire image consisting of the individual area detection unit that detects the image area occupied by the individual as the individual area and all the monitoring images taken at the same time, the position, movement direction, and position / movement direction between the adjacent overall images in time series. By associating individual regions with similar speeds, a tracking process execution unit that tracks the moving body for each individual and a time-series position coordinate group in a predetermined coordinate system of the individual region associated with the tracking processing execution unit A locus fragment acquisition unit acquired as a locus fragment, an individual feature extraction unit that extracts an individual feature that is a feature vector based on the appearance of the individual from the individual region, an individual feature extracted by the individual feature extraction unit, and the above-mentioned individual characteristics. The individual characteristic collating unit that collates with the individual characteristic database in which the individual characteristics are registered in association with the individual ID that identifies the individual and acquires the individual ID corresponding to the extracted individual characteristics, and the locus fragment are described above. The computer functions as an action locus output unit that outputs an action locus for each individual ID.

本発明に係る行動軌跡推定方法は、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するとともに、当該推定演算に係る処理効率を向上するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定方法であって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出ステップと、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行ステップと、前記追跡処理実行ステップで対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出ステップと、前記個体特徴抽出ステップで抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合ステップと、前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力ステップと、を有する。 The behavior trajectory estimation method according to the present invention identifies a moving object for each individual with high accuracy while realizing wide-area monitoring of a large number of moving objects, correctly estimates the behavior trajectory for each individual, and relates to the estimation calculation. In order to solve the problem of improving processing efficiency, it is a behavior trajectory estimation method that can estimate the behavior trajectory of a moving object for each individual, and in each surveillance image of the time series taken by a plurality of surveillance cameras. Of the whole image consisting of the individual area detection step of detecting the image area occupied by the individual as the individual area and all the monitoring images taken at the same time, the position, the movement direction, and the position / movement direction / By associating individual regions with similar speeds, a tracking process execution step for tracking the moving object for each individual and a time-series position coordinate group in a predetermined coordinate system of the individual region associated with the tracking process execution step are The locus fragment acquisition unit acquired as a locus fragment, an individual feature extraction step for extracting an individual feature which is a feature vector based on the appearance of the individual from the individual region, an individual feature extracted in the individual feature extraction step, and the above-mentioned The individual characteristic collation step of collating with the individual characteristic database in which the individual characteristics are registered in association with the individual ID for identifying the individual and acquiring the individual ID corresponding to the extracted individual characteristics, and the locus fragment are described above. It has an action locus output step that outputs as an action locus for each individual ID.

本発明によれば、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定することができる。 According to the present invention, while realizing wide-area monitoring of a large number of moving objects, it is possible to identify the moving objects for each individual with high accuracy and correctly estimate the behavioral trajectory of each individual.

本発明に係る行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法を用いて監視する乳牛(移動体)と、その牛舎の一例を示す図である。It is a figure which shows an example of the dairy cow (moving body) monitored by using the action locus estimation apparatus, the action locus estimation program and the action locus estimation method which concerns on this invention, and the barn. 本発明に係る行動軌跡推定装置の第1実施形態を示すブロック図である。It is a block diagram which shows 1st Embodiment of the action locus estimation apparatus which concerns on this invention. 本第1実施形態の個体特徴データベースに保存されるデータの一例を示す図である。It is a figure which shows an example of the data stored in the individual characteristic database of this 1st Embodiment. 本第1実施形態の軌跡断片バッファに保存されるデータの一例を示す図である。It is a figure which shows an example of the data stored in the locus fragment buffer of this 1st Embodiment. 本第1実施形態の個体領域を示す監視画像の一例である。This is an example of a monitoring image showing an individual area of the first embodiment. 本第1実施形態の姿勢推定データベースに保存されるデータの一例を示す図である。It is a figure which shows an example of the data stored in the posture estimation database of this 1st Embodiment. 本第1実施形態の行動軌跡データベースに保存されるデータの一例を示す図である。It is a figure which shows an example of the data stored in the action locus database of this 1st Embodiment. 本第1実施形態の個体特徴を登録する際に必要となる画像群を撮影するための装置の一例である。This is an example of a device for capturing an image group required when registering individual characteristics of the first embodiment. 乳牛を異なる方向から撮影した画像の模式図である。It is a schematic diagram of an image of a dairy cow taken from different directions. 本第1実施形態における、(a)追跡処理実行部による追跡処理と、(b)個体ごとの軌跡断片を示す図である。It is a figure which shows (a) the tracking process by the tracking process execution part, and (b) the locus fragment for each individual in this 1st Embodiment. 画像座標系(二次元空間)の模式図である。It is a schematic diagram of an image coordinate system (two-dimensional space). 牛舎座標系(三次元空間)の模式図である。It is a schematic diagram of a barn coordinate system (three-dimensional space). 本第1実施形態の軌跡断片統合部によって統合された軌跡断片の一例を示す図である。It is a figure which shows an example of the locus fragment integrated by the locus fragment integration part of this 1st Embodiment. 本第1実施形態の行動軌跡推定装置によって推定された行動軌跡の一例を示す図である。It is a figure which shows an example of the action locus estimated by the action locus estimation apparatus of this 1st Embodiment. 本第1実施形態の個体特徴登録処理を示すフローチャートである。It is a flowchart which shows the individual characteristic registration process of this 1st Embodiment. 本第1実施形態の行動軌跡推定処理を示すフローチャートである。It is a flowchart which shows the action locus estimation process of this 1st Embodiment. 本第1実施形態の姿勢推定処理を示すフローチャートである。It is a flowchart which shows the posture estimation process of this 1st Embodiment. 本第1実施形態の個体特徴追加処理を示すフローチャートである。It is a flowchart which shows the individual characteristic addition processing of this 1st Embodiment. 本発明に係る行動軌跡推定装置の第2実施形態を示すブロック図である。It is a block diagram which shows the 2nd Embodiment of the action locus estimation apparatus which concerns on this invention. 本第2実施形態の軌跡断片バッファに保存されるデータの一例を示す図である。It is a figure which shows an example of the data which is stored in the locus fragment buffer of this 2nd Embodiment. 本第2実施形態の行動軌跡データベースに保存されるデータの一例を示す図である。It is a figure which shows an example of the data stored in the action locus database of this 2nd Embodiment. 本第2実施形態において、画像座標系における個体領域を牛舎座標系における個体領域に変換する様子を示す図である。In the second embodiment, it is a figure which shows how the individual area in an image coordinate system is converted into the individual area in a barn coordinate system. 本第2実施形態における、(a)各監視画像内で検出された個体領域、(b)全体画像内で検出された個体領域、および(c)個体ごとの軌跡断片を示す図である。It is a figure which shows (a) the individual area detected in each monitoring image, (b) the individual area detected in the whole image, and (c) the locus fragment for each individual in this 2nd Embodiment. 本第2実施形態の行動軌跡推定処理を示すフローチャートである。It is a flowchart which shows the action locus estimation process of this 2nd Embodiment.

以下、本発明に係る行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法の実施形態について図面を用いて説明する。 Hereinafter, embodiments of the action trajectory estimation device, the action trajectory estimation program, and the action trajectory estimation method according to the present invention will be described with reference to the drawings.

本第1実施形態では、図1に示すように、フリーストール牛舎やフリーバーン牛舎のように、広い牛舎内で飼育される多数頭の乳牛を複数の監視カメラ11で監視し、各監視カメラ11の映像から本第1実施形態の行動軌跡推定装置1、行動軌跡推定プログラム1bおよび行動軌跡推定方法を用いて個体ごとの行動軌跡を推定する場合を例として説明する。なお、本第1実施形態では、監視対象の移動体として乳牛を想定しているが、これに限定されるものではなく、他の動物や人間の他、車等のように動くもの全てが本発明に係る移動体に含まれる。 In the first embodiment, as shown in FIG. 1, a large number of dairy cows raised in a large barn, such as a free stall barn and a free burn barn, are monitored by a plurality of surveillance cameras 11, and each surveillance camera 11 is used. The case where the behavior locus of each individual is estimated by using the behavior locus estimation device 1, the behavior locus estimation program 1b, and the behavior locus estimation method of the first embodiment will be described as an example. In the first embodiment, a dairy cow is assumed as a moving object to be monitored, but the present invention is not limited to this, and all objects that move like a car, etc., in addition to other animals and humans, are books. It is included in the moving body according to the invention.

本第1実施形態において、行動軌跡推定装置1は、パーソナルコンピュータ、スマートフォンまたはタブレット等のコンピュータによって構成されており、図2に示すように、主として、表示手段2と、入力手段3と、記憶手段4と、演算処理手段5とを有している。また、行動軌跡推定装置1には、上述した複数の監視カメラ11が接続されている。以下、各構成手段について詳細に説明する。 In the first embodiment, the action locus estimation device 1 is composed of a computer such as a personal computer, a smartphone or a tablet, and as shown in FIG. 2, mainly a display means 2, an input means 3, and a storage means. 4 and arithmetic processing means 5. Further, the above-mentioned plurality of surveillance cameras 11 are connected to the action locus estimation device 1. Hereinafter, each configuration means will be described in detail.

監視カメラ11は、監視しようとする移動体を撮影するものである。本第1実施形態において、監視カメラ11は、図1に示すように、牛舎の天井に複数台固定されており、数秒に一枚程度の間隔で時系列の監視画像を撮影するようになっている。また、本第1実施形態において、監視カメラ11は、動画の1フレームを監視画像として出力する動画カメラによって構成されているが、間欠的に監視画像を撮影する静止画カメラであってもよい。 The surveillance camera 11 captures a moving object to be monitored. In the first embodiment, as shown in FIG. 1, a plurality of surveillance cameras 11 are fixed to the ceiling of the barn, and time-series surveillance images are taken at intervals of about one every few seconds. There is. Further, in the first embodiment, the surveillance camera 11 is configured by a moving image camera that outputs one frame of a moving image as a surveillance image, but may be a still image camera that intermittently captures the surveillance image.

なお、監視カメラ11の台数は、監視対象となる牛舎の広さや天井の高さによって調整する必要がある。また、監視カメラ11は夜間撮影時の感度を高めるために近赤外カメラとしてもよい。さらに、行動軌跡推定装置1と監視カメラ11との接続はバス接続に限定されるものではなく、イーサネット(登録商標)等の有線ネットワークや、Wi-Fi(登録商標)等の無線ネットワークによって接続されていてもよい。 The number of surveillance cameras 11 needs to be adjusted according to the size of the barn to be monitored and the height of the ceiling. Further, the surveillance camera 11 may be a near-infrared camera in order to increase the sensitivity during nighttime photography. Further, the connection between the action trajectory estimation device 1 and the surveillance camera 11 is not limited to the bus connection, but is connected by a wired network such as Ethernet (registered trademark) or a wireless network such as Wi-Fi (registered trademark). You may be.

表示手段2は、液晶ディスプレイ等で構成されており、行動軌跡推定装置1により推定された行動軌跡等を表示するものである。入力手段3は、キーボードやマウス等で構成されており、ユーザによる指示や選択を入力するものである。なお、これら表示手段2および入力手段3に代えて、表示機能および入力機能を兼ね備えたタッチパネル等の表示入力手段を有していてもよい。 The display means 2 is composed of a liquid crystal display or the like, and displays the action locus or the like estimated by the action locus estimation device 1. The input means 3 is composed of a keyboard, a mouse, or the like, and inputs instructions and selections by the user. In addition, instead of these display means 2 and input means 3, it may have a display input means such as a touch panel having both a display function and an input function.

記憶手段4は、各種のデータを記憶するとともに、演算処理手段5が演算処理を行う際のワーキングエリアとして機能するものである。本第1実施形態において、記憶手段4は、ハードディスク、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等で構成されており、図2に示すように、プログラム記憶部41と、個体特徴データベース42と、軌跡断片バッファ43と、姿勢推定データベース44と、行動軌跡データベース45とを有している。以下、各構成部についてより詳細に説明する。 The storage means 4 stores various data and functions as a working area when the arithmetic processing means 5 performs arithmetic processing. In the first embodiment, the storage means 4 is composed of a hard disk, a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, and the like, and as shown in FIG. 2, the program storage unit 41 and the storage means 4 It has an individual characteristic database 42, a locus fragment buffer 43, a posture estimation database 44, and an action locus database 45. Hereinafter, each component will be described in more detail.

プログラム記憶部41には、本第1実施形態の行動軌跡推定装置1が有する三つの機能、すなわち個体特徴登録機能、行動軌跡推定機能および個体特徴追加機能のそれぞれを実行するための個体特徴登録プログラム1a、行動軌跡推定プログラム1bおよび個体特徴追加プログラム1cがインストールされている。そして、演算処理手段5が、各プログラムを実行することにより、行動軌跡推定装置1としてのコンピュータを後述する各構成部として機能させるようになっている。 The program storage unit 41 has an individual feature registration program for executing each of the three functions of the behavior trajectory estimation device 1 of the first embodiment, that is, the individual feature registration function, the behavior trajectory estimation function, and the individual feature addition function. 1a, the behavior trajectory estimation program 1b and the individual feature addition program 1c are installed. Then, the arithmetic processing means 5 executes each program to make the computer as the action locus estimation device 1 function as each component described later.

なお、個体特徴登録プログラム1a、行動軌跡推定プログラム1bおよび個体特徴追加プログラム1cの利用形態は、上記構成に限られるものではない。例えば、CD-ROMやDVD-ROM等のように、コンピュータで読み取り可能な非一時的な記録媒体に各プログラムを記憶させておき、当該記録媒体から直接読み出して実行してもよい。また、外部サーバ等からクラウドコンピューティング方式やASP(Application Service Provider)方式で利用してもよい。 The usage patterns of the individual feature registration program 1a, the action trajectory estimation program 1b, and the individual feature addition program 1c are not limited to the above configuration. For example, each program may be stored in a non-temporary recording medium that can be read by a computer, such as a CD-ROM or a DVD-ROM, and read directly from the recording medium for execution. Further, it may be used by a cloud computing method or an ASP (Application Service Provider) method from an external server or the like.

個体特徴データベース42は、監視対象にしようとする移動体の個体ごとに、当該個体の外見に基づく特徴ベクトルである個体特徴を予め登録するものである。本第1実施形態において、個体特徴データベース42には、図3に示すように、個体を識別する個体IDに対応付けて、後述する個体特徴登録部51によって抽出される個体特徴と、当該個体特徴の抽出に用いた画像ファイル名とが格納される。 The individual characteristic database 42 registers in advance individual characteristics, which are characteristic vectors based on the appearance of the individual, for each moving object to be monitored. In the first embodiment, as shown in FIG. 3, the individual characteristic database 42 contains the individual characteristics extracted by the individual characteristic registration unit 51, which will be described later, in association with the individual ID that identifies the individual, and the individual characteristics. The image file name used for the extraction of is stored.

なお、個体特徴データベース42においては、後述する個体特徴照合部58が最近傍の個体特徴を高速に検索する必要があるため、最近傍探索用のインデックス(直積量子化、ハッシュインデックス、kdツリーインデックス等)を作成しておくことが好ましい。また、個体特徴データベース42は、個体の入れ替え等に伴って、個体特徴を削除したり、更新する機能を有していてもよい。 In the individual feature database 42, since the individual feature matching unit 58, which will be described later, needs to search for the nearest individual feature at high speed, indexes for nearest neighbor search (cartesian quantization, hash index, kd tree index, etc.) ) Is preferably created. Further, the individual characteristic database 42 may have a function of deleting or updating individual characteristics when the individual is replaced or the like.

軌跡断片バッファ43は、個体ごとの行動軌跡の一部を構成する軌跡断片を所定時間分(数時間から一日分)ずつバッファして保存するものである。本第1実施形態において、軌跡断片バッファ43は、図4に示すように、軌跡断片を識別する軌跡断片IDに対応付けて、軌跡断片を取得した監視カメラ11のカメラ番号と、軌跡断片を取得した時刻と、個体が占める画像領域である個体領域(画像座標系における二次元座標値)と、乳牛の位置(牛舎座標系における二次元座標値)と、個体特徴(特徴ベクトル)と、個体IDとが保存されている。 The locus fragment buffer 43 buffers and stores locus fragments constituting a part of the action locus of each individual for a predetermined time (several hours to one day). In the first embodiment, as shown in FIG. 4, the locus fragment buffer 43 acquires the camera number of the surveillance camera 11 that acquired the locus fragment and the locus fragment in association with the locus fragment ID that identifies the locus fragment. The time, the individual area (two-dimensional coordinate value in the image coordinate system), the position of the dairy cow (two-dimensional coordinate value in the barn coordinate system), the individual feature (feature vector), and the individual ID, which is the image area occupied by the individual. And are stored.

なお、本第1実施形態において、個体領域は、後述する個体領域検出部53によって検出されるものであり、図5に示すように、監視画像内において個体が占める矩形の画像領域として検出される。そして、当該画像領域の対角をなす二点の位置座標(画像座標系における二次元座標値)が個体領域として保存される。また、乳牛の位置は、後述するとおり、画像座標系における個体領域の中心点を牛舎座標系における二次元点に変換したものである。しかしながら、軌跡断片は、上記に限定されるものではなく、少なくとも所定の座標系における個体領域の時系列の位置座標群を含むものであればよい。 In the first embodiment, the individual region is detected by the individual region detection unit 53, which will be described later, and is detected as a rectangular image region occupied by the individual in the surveillance image, as shown in FIG. .. Then, the position coordinates (two-dimensional coordinate values in the image coordinate system) of the two diagonal points of the image area are stored as the individual area. Further, as will be described later, the position of the dairy cow is obtained by converting the center point of the individual region in the image coordinate system into a two-dimensional point in the barn coordinate system. However, the locus fragment is not limited to the above, and may include at least a time-series position coordinate group of an individual region in a predetermined coordinate system.

姿勢推定データベース44は、後述する移動体姿勢推定部56が姿勢を推定する際に使用するデータを保存するものである。本第1実施形態において、姿勢推定データベース44には、図6に示すように、監視に使用する監視カメラ11のカメラ番号に対応付けて、移動体の姿勢を推定可能な姿勢推定可能領域(画像座標系の二次元座標値)と、当該姿勢推定可能領域に存在する移動体がとることの多い姿勢とが設定されている。 The posture estimation database 44 stores data used when the moving body posture estimation unit 56, which will be described later, estimates the posture. In the first embodiment, as shown in FIG. 6, the posture estimation database 44 has a posture estimable region (image) in which the posture of the moving body can be estimated in association with the camera number of the surveillance camera 11 used for monitoring. (Two-dimensional coordinate values of the coordinate system) and the posture that a moving body existing in the posture estimable region often takes are set.

なお、姿勢推定可能領域は、牛舎のレイアウトに基づいて設定される。具体的には、図5の監視画像を例に説明すると、画像の上半分にはベッドが配置されており、横臥状態(肢を投げ出し横倒しの姿勢)や伏臥状態(膝を下ろし、胸を起こした姿勢)の乳牛が写っている。一方、画像の下半分には餌場が配置されており、起立状態で飼料を食べている採食状態の乳牛が写っている。さらに、画像の中央部には通路が配置されており、歩行中の乳牛が写っている。このように牛舎のレイアウトは決まっており、監視カメラ11も固定されているため、監視カメラ11ごとに、予め個体を識別するのに適した姿勢をとることが多い領域を姿勢推定能領域として設定することができる。 The posture estimable area is set based on the layout of the barn. Specifically, to explain the monitoring image of FIG. 5 as an example, a bed is arranged in the upper half of the image, and a lying state (a posture in which a limb is thrown out and lying down) or a prone state (a knee is lowered and a chest is raised). The dairy cow in the posture) is shown. On the other hand, a feeding area is located in the lower half of the image, showing a foraging dairy cow eating feed while standing. In addition, a passage is located in the center of the image, showing a walking cow. Since the layout of the barn is fixed in this way and the surveillance camera 11 is also fixed, a region that often takes a posture suitable for identifying an individual in advance is set as a posture estimation ability region for each surveillance camera 11. can do.

行動軌跡データベース45は、後述する軌跡断片統合部59から出力される個体IDごとの行動軌跡を保存するものである。本第1実施形態において、行動軌跡データベース45には、図7に示すように、行動軌跡を識別する行動軌跡IDに対応付けて、監視カメラ11のカメラ番号と、撮影時刻と、個体領域(画像座標系における二次元座標値)と、牛の位置(牛舎座標系における二次元座標値)と、個体特徴(特徴ベクトル)と、個体IDとが保存される。すなわち、軌跡断片バッファ43に格納される個体IDは、軌跡断片が統合される前の仮の個体IDであるが、後述する軌跡断片統合部59によって各軌跡断片が統合されると、最終的な個体IDとして行動軌跡データベース45に登録される。 The action locus database 45 stores the action locus for each individual ID output from the locus fragment integration unit 59, which will be described later. In the first embodiment, as shown in FIG. 7, in the action locus database 45, the camera number of the surveillance camera 11, the shooting time, and the individual area (image) are associated with the action locus ID that identifies the action locus. The two-dimensional coordinate value in the coordinate system), the position of the cow (two-dimensional coordinate value in the barn coordinate system), the individual feature (feature vector), and the individual ID are stored. That is, the individual ID stored in the locus fragment buffer 43 is a temporary individual ID before the locus fragments are integrated, but when each locus fragment is integrated by the locus fragment integration unit 59 described later, the final locus fragment is finalized. It is registered in the action locus database 45 as an individual ID.

つぎに、演算処理手段5は、CPU(Central Processing Unit)等で構成されており、記憶手段4にインストールされた各プログラムを実行することにより、行動軌跡推定装置1に各種の機能を発揮させるものである。具体的には、図2に示すように、演算処理手段5は、個体特徴登録プログラム1aを実行することにより、個体特徴登録機能を発揮する個体特徴登録部51として機能する。 Next, the arithmetic processing means 5 is composed of a CPU (Central Processing Unit) or the like, and by executing each program installed in the storage means 4, the action locus estimation device 1 is made to exert various functions. Is. Specifically, as shown in FIG. 2, the arithmetic processing means 5 functions as an individual feature registration unit 51 that exerts an individual feature registration function by executing the individual feature registration program 1a.

また、演算処理手段5は、行動軌跡推定プログラム1bを実行することにより、行動軌跡推定機能を発揮させる監視画像取得部52と、個体領域検出部53と、追跡処理実行部54と、軌跡断片取得部55と、移動体姿勢推定部56と、個体特徴抽出部57と、個体特徴照合部58と、軌跡断片統合部59として機能する。さらに、演算処理手段5は、個体特徴追加プログラム1cを実行することにより、個体特徴追加機能を発揮させる個体特徴追加部60として機能する。以下、各機能ごとの構成部についてより詳細に説明する。 Further, the arithmetic processing means 5 executes the action locus estimation program 1b to exert the action locus estimation function, the monitoring image acquisition unit 52, the individual area detection unit 53, the tracking processing execution unit 54, and the locus fragment acquisition. It functions as a unit 55, a moving body posture estimation unit 56, an individual feature extraction unit 57, an individual feature matching unit 58, and a locus fragment integration unit 59. Further, the arithmetic processing means 5 functions as an individual feature addition unit 60 that exerts an individual feature addition function by executing the individual feature addition program 1c. Hereinafter, the components of each function will be described in more detail.

(1)個体特徴登録機能
個体特徴登録機能は、個体IDに対応付けて、個体の外見に基づく特徴ベクトルである個体特徴を個体特徴データベース42に事前登録する機能であり、個体特徴登録部51によって機能される。
(1) Individual feature registration function The individual feature registration function is a function for pre-registering individual features, which are feature vectors based on the appearance of an individual, in the individual feature database 42 in association with the individual ID, and is performed by the individual feature registration unit 51. It works.

本第1実施形態において、個体特徴登録部51は、まず、静止画カメラや動画カメラ等を用いて、新規登録しようとする乳牛の画像群を取得する。例えば、図8に示すような撮影枠に複数のカメラを固定するとともに通過センサや近接センサ等のセンサを設置し、乳牛が通過するタイミングでシャッターが切れるように制御することで、乳牛の全身が画面に収まるタイミングで複数の方向から撮影された画像群が取得される。 In the first embodiment, the individual feature registration unit 51 first acquires an image group of a dairy cow to be newly registered by using a still image camera, a moving image camera, or the like. For example, by fixing a plurality of cameras to the shooting frame as shown in FIG. 8 and installing sensors such as a passage sensor and a proximity sensor to control the shutter to be released at the timing when the cow passes, the whole body of the cow can be affected. Images taken from multiple directions are acquired at the timing when they fit on the screen.

なお、個体特徴を登録する際に使用するカメラは、一般的なRGBカメラではなく、深度情報を取得可能なデプスカメラを使用することもできる。デプスカメラによって取得される深度データ付きRGB画像からは、乳牛の三次元モデルが作成される。また、当該三次元モデルを複数の方向から撮影した画像をコンピュータグラフィックスでレンダリングすることで多方向から乳牛を撮影した多視点画像データが生成される。そして、当該多視点画像データから個体特徴を抽出して個体特徴データベース42に登録することで、個体の識別精度を高めることができる。 The camera used when registering the individual characteristics is not a general RGB camera, but a depth camera capable of acquiring depth information can also be used. A three-dimensional model of a dairy cow is created from an RGB image with depth data acquired by a depth camera. Further, by rendering an image of the three-dimensional model taken from a plurality of directions with computer graphics, multi-viewpoint image data of a dairy cow taken from multiple directions is generated. Then, by extracting individual features from the multi-viewpoint image data and registering them in the individual feature database 42, the identification accuracy of the individual can be improved.

つぎに、個体特徴登録部51は、個体を識別するための個体IDを取得する。本第1実施形態において、個体特徴登録部51は、乳牛の首輪や耳標に付与されている個体IDを無線センサやカメラを用いて読み取ることで取得する。あるいは、人間が耳標等に付与されている個体IDを目視で確認し、入力手段3から入力された個体IDを個体特徴登録部51が取得してもよい。 Next, the individual characteristic registration unit 51 acquires an individual ID for identifying an individual. In the first embodiment, the individual feature registration unit 51 acquires an individual ID assigned to a dairy cow's collar or ear tag by reading it using a wireless sensor or a camera. Alternatively, a human may visually confirm the individual ID given to the ear tag or the like, and the individual characteristic registration unit 51 may acquire the individual ID input from the input means 3.

つづいて、個体特徴登録部51は、カメラで撮影した画像群から、乳牛の斑紋パターン、毛色、体型などの外見を表す特徴ベクトルを算出し、個体特徴として抽出する。個体特徴の抽出方法は、特に限定されるものではないが、畳み込みニューラルネットワーク(Convolutional Neural Network;CNN)等の機械学習モデルを用いて、入力画像から実数値を要素として持つベクトル(例えば2048次元)を算出してもよい。CNNのフィルタの重みパラメータを予め学習によって最適化しておくことで、個体識別の精度を高めることができる。重みパラメータは、教師データに対する交差エントロピー損失やトリプレット損失などを最小化するように調整する。 Subsequently, the individual feature registration unit 51 calculates a feature vector representing the appearance such as a dairy cow's mottled pattern, coat color, and body shape from a group of images taken by a camera, and extracts it as an individual feature. The method for extracting individual characteristics is not particularly limited, but a vector having real values as elements from an input image using a machine learning model such as a convolutional neural network (CNN) (for example, 2048 dimensions). May be calculated. By optimizing the weight parameter of the CNN filter by learning in advance, the accuracy of individual identification can be improved. The weighting parameters are adjusted to minimize cross-entropy loss, triplet loss, etc. for the teacher data.

ここで、個体特徴を登録する際に使用する画像の模式図を図9に示す。乳牛を真上から下向きに撮影したカメラ1の画像では、背中の斑紋が写されている。一方、乳牛を上後方から撮影したカメラ2の画像では、臀部の斑紋が写されいてる。カメラ1,2の画像において共通する斑紋もあるが、一方のカメラにしか写っていない斑紋も存在する。また、撮影方向によって同一の斑紋も見え方が変化する。よって、個体特徴を抽出する際は、乳牛の全身の斑紋パターンをデータベース化するために、多方向から撮影した多視点画像を使用することが望ましい。 Here, FIG. 9 shows a schematic diagram of an image used when registering individual characteristics. The image of the camera 1 in which the dairy cow is photographed from directly above to the bottom shows a mottled pattern on the back. On the other hand, in the image of the camera 2 taken from the upper rear of the dairy cow, the mottled pattern on the buttocks is shown. There are some spots that are common to the images of the cameras 1 and 2, but there are also spots that are visible only in one camera. In addition, the appearance of the same mottled pattern changes depending on the shooting direction. Therefore, when extracting individual characteristics, it is desirable to use multi-viewpoint images taken from multiple directions in order to create a database of mottled patterns of the whole body of dairy cows.

なお、一台のカメラで一度に乳牛の全身の斑紋を撮影することは困難である。よって、複数台のカメラから生成した多視点画像を入力とし、斑紋パターンを数値化することで個体識別の精度の向上が期待できる。また、複数の画像から個体特徴を抽出する場合は、全ての画像に対してCNNを用いて特徴ベクトルを算出し、各特徴ベクトルの要素毎の平均または最大値を特徴ベクトルとしてもよい。 It is difficult to photograph the whole body of a dairy cow with one camera at a time. Therefore, it can be expected that the accuracy of individual identification will be improved by inputting multi-viewpoint images generated from a plurality of cameras and quantifying the mottled pattern. Further, when extracting individual features from a plurality of images, a feature vector may be calculated using CNN for all the images, and the average or maximum value of each element of each feature vector may be used as the feature vector.

最後に、個体特徴登録部51は、入力された全ての画像について個体特徴を抽出し、個体IDに対応付けて個体特徴データベース42に登録する。また、個体特徴登録部51は、監視しようとする全ての乳牛について個体特徴を抽出し、個体IDに対応付けて個体特徴データベース42に登録する。 Finally, the individual feature registration unit 51 extracts individual features from all the input images and registers them in the individual feature database 42 in association with the individual ID. Further, the individual characteristic registration unit 51 extracts individual characteristics of all the dairy cows to be monitored and registers them in the individual characteristic database 42 in association with the individual ID.

(2)行動軌跡推定機能
行動軌跡推定機能は、監視カメラ11の監視画像から乳牛を個体ごとに識別し、個体ごとの行動軌跡を推定する機能であり、監視画像取得部52と、個体領域検出部53と、追跡処理実行部54と、軌跡断片取得部55と、移動体姿勢推定部56と、個体特徴抽出部57と、個体特徴照合部58と、軌跡断片統合部59とによって機能される。
(2) Behavior trajectory estimation function The behavior trajectory estimation function is a function for identifying a dairy cow for each individual from the surveillance image of the surveillance camera 11 and estimating the behavior trajectory for each individual, and the surveillance image acquisition unit 52 and the individual area detection. It is functioned by a unit 53, a tracking process execution unit 54, a locus fragment acquisition unit 55, a moving body posture estimation unit 56, an individual feature extraction unit 57, an individual feature matching unit 58, and a locus fragment integration unit 59. ..

監視画像取得部52は、複数の監視カメラ11から時系列の監視画像を取得するものである。本第1実施形態において、監視画像取得部52は、各監視カメラ11から数秒に一枚程度の間隔で時系列の監視画像を取得し、各監視カメラ11を識別するカメラ番号と、撮影時刻とを対応付けるようになっている。 The surveillance image acquisition unit 52 acquires time-series surveillance images from a plurality of surveillance cameras 11. In the first embodiment, the surveillance image acquisition unit 52 acquires time-series surveillance images from each surveillance camera 11 at intervals of about once every few seconds, and the camera number for identifying each surveillance camera 11 and the shooting time. Is designed to be associated with each other.

個体領域検出部53は、複数の監視カメラ11で撮影された時系列の各監視画像内において、個体が占める画像領域を個体領域として検出するものである。本第1実施形態において、個体領域検出部53は、図5に示すように、監視画像取得部52によって取得された監視画像に写っている乳牛を個体ごとに検出し、各個体に外接する矩形の画像領域を個体領域として検出する。 The individual area detection unit 53 detects an image area occupied by an individual as an individual area in each of the time-series surveillance images taken by a plurality of surveillance cameras 11. In the first embodiment, as shown in FIG. 5, the individual area detection unit 53 detects the dairy cow shown in the monitoring image acquired by the monitoring image acquisition unit 52 for each individual, and a rectangle circumscribing each individual. The image area of is detected as an individual area.

本第1実施形態において、個体領域検出部53は、Faster R-CNNやMask R-CNN等の深層学習ベースの物体検出器を用いて個体領域を検出しているが、これに限定されるものではなく他の画像処理等によって検出してもよい。また、本第1実施形態では、個体領域を矩形形状として表現しているが、この形状に限定されるものではなく、多角形(ポリゴン)や円形等で表現してもよい。 In the first embodiment, the individual region detection unit 53 detects an individual region using a deep learning-based object detector such as Faster R-CNN or Mask R-CNN, but is limited to this. Instead, it may be detected by other image processing or the like. Further, in the first embodiment, the individual region is represented as a rectangular shape, but the shape is not limited to this shape, and may be represented by a polygon, a circle, or the like.

追跡処理実行部54は、監視画像内の移動体を個体ごとに追跡するものである。本第1実施形態において、追跡処理実行部54は、例えば、SORT(Simple Online and Realtime Tracking)という移動体追跡アルゴリズムを使用し、個体領域検出部53によって検出された個体領域のそれぞれにつき、時系列において前後する監視画像(フレーム)間において、位置・移動方向・速度が近い個体領域を対応付けることでトラッキングするようになっている。 The tracking process execution unit 54 tracks the moving object in the surveillance image for each individual. In the first embodiment, the tracking process execution unit 54 uses, for example, a moving object tracking algorithm called SORT (Simple Online and Realtime Tracking), and each of the individual regions detected by the individual region detection unit 53 is time-series. In, tracking is performed by associating individual areas having similar positions, moving directions, and velocities between the monitoring images (frames) before and after.

具体的には、図10(a)に示すように、時系列の監視画像において、時刻tの監視画像から検出された個体領域群を{B(t)1, B(t)2, B(t)3,…B(t)nt}とし、時刻t-1の監視画像から検出された個体領域群を{B(t-1)1, B(t-1)2, B(t-1)3,…B(t-1)nt-1}とする。この場合、追跡処理実行部54は、時刻tと時刻t-1のフレーム間で個体領域の対応づけを行うことにより、図10(b)に示すような個体ごとの軌跡断片が得られる。 Specifically, as shown in FIG. 10A, in the time-series surveillance image, the individual region group detected from the surveillance image at time t is {B (t) 1, B (t) 2, B ( Let t) 3,… B (t) n t }, and the individual region group detected from the monitoring image at time t-1 is {B (t-1) 1, B (t-1) 2, B (t-). 1) 3,… B (t-1) n t-1 }. In this case, the tracking process execution unit 54 associates the individual regions between the frames at time t and time t-1, so that a locus fragment for each individual as shown in FIG. 10 (b) can be obtained.

例えば、監視画像内に含まれる乳牛がほとんど移動していない場合は、同じ数の個体領域が検出されるため(つまり、nt=nt-1)、全ての個体領域を1対1で対応付けることができる(全ての乳牛を追跡可能)。一方、時刻tの時点で新しい乳牛が監視画像内に入ってきた場合や、障害物の影から乳牛が現れた場合は、対応づけができない新たな個体領域として検出する。 For example, if the dairy cows contained in the surveillance image have hardly moved, the same number of individual regions are detected (that is, n t = n t-1 ), so all individual regions are associated with each other on a one-to-one basis. Can be (all cows can be tracked). On the other hand, if a new cow enters the surveillance image at time t, or if the cow appears from the shadow of an obstacle, it is detected as a new individual area that cannot be associated.

そして、追跡処理実行部54は、個体領域の対応づけができない場合(時刻t-1の監視画像内に個体領域B(t)mに対応する個体領域が存在しない場合)、時刻tの監視画像内に新たな個体領域が出現したと判断し、新たな軌跡断片IDを払い出して対応付ける。一方、追跡処理実行部54は、個体領域の対応づけに成功した場合(個体領域B(t)mと個体領域B(t-1)nが対応する場合)、軌跡断片バッファ43から個体領域B(t-1)nに対応する軌跡断片IDを取得する。 Then, when the tracking process execution unit 54 cannot associate the individual area (when the individual area corresponding to the individual area B (t) m does not exist in the monitoring image at time t-1), the monitoring image at time t It is determined that a new individual area has appeared in the area, and a new locus fragment ID is assigned and associated with it. On the other hand, when the tracking process execution unit 54 succeeds in associating the individual regions (when the individual regions B (t) m and the individual regions B (t-1) n correspond to each other), the locus fragment buffer 43 to the individual regions B (t-1) Acquire the locus fragment ID corresponding to n.

なお、本第1実施形態において、追跡処理実行部54は、移動体追跡アルゴリズムとしてSORT(Simple Online and Realtime Tracking)を使用しているが、これに限定されるものではなく、他の移動体追跡アルゴリズムを使用してもよい。 In the first embodiment, the tracking process execution unit 54 uses SORT (Simple Online and Realtime Tracking) as a moving object tracking algorithm, but the present invention is not limited to this, and other moving object tracking is performed. An algorithm may be used.

軌跡断片取得部55は、追跡処理実行部54により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得するものである。本第1実施形態において、軌跡断片取得部55は、追跡処理実行部54によって同一の軌跡断片IDが付与された個体領域のそれぞれについて中心点を特定し、当該中心点の画像座標系における二次元座標値を算出する。そして、当該二次元座標値を牛舎座標系における三次元座標値に変換し、Z値(高さ)を除く二次元座標値を軌跡断片として取得する。また、軌跡断片取得部55は、取得した軌跡断片を軌跡断片IDに対応付けて軌跡断片バッファ43に保存する。 The locus fragment acquisition unit 55 acquires a time-series position coordinate group in a predetermined coordinate system of an individual region associated with the tracking process execution unit 54 as a locus fragment. In the first embodiment, the locus fragment acquisition unit 55 specifies a center point for each of the individual regions to which the same locus fragment ID is given by the tracking process execution unit 54, and the locus fragment acquisition unit 55 is two-dimensional in the image coordinate system of the center point. Calculate the coordinate values. Then, the two-dimensional coordinate value is converted into a three-dimensional coordinate value in the barn coordinate system, and the two-dimensional coordinate value excluding the Z value (height) is acquired as a locus fragment. Further, the locus fragment acquisition unit 55 associates the acquired locus fragment with the locus fragment ID and stores it in the locus fragment buffer 43.

ここで、画像座標系の二次元点p=(x, y)から、牛舎座標系の三次元点 P=(X, Y, Z)を求める方法について説明する。図11は、画像座標系(二次元空間)の模式図であり、牛舎の天井に設置したカメラで撮影した画像に対応し左上隅を原点としている。また、図12は、牛舎座標系(三次元空間)の模式図であり、牛舎内の一点を原点O、鉛直上向き方向をZ、牛舎の床面をXY平面としている。 Here, a method of obtaining the three-dimensional point P = (X, Y, Z) of the barn coordinate system from the two-dimensional point p = (x, y) of the image coordinate system will be described. FIG. 11 is a schematic diagram of an image coordinate system (two-dimensional space), and corresponds to an image taken by a camera installed on the ceiling of the barn, with the upper left corner as the origin. Further, FIG. 12 is a schematic diagram of the barn coordinate system (three-dimensional space), in which one point in the barn is the origin O, the vertical upward direction is Z, and the floor surface of the barn is the XY plane.

ピンホールカメラモデル(透視投影モデル)を用いると、画像座標系の二次元点 p=(x, y)と牛舎座標系の三次元点 P=(X, Y, Z)との対応関係は以下の式(1),(2)で表される。

Figure 2022074009000002
Using the pinhole camera model (perspective projection model), the correspondence between the two-dimensional point p = (x, y) in the image coordinate system and the three-dimensional point P = (X, Y, Z) in the barn coordinate system is as follows. It is expressed by the equations (1) and (2) of.
Figure 2022074009000002

なお、カメラパラメータは、カメラの機種、設定、カメラの設置位置、角度等によって変化するので、カメラ設置時にキャリブレーション処理によって求めておく。カメラキャリブレーション手法は、TsaiやZhangの手法とよばれる一般的な方法を用いることができる。式(1),(2)では、レンズ歪みを考慮していないが、レンズ歪みパラメータを含むカメラモデルを用いることもできる。 Since the camera parameters change depending on the camera model, settings, camera installation position, angle, etc., they are obtained by calibration processing when the camera is installed. As the camera calibration method, a general method called the Tsai or Zhang method can be used. Although the lens distortion is not considered in the equations (1) and (2), a camera model including the lens distortion parameter can also be used.

図11および図12に示すように、乳牛の背中の点が、牛舎座標系では三次元点P1=(X1, Y1, Z1)、画像座標系では二次元点p1=(x1, y1)で表されるとする。乳牛の身長(床面から背中までの高さ)Hが既知であると仮定して、式(2)に代入して整理すると、以下の式(3)となる。

Figure 2022074009000003
As shown in FIGS. 11 and 12, the point on the back of the cow is the three-dimensional point P 1 = (X 1 , Y 1 , Z 1 ) in the barn coordinate system and the two-dimensional point p 1 = (x) in the image coordinate system. 1 , y 1 ). Assuming that the height (height from the floor to the back) H of the dairy cow is known, substituting it into the equation (2) and rearranging it gives the following equation (3).
Figure 2022074009000003

画像座標系の二次元点p1=(x1, y1)は、例えば、個体領域の中心点として取得しているため、式(3)の連立一次方程式を解くことにより、牛舎座標系の三次元点P1=(X1, Y1, Z1)が求められる。なお、乳牛の身長Hは個体に依らず一定とみなしてもよく、身長等から推定してもよい。 Since the two-dimensional point p 1 = (x 1 , y 1 ) in the image coordinate system is acquired as the center point of the individual region, for example, by solving the simultaneous linear equations in Eq. (3), the barn coordinate system The three-dimensional point P 1 = (X 1 , Y 1 , Z 1 ) is obtained. The height H of the dairy cow may be regarded as constant regardless of the individual, or may be estimated from the height or the like.

画像座標系では、乳牛がカメラから遠ざかるほどゆっくりと歩いているように見えるため、等速で歩いていても等速移動として判定されない。これに対し、牛舎座標系では乳牛が等速で移動していれば等速移動と判定できる。よって、個体追跡処理においては、画像座標系ではなく牛舎座標系を用いた方が乳牛の移動を正確に判定できるため望ましい。 In the image coordinate system, it seems that the cow is walking slowly as it goes away from the camera, so even if it walks at a constant speed, it is not judged as a constant speed movement. On the other hand, in the barn coordinate system, if the dairy cow is moving at a constant speed, it can be determined that the cow is moving at a constant speed. Therefore, in the individual tracking process, it is preferable to use the barn coordinate system instead of the image coordinate system because the movement of the dairy cow can be accurately determined.

移動体姿勢推定部56は、個体領域に含まれる移動体の姿勢を推定するものである。本第1実施形態において、移動体姿勢推定部56は、個体領域検出部53によって検出された個体領域のそれぞれについて、乳牛の姿勢(起立、横臥、頭の向き等)を推定し、個体を識別するのに適した姿勢であるか否かを判定する。そして、個体を識別するのに適した姿勢である場合のみ、個体特徴抽出部57によって個体特徴を抽出させるようになっている。 The moving body posture estimation unit 56 estimates the posture of the moving body included in the individual area. In the first embodiment, the moving body posture estimation unit 56 estimates the posture (standing, lying down, head orientation, etc.) of the dairy cow for each of the individual regions detected by the individual region detection unit 53, and identifies the individual. Determine if the posture is suitable for doing. Then, the individual feature extraction unit 57 extracts the individual feature only when the posture is suitable for identifying the individual.

本第1実施形態では、上述したとおり、牛舎レイアウトに基づいて、予め姿勢推定能領域が姿勢推定データベース44に設定されている。したがって、移動体姿勢推定部56は、まず、個体領域検出部53によって検出された個体領域を取得するとともに、当該個体領域を含む監視画像を撮影した監視カメラ11のカメラ番号を取得する。 In the first embodiment, as described above, the posture estimation ability region is set in the posture estimation database 44 in advance based on the barn layout. Therefore, the moving body posture estimation unit 56 first acquires the individual region detected by the individual region detection unit 53, and also acquires the camera number of the surveillance camera 11 that has captured the surveillance image including the individual region.

つぎに、移動体姿勢推定部56は、姿勢推定データベース44を参照し、取得したカメラ番号に対応付けて設定されている姿勢推定可能領域および姿勢を取得する。そして、取得した個体領域が姿勢推定可能領域に包含されるか否かを判定し、含まれる場合、当該姿勢推定可能領域に対応付けられた姿勢を個体領域に含まれる移動体の姿勢として推定し出力する。一方、取得した個体領域が姿勢推定可能領域に含まれていない場合は、姿勢を推定することができないため姿勢を出力しない。 Next, the moving body posture estimation unit 56 refers to the posture estimation database 44, and acquires a posture estimable region and a posture set in association with the acquired camera number. Then, it is determined whether or not the acquired individual region is included in the posture estimable region, and if it is included, the posture associated with the posture estimable region is estimated as the posture of the moving body included in the individual region. Output. On the other hand, if the acquired individual area is not included in the posture estimable area, the posture cannot be estimated and the posture is not output.

本第1実施形態では、出力された姿勢が起立状態であれば、個体を識別可能な姿勢をとっていると判断し、個体特徴抽出部57によって個体特徴を抽出させる。一方、出力された姿勢が横臥状態である場合、あるいは姿勢を推定できない場合には、個体を識別可能な姿勢をとっていないと判断し、個体特徴を抽出することなく、他の個体領域の処理へと移行するようになっている。 In the first embodiment, if the output posture is in the standing state, it is determined that the individual is in a posture that can be identified, and the individual feature extraction unit 57 extracts the individual feature. On the other hand, if the output posture is in a lying state, or if the posture cannot be estimated, it is determined that the individual is not in a identifiable posture, and processing of other individual regions is performed without extracting individual characteristics. It is becoming a transition to.

なお、本第1実施形態において、移動体姿勢推定部56は、個体領域と姿勢推定可能領域との包含関係のみを考慮している。しかしながら、この条件に限定されるものではなく、個体領域の縦横比や面積、直前の監視画像における個体領域の位置(すなわち乳牛の移動方向や移動量)、異なる個体領域の重複率等を条件に加えることで、姿勢の推定精度を向上させることができる。例えば、個体領域の重複率が大きい場合、すなわち隣接する個体領域同士の重なりが大きい場合は乳牛同士が密接しているので個体の識別は不可能としてもよい。 In the first embodiment, the moving body posture estimation unit 56 considers only the inclusion relationship between the individual region and the posture estimable region. However, the condition is not limited to this condition, and the aspect ratio and area of the individual area, the position of the individual area in the immediately preceding monitoring image (that is, the moving direction and the amount of movement of the dairy cow), the overlap rate of different individual areas, etc. are the conditions. By adding it, the estimation accuracy of the posture can be improved. For example, when the overlap rate of individual regions is large, that is, when the overlap between adjacent individual regions is large, the dairy cows are in close contact with each other, so that individual identification may not be possible.

また、本第1実施形態では、個体領域が姿勢推定可能領域に含まれない場合は、個体を識別するための個体特徴を抽出しないようになっている。しかしながら、このような処理に限定されるものではなく、個体領域が姿勢推定可能領域に含まれない場合であっても、個体特徴を抽出し、当該個体特徴に対応する個体IDを信頼度の低いデータとして取り扱うようにしてもよい。 Further, in the first embodiment, when the individual region is not included in the posture estimable region, the individual characteristics for identifying the individual are not extracted. However, the present invention is not limited to such processing, and even when the individual region is not included in the posture estimable region, the individual characteristics are extracted and the individual ID corresponding to the individual characteristics has low reliability. It may be treated as data.

さらに、本第1実施形態において、移動体姿勢推定部56は、牛舎レイアウトに基づいて予め設定した姿勢推定能領域を用いて移動体の姿勢を推定している。しかしながら、例えば、乳牛が餌場にいても餌を食べず横を向いている場合等のように、例外的な状況もある。このような例外的な状況や、牛舎レイアウトに基づく方法では推定できない姿勢に対応するために、画像認識によって乳牛の姿勢を推定してもよい。 Further, in the first embodiment, the moving body posture estimation unit 56 estimates the posture of the moving body using a posture estimation ability region preset based on the barn layout. However, there are exceptional situations, such as when a dairy cow is in the feeding area but does not eat and turns sideways. In order to deal with such exceptional situations and postures that cannot be estimated by the method based on the barn layout, the posture of the cow may be estimated by image recognition.

また、本第1実施形態において、移動体姿勢推定部56は、全ての個体領域について姿勢推定処理を実行しているが、この構成に限定されるものではない。例えば、直前の監視画像内における個体領域と比較して、処理しようとする個体領域の位置や形状の変化が予め設定したしきい値より小さい場合は、乳牛の姿勢変化が小さく個体の識別結果も同一となる可能性が高いため、姿勢推定処理を行わないようにしてもよい。これにより、個体特徴の抽出処理や照合処理に要する時間が削減される。 Further, in the first embodiment, the moving body posture estimation unit 56 executes the posture estimation process for all the individual regions, but the present invention is not limited to this configuration. For example, when the change in the position or shape of the individual area to be processed is smaller than the preset threshold value as compared with the individual area in the immediately preceding monitoring image, the posture change of the dairy cow is small and the individual identification result is also obtained. Since there is a high possibility that they will be the same, the posture estimation process may not be performed. As a result, the time required for the extraction process and the collation process of individual characteristics is reduced.

個体特徴抽出部57は、個体領域から個体特徴を抽出するものである。本第1実施形態において、個体特徴抽出部57は、上述した個体特徴登録部51と同様の処理によって、個体領域から個体特徴を抽出する。また、個体特徴抽出部57は、個体を識別するのに適した姿勢の移動体を含む個体領域のみから個体特徴を抽出する一方、個体を識別するのに適した姿勢でない移動体を含む個体領域や、姿勢を推定できない移動体を含む個体領域については、個体特徴を抽出しない。 The individual feature extraction unit 57 extracts individual features from the individual region. In the first embodiment, the individual feature extraction unit 57 extracts individual features from the individual region by the same processing as the individual feature registration unit 51 described above. Further, the individual feature extraction unit 57 extracts individual characteristics only from the individual region including the moving body having a posture suitable for identifying the individual, while the individual region including the moving body not having the posture suitable for identifying the individual. In addition, individual characteristics are not extracted for individual regions including moving objects whose posture cannot be estimated.

個体特徴照合部58は、抽出された個体特徴を個体特徴データベース42と照合し、個体を識別するものである。本第1実施形態において、個体特徴照合部58は、個体特徴抽出部57によって抽出された個体特徴と、個体特徴データベース42に登録されている個体特徴とを照合し、抽出された個体特徴に対応する個体IDを取得するようになっている。 The individual characteristic collation unit 58 collates the extracted individual characteristics with the individual characteristic database 42 and identifies the individual. In the first embodiment, the individual feature collation unit 58 collates the individual features extracted by the individual feature extraction unit 57 with the individual features registered in the individual feature database 42, and corresponds to the extracted individual features. The individual ID to be used is acquired.

具体的には、個体特徴抽出部57によって抽出された個体特徴(特徴ベクトル)をxq(クエリとよぶ)とし、個体特徴データベース42に登録されている個体特徴(特徴ベクトル集合)をxi(i=1,2,…,n)とした場合、個体特徴照合部58は、以下の式(4)によって表される特徴ベクトル間の距離d(xi,xq)=||xi-xq||が最も小さい(最近傍となる)個体特徴の番号iminを求める。

Figure 2022074009000004
Specifically, the individual feature (feature vector) extracted by the individual feature extraction unit 57 is x q (called a query), and the individual feature (feature vector set) registered in the individual feature database 42 is x i (? When i = 1,2, ..., n), the individual feature matching unit 58 uses the distance d (x i , x q ) = || x i -between the feature vectors represented by the following equation (4). Find the number i min of the individual feature with the smallest (closest) x q ||.
Figure 2022074009000004

そして、個体特徴照合部58は、個体特徴データベース42において、imin番目の個体特徴に対応付けられている個体IDを個体の識別結果として取得する。なお、特徴ベクトル間の距離としては、ユークリッド距離やコサイン距離など様々なものを適用できる。また、特徴ベクトル間の距離d(xi,xq)は0以上の値をとり、0に近いほど個体特徴が類似していることを示すため、個体識別結果の信頼度として用いてもよい。あるいは、最近傍の距離d1と二番目に近傍の距離d2を算出し、これらの距離比d2/d1を信頼度としてもよい。 Then, the individual characteristic collation unit 58 acquires the individual ID associated with the iminth individual characteristic as the individual identification result in the individual characteristic database 42. As the distance between the feature vectors, various distances such as the Euclidean distance and the cosine distance can be applied. Further, the distance d (x i , x q ) between the feature vectors takes a value of 0 or more, and the closer it is to 0, the more similar the individual features are, so that it may be used as the reliability of the individual identification result. .. Alternatively, the nearest neighbor distance d 1 and the second nearest distance d 2 may be calculated, and the distance ratio d 2 / d 1 of these may be used as the reliability.

軌跡断片統合部59は、軌跡断片間の連続性が最も高い軌跡断片同士を統合し、個体IDごとの行動軌跡として出力するものである。本第1実施形態において、軌跡断片統合部59は、所定時間おきに、軌跡断片バッファ43に蓄積された軌跡断片間の連続性を判定し、当該連続性が最も高い軌跡断片同士を統合することで、最終的な個体ID付きの行動軌跡を行動軌跡データベース45に出力する。このとき、軌跡断片統合部59は、統合した軌跡断片群に唯一の行動軌跡IDを割り当てる。また、一つの行動軌跡IDに対して唯一の個体IDが対応するようにする。 The locus fragment integration unit 59 integrates the locus fragments having the highest continuity between the locus fragments and outputs them as an action locus for each individual ID. In the first embodiment, the locus fragment integrating unit 59 determines the continuity between the locus fragments accumulated in the locus fragment buffer 43 at predetermined time intervals, and integrates the locus fragments having the highest continuity. Then, the action locus with the final individual ID is output to the action locus database 45. At this time, the locus fragment integration unit 59 assigns a unique action locus ID to the integrated locus fragment group. In addition, only one individual ID corresponds to one action locus ID.

また、本第1実施形態において、軌跡断片統合部59は、軌跡断片間における時間的な連続性、空間的な連続性および個体特徴間の類似性に基づいて、軌跡断片間の連続性が最も高い軌跡断片を特定する。具体的には、軌跡断片統合部59は、軌跡断片Tiに接続する軌跡断片Tjを求める場合、下記式(5)によって定義される軌跡断片間の距離の重み付き和d(Ti, Tj)が、最小の値をとるTjを軌跡断片間の連続性が最も高い軌跡断片として特定する。
d(Ti, Tj)=wtdtime(Ti, Tj)+wldloc(Ti, Tj)+wfdfeature(Ti, Tj) ・・・式(5)
Further, in the first embodiment, the locus fragment integration unit 59 has the highest continuity between locus fragments based on temporal continuity, spatial continuity, and similarity between individual characteristics. Identify high trajectory fragments. Specifically, when the locus fragment integration unit 59 obtains the locus fragment T j connected to the locus fragment T i , the weighted sum d (T i ,) of the distances between the locus fragments defined by the following equation (5). T j ) identifies T j , which has the smallest value, as the locus fragment with the highest continuity between the locus fragments.
d (T i , T j ) = w t d time (T i , T j ) + w l d loc (T i , T j ) + w f d feature (T i , T j ) ・ ・ ・ Expression (5) )

上記式(5)において、dtime(Ti, Tj)は軌跡断片Tiの終了時刻e(Ti)と軌跡断片Tjの開始時刻s(Tj)との差であり、軌跡断片間における時間的な連続性を示す。また、dloc(Ti, Tj)は軌跡断片Tiの最終位置Pe(Ti)と軌跡断片Tjの開始位置Ps(Tj)との差であり、軌跡断片間における空間的な連続性を示す。さらに、dfeature(Ti, Tj)は軌跡断片Ti,Tjのそれぞれに関連付けられた個体特徴x(Ti),x(Tj)間の距離であり、個体特徴間の類似性を示す。ただし、dtime(Ti, Tj)およびdloc(Ti, Tj)は、軌跡断片Ti,Tjがこの順に接続する場合にのみ定義するものとする。また、軌跡断片間の距離は上記式(5)に限定されるものではなく、移動速度や移動方向の差異を評価対象としてもよい。 In the above equation (5), d time (T i , T j ) is the difference between the end time e (T i ) of the locus fragment T i and the start time s (T j ) of the locus fragment T j , and is the locus fragment. Shows temporal continuity between. Also, d loc (T i , T j ) is the difference between the final position P e (T i ) of the locus fragment T i and the start position P s (T j ) of the locus fragment T j , and the space between the locus fragments. Shows continuous continuity. Furthermore, d feature (T i , T j ) is the distance between individual features x (T i ), x (T j ) associated with each of the locus fragments T i , T j , and the similarity between individual features. Is shown. However, d time (T i , T j ) and d loc (T i , T j ) shall be defined only when the locus fragments T i , T j are connected in this order. Further, the distance between the locus fragments is not limited to the above equation (5), and the difference in the moving speed and the moving direction may be evaluated.

ここで、軌跡断片を統合する具体的な手順について、図13の例を用いて説明する。まず、1番の監視カメラ11で取得された軌跡断片T1(仮の個体ID=3)から統合処理を開始する。2番の監視カメラ11で取得された軌跡断片T2(仮の個体ID:不明)、および3番の監視カメラ11で取得された軌跡断片T3(仮の個体ID=4)、T4(仮の個体ID=3)のそれぞれに対する上記距離d(Ti, Tj)(j=2,3,4)は以下となる。なお、ここでは簡単化するため、wt=wl=1, wf=0とした。
d(T1, T2)=|11-10|+√((19-20)2+(12-12)2 )=2
d(T1, T3)=|20-10|+√((9-20)2+(12-12)2 )=21
d(T1, T4)=|20-10|+√((9-20)2+(8-12)2 )=21.7
Here, a specific procedure for integrating the locus fragments will be described with reference to the example of FIG. First, the integration process is started from the locus fragment T 1 (provisional individual ID = 3) acquired by the first surveillance camera 11. Trajectory fragment T 2 (temporary individual ID: unknown) acquired by the second surveillance camera 11 and locus fragment T 3 (temporary individual ID = 4), T 4 (temporary individual ID = 4) acquired by the third surveillance camera 11. The distance d (T i , T j ) (j = 2,3,4) for each of the provisional individual IDs = 3) is as follows. For the sake of simplicity, we set w t = w l = 1, w f = 0.
d (T 1 , T 2 ) = | 11-10 | + √ ((19-20) 2 + (12-12) 2 ) = 2
d (T 1 , T 3 ) = | 20-10 | + √ ((9-20) 2 + (12-12) 2 ) = 21
d (T 1 , T 4 ) = | 20-10 | + √ ((9-20) 2 + (8-12) 2 ) = 21.7

以上の通り、軌跡断片T1に対する上記距離d(Ti, Tj)が最小となるのは軌跡断片T2であるため、両者を結合し軌跡断片{T1, T2}とする。さらに、この軌跡断片{T1, T2}と軌跡断片T3,T4の間の上記距離d(Ti, Tj)(j=3,4)は以下となる。
d(T2, T3)=|20-20|+√((10-10)2+(12-10)2 )=2
d(T2, T4)=|20-20|+√((9-10)2+(8-10)2 )=2.236
As described above, since the distance d (T i , T j ) with respect to the locus fragment T 1 is minimized in the locus fragment T 2 , the two are combined to form the locus fragment {T 1 , T 2 }. Further, the above distance d (T i , T j ) (j = 3, 4) between the locus fragments {T 1 , T 2 } and the locus fragments T 3 , T 4 is as follows.
d (T 2 , T 3 ) = | 20-20 | + √ ((10-10) 2 + (12-10) 2 ) = 2
d (T 2 , T 4 ) = | 20-20 | + √ ((9-10) 2 + (8-10) 2 ) = 2.236

以上の通り、軌跡断片{T1, T2}に対する上記距離d(Ti, Tj)が最小となるのは軌跡断片T3であるため両者を結合し、結果として行動軌跡{T1, T2, T3}が得られる。ただし、上記の手順で軌跡断片を結合すると、仮の個体IDに矛盾が生じる場合がある。すなわち、図13の例では、軌跡断片T1に対応する仮の個体IDが3で、軌跡断片T3に対応する仮の個体IDが4と異なっており、矛盾が生じている。 As described above, the distance d (T i , T j ) with respect to the locus fragment {T 1 , T 2 } is minimized because the locus fragment T 3 is combined, and as a result, the action locus {T 1 , T 2 , T 3 } is obtained. However, if the locus fragments are combined by the above procedure, a contradiction may occur in the temporary individual ID. That is, in the example of FIG. 13, the tentative individual ID corresponding to the locus fragment T 1 is 3, and the tentative individual ID corresponding to the locus fragment T 3 is different from 4, which causes a contradiction.

上記矛盾の原因としては、軌跡断片統合処理における誤り、または個体識別処理における誤りの二通りが考えられる。したがって、個体識別処理の精度が高く信頼できる場合は、仮の個体IDが一致しない軌跡断片T3の代わりに、仮の個体IDが一致するT4を統合すればよい。このように、軌跡断片間の連続性が最も高い軌跡断片同士のそれぞれに対応付けられた個体IDが異なる場合、当該軌跡断片同士を統合しない、という制約を設けることにより、外見が似ている個体同士であっても、誤って別の個体の軌跡断片を統合してしまうことが防止される。一方、個体識別処理の精度がそれほど高くない場合は、仮の個体IDに矛盾がある軌跡断片同士であっても、軌跡断片統合処理の結果を優先して統合してもよい。 There are two possible causes of the above contradiction: an error in the locus fragment integration process and an error in the individual identification process. Therefore, if the accuracy and reliability of the individual identification process is high and reliable, T 4 with the same temporary individual ID may be integrated instead of the locus fragment T 3 with which the temporary individual ID does not match. In this way, when the individual IDs associated with each of the locus fragments having the highest continuity between the locus fragments are different, individuals having similar appearances are provided by setting a restriction that the locus fragments are not integrated. Even if they are one another, it is possible to prevent accidentally integrating the locus fragments of another individual. On the other hand, when the accuracy of the individual identification processing is not so high, even if the locus fragments have inconsistencies in the provisional individual IDs, the results of the locus fragment integration processing may be preferentially integrated.

なお、本第1実施形態では、軌跡断片を貪欲(greedy)に統合するアルゴリズムについて説明したが、組合せ最適化問題として定式化し求解してもよい。牛舎内に同じ個体IDを持つ乳牛は一頭しかいないことを制約に加えて最適化することにより、さらに統合精度が向上する。また、仮の個体IDが異なる軌跡断片同士を結合しないよう制約を設ける代わりに、仮の個体IDの信頼度を算出しておき、当該信頼度の総和が最も高くなる仮の個体IDを統合対象として採用してもよい。さらに、仮の個体IDの矛盾を全自動で解消するのではなく、矛盾が発生したことをオペレータに通知し、オペレータが監視画像や現地を確認して正しい個体IDを付与する等、行動軌跡を手動で補正してもよい。 Although the algorithm for integrating the locus fragments into greedy has been described in the first embodiment, it may be formulated and solved as a combinatorial optimization problem. By optimizing the fact that there is only one dairy cow with the same individual ID in the barn in addition to the constraint, the integration accuracy is further improved. Further, instead of setting a constraint so that the locus fragments having different temporary individual IDs are not combined with each other, the reliability of the temporary individual ID is calculated, and the temporary individual ID having the highest total reliability is integrated. May be adopted as. Furthermore, instead of resolving the contradiction of the temporary individual ID fully automatically, the operator is notified that the contradiction has occurred, and the operator confirms the monitoring image and the site and assigns the correct individual ID. It may be corrected manually.

(3)個体特徴追加機能
個体特徴追加機能は、行動軌跡推定機能によって推定された行動軌跡に基づいて、個体特徴データベース42に登録されていない個体特徴を追加して拡張する機能であり、個体特徴追加部60によって機能される。
(3) Individual feature addition function The individual feature addition function is a function for adding and expanding individual features not registered in the individual feature database 42 based on the behavior trajectory estimated by the behavior trajectory estimation function. It is functioned by the add-on 60.

本第1実施形態において、個体特徴追加部60は、まず、個体特徴を追加しようとする個体の個体IDに基づいて、行動軌跡データベース45から行動軌跡を取得する。つぎに、個体特徴追加部60は、取得した行動軌跡データ中のカメラ番号、撮影時刻および個体領域に基づいて、監視画像から個体領域を切り出して移動体画像列として取得する。そして、個体特徴追加部60は、個体特徴抽出部57と同様の処理により各移動体画像の個体特徴を抽出し、個体特徴データベース42に登録されている個体IDに対応付けて追加する。 In the first embodiment, the individual feature addition unit 60 first acquires a action locus from the action locus database 45 based on the individual ID of the individual to which the individual feature is to be added. Next, the individual feature addition unit 60 cuts out an individual area from the surveillance image based on the camera number, the shooting time, and the individual area in the acquired action locus data, and acquires it as a moving body image sequence. Then, the individual feature addition unit 60 extracts the individual features of each moving body image by the same processing as the individual feature extraction unit 57, and adds them in association with the individual ID registered in the individual feature database 42.

ここで図14は、本第1実施形態の行動軌跡推定装置1によって推定された行動軌跡の一例を示す図である。監視カメラ11から切り出した個体ID=Xの乳牛画像(移動体画像)が、時系列に沿って五枚ピックアップされている。この例では、一枚目(t=0)の乳牛画像と五枚目(t=80)の乳牛画像は姿勢推定可能領域から切り出されたもので、対応する個体特徴が予め個体特徴データベース42に登録されている。一方、二枚目(t=10)、三枚目(t=30)および四枚目(t=50)の乳牛画像は姿勢推定可能領域に含まれていなかったため、対応する個体特徴が個体特徴データベース42に登録されていない状態である。 Here, FIG. 14 is a diagram showing an example of an action locus estimated by the action locus estimation device 1 of the first embodiment. Five dairy cow images (moving body images) with individual ID = X cut out from the surveillance camera 11 are picked up in chronological order. In this example, the first (t = 0) dairy cow image and the fifth (t = 80) dairy cow image are cut out from the posture presumable region, and the corresponding individual features are stored in the individual feature database 42 in advance. It is registered. On the other hand, the second (t = 10), third (t = 30) and fourth (t = 50) dairy cow images were not included in the postural estimable area, so the corresponding individual characteristics are individual characteristics. It is not registered in the database 42.

以上のような状態の場合、個体特徴追加部60は、二枚目(t=10)、三枚目(t=30)および四枚目(t=50)の乳牛画像から個体特徴を抽出し、各個体特徴を個体特徴データベース42に追加する。なお、全ての乳牛画像を個体特徴データベース42に追加しようとすると、個体特徴データベース42の規模が大きくなり、個体特徴抽出処理に時間がかかるため、クラスタリング処理等を行って、追加する個体特徴を減らしてもよい。 In the above situation, the individual feature addition unit 60 extracts individual features from the second (t = 10), third (t = 30), and fourth (t = 50) dairy cow images. , Each individual feature is added to the individual feature database 42. If all the dairy cow images are to be added to the individual feature database 42, the scale of the individual feature database 42 becomes large and the individual feature extraction process takes time. Therefore, clustering processing or the like is performed to reduce the number of individual features to be added. You may.

また、個体特徴追加部60は、古い個体特徴を削除し、最新の個体特徴を順次入れ替えていくことで、個体の成長や体型の変化があっても個体識別の精度が維持される。ただし、行動軌跡に誤りがある場合に、個体特徴データベース42を更新すると、個体の識別精度が低下する場合があるため、信頼度の高い行動軌跡データのみを用いることが好ましい。あるいは、行動軌跡に誤りがないことをオペレータが確認した上で、個体特徴データベース42を更新してもよい。 Further, the individual characteristic addition unit 60 deletes old individual characteristics and sequentially replaces the latest individual characteristics, so that the accuracy of individual identification is maintained even if the individual grows or the body shape changes. However, if the individual characteristic database 42 is updated when there is an error in the behavioral locus, the identification accuracy of the individual may decrease. Therefore, it is preferable to use only the highly reliable behavioral locus data. Alternatively, the individual characteristic database 42 may be updated after the operator confirms that there is no error in the action trajectory.

つぎに、本第1実施形態の行動軌跡推定装置1、行動軌跡推定プログラム1bおよび行動軌跡推定方法による作用について説明する。 Next, the actions of the action locus estimation device 1, the action locus estimation program 1b, and the action locus estimation method of the first embodiment will be described.

本第1実施形態の行動軌跡推定装置1、行動軌跡推定プログラム1bおよび行動軌跡推定方法を用いて乳牛(移動体)の行動軌跡を推定する場合、まず、個体特徴登録機能を用いて、監視しようとする全ての乳牛について、個体特徴を個体特徴データベース42に登録する。 When estimating the behavior trajectory of a dairy cow (moving body) using the behavior trajectory estimation device 1, the behavior trajectory estimation program 1b, and the behavior trajectory estimation method of the first embodiment, first, let's monitor using the individual characteristic registration function. The individual characteristics of all the dairy cows to be used are registered in the individual characteristics database 42.

具体的には、図15に示すように、個体特徴登録部51が、新規登録しようとする乳牛の画像群を取得するとともに(ステップS1)、新規登録しようとする乳牛の個体IDを取得する(ステップS2)。そして、個体特徴登録部51が、ステップS1で取得した画像群から個体特徴を抽出すると(ステップS3)、当該個体特徴をステップS2で取得した個体IDに対応付けて個体特徴データベース42に登録する(ステップS4)。これにより、ある個体についての個体IDと個体特徴とが関連付けて登録される。 Specifically, as shown in FIG. 15, the individual feature registration unit 51 acquires an image group of a dairy cow to be newly registered (step S1) and an individual ID of the dairy cow to be newly registered (step S1). Step S2). Then, when the individual feature registration unit 51 extracts the individual feature from the image group acquired in step S1 (step S3), the individual feature is registered in the individual feature database 42 in association with the individual ID acquired in step S2 (step S3). Step S4). As a result, the individual ID and the individual characteristics of a certain individual are registered in association with each other.

ある個体について、取得された全ての画像について上記ステップS3~ステップS4を繰り返した後(ステップS5:YES)、別の個体について、上記ステップS1~ステップS5を繰り返す。そして、監視しようとする全ての乳牛について個体特徴が登録されると(ステップS6:YES)、本処理を終了する。これにより、監視しようとする全ての乳牛の個体特徴が個体特徴データベース42に事前登録される。よって、各個体の個体特徴さえわかれば、当該個体特徴を有する個体IDが特定されるため、乳牛の個体識別が可能となる。 After repeating the above steps S3 to S4 for all the acquired images for a certain individual (step S5: YES), the above steps S1 to S5 are repeated for another individual. Then, when the individual characteristics of all the dairy cows to be monitored are registered (step S6: YES), this process is terminated. As a result, the individual characteristics of all the cows to be monitored are pre-registered in the individual characteristics database 42. Therefore, as long as the individual characteristics of each individual are known, the individual ID having the individual characteristics is specified, so that the individual dairy cow can be identified.

個体特徴データベース42の準備が完了すると、行動軌跡推定機能を用いて、各乳牛の行動軌跡を個体ごとに推定する。具体的には、図16に示すように、まず、監視画像取得部52が複数の監視カメラ11から時系列の監視画像を取得する(ステップS11)。つぎに、個体領域検出部53が、各監視画像内に存在する全乳牛の個体領域を検出し(ステップS12)、当該個体領域のそれぞれについて、追跡処理実行部54が追跡処理を実行する(ステップS13)。 When the preparation of the individual characteristic database 42 is completed, the behavior trajectory of each dairy cow is estimated for each individual using the behavior trajectory estimation function. Specifically, as shown in FIG. 16, first, the surveillance image acquisition unit 52 acquires time-series surveillance images from a plurality of surveillance cameras 11 (step S11). Next, the individual area detection unit 53 detects the individual area of all dairy cows existing in each monitoring image (step S12), and the tracking process execution unit 54 executes the tracking process for each of the individual areas (step S12). S13).

追跡処理の結果、監視画像内に新たな個体領域が出現した場合(ステップS14:YES)、追跡処理実行部54が新たな軌跡断片IDを払い出し(ステップS15)、新たな個体領域に対応付ける。一方、監視画像内に新たな個体領域がない場合(ステップS14:NO)、追跡処理実行部54が各個体領域に対応する軌跡断片IDを取得する(ステップS16)。これにより、時系列の監視画像において、同一の個体と思われる個体領域には同一の軌跡断片IDが付与されるため、全乳牛の行動が個体ごとに追跡される。 When a new individual area appears in the surveillance image as a result of the tracking process (step S14: YES), the tracking process execution unit 54 pays out a new locus fragment ID (step S15), and associates the new individual area with the new individual area. On the other hand, when there is no new individual region in the surveillance image (step S14: NO), the tracking process execution unit 54 acquires the locus fragment ID corresponding to each individual region (step S16). As a result, in the time-series monitoring images, the same locus fragment ID is given to the individual regions that are considered to be the same individual, so that the behavior of all dairy cows is tracked for each individual.

つぎに、軌跡断片取得部55が、各個体領域の軌跡断片を取得すると(ステップS17)、取得された軌跡断片が軌跡断片IDに対応付けて軌跡断片バッファ43に保存される(ステップS18)。これにより、複数の監視カメラ11ごとに撮影範囲内における乳牛の行動軌跡が軌跡断片として収集される。 Next, when the locus fragment acquisition unit 55 acquires the locus fragment of each individual region (step S17), the acquired locus fragment is stored in the locus fragment buffer 43 in association with the locus fragment ID (step S18). As a result, the behavioral loci of the dairy cow within the imaging range are collected as locus fragments for each of the plurality of surveillance cameras 11.

つづいて、本第1実施形態では、移動体姿勢推定部56が、個体ごとの識別精度が低下するのを抑制するため、各個体領域に含まれる移動体の姿勢を推定する(ステップS19)。具体的には、図17に示すように、移動体姿勢推定部56は、まず、個体領域検出部53によって検出された個体領域と、当該個体領域を含む監視画像を撮影した監視カメラ11のカメラ番号とを取得する(ステップS191)。 Subsequently, in the first embodiment, the moving body posture estimation unit 56 estimates the posture of the moving body included in each individual region in order to suppress the deterioration of the identification accuracy for each individual (step S19). Specifically, as shown in FIG. 17, the moving body posture estimation unit 56 first captures the individual region detected by the individual region detection unit 53 and the camera of the surveillance camera 11 that captures the surveillance image including the individual region. The number and the number are acquired (step S191).

つぎに、移動体姿勢推定部56は、取得したカメラ番号に対応付けて設定されている姿勢推定可能領域および姿勢を取得し(ステップS192)、ステップS191で取得した個体領域が姿勢推定可能領域に包含されるか否かを判定する(ステップS193)。当該判定の結果、個体領域が姿勢推定可能領域に包含される場合(ステップS193:YES)、当該姿勢推定可能領域に対応付けられた姿勢を出力する(ステップS194)。一方、個体領域が姿勢推定可能領域に包含されていない場合(ステップS193:NO)、姿勢を出力しない。これにより、簡易的に移動体の姿勢が高精度に推定される。 Next, the moving body posture estimation unit 56 acquires the posture estimable region and the posture set in association with the acquired camera number (step S192), and the individual region acquired in step S191 becomes the posture estimable region. It is determined whether or not it is included (step S193). As a result of the determination, when the individual region is included in the posture estimable region (step S193: YES), the posture associated with the posture estimable region is output (step S194). On the other hand, when the individual region is not included in the posture estimable region (step S193: NO), the posture is not output. As a result, the posture of the moving body is easily estimated with high accuracy.

つづいて、移動体姿勢推定部56によって推定された姿勢が、個体を識別するのに適した姿勢である場合(ステップS20:YES)、個体特徴抽出部57が各個体領域の個体特徴を抽出する(ステップS21)。一方、個体を識別するのに適した姿勢でない場合(ステップS20:NO)、後述するステップS24へ進む。 Subsequently, when the posture estimated by the moving body posture estimation unit 56 is a posture suitable for identifying an individual (step S20: YES), the individual feature extraction unit 57 extracts the individual characteristics of each individual region. (Step S21). On the other hand, if the posture is not suitable for identifying the individual (step S20: NO), the process proceeds to step S24 described later.

つぎに、個体特徴照合部58が、ステップS21で抽出された個体特徴を個体特徴データベース42と照合し、各個体領域に対応する個体IDを取得する(ステップS22)。これにより、各個体領域に含まれる乳牛が個体ごとに高精度に識別される。 Next, the individual characteristic collation unit 58 collates the individual characteristics extracted in step S21 with the individual characteristic database 42, and acquires an individual ID corresponding to each individual region (step S22). As a result, the dairy cows included in each individual region are identified with high accuracy for each individual.

その後、ステップS21で抽出された各個体領域の個体特徴と、ステップS22で取得された各個体領域に対応する個体IDとが軌跡断片バッファ43に保存される(ステップS23)。そして、ステップS12で検出された各個体領域について、上述したステップS13からステップS23までの処理を繰り返し、全ての個体領域について処理が完了すると(ステップS24:YES)、ステップS25へと進む。これにより、ある監視画像に含まれる全個体領域の軌跡断片が、個体特徴や個体IDと関連付けられて軌跡断片バッファ43に一時保存される。 After that, the individual characteristics of each individual region extracted in step S21 and the individual ID corresponding to each individual region acquired in step S22 are stored in the locus fragment buffer 43 (step S23). Then, the processing from step S13 to step S23 described above is repeated for each individual region detected in step S12, and when the processing is completed for all individual regions (step S24: YES), the process proceeds to step S25. As a result, the locus fragments of the entire individual region included in a certain surveillance image are temporarily stored in the locus fragment buffer 43 in association with the individual characteristics and the individual ID.

つぎに、ステップS25では、各監視カメラ11の監視画像について、上述したステップS11からステップS24までの処理を繰り返し、全ての監視カメラ11について処理が完了すると(ステップS25:YES)、所定時間が経過するまで、上述したステップS11からステップS24までの処理を繰り返す。これにより、全監視画像に含まれる全個体領域の軌跡断片が、所定時間分ずつ軌跡断片バッファ43に一時保存される。 Next, in step S25, the processes from step S11 to step S24 described above are repeated for the surveillance images of each surveillance camera 11, and when the processes for all the surveillance cameras 11 are completed (step S25: YES), a predetermined time elapses. The process from step S11 to step S24 described above is repeated until the above-mentioned process is performed. As a result, the locus fragments of all the individual regions included in all the surveillance images are temporarily stored in the locus fragment buffer 43 for a predetermined time.

そして、所定時間が経過すると(ステップS26:YES)、軌跡断片統合部59が、軌跡断片間の連続性が最も高い軌跡断片同士を統合し、最終的な個体IDごとの行動軌跡として行動軌跡データベース45に出力する(ステップS27)。これにより、異なる監視カメラ11で撮影された監視画像内の軌跡断片であっても、高精度に個体ごとに統合される。よって、多数の乳牛を広域監視する場合であっても、高い精度で乳牛が個体ごとに識別され、個体ごとの行動軌跡が正しく推定される。 Then, when a predetermined time elapses (step S26: YES), the locus fragment integration unit 59 integrates the locus fragments having the highest continuity between the locus fragments, and the action locus database is used as the final action locus for each individual ID. Output to 45 (step S27). As a result, even the locus fragments in the surveillance images taken by different surveillance cameras 11 are integrated for each individual with high accuracy. Therefore, even when a large number of dairy cows are monitored over a wide area, the dairy cows are identified for each individual with high accuracy, and the behavioral trajectory of each individual is correctly estimated.

また、本第1実施形態では、個体特徴追加機能を用いて、個体特徴データベース42に登録されていない個体特徴を追加して拡張する。具体的には、図18に示すように、個体特徴追加部60が個体特徴を追加しようとする個体の個体IDに基づいて、行動軌跡データベース45から行動軌跡を取得する(ステップS31)。 Further, in the first embodiment, the individual feature addition function is used to add and expand individual features that are not registered in the individual feature database 42. Specifically, as shown in FIG. 18, the individual feature addition unit 60 acquires the action locus from the action locus database 45 based on the individual ID of the individual to which the individual feature is to be added (step S31).

つぎに、個体特徴追加部60は、取得した行動軌跡データに基づいて、監視画像から個体領域を切り出し移動体画像列として取得する(ステップS32)。そして、個体特徴追加部60が各移動体画像の個体特徴を抽出すると(ステップS33)、当該個体特徴を個体特徴データベース42に登録されている個体IDに対応させて追加する(ステップS34)。これにより、様々な姿勢の個体特徴が追加されるため、個体の識別精度が向上する。 Next, the individual feature addition unit 60 cuts out an individual area from the monitoring image and acquires it as a moving body image string based on the acquired action trajectory data (step S32). Then, when the individual feature addition unit 60 extracts the individual feature of each moving body image (step S33), the individual feature is added corresponding to the individual ID registered in the individual feature database 42 (step S34). As a result, individual characteristics of various postures are added, so that the accuracy of individual identification is improved.

以上のような本第1実施形態の行動軌跡推定装置1、行動軌跡推定プログラム1bおよび行動軌跡推定方法によれば、以下のような効果を奏する。
1.多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定することができる。
2.個体識別に適した姿勢の移動体を含む個体領域のみから個体特徴を抽出することで、個体ごとの識別精度が低下するのを抑制することができる。
3.牛舎等のレイアウトに基づく姿勢推定可能領域を設定することで、簡易的に移動体の姿勢を高精度に推定することができる。
4.行動軌跡データに基づいて様々な姿勢の個体特徴を追加することで、個体の識別精度を向上することができる。
5.軌跡断片間における時間的・空間的な連続性や個体特徴間の類似性に基づいて軌跡断片同士を統合することで、個体ごとの行動軌跡を高精度に推定することができる。
6.個体IDに矛盾がある軌跡断片同士を統合しないようにすることで、外見が似ている個体同士であっても、異なる個体の軌跡断片同士を誤って統合するのを防止することができる。
According to the action locus estimation device 1, the action locus estimation program 1b, and the action locus estimation method of the first embodiment as described above, the following effects are obtained.
1. 1. While realizing wide-area monitoring of a large number of moving objects, it is possible to identify the moving objects for each individual with high accuracy and correctly estimate the behavioral trajectory of each individual.
2. 2. By extracting individual characteristics only from an individual region including a moving body having a posture suitable for individual identification, it is possible to suppress a decrease in identification accuracy for each individual.
3. 3. By setting the posture estimable area based on the layout of the barn or the like, the posture of the moving body can be easily estimated with high accuracy.
4. By adding individual characteristics of various postures based on the behavior trajectory data, it is possible to improve the identification accuracy of the individual.
5. By integrating the locus fragments based on the temporal and spatial continuity between the locus fragments and the similarity between individual characteristics, the behavioral locus of each individual can be estimated with high accuracy.
6. By preventing the locus fragments having inconsistencies in the individual IDs from being integrated, it is possible to prevent the locus fragments of different individuals from being erroneously integrated even if the individuals have similar appearances.

つぎに、本発明に係る行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法の第2実施形態について説明する。なお、本第2実施形態の構成のうち、上述した第1実施形態と同一もしくは相当する構成については同一の符号を付し、再度の説明を省略する。 Next, a second embodiment of the action trajectory estimation device, the action trajectory estimation program, and the action trajectory estimation method according to the present invention will be described. Of the configurations of the second embodiment, the same or equivalent configurations as those of the first embodiment described above are designated by the same reference numerals, and the description thereof will be omitted again.

上述した第1実施形態では、追跡処理実行部54が、同一の監視カメラ11で撮影された時系列の監視画像に対して画像座標系で追跡処理を実行し、軌跡断片取得部55が、各監視画像内の画像座標系における位置座標群を牛舎座標系における位置座標群に変換したものを軌跡断片として取得し、軌跡断片統合部59が、異なる監視カメラ11で撮影された監視画像内の軌跡断片同士を統合することで行動軌跡を作成していた。 In the first embodiment described above, the tracking processing execution unit 54 executes tracking processing on the time-series surveillance images taken by the same surveillance camera 11 in the image coordinate system, and the locus fragment acquisition unit 55 respectively. The position coordinate group in the image coordinate system in the surveillance image is converted into the position coordinate group in the barn coordinate system and acquired as a locus fragment, and the locus fragment integration unit 59 takes a locus in the surveillance image taken by a different surveillance camera 11. The action trajectory was created by integrating the fragments.

これに対して、本第2実施形態の特徴は、追跡処理実行部54が事前に、個体領域検出部53によって検出された個体領域の画像座標系における位置座標群を牛舎座標系における位置座標群に変換する。そして、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において追跡処理を実行することにより、牛舎全体における行動軌跡を取得する点にある。 On the other hand, the feature of the second embodiment is that the tracking process execution unit 54 previously detects the position coordinate group in the image coordinate system of the individual area detected by the individual area detection unit 53, and the position coordinate group in the barn coordinate system. Convert to. Then, among the whole images composed of all the monitoring images taken at the same time, the action trajectory in the whole barn is acquired by executing the tracking process between the whole images adjacent to each other in the time series.

具体的には、本第2実施形態の行動軌跡推定装置10は、図19に示すように、異なる監視カメラ11間における軌跡断片同士を統合する軌跡断片統合部59の代わりに、全体画像から得られた軌跡断片をそのまま行動軌跡として出力する行動軌跡出力部61を有している。また、軌跡断片バッファ43と行動軌跡データベース45のデータ内容、および追跡処理実行部54と軌跡断片取得部55の処理内容が第1実施形態と相違するため、当該相違部分について説明する。 Specifically, as shown in FIG. 19, the action locus estimation device 10 of the second embodiment is obtained from the whole image instead of the locus fragment integrating unit 59 that integrates the locus fragments between different surveillance cameras 11. It has an action locus output unit 61 that outputs the obtained locus fragment as an action locus as it is. Further, since the data contents of the locus fragment buffer 43 and the action locus database 45, and the processing contents of the tracking processing execution unit 54 and the locus fragment acquisition unit 55 are different from those of the first embodiment, the differences will be described.

本第2実施形態において、軌跡断片バッファ43には、図20に示すように、個体が占める矩形の個体領域として、画像座標系における二次元座標値の代わりに、牛舎座標系における二次元座標値が保存される。また、本第2実施形態において、行動軌跡データベース45には、図21に示すように、個体領域として、画像座標系における二次元座標値の代わりに、牛舎座標系における二次元座標値が保存される。軌跡断片バッファ43および行動軌跡データベース45に保存されるその他のデータは、第1実施形態と同様である。 In the second embodiment, as shown in FIG. 20, in the locus fragment buffer 43, as a rectangular individual area occupied by an individual, a two-dimensional coordinate value in the barn coordinate system is used instead of the two-dimensional coordinate value in the image coordinate system. Is saved. Further, in the second embodiment, as shown in FIG. 21, the action locus database 45 stores the two-dimensional coordinate values in the barn coordinate system instead of the two-dimensional coordinate values in the image coordinate system as the individual area. The coordinates. The other data stored in the locus fragment buffer 43 and the action locus database 45 are the same as those in the first embodiment.

追跡処理実行部54は、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像内に存在する移動体を個体ごとに追跡するものである。本第2実施形態において、追跡処理実行部54は、まず、個体領域検出部53によって検出された個体領域の画像座標系における位置座標群を牛舎座標系における位置座標群に変換する。なお、画像座標系から牛舎座標系への座標変換処理は、第1実施形態の軌跡断片取得部55が実行する処理(段落[0054]~[0058])と同様である。 The tracking process execution unit 54 tracks each individual moving object existing in the adjacent overall image in the time series among the entire images composed of all the monitoring images taken at the same time. In the second embodiment, the tracking process execution unit 54 first converts the position coordinate group in the image coordinate system of the individual area detected by the individual area detection unit 53 into the position coordinate group in the barn coordinate system. The coordinate conversion process from the image coordinate system to the barn coordinate system is the same as the process (paragraphs [0054] to [0058]) executed by the locus fragment acquisition unit 55 of the first embodiment.

また、図22に示すように、個体領域検出部53によって検出された矩形の個体領域は、画像座標系から牛舎座標系に変換すると歪な四角形に変形してしまう。このため、本第2実施形態では、追跡処理実行部54が、牛舎座標系に変換後の歪な四角形に対する外接矩形を牛舎座標系における個体領域とする。なお、個体領域の形状は外接矩形に限定されるものではなく、内接矩形、あるいは、多角形領域をそのまま個体領域としてもよい。また、二以上の監視画像で検出された複数の個体領域が重複していると判断した場合(例えば、個体領域の重なりが大きい場合、個体領域の外見特徴が類似している場合)には、複数の個体領域を一つに統合する処理を追加することもできる。 Further, as shown in FIG. 22, the rectangular individual area detected by the individual area detection unit 53 is transformed into a distorted quadrangle when converted from the image coordinate system to the barn coordinate system. Therefore, in the second embodiment, the tracking process execution unit 54 uses the circumscribed rectangle for the distorted quadrangle converted to the barn coordinate system as the individual area in the barn coordinate system. The shape of the individual region is not limited to the circumscribed rectangle, and the inscribed rectangle or the polygonal region may be used as the individual region as it is. In addition, when it is determined that a plurality of individual regions detected in two or more surveillance images overlap (for example, when the overlap of individual regions is large, or when the appearance characteristics of the individual regions are similar), It is also possible to add a process of integrating multiple individual areas into one.

つぎに、追跡処理実行部54は、時系列において隣接する全体画像間において各個体領域の追跡処理を実行する。具体的には、図23(a),(b)に示すように、全ての監視カメラで撮影された時系列の全体画像において、時刻tの全体画像から検出された個体領域群を牛舎座標系に変換したものを{B(t)1, B(t)2, B(t)3,…B(t)nt}とし、時刻t-1の全体画像から検出された個体領域群を牛舎座標系に変換したものを{B(t-1)1, B(t-1)2, B(t-1)3,…B(t-1)nt-1}とする。この場合、追跡処理実行部54は、時刻tと時刻t-1の全体画像間で個体領域の対応づけを行うことにより、図23(c)に示すように、個体毎の軌跡断片が全ての監視画像に跨った状態で得られる。なお、追跡処理実行部54において、SORT(Simple Online and Realtime Tracking)等の移動体追跡アルゴリズムを使用する点は第1実施形態と同様である。ただし、追跡処理を個別の監視画像内(画像座標系)ではなく、全ての監視画像からなる全体画像内(牛舎座標系)で行う点が第1実施形態とは異なる。 Next, the tracking process execution unit 54 executes the tracking process of each individual area between the entire images adjacent to each other in the time series. Specifically, as shown in FIGS. 23 (a) and 23 (b), in the entire time-series images taken by all surveillance cameras, the individual region group detected from the entire image at time t is the barn coordinate system. The one converted to {B (t) 1, B (t) 2, B (t) 3,… B (t) n t }, and the individual area group detected from the entire image at time t-1 is the barn. Let {B (t-1) 1, B (t-1) 2, B (t-1) 3,… B (t-1) n t-1 } be converted into a coordinate system. In this case, the tracking process execution unit 54 associates the individual regions between the entire images at time t and time t-1, so that the locus fragments for each individual are all as shown in FIG. 23 (c). Obtained while straddling the surveillance image. The tracking process execution unit 54 uses a moving object tracking algorithm such as SORT (Simple Online and Realtime Tracking), which is the same as that of the first embodiment. However, it differs from the first embodiment in that the tracking process is performed not in the individual monitoring image (image coordinate system) but in the entire image consisting of all the monitoring images (barn coordinate system).

また、本第2実施形態において、軌跡断片取得部55は、追跡処理実行部54によって同一の軌跡断片IDが付与された個体領域のそれぞれについて中心点を特定し、当該中心点の牛舎座標系における二次元座標値を算出する。そして、当該二次元座標値をそのまま軌跡断片として取得する。また、軌跡断片取得部55は、取得した軌跡断片を軌跡断片IDに対応付けて軌跡断片バッファ43に保存する。 Further, in the second embodiment, the locus fragment acquisition unit 55 specifies a center point for each of the individual regions to which the same locus fragment ID is given by the tracking processing execution unit 54, and the locus fragment acquisition unit 55 in the barn coordinate system of the center point. Calculate the two-dimensional coordinate value. Then, the two-dimensional coordinate value is acquired as it is as a locus fragment. Further, the locus fragment acquisition unit 55 associates the acquired locus fragment with the locus fragment ID and stores it in the locus fragment buffer 43.

行動軌跡出力部61は、軌跡断片を個体IDごとの行動軌跡として出力するものである。本第2実施形態において、行動軌跡出力部61は、軌跡断片取得部55によって軌跡断片バッファ43に蓄積された軌跡断片と、個体特徴照合部58によって取得された個体IDとを対応付けて、最終的な個体ID付きの行動軌跡として行動軌跡データベース45に出力する。 The action locus output unit 61 outputs a locus fragment as an action locus for each individual ID. In the second embodiment, the action locus output unit 61 associates the locus fragment accumulated in the locus fragment buffer 43 by the locus fragment acquisition unit 55 with the individual ID acquired by the individual feature collation unit 58, and finally. It is output to the action locus database 45 as an action locus with a specific individual ID.

つぎに、本第2実施形態の行動軌跡推定装置10、行動軌跡推定プログラム1bおよび行動軌跡推定方法による作用について説明する。 Next, the actions of the action locus estimation device 10, the action locus estimation program 1b, and the action locus estimation method of the second embodiment will be described.

具体的には、図24に示すように、監視画像取得部52が複数の監視カメラ11から時系列の監視画像を取得すると(ステップS11)、個体領域検出部53が、各監視画像内に存在する全乳牛の個体領域を検出する(ステップS12)。そして、各監視カメラ11の監視画像について、上述したステップS11からステップS12までの処理を繰り返す(ステップS41)。これにより、全ての監視カメラ11から取得した全ての監視画像に含まれる個体領域が検出される。 Specifically, as shown in FIG. 24, when the surveillance image acquisition unit 52 acquires time-series surveillance images from a plurality of surveillance cameras 11 (step S11), the individual area detection unit 53 exists in each surveillance image. The individual area of the whole dairy cow is detected (step S12). Then, the processes from step S11 to step S12 described above are repeated for the surveillance image of each surveillance camera 11 (step S41). As a result, the individual area included in all the surveillance images acquired from all the surveillance cameras 11 is detected.

つぎに、全監視カメラ11の監視画像について処理が完了すると(ステップS41:YES)、追跡処理実行部54が、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において各個体領域の追跡処理を実行する(ステップS13)。このとき、本第2実施形態では、追跡処理実行部54が事前に、個体領域の位置座標群を画像座標系から牛舎座標系に変換するため、全体画像間における追跡処理が可能となる。これにより、個体毎の軌跡断片が全ての監視画像に跨った状態で得られる。 Next, when the processing for the surveillance images of all the surveillance cameras 11 is completed (step S41: YES), the tracking processing execution unit 54 is adjacent in time series among all the surveillance images taken at the same time. The tracking process of each individual area is executed between the whole images to be performed (step S13). At this time, in the second embodiment, the tracking process execution unit 54 converts the position coordinate group of the individual area from the image coordinate system to the barn coordinate system in advance, so that the tracking process between the entire images becomes possible. As a result, a locus fragment for each individual can be obtained in a state of straddling all the surveillance images.

その後、ステップS14からステップS24まで、およびステップS26では、第1実施形態と同様の処理を実行する。これにより、牛舎全体の全体画像に含まれる全個体領域の軌跡断片が、所定時間分ずつ軌跡断片バッファ43に一時保存される。 After that, from step S14 to step S24, and in step S26, the same processing as in the first embodiment is executed. As a result, the locus fragments of all the individual regions included in the entire image of the entire barn are temporarily stored in the locus fragment buffer 43 for a predetermined time.

そして、所定時間が経過すると(ステップS26)、行動軌跡出力部61は、軌跡断片を個体IDごとの行動軌跡として出力する(ステップS42)。すなわち、本第2実施形態では、同一時刻に撮影された全ての監視画像を全体画像とし、この全体画像間において追跡処理を実行するため、軌跡断片がそのまま行動軌跡となる。よって、第1実施形態のように、軌跡断片同士を統合する必要がなく、推定演算に係る処理効率が向上する。 Then, when the predetermined time elapses (step S26), the action locus output unit 61 outputs the locus fragment as an action locus for each individual ID (step S42). That is, in the second embodiment, all the monitoring images taken at the same time are taken as the whole image, and the tracking process is executed between the whole images, so that the locus fragment becomes the action locus as it is. Therefore, unlike the first embodiment, it is not necessary to integrate the locus fragments, and the processing efficiency related to the estimation calculation is improved.

以上のような本第2実施形態によれば、上述した第1実施形態の作用効果に加えて、行動軌跡の推定演算に係る処理効率を向上することができる。 According to the second embodiment as described above, in addition to the action and effect of the first embodiment described above, it is possible to improve the processing efficiency related to the estimation calculation of the action locus.

なお、本発明に係る行動軌跡推定装置1,10、行動軌跡推定プログラム1bおよび行動軌跡推定方法は、前述した実施形態に限定されるものではなく、適宜変更することができる。 The action trajectory estimation devices 1 and 10, the action trajectory estimation program 1b, and the action trajectory estimation method according to the present invention are not limited to the above-described embodiments, and can be appropriately changed.

例えば、上述した本実施形態では、個体ごとの識別精度が低下するのを抑制するため、移動体姿勢推定部56が各個体領域に含まれる移動体の姿勢を推定している。しかしながら、個体ごとの識別精度をある程度担保できる場合は、移動体姿勢推定部56による姿勢の推定処理を実行しなくてもよい。 For example, in the above-described embodiment, the moving body posture estimation unit 56 estimates the posture of the moving body included in each individual region in order to suppress the deterioration of the identification accuracy for each individual. However, if the identification accuracy for each individual can be guaranteed to some extent, it is not necessary to execute the posture estimation process by the moving body posture estimation unit 56.

また、上述した本実施形態では、個体特徴登録部51や個体特徴抽出部57が機械学習モデルを用いているが、当該機械学習モデルのパラメータを行動軌跡データを用いて最適化してもよい。具体的には、個体ID付きの行動軌跡データから教師データ(個体ID付きの乳牛画像)を作成し、当該教師データを用いて畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)に、交差エントロピー損失やトリプレット損失などが最小化するように学習させてもよい。 Further, in the above-described embodiment, the individual feature registration unit 51 and the individual feature extraction unit 57 use the machine learning model, but the parameters of the machine learning model may be optimized by using the action locus data. Specifically, teacher data (milk cow image with individual ID) is created from behavioral trajectory data with individual ID, and the convolutional neural network (CNN) uses the teacher data for cross entropy loss and triplet. It may be trained to minimize the loss and the like.

さらに、上述した本実施形態では、軌跡断片バッファ43に数時間から一日分の軌跡断片をバッファして保存している。しかしながら、実際に行動軌跡推定プログラム1bを実装する際には、数分程度に短く設定することが好ましい。この場合、行動軌跡が出力されるたびに、それまでに作成した行動軌跡との間で連続性を判定し、当該連続性が最も高い行動軌跡同士を統合すればよい。なお、連続性の判定は、上述したとおり、時間的な連続性、空間的な連続性および個体特徴間の類似性に基づいて行われる。 Further, in the present embodiment described above, the locus fragments for several hours to one day are buffered and stored in the locus fragment buffer 43. However, when actually implementing the action trajectory estimation program 1b, it is preferable to set it as short as a few minutes. In this case, each time the action locus is output, the continuity with the action locus created so far may be determined, and the action loci having the highest continuity may be integrated. As described above, the determination of continuity is performed based on temporal continuity, spatial continuity, and similarity between individual characteristics.

1 行動軌跡推定装置(第1実施形態)
1a 個体特徴登録プログラム
1b 行動軌跡推定プログラム
1c 個体特徴追加プログラム
2 表示手段
3 入力手段
4 記憶手段
5 演算処理手段
10 行動軌跡推定装置(第2実施形態)
11 監視カメラ
41 プログラム記憶部
42 個体特徴データベース
43 軌跡断片バッファ
44 姿勢推定データベース
45 行動軌跡データベース
51 個体特徴登録部
52 監視画像取得部
53 個体領域検出部
54 追跡処理実行部
55 軌跡断片取得部
56 移動体姿勢推定部
57 個体特徴抽出部
58 個体特徴照合部
59 軌跡断片統合部
60 個体特徴追加部
61 行動軌跡出力部
1 Behavior trajectory estimation device (first embodiment)
1a Individual feature registration program 1b Behavior trajectory estimation program 1c Individual feature addition program 2 Display means 3 Input means 4 Storage means 5 Arithmetic processing means 10 Action trajectory estimation device (second embodiment)
11 Surveillance camera 41 Program storage 42 Individual feature database 43 Trajectory fragment buffer 44 Attitude estimation database 45 Behavior locus database 51 Individual feature registration unit 52 Surveillance image acquisition unit 53 Individual area detection unit 54 Tracking processing execution unit 55 Trajectory fragment acquisition unit 56 Move Body posture estimation part 57 Individual feature extraction part 58 Individual feature matching part 59 Trajectory fragment integration part 60 Individual feature addition part 61 Behavior locus output part

Claims (11)

移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定装置であって、
複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、
時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、
前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、
前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、
前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合部と、
を有する、行動軌跡推定装置。
It is a behavior trajectory estimation device that can estimate the behavior trajectory of a moving body for each individual.
An individual area detection unit that detects the image area occupied by the individual as an individual area in each time-series surveillance image taken by a plurality of surveillance cameras.
A tracking process execution unit that tracks the moving object for each individual by associating individual regions having similar positions, moving directions, and velocities between adjacent surveillance images in chronological order.
A locus fragment acquisition unit that acquires a time-series position coordinate group as a locus fragment in a predetermined coordinate system of an individual region associated with the tracking process execution unit.
An individual feature extraction unit that extracts individual features, which are feature vectors based on the appearance of the individual, from the individual region.
The individual feature extracted by the individual feature extraction unit is compared with the individual feature database in which the individual feature is registered in association with the individual ID that identifies the individual, and the individual ID corresponding to the extracted individual feature is collated. With the individual feature collation unit to acquire
A locus fragment integration unit that integrates the locus fragments having the highest continuity between the locus fragments and outputs them as an action locus for each individual ID.
An action locus estimation device.
前記個体領域に含まれる移動体の姿勢を推定する移動体姿勢推定部を有しており、
前記個体特徴抽出部は、前記個体を識別するのに適した姿勢の移動体を含む個体領域のみから前記個体特徴を抽出する、請求項1に記載の行動軌跡推定装置。
It has a moving body posture estimation unit that estimates the posture of the moving body included in the individual area.
The behavior trajectory estimation device according to claim 1, wherein the individual feature extraction unit extracts the individual feature only from an individual region including a moving body having a posture suitable for identifying the individual.
前記監視カメラごとに、移動体の姿勢を推定可能な姿勢推定可能領域と、前記姿勢推定可能領域に存在する移動体がとることの多い姿勢とが設定されており、
前記移動体姿勢推定部は、前記個体領域が前記姿勢推定可能領域に含まれる場合、当該姿勢推定可能領域に対応付けられた姿勢を前記個体領域に含まれる移動体の姿勢として推定する、請求項2に記載の行動軌跡推定装置。
For each of the surveillance cameras, a posture estimable region in which the posture of the moving body can be estimated and a posture often taken by the moving body existing in the posture estimable region are set.
The moving body posture estimation unit estimates the posture associated with the posture estimable region as the posture of the moving body included in the individual region when the individual region is included in the posture estimable region. 2. The action locus estimation device according to 2.
前記行動軌跡に基づいて、前記個体IDごとに、前記監視画像から前記個体領域を切り出して移動体画像列を取得し、各移動体画像の個体特徴を抽出して前記個体特徴データベースに追加する個体特徴追加部を有している、請求項1から請求項3のいずれかに記載の行動軌跡推定装置。 Based on the behavioral trajectory, for each individual ID, the individual area is cut out from the monitoring image to acquire a moving body image sequence, and the individual characteristics of each moving body image are extracted and added to the individual characteristic database. The action trajectory estimation device according to any one of claims 1 to 3, which has a feature addition unit. 前記軌跡断片統合部は、前記軌跡断片間における時間的な連続性、空間的な連続性および個体特徴間の類似性に基づいて、前記軌跡断片間の連続性が最も高い軌跡断片を特定する、請求項1から請求項4のいずれかに記載の行動軌跡推定装置。 The locus fragment integration unit identifies the locus fragment having the highest continuity between the locus fragments based on the temporal continuity, spatial continuity, and similarity between individual characteristics between the locus fragments. The action trajectory estimation device according to any one of claims 1 to 4. 前記軌跡断片統合部は、前記軌跡断片間の連続性が最も高い軌跡断片同士のそれぞれに対応付けられた個体IDが異なる場合、当該軌跡断片同士を統合しない、請求項1から請求項5のいずれかに記載の行動軌跡推定装置。 Any of claims 1 to 5, wherein the locus fragment integrating unit does not integrate the locus fragments when the individual IDs associated with each of the locus fragments having the highest continuity between the locus fragments are different. The behavior trajectory estimation device described in Crab. 移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定プログラムであって、
複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、
時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、
前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、
前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、
前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合部と、
してコンピュータを機能させる、行動軌跡推定プログラム。
It is a behavior trajectory estimation program that can estimate the behavior trajectory of a moving body for each individual.
An individual area detection unit that detects the image area occupied by the individual as an individual area in each time-series surveillance image taken by a plurality of surveillance cameras.
A tracking process execution unit that tracks the moving object for each individual by associating individual regions having similar positions, moving directions, and velocities between adjacent surveillance images in chronological order.
A locus fragment acquisition unit that acquires a time-series position coordinate group as a locus fragment in a predetermined coordinate system of an individual region associated with the tracking process execution unit.
An individual feature extraction unit that extracts individual features, which are feature vectors based on the appearance of the individual, from the individual region.
The individual feature extracted by the individual feature extraction unit is compared with the individual feature database in which the individual feature is registered in association with the individual ID that identifies the individual, and the individual ID corresponding to the extracted individual feature is collated. With the individual feature collation unit to acquire
A locus fragment integration unit that integrates the locus fragments having the highest continuity between the locus fragments and outputs them as an action locus for each individual ID.
An action trajectory estimation program that makes a computer function.
移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定方法であって、
複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出ステップと、
時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行ステップと、
前記追跡処理実行ステップで対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出ステップと、
前記個体特徴抽出ステップで抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合ステップと、
前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合ステップと、
を有する、行動軌跡推定方法。
It is a behavior trajectory estimation method that can estimate the behavior trajectory of a moving body for each individual.
An individual area detection step for detecting an image area occupied by an individual as an individual area in each of the time-series surveillance images taken by a plurality of surveillance cameras.
A tracking process execution step for tracking the moving object for each individual by associating individual regions having similar positions, moving directions, and velocities between adjacent monitoring images in a time series.
A locus fragment acquisition unit that acquires a time-series position coordinate group as a locus fragment in a predetermined coordinate system of the individual region associated with the tracking process execution step.
An individual feature extraction step for extracting individual features, which are feature vectors based on the appearance of the individual, from the individual region,
The individual features extracted in the individual feature extraction step are collated with the individual feature database in which the individual features are registered in association with the individual ID that identifies the individual, and the individual ID corresponding to the extracted individual features is collated. And the individual feature matching step to acquire
A locus fragment integration step that integrates the locus fragments having the highest continuity between the locus fragments and outputs them as an action locus for each individual ID.
A method for estimating a behavioral trajectory.
移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定装置であって、
複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、
同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、
前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、
前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、
前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力部と、
を有する、行動軌跡推定装置。
It is a behavior trajectory estimation device that can estimate the behavior trajectory of a moving body for each individual.
An individual area detection unit that detects the image area occupied by the individual as an individual area in each time-series surveillance image taken by a plurality of surveillance cameras.
The moving object is tracked for each individual by associating individual regions having similar positions, moving directions, and velocities between the entire images that are adjacent to each other in the time series among the entire images composed of all the monitoring images taken at the same time. Tracking process execution unit and
A locus fragment acquisition unit that acquires a time-series position coordinate group as a locus fragment in a predetermined coordinate system of an individual region associated with the tracking process execution unit.
An individual feature extraction unit that extracts individual features, which are feature vectors based on the appearance of the individual, from the individual region.
The individual feature extracted by the individual feature extraction unit is compared with the individual feature database in which the individual feature is registered in association with the individual ID that identifies the individual, and the individual ID corresponding to the extracted individual feature is collated. With the individual feature collation unit to acquire
An action locus output unit that outputs the locus fragment as an action locus for each individual ID,
An action locus estimation device.
移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定プログラムであって、
複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、
同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、
前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、
前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、
前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力部と、
してコンピュータを機能させる、行動軌跡推定プログラム。
It is a behavior trajectory estimation program that can estimate the behavior trajectory of a moving body for each individual.
An individual area detection unit that detects the image area occupied by the individual as an individual area in each time-series surveillance image taken by a plurality of surveillance cameras.
The moving object is tracked for each individual by associating individual regions having similar positions, moving directions, and velocities between the entire images that are adjacent to each other in the time series among the entire images composed of all the monitoring images taken at the same time. Tracking process execution unit and
A locus fragment acquisition unit that acquires a time-series position coordinate group as a locus fragment in a predetermined coordinate system of an individual region associated with the tracking process execution unit.
An individual feature extraction unit that extracts individual features, which are feature vectors based on the appearance of the individual, from the individual region.
The individual feature extracted by the individual feature extraction unit is compared with the individual feature database in which the individual feature is registered in association with the individual ID that identifies the individual, and the individual ID corresponding to the extracted individual feature is collated. With the individual feature collation unit to acquire
An action locus output unit that outputs the locus fragment as an action locus for each individual ID,
An action trajectory estimation program that makes a computer function.
移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定方法であって、
複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出ステップと、
同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行ステップと、
前記追跡処理実行ステップで対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出ステップと、
前記個体特徴抽出ステップで抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合ステップと、
前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力ステップと、
を有する、行動軌跡推定方法。
It is a behavior trajectory estimation method that can estimate the behavior trajectory of a moving body for each individual.
An individual area detection step for detecting an image area occupied by an individual as an individual area in each of the time-series surveillance images taken by a plurality of surveillance cameras.
The moving object is tracked for each individual by associating individual regions having similar positions, moving directions, and velocities between the entire images that are adjacent to each other in the time series among the entire images composed of all the monitoring images taken at the same time. Tracking process execution step and
A locus fragment acquisition unit that acquires a time-series position coordinate group as a locus fragment in a predetermined coordinate system of the individual region associated with the tracking process execution step.
An individual feature extraction step for extracting individual features, which are feature vectors based on the appearance of the individual, from the individual region,
The individual features extracted in the individual feature extraction step are collated with the individual feature database in which the individual features are registered in association with the individual ID that identifies the individual, and the individual ID corresponding to the extracted individual features is collated. And the individual feature matching step to acquire
An action locus output step that outputs the locus fragment as an action locus for each individual ID,
A method for estimating a behavioral trajectory.
JP2021166583A 2020-10-30 2021-10-11 Action trajectory estimation device, action trajectory estimation program, and action trajectory estimation method Active JP7211601B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020182950 2020-10-30
JP2020182950 2020-10-30

Publications (2)

Publication Number Publication Date
JP2022074009A true JP2022074009A (en) 2022-05-17
JP7211601B2 JP7211601B2 (en) 2023-01-24

Family

ID=81604220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021166583A Active JP7211601B2 (en) 2020-10-30 2021-10-11 Action trajectory estimation device, action trajectory estimation program, and action trajectory estimation method

Country Status (1)

Country Link
JP (1) JP7211601B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055139A (en) * 2007-08-23 2009-03-12 Hitachi Kokusai Electric Inc Person tracking system, apparatus, and program
JP2012185769A (en) * 2011-03-08 2012-09-27 Canon Inc Authentication device, authentication method, authentication program, and storage medium
JP2014225082A (en) * 2013-05-15 2014-12-04 富士通株式会社 Monitoring system, program and method
JP2017011598A (en) * 2015-06-25 2017-01-12 株式会社日立国際電気 Monitoring system
JP2019194857A (en) * 2018-05-04 2019-11-07 キヤノン株式会社 Object tracking method and device
JP2020107349A (en) * 2014-09-26 2020-07-09 日本電気株式会社 Object tracking device, object tracking system, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055139A (en) * 2007-08-23 2009-03-12 Hitachi Kokusai Electric Inc Person tracking system, apparatus, and program
JP2012185769A (en) * 2011-03-08 2012-09-27 Canon Inc Authentication device, authentication method, authentication program, and storage medium
JP2014225082A (en) * 2013-05-15 2014-12-04 富士通株式会社 Monitoring system, program and method
JP2020107349A (en) * 2014-09-26 2020-07-09 日本電気株式会社 Object tracking device, object tracking system, and program
JP2017011598A (en) * 2015-06-25 2017-01-12 株式会社日立国際電気 Monitoring system
JP2019194857A (en) * 2018-05-04 2019-11-07 キヤノン株式会社 Object tracking method and device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伊藤 誠也: "共可視特徴に基づく複数カメラ間の人物同定", 画像電子学会誌 VOL.45 NO.3 2016, vol. 45, no. 3, JPN6022044287, 31 July 2016 (2016-07-31), JP, pages 382 - 391, ISSN: 0004906386 *

Also Published As

Publication number Publication date
JP7211601B2 (en) 2023-01-24

Similar Documents

Publication Publication Date Title
Jun et al. Estimating pig weights from images without constraint on posture and illumination
US10080513B2 (en) Activity analysis, fall detection and risk assessment systems and methods
JP6000602B2 (en) Body detection method and object detection apparatus
WO2020042419A1 (en) Gait-based identity recognition method and apparatus, and electronic device
JP6969611B2 (en) Information processing systems, control methods, and programs
US9408561B2 (en) Activity analysis, fall detection and risk assessment systems and methods
RU2546327C1 (en) Human tracking device, human tracking method and non-temporary computer-readable medium storing human tracking programme
Leroy et al. A computer vision method for on-line behavioral quantification of individually caged poultry
JP6666488B2 (en) Image extraction device
JP2018097492A (en) Image processing device, system, method and program
JP6915904B2 (en) Interpretation system for cow riding behavior
JP2018206321A (en) Image processing device, image processing method and image processing program
JP6503079B2 (en) Specific person detection system, specific person detection method and detection device
Zheng et al. Cows' legs tracking and lameness detection in dairy cattle using video analysis and Siamese neural networks
JP5940862B2 (en) Image processing device
CN110738650B (en) Infectious disease infection identification method, terminal device and storage medium
JP5001808B2 (en) Crime prevention device and crime prevention program
JP2011113313A (en) Attitude estimation device
JP2017205135A (en) Individual identification device, individual identification method, and individual identification program
CN104335577B (en) Information processing equipment, information processing method and surveillance camera system
JP2017205134A (en) Body condition detection device, body condition detection method, and body condition detection program
Nouredanesh et al. Chasing feet in the wild: a proposed egocentric motion-aware gait assessment tool
JP2021089778A (en) Information processing apparatus, information processing method, and program
JP7211601B2 (en) Action trajectory estimation device, action trajectory estimation program, and action trajectory estimation method
CN112132110A (en) Method for intelligently judging human body posture and nursing equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20211011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221228

R150 Certificate of patent or registration of utility model

Ref document number: 7211601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150