JP2022074009A - Behavior trajectory estimation device, behavior trajectory estimation program, and behavior trajectory estimation method - Google Patents
Behavior trajectory estimation device, behavior trajectory estimation program, and behavior trajectory estimation method Download PDFInfo
- Publication number
- JP2022074009A JP2022074009A JP2021166583A JP2021166583A JP2022074009A JP 2022074009 A JP2022074009 A JP 2022074009A JP 2021166583 A JP2021166583 A JP 2021166583A JP 2021166583 A JP2021166583 A JP 2021166583A JP 2022074009 A JP2022074009 A JP 2022074009A
- Authority
- JP
- Japan
- Prior art keywords
- individual
- locus
- unit
- feature
- fragment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、動物や人間等の移動体を複数の監視カメラで広域監視するのに好適な行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法に関するものである。 The present invention relates to a behavior trajectory estimation device, a behavior trajectory estimation program, and a behavior trajectory estimation method suitable for wide-area monitoring of moving objects such as animals and humans with a plurality of surveillance cameras.
従来、乳牛等の動物を監視する方法としては、人が直接監視する方法、家畜にセンサを取り付けて監視する方法、および監視カメラによって監視する方法等が知られている。例えば、特開2019-24482号公報には、空間情報(赤外画像等)から検出した物体情報(牛の輪郭情報等)と、互いに接触している牛の配置情報(個体識別情報等)とから生成した牛の行動情報(歩行距離、立位・座位・横臥時間、接触回数等)に基づいて、牛の異常行動を判定する技術が提案されている(特許文献1)。 Conventionally, as a method of monitoring an animal such as a dairy cow, a method of directly monitoring by a human, a method of attaching a sensor to a livestock for monitoring, a method of monitoring with a surveillance camera, and the like are known. For example, Japanese Patent Application Laid-Open No. 2019-24482 describes object information (cow contour information, etc.) detected from spatial information (infrared image, etc.) and cow placement information (individual identification information, etc.) in contact with each other. A technique for determining abnormal behavior of a cow based on the behavior information of the cow (walking distance, standing / sitting / lying time, number of contacts, etc.) generated from the above has been proposed (Patent Document 1).
しかしながら、近年は酪農の大規模化が進んでおり、フリーストール牛舎やフリーバーン牛舎のように、広い牛舎内で数百頭以上の牛を自由に行動させながら飼育する方法が主流となってきている。このため、人が直接監視する方法では、全ての牛を個体ごとに混同することなく十分に監視し、体調等を管理することは困難である。 However, in recent years, the scale of dairy farming has been increasing, and the mainstream method is to raise hundreds or more cows in a large barn while freely moving them, such as the free stall barn and the free burn barn. There is. For this reason, it is difficult to sufficiently monitor all cows without confusing them and manage their physical condition, etc. by the method of direct monitoring by humans.
また、家畜にセンサを取り付けて監視する方法では、全頭分のセンサを用意する必要があるため、大規模な牛舎になるほどコストがかさむ。また、センサが脱落、破損、電池切れ等するたびに、その牛を探し出して交換等する必要があり、メンテナンスにも手間と費用が掛かる。さらに、牛は何でも飲み込んでしまう習性があるため、脱落したセンサや電池を餌と一緒に飲み込んでしまう危険性もある。 In addition, in the method of attaching sensors to livestock for monitoring, it is necessary to prepare sensors for all the animals, so the larger the barn, the higher the cost. In addition, every time the sensor falls off, is damaged, or the battery runs out, it is necessary to find and replace the cow, which is troublesome and costly for maintenance. In addition, cows have a habit of swallowing anything, so there is a risk of swallowing a dropped sensor or battery with food.
さらに、監視カメラによって監視する方法については、特許文献1のように、狭い牛房内で少数頭の牛を監視するシステムでは、多数頭の広域監視に対応できないという問題がある。また、広域監視を実現するために、広角レンズを備えた監視カメラを使用すると、画像中の牛の位置や牛の姿勢によって見え方が大きく変化してしまう。このため、広角画像から牛を個体ごとに識別することが困難となり、個体ごとの行動軌跡を正しく推定することができないという問題がある。
Further, regarding the method of monitoring by a surveillance camera, there is a problem that a system for monitoring a small number of cows in a narrow cow cell, as in
本発明は、このような問題点を解決するためになされたものであって、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定することができる行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法を提供することを目的としている。 The present invention has been made to solve such a problem, and while realizing wide-area monitoring of a large number of moving objects, the moving objects are identified for each individual with high accuracy, and the behavioral trajectory of each individual is achieved. It is an object of the present invention to provide a behavior locus estimation device, a behavior locus estimation program, and a behavior locus estimation method capable of accurately estimating.
本発明に係る行動軌跡推定装置は、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定装置であって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合部と、を有する。 The behavior trajectory estimation device according to the present invention solves the problem of identifying a moving object for each individual with high accuracy and correctly estimating the behavior trajectory for each individual while realizing wide area monitoring of a large number of moving objects. , A behavior trajectory estimation device that can estimate the behavior trajectory of a moving object for each individual, and detects the image area occupied by the individual as an individual area in each surveillance image of the time series taken by a plurality of surveillance cameras. A tracking process execution unit that tracks the moving object for each individual by associating an individual area detection unit and an individual region having a similar position, movement direction, and speed between adjacent surveillance images in time series, and the tracking process execution unit. A locus fragment acquisition unit that acquires a time-series position coordinate group in a predetermined coordinate system of an individual region associated with the unit as a locus fragment, and an individual feature that is a feature vector based on the appearance of the individual is extracted from the individual region. The individual characteristics extracted by the individual characteristics extraction unit, the individual characteristics extracted by the individual characteristics extraction unit, and the individual characteristics database in which the individual characteristics are registered in association with the individual ID that identifies the individual are collated and extracted. An individual characteristic collation unit that acquires an individual ID corresponding to an individual characteristic, and a locus fragment integration unit that integrates the locus fragments having the highest continuity between the locus fragments and outputs them as an action locus for each individual ID. Have.
また、本発明の一態様として、個体ごとの識別精度が低下するのを抑制するという課題を解決するために、前記個体領域に含まれる移動体の姿勢を推定する移動体姿勢推定部を有しており、前記個体特徴抽出部は、前記個体を識別するのに適した姿勢の移動体を含む個体領域のみから前記個体特徴を抽出してもよい。 Further, as one aspect of the present invention, there is a moving body posture estimation unit that estimates the posture of the moving body included in the individual region in order to solve the problem of suppressing the deterioration of the identification accuracy for each individual. The individual feature extraction unit may extract the individual feature only from the individual region including the moving body in a posture suitable for identifying the individual.
さらに、本発明の一態様として、簡易的に移動体の姿勢を高精度に推定するという課題を解決するために、前記監視カメラごとに、移動体の姿勢を推定可能な姿勢推定可能領域と、前記姿勢推定可能領域に存在する移動体がとることの多い姿勢とが設定されており、前記移動体姿勢推定部は、前記個体領域が前記姿勢推定可能領域に含まれる場合、当該姿勢推定可能領域に対応付けられた姿勢を前記個体領域に含まれる移動体の姿勢として推定してもよい。 Further, as one aspect of the present invention, in order to solve the problem of easily estimating the posture of the moving body with high accuracy, a posture estimable region in which the posture of the moving body can be estimated is provided for each surveillance camera. A posture that is often taken by a moving body existing in the posture estimable region is set, and the moving body posture estimation unit is in the posture estimable region when the individual region is included in the posture estimable region. The posture associated with the above may be estimated as the posture of the moving body included in the individual region.
また、本発明の一態様として、個体の識別精度を向上するという課題を解決するために、前記行動軌跡に基づいて、前記個体IDごとに、前記監視画像から前記個体領域を切り出して移動体画像列を取得し、各移動体画像の個体特徴を抽出して前記個体特徴データベースに追加する個体特徴追加部を有していてもよい。 Further, as one aspect of the present invention, in order to solve the problem of improving the identification accuracy of an individual, a moving body image is obtained by cutting out the individual region from the monitoring image for each individual ID based on the action locus. It may have an individual feature addition part that acquires a column, extracts an individual feature of each moving object image, and adds it to the individual feature database.
さらに、本発明の一態様として、個体ごとの行動軌跡を高精度に推定するという課題を解決するために、前記軌跡断片統合部は、前記軌跡断片間における時間的な連続性、空間的な連続性および個体特徴間の類似性に基づいて、前記軌跡断片間の連続性が最も高い軌跡断片を特定してもよい。 Further, as one aspect of the present invention, in order to solve the problem of estimating the action locus of each individual with high accuracy, the locus fragment integration unit has temporal continuity and spatial continuity between the locus fragments. The locus fragment with the highest continuity between the locus fragments may be identified based on the similarity between sex and individual characteristics.
また、本発明の一態様として、外見が似ている個体同士であっても、異なる個体の軌跡断片同士を誤って統合するのを防止するという課題を解決するために、前記軌跡断片統合部は、前記軌跡断片間の連続性が最も高い軌跡断片同士のそれぞれに対応付けられた個体IDが異なる場合、当該軌跡断片同士を統合しないようにしてもよい。 Further, as one aspect of the present invention, in order to solve the problem of preventing erroneous integration of locus fragments of different individuals even among individuals having similar appearances, the locus fragment integration unit is used. If the individual IDs associated with the locus fragments having the highest continuity between the locus fragments are different, the locus fragments may not be integrated.
本発明に係る行動軌跡推定プログラムは、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定プログラムであって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合部と、してコンピュータを機能させる。 The behavior trajectory estimation program according to the present invention solves the problem of identifying a moving object for each individual with high accuracy and correctly estimating the behavior trajectory of each individual while realizing wide-area monitoring of a large number of moving objects. , A behavior trajectory estimation program that can estimate the behavior trajectory of a moving object for each individual, and detects the image area occupied by the individual as an individual area in each surveillance image of the time series taken by a plurality of surveillance cameras. A tracking process execution unit that tracks the moving object for each individual by associating an individual area detection unit and an individual region having a similar position, movement direction, and speed between adjacent surveillance images in time series, and the tracking process execution unit. A locus fragment acquisition unit that acquires a time-series position coordinate group in a predetermined coordinate system of an individual region associated with the unit as a locus fragment, and an individual feature that is a feature vector based on the appearance of the individual is extracted from the individual region. The individual characteristics extracted by the individual characteristics extraction unit, the individual characteristics extracted by the individual characteristics extraction unit, and the individual characteristics database in which the individual characteristics are registered in association with the individual ID that identifies the individual are collated and extracted. An individual characteristic collation unit that acquires an individual ID corresponding to an individual characteristic, and a locus fragment integration unit that integrates the locus fragments having the highest continuity between the locus fragments and outputs them as an action locus for each individual ID. To make the computer work.
本発明に係る行動軌跡推定方法は、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定方法であって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出ステップと、時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行ステップと、前記追跡処理実行ステップで対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出ステップと、前記個体特徴抽出ステップで抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合ステップと、前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合ステップと、を有する。 The behavior trajectory estimation method according to the present invention solves the problem of identifying a moving object for each individual with high accuracy and correctly estimating the behavior trajectory for each individual while realizing wide-area monitoring of a large number of moving objects. , A behavior trajectory estimation method that can estimate the behavior trajectory of a moving object for each individual, and detects the image area occupied by the individual as an individual area in each surveillance image of the time series taken by a plurality of surveillance cameras. A tracking process execution step for tracking the moving object for each individual and a tracking process execution for each individual by associating the individual area detection step with individual areas having similar positions, movement directions, and speeds between adjacent surveillance images in time series. A locus fragment acquisition unit that acquires a time-series position coordinate group in a predetermined coordinate system of an individual region associated with a step as a locus fragment, and an individual feature that is a feature vector based on the appearance of the individual is extracted from the individual region. The individual feature extraction step, the individual feature extracted in the individual feature extraction step, and the individual feature database in which the individual feature is registered in association with the individual ID that identifies the individual are collated and extracted. An individual characteristic collation step for acquiring an individual ID corresponding to an individual characteristic, and a locus fragment integration step for integrating the locus fragments having the highest continuity between the locus fragments and outputting them as an action locus for each individual ID. Have.
本発明に係る行動軌跡推定装置は、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するとともに、当該推定演算に係る処理効率を向上するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定装置であって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力部と、を有する。 The behavior trajectory estimation device according to the present invention identifies a moving object for each individual with high accuracy while realizing wide area monitoring of a large number of moving objects, correctly estimates the behavior trajectory for each individual, and relates to the estimation calculation. In order to solve the problem of improving processing efficiency, it is a behavior trajectory estimation device that can estimate the behavior trajectory of a moving object for each individual, and in each surveillance image of the time series taken by a plurality of surveillance cameras. Of the entire image consisting of the individual area detection unit that detects the image area occupied by the individual as the individual area and all the monitoring images taken at the same time, the position, movement direction, and position / movement direction between the adjacent overall images in time series. By associating individual areas with similar speeds, a tracking process execution unit that tracks the moving object for each individual and a time-series position coordinate group in a predetermined coordinate system of the individual area associated with the tracking process execution unit A locus fragment acquisition unit acquired as a locus fragment, an individual feature extraction unit that extracts an individual feature that is a feature vector based on the appearance of the individual from the individual region, an individual feature extracted by the individual feature extraction unit, and the above-mentioned individual characteristics. The individual characteristic collating unit that collates with the individual characteristic database in which the individual characteristics are registered in association with the individual ID that identifies the individual and acquires the individual ID corresponding to the extracted individual characteristics, and the locus fragment are described above. It has an action locus output unit that outputs as an action locus for each individual ID.
本発明に係る行動軌跡推定プログラムは、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するとともに、当該推定演算に係る処理効率を向上するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定プログラムであって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力部と、してコンピュータを機能させる。 The behavior trajectory estimation program according to the present invention identifies a moving object for each individual with high accuracy while realizing wide-area monitoring of a large number of moving objects, correctly estimates the behavior trajectory for each individual, and relates to the estimation calculation. In order to solve the problem of improving processing efficiency, it is a behavior trajectory estimation program that can estimate the behavior trajectory of a moving body for each individual, and in each surveillance image of the time series taken by multiple surveillance cameras. Of the entire image consisting of the individual area detection unit that detects the image area occupied by the individual as the individual area and all the monitoring images taken at the same time, the position, movement direction, and position / movement direction between the adjacent overall images in time series. By associating individual regions with similar speeds, a tracking process execution unit that tracks the moving body for each individual and a time-series position coordinate group in a predetermined coordinate system of the individual region associated with the tracking processing execution unit A locus fragment acquisition unit acquired as a locus fragment, an individual feature extraction unit that extracts an individual feature that is a feature vector based on the appearance of the individual from the individual region, an individual feature extracted by the individual feature extraction unit, and the above-mentioned individual characteristics. The individual characteristic collating unit that collates with the individual characteristic database in which the individual characteristics are registered in association with the individual ID that identifies the individual and acquires the individual ID corresponding to the extracted individual characteristics, and the locus fragment are described above. The computer functions as an action locus output unit that outputs an action locus for each individual ID.
本発明に係る行動軌跡推定方法は、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するとともに、当該推定演算に係る処理効率を向上するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定方法であって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出ステップと、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行ステップと、前記追跡処理実行ステップで対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出ステップと、前記個体特徴抽出ステップで抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合ステップと、前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力ステップと、を有する。 The behavior trajectory estimation method according to the present invention identifies a moving object for each individual with high accuracy while realizing wide-area monitoring of a large number of moving objects, correctly estimates the behavior trajectory for each individual, and relates to the estimation calculation. In order to solve the problem of improving processing efficiency, it is a behavior trajectory estimation method that can estimate the behavior trajectory of a moving object for each individual, and in each surveillance image of the time series taken by a plurality of surveillance cameras. Of the whole image consisting of the individual area detection step of detecting the image area occupied by the individual as the individual area and all the monitoring images taken at the same time, the position, the movement direction, and the position / movement direction / By associating individual regions with similar speeds, a tracking process execution step for tracking the moving object for each individual and a time-series position coordinate group in a predetermined coordinate system of the individual region associated with the tracking process execution step are The locus fragment acquisition unit acquired as a locus fragment, an individual feature extraction step for extracting an individual feature which is a feature vector based on the appearance of the individual from the individual region, an individual feature extracted in the individual feature extraction step, and the above-mentioned The individual characteristic collation step of collating with the individual characteristic database in which the individual characteristics are registered in association with the individual ID for identifying the individual and acquiring the individual ID corresponding to the extracted individual characteristics, and the locus fragment are described above. It has an action locus output step that outputs as an action locus for each individual ID.
本発明によれば、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定することができる。 According to the present invention, while realizing wide-area monitoring of a large number of moving objects, it is possible to identify the moving objects for each individual with high accuracy and correctly estimate the behavioral trajectory of each individual.
以下、本発明に係る行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法の実施形態について図面を用いて説明する。 Hereinafter, embodiments of the action trajectory estimation device, the action trajectory estimation program, and the action trajectory estimation method according to the present invention will be described with reference to the drawings.
本第1実施形態では、図1に示すように、フリーストール牛舎やフリーバーン牛舎のように、広い牛舎内で飼育される多数頭の乳牛を複数の監視カメラ11で監視し、各監視カメラ11の映像から本第1実施形態の行動軌跡推定装置1、行動軌跡推定プログラム1bおよび行動軌跡推定方法を用いて個体ごとの行動軌跡を推定する場合を例として説明する。なお、本第1実施形態では、監視対象の移動体として乳牛を想定しているが、これに限定されるものではなく、他の動物や人間の他、車等のように動くもの全てが本発明に係る移動体に含まれる。
In the first embodiment, as shown in FIG. 1, a large number of dairy cows raised in a large barn, such as a free stall barn and a free burn barn, are monitored by a plurality of
本第1実施形態において、行動軌跡推定装置1は、パーソナルコンピュータ、スマートフォンまたはタブレット等のコンピュータによって構成されており、図2に示すように、主として、表示手段2と、入力手段3と、記憶手段4と、演算処理手段5とを有している。また、行動軌跡推定装置1には、上述した複数の監視カメラ11が接続されている。以下、各構成手段について詳細に説明する。
In the first embodiment, the action
監視カメラ11は、監視しようとする移動体を撮影するものである。本第1実施形態において、監視カメラ11は、図1に示すように、牛舎の天井に複数台固定されており、数秒に一枚程度の間隔で時系列の監視画像を撮影するようになっている。また、本第1実施形態において、監視カメラ11は、動画の1フレームを監視画像として出力する動画カメラによって構成されているが、間欠的に監視画像を撮影する静止画カメラであってもよい。
The
なお、監視カメラ11の台数は、監視対象となる牛舎の広さや天井の高さによって調整する必要がある。また、監視カメラ11は夜間撮影時の感度を高めるために近赤外カメラとしてもよい。さらに、行動軌跡推定装置1と監視カメラ11との接続はバス接続に限定されるものではなく、イーサネット(登録商標)等の有線ネットワークや、Wi-Fi(登録商標)等の無線ネットワークによって接続されていてもよい。
The number of
表示手段2は、液晶ディスプレイ等で構成されており、行動軌跡推定装置1により推定された行動軌跡等を表示するものである。入力手段3は、キーボードやマウス等で構成されており、ユーザによる指示や選択を入力するものである。なお、これら表示手段2および入力手段3に代えて、表示機能および入力機能を兼ね備えたタッチパネル等の表示入力手段を有していてもよい。
The display means 2 is composed of a liquid crystal display or the like, and displays the action locus or the like estimated by the action
記憶手段4は、各種のデータを記憶するとともに、演算処理手段5が演算処理を行う際のワーキングエリアとして機能するものである。本第1実施形態において、記憶手段4は、ハードディスク、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等で構成されており、図2に示すように、プログラム記憶部41と、個体特徴データベース42と、軌跡断片バッファ43と、姿勢推定データベース44と、行動軌跡データベース45とを有している。以下、各構成部についてより詳細に説明する。
The storage means 4 stores various data and functions as a working area when the arithmetic processing means 5 performs arithmetic processing. In the first embodiment, the storage means 4 is composed of a hard disk, a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, and the like, and as shown in FIG. 2, the
プログラム記憶部41には、本第1実施形態の行動軌跡推定装置1が有する三つの機能、すなわち個体特徴登録機能、行動軌跡推定機能および個体特徴追加機能のそれぞれを実行するための個体特徴登録プログラム1a、行動軌跡推定プログラム1bおよび個体特徴追加プログラム1cがインストールされている。そして、演算処理手段5が、各プログラムを実行することにより、行動軌跡推定装置1としてのコンピュータを後述する各構成部として機能させるようになっている。
The
なお、個体特徴登録プログラム1a、行動軌跡推定プログラム1bおよび個体特徴追加プログラム1cの利用形態は、上記構成に限られるものではない。例えば、CD-ROMやDVD-ROM等のように、コンピュータで読み取り可能な非一時的な記録媒体に各プログラムを記憶させておき、当該記録媒体から直接読み出して実行してもよい。また、外部サーバ等からクラウドコンピューティング方式やASP(Application Service Provider)方式で利用してもよい。
The usage patterns of the individual
個体特徴データベース42は、監視対象にしようとする移動体の個体ごとに、当該個体の外見に基づく特徴ベクトルである個体特徴を予め登録するものである。本第1実施形態において、個体特徴データベース42には、図3に示すように、個体を識別する個体IDに対応付けて、後述する個体特徴登録部51によって抽出される個体特徴と、当該個体特徴の抽出に用いた画像ファイル名とが格納される。
The individual
なお、個体特徴データベース42においては、後述する個体特徴照合部58が最近傍の個体特徴を高速に検索する必要があるため、最近傍探索用のインデックス(直積量子化、ハッシュインデックス、kdツリーインデックス等)を作成しておくことが好ましい。また、個体特徴データベース42は、個体の入れ替え等に伴って、個体特徴を削除したり、更新する機能を有していてもよい。
In the
軌跡断片バッファ43は、個体ごとの行動軌跡の一部を構成する軌跡断片を所定時間分(数時間から一日分)ずつバッファして保存するものである。本第1実施形態において、軌跡断片バッファ43は、図4に示すように、軌跡断片を識別する軌跡断片IDに対応付けて、軌跡断片を取得した監視カメラ11のカメラ番号と、軌跡断片を取得した時刻と、個体が占める画像領域である個体領域(画像座標系における二次元座標値)と、乳牛の位置(牛舎座標系における二次元座標値)と、個体特徴(特徴ベクトル)と、個体IDとが保存されている。
The
なお、本第1実施形態において、個体領域は、後述する個体領域検出部53によって検出されるものであり、図5に示すように、監視画像内において個体が占める矩形の画像領域として検出される。そして、当該画像領域の対角をなす二点の位置座標(画像座標系における二次元座標値)が個体領域として保存される。また、乳牛の位置は、後述するとおり、画像座標系における個体領域の中心点を牛舎座標系における二次元点に変換したものである。しかしながら、軌跡断片は、上記に限定されるものではなく、少なくとも所定の座標系における個体領域の時系列の位置座標群を含むものであればよい。
In the first embodiment, the individual region is detected by the individual
姿勢推定データベース44は、後述する移動体姿勢推定部56が姿勢を推定する際に使用するデータを保存するものである。本第1実施形態において、姿勢推定データベース44には、図6に示すように、監視に使用する監視カメラ11のカメラ番号に対応付けて、移動体の姿勢を推定可能な姿勢推定可能領域(画像座標系の二次元座標値)と、当該姿勢推定可能領域に存在する移動体がとることの多い姿勢とが設定されている。
The
なお、姿勢推定可能領域は、牛舎のレイアウトに基づいて設定される。具体的には、図5の監視画像を例に説明すると、画像の上半分にはベッドが配置されており、横臥状態(肢を投げ出し横倒しの姿勢)や伏臥状態(膝を下ろし、胸を起こした姿勢)の乳牛が写っている。一方、画像の下半分には餌場が配置されており、起立状態で飼料を食べている採食状態の乳牛が写っている。さらに、画像の中央部には通路が配置されており、歩行中の乳牛が写っている。このように牛舎のレイアウトは決まっており、監視カメラ11も固定されているため、監視カメラ11ごとに、予め個体を識別するのに適した姿勢をとることが多い領域を姿勢推定能領域として設定することができる。
The posture estimable area is set based on the layout of the barn. Specifically, to explain the monitoring image of FIG. 5 as an example, a bed is arranged in the upper half of the image, and a lying state (a posture in which a limb is thrown out and lying down) or a prone state (a knee is lowered and a chest is raised). The dairy cow in the posture) is shown. On the other hand, a feeding area is located in the lower half of the image, showing a foraging dairy cow eating feed while standing. In addition, a passage is located in the center of the image, showing a walking cow. Since the layout of the barn is fixed in this way and the
行動軌跡データベース45は、後述する軌跡断片統合部59から出力される個体IDごとの行動軌跡を保存するものである。本第1実施形態において、行動軌跡データベース45には、図7に示すように、行動軌跡を識別する行動軌跡IDに対応付けて、監視カメラ11のカメラ番号と、撮影時刻と、個体領域(画像座標系における二次元座標値)と、牛の位置(牛舎座標系における二次元座標値)と、個体特徴(特徴ベクトル)と、個体IDとが保存される。すなわち、軌跡断片バッファ43に格納される個体IDは、軌跡断片が統合される前の仮の個体IDであるが、後述する軌跡断片統合部59によって各軌跡断片が統合されると、最終的な個体IDとして行動軌跡データベース45に登録される。
The
つぎに、演算処理手段5は、CPU(Central Processing Unit)等で構成されており、記憶手段4にインストールされた各プログラムを実行することにより、行動軌跡推定装置1に各種の機能を発揮させるものである。具体的には、図2に示すように、演算処理手段5は、個体特徴登録プログラム1aを実行することにより、個体特徴登録機能を発揮する個体特徴登録部51として機能する。
Next, the arithmetic processing means 5 is composed of a CPU (Central Processing Unit) or the like, and by executing each program installed in the storage means 4, the action
また、演算処理手段5は、行動軌跡推定プログラム1bを実行することにより、行動軌跡推定機能を発揮させる監視画像取得部52と、個体領域検出部53と、追跡処理実行部54と、軌跡断片取得部55と、移動体姿勢推定部56と、個体特徴抽出部57と、個体特徴照合部58と、軌跡断片統合部59として機能する。さらに、演算処理手段5は、個体特徴追加プログラム1cを実行することにより、個体特徴追加機能を発揮させる個体特徴追加部60として機能する。以下、各機能ごとの構成部についてより詳細に説明する。
Further, the arithmetic processing means 5 executes the action
(1)個体特徴登録機能
個体特徴登録機能は、個体IDに対応付けて、個体の外見に基づく特徴ベクトルである個体特徴を個体特徴データベース42に事前登録する機能であり、個体特徴登録部51によって機能される。
(1) Individual feature registration function The individual feature registration function is a function for pre-registering individual features, which are feature vectors based on the appearance of an individual, in the
本第1実施形態において、個体特徴登録部51は、まず、静止画カメラや動画カメラ等を用いて、新規登録しようとする乳牛の画像群を取得する。例えば、図8に示すような撮影枠に複数のカメラを固定するとともに通過センサや近接センサ等のセンサを設置し、乳牛が通過するタイミングでシャッターが切れるように制御することで、乳牛の全身が画面に収まるタイミングで複数の方向から撮影された画像群が取得される。
In the first embodiment, the individual
なお、個体特徴を登録する際に使用するカメラは、一般的なRGBカメラではなく、深度情報を取得可能なデプスカメラを使用することもできる。デプスカメラによって取得される深度データ付きRGB画像からは、乳牛の三次元モデルが作成される。また、当該三次元モデルを複数の方向から撮影した画像をコンピュータグラフィックスでレンダリングすることで多方向から乳牛を撮影した多視点画像データが生成される。そして、当該多視点画像データから個体特徴を抽出して個体特徴データベース42に登録することで、個体の識別精度を高めることができる。
The camera used when registering the individual characteristics is not a general RGB camera, but a depth camera capable of acquiring depth information can also be used. A three-dimensional model of a dairy cow is created from an RGB image with depth data acquired by a depth camera. Further, by rendering an image of the three-dimensional model taken from a plurality of directions with computer graphics, multi-viewpoint image data of a dairy cow taken from multiple directions is generated. Then, by extracting individual features from the multi-viewpoint image data and registering them in the
つぎに、個体特徴登録部51は、個体を識別するための個体IDを取得する。本第1実施形態において、個体特徴登録部51は、乳牛の首輪や耳標に付与されている個体IDを無線センサやカメラを用いて読み取ることで取得する。あるいは、人間が耳標等に付与されている個体IDを目視で確認し、入力手段3から入力された個体IDを個体特徴登録部51が取得してもよい。
Next, the individual
つづいて、個体特徴登録部51は、カメラで撮影した画像群から、乳牛の斑紋パターン、毛色、体型などの外見を表す特徴ベクトルを算出し、個体特徴として抽出する。個体特徴の抽出方法は、特に限定されるものではないが、畳み込みニューラルネットワーク(Convolutional Neural Network;CNN)等の機械学習モデルを用いて、入力画像から実数値を要素として持つベクトル(例えば2048次元)を算出してもよい。CNNのフィルタの重みパラメータを予め学習によって最適化しておくことで、個体識別の精度を高めることができる。重みパラメータは、教師データに対する交差エントロピー損失やトリプレット損失などを最小化するように調整する。
Subsequently, the individual
ここで、個体特徴を登録する際に使用する画像の模式図を図9に示す。乳牛を真上から下向きに撮影したカメラ1の画像では、背中の斑紋が写されている。一方、乳牛を上後方から撮影したカメラ2の画像では、臀部の斑紋が写されいてる。カメラ1,2の画像において共通する斑紋もあるが、一方のカメラにしか写っていない斑紋も存在する。また、撮影方向によって同一の斑紋も見え方が変化する。よって、個体特徴を抽出する際は、乳牛の全身の斑紋パターンをデータベース化するために、多方向から撮影した多視点画像を使用することが望ましい。
Here, FIG. 9 shows a schematic diagram of an image used when registering individual characteristics. The image of the
なお、一台のカメラで一度に乳牛の全身の斑紋を撮影することは困難である。よって、複数台のカメラから生成した多視点画像を入力とし、斑紋パターンを数値化することで個体識別の精度の向上が期待できる。また、複数の画像から個体特徴を抽出する場合は、全ての画像に対してCNNを用いて特徴ベクトルを算出し、各特徴ベクトルの要素毎の平均または最大値を特徴ベクトルとしてもよい。 It is difficult to photograph the whole body of a dairy cow with one camera at a time. Therefore, it can be expected that the accuracy of individual identification will be improved by inputting multi-viewpoint images generated from a plurality of cameras and quantifying the mottled pattern. Further, when extracting individual features from a plurality of images, a feature vector may be calculated using CNN for all the images, and the average or maximum value of each element of each feature vector may be used as the feature vector.
最後に、個体特徴登録部51は、入力された全ての画像について個体特徴を抽出し、個体IDに対応付けて個体特徴データベース42に登録する。また、個体特徴登録部51は、監視しようとする全ての乳牛について個体特徴を抽出し、個体IDに対応付けて個体特徴データベース42に登録する。
Finally, the individual
(2)行動軌跡推定機能
行動軌跡推定機能は、監視カメラ11の監視画像から乳牛を個体ごとに識別し、個体ごとの行動軌跡を推定する機能であり、監視画像取得部52と、個体領域検出部53と、追跡処理実行部54と、軌跡断片取得部55と、移動体姿勢推定部56と、個体特徴抽出部57と、個体特徴照合部58と、軌跡断片統合部59とによって機能される。
(2) Behavior trajectory estimation function The behavior trajectory estimation function is a function for identifying a dairy cow for each individual from the surveillance image of the
監視画像取得部52は、複数の監視カメラ11から時系列の監視画像を取得するものである。本第1実施形態において、監視画像取得部52は、各監視カメラ11から数秒に一枚程度の間隔で時系列の監視画像を取得し、各監視カメラ11を識別するカメラ番号と、撮影時刻とを対応付けるようになっている。
The surveillance
個体領域検出部53は、複数の監視カメラ11で撮影された時系列の各監視画像内において、個体が占める画像領域を個体領域として検出するものである。本第1実施形態において、個体領域検出部53は、図5に示すように、監視画像取得部52によって取得された監視画像に写っている乳牛を個体ごとに検出し、各個体に外接する矩形の画像領域を個体領域として検出する。
The individual
本第1実施形態において、個体領域検出部53は、Faster R-CNNやMask R-CNN等の深層学習ベースの物体検出器を用いて個体領域を検出しているが、これに限定されるものではなく他の画像処理等によって検出してもよい。また、本第1実施形態では、個体領域を矩形形状として表現しているが、この形状に限定されるものではなく、多角形(ポリゴン)や円形等で表現してもよい。
In the first embodiment, the individual
追跡処理実行部54は、監視画像内の移動体を個体ごとに追跡するものである。本第1実施形態において、追跡処理実行部54は、例えば、SORT(Simple Online and Realtime Tracking)という移動体追跡アルゴリズムを使用し、個体領域検出部53によって検出された個体領域のそれぞれにつき、時系列において前後する監視画像(フレーム)間において、位置・移動方向・速度が近い個体領域を対応付けることでトラッキングするようになっている。
The tracking
具体的には、図10(a)に示すように、時系列の監視画像において、時刻tの監視画像から検出された個体領域群を{B(t)1, B(t)2, B(t)3,…B(t)nt}とし、時刻t-1の監視画像から検出された個体領域群を{B(t-1)1, B(t-1)2, B(t-1)3,…B(t-1)nt-1}とする。この場合、追跡処理実行部54は、時刻tと時刻t-1のフレーム間で個体領域の対応づけを行うことにより、図10(b)に示すような個体ごとの軌跡断片が得られる。
Specifically, as shown in FIG. 10A, in the time-series surveillance image, the individual region group detected from the surveillance image at time t is {B (t) 1, B (t) 2, B ( Let t) 3,… B (t) n t }, and the individual region group detected from the monitoring image at time t-1 is {B (t-1) 1, B (t-1) 2, B (t-). 1) 3,… B (t-1) n t-1 }. In this case, the tracking
例えば、監視画像内に含まれる乳牛がほとんど移動していない場合は、同じ数の個体領域が検出されるため(つまり、nt=nt-1)、全ての個体領域を1対1で対応付けることができる(全ての乳牛を追跡可能)。一方、時刻tの時点で新しい乳牛が監視画像内に入ってきた場合や、障害物の影から乳牛が現れた場合は、対応づけができない新たな個体領域として検出する。 For example, if the dairy cows contained in the surveillance image have hardly moved, the same number of individual regions are detected (that is, n t = n t-1 ), so all individual regions are associated with each other on a one-to-one basis. Can be (all cows can be tracked). On the other hand, if a new cow enters the surveillance image at time t, or if the cow appears from the shadow of an obstacle, it is detected as a new individual area that cannot be associated.
そして、追跡処理実行部54は、個体領域の対応づけができない場合(時刻t-1の監視画像内に個体領域B(t)mに対応する個体領域が存在しない場合)、時刻tの監視画像内に新たな個体領域が出現したと判断し、新たな軌跡断片IDを払い出して対応付ける。一方、追跡処理実行部54は、個体領域の対応づけに成功した場合(個体領域B(t)mと個体領域B(t-1)nが対応する場合)、軌跡断片バッファ43から個体領域B(t-1)nに対応する軌跡断片IDを取得する。
Then, when the tracking
なお、本第1実施形態において、追跡処理実行部54は、移動体追跡アルゴリズムとしてSORT(Simple Online and Realtime Tracking)を使用しているが、これに限定されるものではなく、他の移動体追跡アルゴリズムを使用してもよい。
In the first embodiment, the tracking
軌跡断片取得部55は、追跡処理実行部54により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得するものである。本第1実施形態において、軌跡断片取得部55は、追跡処理実行部54によって同一の軌跡断片IDが付与された個体領域のそれぞれについて中心点を特定し、当該中心点の画像座標系における二次元座標値を算出する。そして、当該二次元座標値を牛舎座標系における三次元座標値に変換し、Z値(高さ)を除く二次元座標値を軌跡断片として取得する。また、軌跡断片取得部55は、取得した軌跡断片を軌跡断片IDに対応付けて軌跡断片バッファ43に保存する。
The locus
ここで、画像座標系の二次元点p=(x, y)から、牛舎座標系の三次元点 P=(X, Y, Z)を求める方法について説明する。図11は、画像座標系(二次元空間)の模式図であり、牛舎の天井に設置したカメラで撮影した画像に対応し左上隅を原点としている。また、図12は、牛舎座標系(三次元空間)の模式図であり、牛舎内の一点を原点O、鉛直上向き方向をZ、牛舎の床面をXY平面としている。 Here, a method of obtaining the three-dimensional point P = (X, Y, Z) of the barn coordinate system from the two-dimensional point p = (x, y) of the image coordinate system will be described. FIG. 11 is a schematic diagram of an image coordinate system (two-dimensional space), and corresponds to an image taken by a camera installed on the ceiling of the barn, with the upper left corner as the origin. Further, FIG. 12 is a schematic diagram of the barn coordinate system (three-dimensional space), in which one point in the barn is the origin O, the vertical upward direction is Z, and the floor surface of the barn is the XY plane.
ピンホールカメラモデル(透視投影モデル)を用いると、画像座標系の二次元点 p=(x, y)と牛舎座標系の三次元点 P=(X, Y, Z)との対応関係は以下の式(1),(2)で表される。
Using the pinhole camera model (perspective projection model), the correspondence between the two-dimensional point p = (x, y) in the image coordinate system and the three-dimensional point P = (X, Y, Z) in the barn coordinate system is as follows. It is expressed by the equations (1) and (2) of.
なお、カメラパラメータは、カメラの機種、設定、カメラの設置位置、角度等によって変化するので、カメラ設置時にキャリブレーション処理によって求めておく。カメラキャリブレーション手法は、TsaiやZhangの手法とよばれる一般的な方法を用いることができる。式(1),(2)では、レンズ歪みを考慮していないが、レンズ歪みパラメータを含むカメラモデルを用いることもできる。 Since the camera parameters change depending on the camera model, settings, camera installation position, angle, etc., they are obtained by calibration processing when the camera is installed. As the camera calibration method, a general method called the Tsai or Zhang method can be used. Although the lens distortion is not considered in the equations (1) and (2), a camera model including the lens distortion parameter can also be used.
図11および図12に示すように、乳牛の背中の点が、牛舎座標系では三次元点P1=(X1, Y1, Z1)、画像座標系では二次元点p1=(x1, y1)で表されるとする。乳牛の身長(床面から背中までの高さ)Hが既知であると仮定して、式(2)に代入して整理すると、以下の式(3)となる。
As shown in FIGS. 11 and 12, the point on the back of the cow is the three-dimensional point P 1 = (X 1 , Y 1 , Z 1 ) in the barn coordinate system and the two-dimensional point p 1 = (x) in the image coordinate system. 1 , y 1 ). Assuming that the height (height from the floor to the back) H of the dairy cow is known, substituting it into the equation (2) and rearranging it gives the following equation (3).
画像座標系の二次元点p1=(x1, y1)は、例えば、個体領域の中心点として取得しているため、式(3)の連立一次方程式を解くことにより、牛舎座標系の三次元点P1=(X1, Y1, Z1)が求められる。なお、乳牛の身長Hは個体に依らず一定とみなしてもよく、身長等から推定してもよい。 Since the two-dimensional point p 1 = (x 1 , y 1 ) in the image coordinate system is acquired as the center point of the individual region, for example, by solving the simultaneous linear equations in Eq. (3), the barn coordinate system The three-dimensional point P 1 = (X 1 , Y 1 , Z 1 ) is obtained. The height H of the dairy cow may be regarded as constant regardless of the individual, or may be estimated from the height or the like.
画像座標系では、乳牛がカメラから遠ざかるほどゆっくりと歩いているように見えるため、等速で歩いていても等速移動として判定されない。これに対し、牛舎座標系では乳牛が等速で移動していれば等速移動と判定できる。よって、個体追跡処理においては、画像座標系ではなく牛舎座標系を用いた方が乳牛の移動を正確に判定できるため望ましい。 In the image coordinate system, it seems that the cow is walking slowly as it goes away from the camera, so even if it walks at a constant speed, it is not judged as a constant speed movement. On the other hand, in the barn coordinate system, if the dairy cow is moving at a constant speed, it can be determined that the cow is moving at a constant speed. Therefore, in the individual tracking process, it is preferable to use the barn coordinate system instead of the image coordinate system because the movement of the dairy cow can be accurately determined.
移動体姿勢推定部56は、個体領域に含まれる移動体の姿勢を推定するものである。本第1実施形態において、移動体姿勢推定部56は、個体領域検出部53によって検出された個体領域のそれぞれについて、乳牛の姿勢(起立、横臥、頭の向き等)を推定し、個体を識別するのに適した姿勢であるか否かを判定する。そして、個体を識別するのに適した姿勢である場合のみ、個体特徴抽出部57によって個体特徴を抽出させるようになっている。
The moving body
本第1実施形態では、上述したとおり、牛舎レイアウトに基づいて、予め姿勢推定能領域が姿勢推定データベース44に設定されている。したがって、移動体姿勢推定部56は、まず、個体領域検出部53によって検出された個体領域を取得するとともに、当該個体領域を含む監視画像を撮影した監視カメラ11のカメラ番号を取得する。
In the first embodiment, as described above, the posture estimation ability region is set in the
つぎに、移動体姿勢推定部56は、姿勢推定データベース44を参照し、取得したカメラ番号に対応付けて設定されている姿勢推定可能領域および姿勢を取得する。そして、取得した個体領域が姿勢推定可能領域に包含されるか否かを判定し、含まれる場合、当該姿勢推定可能領域に対応付けられた姿勢を個体領域に含まれる移動体の姿勢として推定し出力する。一方、取得した個体領域が姿勢推定可能領域に含まれていない場合は、姿勢を推定することができないため姿勢を出力しない。
Next, the moving body
本第1実施形態では、出力された姿勢が起立状態であれば、個体を識別可能な姿勢をとっていると判断し、個体特徴抽出部57によって個体特徴を抽出させる。一方、出力された姿勢が横臥状態である場合、あるいは姿勢を推定できない場合には、個体を識別可能な姿勢をとっていないと判断し、個体特徴を抽出することなく、他の個体領域の処理へと移行するようになっている。
In the first embodiment, if the output posture is in the standing state, it is determined that the individual is in a posture that can be identified, and the individual
なお、本第1実施形態において、移動体姿勢推定部56は、個体領域と姿勢推定可能領域との包含関係のみを考慮している。しかしながら、この条件に限定されるものではなく、個体領域の縦横比や面積、直前の監視画像における個体領域の位置(すなわち乳牛の移動方向や移動量)、異なる個体領域の重複率等を条件に加えることで、姿勢の推定精度を向上させることができる。例えば、個体領域の重複率が大きい場合、すなわち隣接する個体領域同士の重なりが大きい場合は乳牛同士が密接しているので個体の識別は不可能としてもよい。
In the first embodiment, the moving body
また、本第1実施形態では、個体領域が姿勢推定可能領域に含まれない場合は、個体を識別するための個体特徴を抽出しないようになっている。しかしながら、このような処理に限定されるものではなく、個体領域が姿勢推定可能領域に含まれない場合であっても、個体特徴を抽出し、当該個体特徴に対応する個体IDを信頼度の低いデータとして取り扱うようにしてもよい。 Further, in the first embodiment, when the individual region is not included in the posture estimable region, the individual characteristics for identifying the individual are not extracted. However, the present invention is not limited to such processing, and even when the individual region is not included in the posture estimable region, the individual characteristics are extracted and the individual ID corresponding to the individual characteristics has low reliability. It may be treated as data.
さらに、本第1実施形態において、移動体姿勢推定部56は、牛舎レイアウトに基づいて予め設定した姿勢推定能領域を用いて移動体の姿勢を推定している。しかしながら、例えば、乳牛が餌場にいても餌を食べず横を向いている場合等のように、例外的な状況もある。このような例外的な状況や、牛舎レイアウトに基づく方法では推定できない姿勢に対応するために、画像認識によって乳牛の姿勢を推定してもよい。
Further, in the first embodiment, the moving body
また、本第1実施形態において、移動体姿勢推定部56は、全ての個体領域について姿勢推定処理を実行しているが、この構成に限定されるものではない。例えば、直前の監視画像内における個体領域と比較して、処理しようとする個体領域の位置や形状の変化が予め設定したしきい値より小さい場合は、乳牛の姿勢変化が小さく個体の識別結果も同一となる可能性が高いため、姿勢推定処理を行わないようにしてもよい。これにより、個体特徴の抽出処理や照合処理に要する時間が削減される。
Further, in the first embodiment, the moving body
個体特徴抽出部57は、個体領域から個体特徴を抽出するものである。本第1実施形態において、個体特徴抽出部57は、上述した個体特徴登録部51と同様の処理によって、個体領域から個体特徴を抽出する。また、個体特徴抽出部57は、個体を識別するのに適した姿勢の移動体を含む個体領域のみから個体特徴を抽出する一方、個体を識別するのに適した姿勢でない移動体を含む個体領域や、姿勢を推定できない移動体を含む個体領域については、個体特徴を抽出しない。
The individual
個体特徴照合部58は、抽出された個体特徴を個体特徴データベース42と照合し、個体を識別するものである。本第1実施形態において、個体特徴照合部58は、個体特徴抽出部57によって抽出された個体特徴と、個体特徴データベース42に登録されている個体特徴とを照合し、抽出された個体特徴に対応する個体IDを取得するようになっている。
The individual
具体的には、個体特徴抽出部57によって抽出された個体特徴(特徴ベクトル)をxq(クエリとよぶ)とし、個体特徴データベース42に登録されている個体特徴(特徴ベクトル集合)をxi(i=1,2,…,n)とした場合、個体特徴照合部58は、以下の式(4)によって表される特徴ベクトル間の距離d(xi,xq)=||xi-xq||が最も小さい(最近傍となる)個体特徴の番号iminを求める。
Specifically, the individual feature (feature vector) extracted by the individual
そして、個体特徴照合部58は、個体特徴データベース42において、imin番目の個体特徴に対応付けられている個体IDを個体の識別結果として取得する。なお、特徴ベクトル間の距離としては、ユークリッド距離やコサイン距離など様々なものを適用できる。また、特徴ベクトル間の距離d(xi,xq)は0以上の値をとり、0に近いほど個体特徴が類似していることを示すため、個体識別結果の信頼度として用いてもよい。あるいは、最近傍の距離d1と二番目に近傍の距離d2を算出し、これらの距離比d2/d1を信頼度としてもよい。
Then, the individual
軌跡断片統合部59は、軌跡断片間の連続性が最も高い軌跡断片同士を統合し、個体IDごとの行動軌跡として出力するものである。本第1実施形態において、軌跡断片統合部59は、所定時間おきに、軌跡断片バッファ43に蓄積された軌跡断片間の連続性を判定し、当該連続性が最も高い軌跡断片同士を統合することで、最終的な個体ID付きの行動軌跡を行動軌跡データベース45に出力する。このとき、軌跡断片統合部59は、統合した軌跡断片群に唯一の行動軌跡IDを割り当てる。また、一つの行動軌跡IDに対して唯一の個体IDが対応するようにする。
The locus
また、本第1実施形態において、軌跡断片統合部59は、軌跡断片間における時間的な連続性、空間的な連続性および個体特徴間の類似性に基づいて、軌跡断片間の連続性が最も高い軌跡断片を特定する。具体的には、軌跡断片統合部59は、軌跡断片Tiに接続する軌跡断片Tjを求める場合、下記式(5)によって定義される軌跡断片間の距離の重み付き和d(Ti, Tj)が、最小の値をとるTjを軌跡断片間の連続性が最も高い軌跡断片として特定する。
d(Ti, Tj)=wtdtime(Ti, Tj)+wldloc(Ti, Tj)+wfdfeature(Ti, Tj) ・・・式(5)
Further, in the first embodiment, the locus
d (T i , T j ) = w t d time (T i , T j ) + w l d loc (T i , T j ) + w f d feature (T i , T j ) ・ ・ ・ Expression (5) )
上記式(5)において、dtime(Ti, Tj)は軌跡断片Tiの終了時刻e(Ti)と軌跡断片Tjの開始時刻s(Tj)との差であり、軌跡断片間における時間的な連続性を示す。また、dloc(Ti, Tj)は軌跡断片Tiの最終位置Pe(Ti)と軌跡断片Tjの開始位置Ps(Tj)との差であり、軌跡断片間における空間的な連続性を示す。さらに、dfeature(Ti, Tj)は軌跡断片Ti,Tjのそれぞれに関連付けられた個体特徴x(Ti),x(Tj)間の距離であり、個体特徴間の類似性を示す。ただし、dtime(Ti, Tj)およびdloc(Ti, Tj)は、軌跡断片Ti,Tjがこの順に接続する場合にのみ定義するものとする。また、軌跡断片間の距離は上記式(5)に限定されるものではなく、移動速度や移動方向の差異を評価対象としてもよい。 In the above equation (5), d time (T i , T j ) is the difference between the end time e (T i ) of the locus fragment T i and the start time s (T j ) of the locus fragment T j , and is the locus fragment. Shows temporal continuity between. Also, d loc (T i , T j ) is the difference between the final position P e (T i ) of the locus fragment T i and the start position P s (T j ) of the locus fragment T j , and the space between the locus fragments. Shows continuous continuity. Furthermore, d feature (T i , T j ) is the distance between individual features x (T i ), x (T j ) associated with each of the locus fragments T i , T j , and the similarity between individual features. Is shown. However, d time (T i , T j ) and d loc (T i , T j ) shall be defined only when the locus fragments T i , T j are connected in this order. Further, the distance between the locus fragments is not limited to the above equation (5), and the difference in the moving speed and the moving direction may be evaluated.
ここで、軌跡断片を統合する具体的な手順について、図13の例を用いて説明する。まず、1番の監視カメラ11で取得された軌跡断片T1(仮の個体ID=3)から統合処理を開始する。2番の監視カメラ11で取得された軌跡断片T2(仮の個体ID:不明)、および3番の監視カメラ11で取得された軌跡断片T3(仮の個体ID=4)、T4(仮の個体ID=3)のそれぞれに対する上記距離d(Ti, Tj)(j=2,3,4)は以下となる。なお、ここでは簡単化するため、wt=wl=1, wf=0とした。
d(T1, T2)=|11-10|+√((19-20)2+(12-12)2 )=2
d(T1, T3)=|20-10|+√((9-20)2+(12-12)2 )=21
d(T1, T4)=|20-10|+√((9-20)2+(8-12)2 )=21.7
Here, a specific procedure for integrating the locus fragments will be described with reference to the example of FIG. First, the integration process is started from the locus fragment T 1 (provisional individual ID = 3) acquired by the
d (T 1 , T 2 ) = | 11-10 | + √ ((19-20) 2 + (12-12) 2 ) = 2
d (T 1 , T 3 ) = | 20-10 | + √ ((9-20) 2 + (12-12) 2 ) = 21
d (T 1 , T 4 ) = | 20-10 | + √ ((9-20) 2 + (8-12) 2 ) = 21.7
以上の通り、軌跡断片T1に対する上記距離d(Ti, Tj)が最小となるのは軌跡断片T2であるため、両者を結合し軌跡断片{T1, T2}とする。さらに、この軌跡断片{T1, T2}と軌跡断片T3,T4の間の上記距離d(Ti, Tj)(j=3,4)は以下となる。
d(T2, T3)=|20-20|+√((10-10)2+(12-10)2 )=2
d(T2, T4)=|20-20|+√((9-10)2+(8-10)2 )=2.236
As described above, since the distance d (T i , T j ) with respect to the locus fragment T 1 is minimized in the locus fragment T 2 , the two are combined to form the locus fragment {T 1 , T 2 }. Further, the above distance d (T i , T j ) (j = 3, 4) between the locus fragments {T 1 , T 2 } and the locus fragments T 3 , T 4 is as follows.
d (T 2 , T 3 ) = | 20-20 | + √ ((10-10) 2 + (12-10) 2 ) = 2
d (T 2 , T 4 ) = | 20-20 | + √ ((9-10) 2 + (8-10) 2 ) = 2.236
以上の通り、軌跡断片{T1, T2}に対する上記距離d(Ti, Tj)が最小となるのは軌跡断片T3であるため両者を結合し、結果として行動軌跡{T1, T2, T3}が得られる。ただし、上記の手順で軌跡断片を結合すると、仮の個体IDに矛盾が生じる場合がある。すなわち、図13の例では、軌跡断片T1に対応する仮の個体IDが3で、軌跡断片T3に対応する仮の個体IDが4と異なっており、矛盾が生じている。 As described above, the distance d (T i , T j ) with respect to the locus fragment {T 1 , T 2 } is minimized because the locus fragment T 3 is combined, and as a result, the action locus {T 1 , T 2 , T 3 } is obtained. However, if the locus fragments are combined by the above procedure, a contradiction may occur in the temporary individual ID. That is, in the example of FIG. 13, the tentative individual ID corresponding to the locus fragment T 1 is 3, and the tentative individual ID corresponding to the locus fragment T 3 is different from 4, which causes a contradiction.
上記矛盾の原因としては、軌跡断片統合処理における誤り、または個体識別処理における誤りの二通りが考えられる。したがって、個体識別処理の精度が高く信頼できる場合は、仮の個体IDが一致しない軌跡断片T3の代わりに、仮の個体IDが一致するT4を統合すればよい。このように、軌跡断片間の連続性が最も高い軌跡断片同士のそれぞれに対応付けられた個体IDが異なる場合、当該軌跡断片同士を統合しない、という制約を設けることにより、外見が似ている個体同士であっても、誤って別の個体の軌跡断片を統合してしまうことが防止される。一方、個体識別処理の精度がそれほど高くない場合は、仮の個体IDに矛盾がある軌跡断片同士であっても、軌跡断片統合処理の結果を優先して統合してもよい。 There are two possible causes of the above contradiction: an error in the locus fragment integration process and an error in the individual identification process. Therefore, if the accuracy and reliability of the individual identification process is high and reliable, T 4 with the same temporary individual ID may be integrated instead of the locus fragment T 3 with which the temporary individual ID does not match. In this way, when the individual IDs associated with each of the locus fragments having the highest continuity between the locus fragments are different, individuals having similar appearances are provided by setting a restriction that the locus fragments are not integrated. Even if they are one another, it is possible to prevent accidentally integrating the locus fragments of another individual. On the other hand, when the accuracy of the individual identification processing is not so high, even if the locus fragments have inconsistencies in the provisional individual IDs, the results of the locus fragment integration processing may be preferentially integrated.
なお、本第1実施形態では、軌跡断片を貪欲(greedy)に統合するアルゴリズムについて説明したが、組合せ最適化問題として定式化し求解してもよい。牛舎内に同じ個体IDを持つ乳牛は一頭しかいないことを制約に加えて最適化することにより、さらに統合精度が向上する。また、仮の個体IDが異なる軌跡断片同士を結合しないよう制約を設ける代わりに、仮の個体IDの信頼度を算出しておき、当該信頼度の総和が最も高くなる仮の個体IDを統合対象として採用してもよい。さらに、仮の個体IDの矛盾を全自動で解消するのではなく、矛盾が発生したことをオペレータに通知し、オペレータが監視画像や現地を確認して正しい個体IDを付与する等、行動軌跡を手動で補正してもよい。 Although the algorithm for integrating the locus fragments into greedy has been described in the first embodiment, it may be formulated and solved as a combinatorial optimization problem. By optimizing the fact that there is only one dairy cow with the same individual ID in the barn in addition to the constraint, the integration accuracy is further improved. Further, instead of setting a constraint so that the locus fragments having different temporary individual IDs are not combined with each other, the reliability of the temporary individual ID is calculated, and the temporary individual ID having the highest total reliability is integrated. May be adopted as. Furthermore, instead of resolving the contradiction of the temporary individual ID fully automatically, the operator is notified that the contradiction has occurred, and the operator confirms the monitoring image and the site and assigns the correct individual ID. It may be corrected manually.
(3)個体特徴追加機能
個体特徴追加機能は、行動軌跡推定機能によって推定された行動軌跡に基づいて、個体特徴データベース42に登録されていない個体特徴を追加して拡張する機能であり、個体特徴追加部60によって機能される。
(3) Individual feature addition function The individual feature addition function is a function for adding and expanding individual features not registered in the
本第1実施形態において、個体特徴追加部60は、まず、個体特徴を追加しようとする個体の個体IDに基づいて、行動軌跡データベース45から行動軌跡を取得する。つぎに、個体特徴追加部60は、取得した行動軌跡データ中のカメラ番号、撮影時刻および個体領域に基づいて、監視画像から個体領域を切り出して移動体画像列として取得する。そして、個体特徴追加部60は、個体特徴抽出部57と同様の処理により各移動体画像の個体特徴を抽出し、個体特徴データベース42に登録されている個体IDに対応付けて追加する。
In the first embodiment, the individual
ここで図14は、本第1実施形態の行動軌跡推定装置1によって推定された行動軌跡の一例を示す図である。監視カメラ11から切り出した個体ID=Xの乳牛画像(移動体画像)が、時系列に沿って五枚ピックアップされている。この例では、一枚目(t=0)の乳牛画像と五枚目(t=80)の乳牛画像は姿勢推定可能領域から切り出されたもので、対応する個体特徴が予め個体特徴データベース42に登録されている。一方、二枚目(t=10)、三枚目(t=30)および四枚目(t=50)の乳牛画像は姿勢推定可能領域に含まれていなかったため、対応する個体特徴が個体特徴データベース42に登録されていない状態である。
Here, FIG. 14 is a diagram showing an example of an action locus estimated by the action
以上のような状態の場合、個体特徴追加部60は、二枚目(t=10)、三枚目(t=30)および四枚目(t=50)の乳牛画像から個体特徴を抽出し、各個体特徴を個体特徴データベース42に追加する。なお、全ての乳牛画像を個体特徴データベース42に追加しようとすると、個体特徴データベース42の規模が大きくなり、個体特徴抽出処理に時間がかかるため、クラスタリング処理等を行って、追加する個体特徴を減らしてもよい。
In the above situation, the individual
また、個体特徴追加部60は、古い個体特徴を削除し、最新の個体特徴を順次入れ替えていくことで、個体の成長や体型の変化があっても個体識別の精度が維持される。ただし、行動軌跡に誤りがある場合に、個体特徴データベース42を更新すると、個体の識別精度が低下する場合があるため、信頼度の高い行動軌跡データのみを用いることが好ましい。あるいは、行動軌跡に誤りがないことをオペレータが確認した上で、個体特徴データベース42を更新してもよい。
Further, the individual
つぎに、本第1実施形態の行動軌跡推定装置1、行動軌跡推定プログラム1bおよび行動軌跡推定方法による作用について説明する。
Next, the actions of the action
本第1実施形態の行動軌跡推定装置1、行動軌跡推定プログラム1bおよび行動軌跡推定方法を用いて乳牛(移動体)の行動軌跡を推定する場合、まず、個体特徴登録機能を用いて、監視しようとする全ての乳牛について、個体特徴を個体特徴データベース42に登録する。
When estimating the behavior trajectory of a dairy cow (moving body) using the behavior
具体的には、図15に示すように、個体特徴登録部51が、新規登録しようとする乳牛の画像群を取得するとともに(ステップS1)、新規登録しようとする乳牛の個体IDを取得する(ステップS2)。そして、個体特徴登録部51が、ステップS1で取得した画像群から個体特徴を抽出すると(ステップS3)、当該個体特徴をステップS2で取得した個体IDに対応付けて個体特徴データベース42に登録する(ステップS4)。これにより、ある個体についての個体IDと個体特徴とが関連付けて登録される。
Specifically, as shown in FIG. 15, the individual
ある個体について、取得された全ての画像について上記ステップS3~ステップS4を繰り返した後(ステップS5:YES)、別の個体について、上記ステップS1~ステップS5を繰り返す。そして、監視しようとする全ての乳牛について個体特徴が登録されると(ステップS6:YES)、本処理を終了する。これにより、監視しようとする全ての乳牛の個体特徴が個体特徴データベース42に事前登録される。よって、各個体の個体特徴さえわかれば、当該個体特徴を有する個体IDが特定されるため、乳牛の個体識別が可能となる。
After repeating the above steps S3 to S4 for all the acquired images for a certain individual (step S5: YES), the above steps S1 to S5 are repeated for another individual. Then, when the individual characteristics of all the dairy cows to be monitored are registered (step S6: YES), this process is terminated. As a result, the individual characteristics of all the cows to be monitored are pre-registered in the
個体特徴データベース42の準備が完了すると、行動軌跡推定機能を用いて、各乳牛の行動軌跡を個体ごとに推定する。具体的には、図16に示すように、まず、監視画像取得部52が複数の監視カメラ11から時系列の監視画像を取得する(ステップS11)。つぎに、個体領域検出部53が、各監視画像内に存在する全乳牛の個体領域を検出し(ステップS12)、当該個体領域のそれぞれについて、追跡処理実行部54が追跡処理を実行する(ステップS13)。
When the preparation of the individual
追跡処理の結果、監視画像内に新たな個体領域が出現した場合(ステップS14:YES)、追跡処理実行部54が新たな軌跡断片IDを払い出し(ステップS15)、新たな個体領域に対応付ける。一方、監視画像内に新たな個体領域がない場合(ステップS14:NO)、追跡処理実行部54が各個体領域に対応する軌跡断片IDを取得する(ステップS16)。これにより、時系列の監視画像において、同一の個体と思われる個体領域には同一の軌跡断片IDが付与されるため、全乳牛の行動が個体ごとに追跡される。
When a new individual area appears in the surveillance image as a result of the tracking process (step S14: YES), the tracking
つぎに、軌跡断片取得部55が、各個体領域の軌跡断片を取得すると(ステップS17)、取得された軌跡断片が軌跡断片IDに対応付けて軌跡断片バッファ43に保存される(ステップS18)。これにより、複数の監視カメラ11ごとに撮影範囲内における乳牛の行動軌跡が軌跡断片として収集される。
Next, when the locus
つづいて、本第1実施形態では、移動体姿勢推定部56が、個体ごとの識別精度が低下するのを抑制するため、各個体領域に含まれる移動体の姿勢を推定する(ステップS19)。具体的には、図17に示すように、移動体姿勢推定部56は、まず、個体領域検出部53によって検出された個体領域と、当該個体領域を含む監視画像を撮影した監視カメラ11のカメラ番号とを取得する(ステップS191)。
Subsequently, in the first embodiment, the moving body
つぎに、移動体姿勢推定部56は、取得したカメラ番号に対応付けて設定されている姿勢推定可能領域および姿勢を取得し(ステップS192)、ステップS191で取得した個体領域が姿勢推定可能領域に包含されるか否かを判定する(ステップS193)。当該判定の結果、個体領域が姿勢推定可能領域に包含される場合(ステップS193:YES)、当該姿勢推定可能領域に対応付けられた姿勢を出力する(ステップS194)。一方、個体領域が姿勢推定可能領域に包含されていない場合(ステップS193:NO)、姿勢を出力しない。これにより、簡易的に移動体の姿勢が高精度に推定される。
Next, the moving body
つづいて、移動体姿勢推定部56によって推定された姿勢が、個体を識別するのに適した姿勢である場合(ステップS20:YES)、個体特徴抽出部57が各個体領域の個体特徴を抽出する(ステップS21)。一方、個体を識別するのに適した姿勢でない場合(ステップS20:NO)、後述するステップS24へ進む。
Subsequently, when the posture estimated by the moving body
つぎに、個体特徴照合部58が、ステップS21で抽出された個体特徴を個体特徴データベース42と照合し、各個体領域に対応する個体IDを取得する(ステップS22)。これにより、各個体領域に含まれる乳牛が個体ごとに高精度に識別される。
Next, the individual
その後、ステップS21で抽出された各個体領域の個体特徴と、ステップS22で取得された各個体領域に対応する個体IDとが軌跡断片バッファ43に保存される(ステップS23)。そして、ステップS12で検出された各個体領域について、上述したステップS13からステップS23までの処理を繰り返し、全ての個体領域について処理が完了すると(ステップS24:YES)、ステップS25へと進む。これにより、ある監視画像に含まれる全個体領域の軌跡断片が、個体特徴や個体IDと関連付けられて軌跡断片バッファ43に一時保存される。
After that, the individual characteristics of each individual region extracted in step S21 and the individual ID corresponding to each individual region acquired in step S22 are stored in the locus fragment buffer 43 (step S23). Then, the processing from step S13 to step S23 described above is repeated for each individual region detected in step S12, and when the processing is completed for all individual regions (step S24: YES), the process proceeds to step S25. As a result, the locus fragments of the entire individual region included in a certain surveillance image are temporarily stored in the
つぎに、ステップS25では、各監視カメラ11の監視画像について、上述したステップS11からステップS24までの処理を繰り返し、全ての監視カメラ11について処理が完了すると(ステップS25:YES)、所定時間が経過するまで、上述したステップS11からステップS24までの処理を繰り返す。これにより、全監視画像に含まれる全個体領域の軌跡断片が、所定時間分ずつ軌跡断片バッファ43に一時保存される。
Next, in step S25, the processes from step S11 to step S24 described above are repeated for the surveillance images of each
そして、所定時間が経過すると(ステップS26:YES)、軌跡断片統合部59が、軌跡断片間の連続性が最も高い軌跡断片同士を統合し、最終的な個体IDごとの行動軌跡として行動軌跡データベース45に出力する(ステップS27)。これにより、異なる監視カメラ11で撮影された監視画像内の軌跡断片であっても、高精度に個体ごとに統合される。よって、多数の乳牛を広域監視する場合であっても、高い精度で乳牛が個体ごとに識別され、個体ごとの行動軌跡が正しく推定される。
Then, when a predetermined time elapses (step S26: YES), the locus
また、本第1実施形態では、個体特徴追加機能を用いて、個体特徴データベース42に登録されていない個体特徴を追加して拡張する。具体的には、図18に示すように、個体特徴追加部60が個体特徴を追加しようとする個体の個体IDに基づいて、行動軌跡データベース45から行動軌跡を取得する(ステップS31)。
Further, in the first embodiment, the individual feature addition function is used to add and expand individual features that are not registered in the
つぎに、個体特徴追加部60は、取得した行動軌跡データに基づいて、監視画像から個体領域を切り出し移動体画像列として取得する(ステップS32)。そして、個体特徴追加部60が各移動体画像の個体特徴を抽出すると(ステップS33)、当該個体特徴を個体特徴データベース42に登録されている個体IDに対応させて追加する(ステップS34)。これにより、様々な姿勢の個体特徴が追加されるため、個体の識別精度が向上する。
Next, the individual
以上のような本第1実施形態の行動軌跡推定装置1、行動軌跡推定プログラム1bおよび行動軌跡推定方法によれば、以下のような効果を奏する。
1.多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定することができる。
2.個体識別に適した姿勢の移動体を含む個体領域のみから個体特徴を抽出することで、個体ごとの識別精度が低下するのを抑制することができる。
3.牛舎等のレイアウトに基づく姿勢推定可能領域を設定することで、簡易的に移動体の姿勢を高精度に推定することができる。
4.行動軌跡データに基づいて様々な姿勢の個体特徴を追加することで、個体の識別精度を向上することができる。
5.軌跡断片間における時間的・空間的な連続性や個体特徴間の類似性に基づいて軌跡断片同士を統合することで、個体ごとの行動軌跡を高精度に推定することができる。
6.個体IDに矛盾がある軌跡断片同士を統合しないようにすることで、外見が似ている個体同士であっても、異なる個体の軌跡断片同士を誤って統合するのを防止することができる。
According to the action
1. 1. While realizing wide-area monitoring of a large number of moving objects, it is possible to identify the moving objects for each individual with high accuracy and correctly estimate the behavioral trajectory of each individual.
2. 2. By extracting individual characteristics only from an individual region including a moving body having a posture suitable for individual identification, it is possible to suppress a decrease in identification accuracy for each individual.
3. 3. By setting the posture estimable area based on the layout of the barn or the like, the posture of the moving body can be easily estimated with high accuracy.
4. By adding individual characteristics of various postures based on the behavior trajectory data, it is possible to improve the identification accuracy of the individual.
5. By integrating the locus fragments based on the temporal and spatial continuity between the locus fragments and the similarity between individual characteristics, the behavioral locus of each individual can be estimated with high accuracy.
6. By preventing the locus fragments having inconsistencies in the individual IDs from being integrated, it is possible to prevent the locus fragments of different individuals from being erroneously integrated even if the individuals have similar appearances.
つぎに、本発明に係る行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法の第2実施形態について説明する。なお、本第2実施形態の構成のうち、上述した第1実施形態と同一もしくは相当する構成については同一の符号を付し、再度の説明を省略する。 Next, a second embodiment of the action trajectory estimation device, the action trajectory estimation program, and the action trajectory estimation method according to the present invention will be described. Of the configurations of the second embodiment, the same or equivalent configurations as those of the first embodiment described above are designated by the same reference numerals, and the description thereof will be omitted again.
上述した第1実施形態では、追跡処理実行部54が、同一の監視カメラ11で撮影された時系列の監視画像に対して画像座標系で追跡処理を実行し、軌跡断片取得部55が、各監視画像内の画像座標系における位置座標群を牛舎座標系における位置座標群に変換したものを軌跡断片として取得し、軌跡断片統合部59が、異なる監視カメラ11で撮影された監視画像内の軌跡断片同士を統合することで行動軌跡を作成していた。
In the first embodiment described above, the tracking
これに対して、本第2実施形態の特徴は、追跡処理実行部54が事前に、個体領域検出部53によって検出された個体領域の画像座標系における位置座標群を牛舎座標系における位置座標群に変換する。そして、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において追跡処理を実行することにより、牛舎全体における行動軌跡を取得する点にある。
On the other hand, the feature of the second embodiment is that the tracking
具体的には、本第2実施形態の行動軌跡推定装置10は、図19に示すように、異なる監視カメラ11間における軌跡断片同士を統合する軌跡断片統合部59の代わりに、全体画像から得られた軌跡断片をそのまま行動軌跡として出力する行動軌跡出力部61を有している。また、軌跡断片バッファ43と行動軌跡データベース45のデータ内容、および追跡処理実行部54と軌跡断片取得部55の処理内容が第1実施形態と相違するため、当該相違部分について説明する。
Specifically, as shown in FIG. 19, the action
本第2実施形態において、軌跡断片バッファ43には、図20に示すように、個体が占める矩形の個体領域として、画像座標系における二次元座標値の代わりに、牛舎座標系における二次元座標値が保存される。また、本第2実施形態において、行動軌跡データベース45には、図21に示すように、個体領域として、画像座標系における二次元座標値の代わりに、牛舎座標系における二次元座標値が保存される。軌跡断片バッファ43および行動軌跡データベース45に保存されるその他のデータは、第1実施形態と同様である。
In the second embodiment, as shown in FIG. 20, in the
追跡処理実行部54は、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像内に存在する移動体を個体ごとに追跡するものである。本第2実施形態において、追跡処理実行部54は、まず、個体領域検出部53によって検出された個体領域の画像座標系における位置座標群を牛舎座標系における位置座標群に変換する。なお、画像座標系から牛舎座標系への座標変換処理は、第1実施形態の軌跡断片取得部55が実行する処理(段落[0054]~[0058])と同様である。
The tracking
また、図22に示すように、個体領域検出部53によって検出された矩形の個体領域は、画像座標系から牛舎座標系に変換すると歪な四角形に変形してしまう。このため、本第2実施形態では、追跡処理実行部54が、牛舎座標系に変換後の歪な四角形に対する外接矩形を牛舎座標系における個体領域とする。なお、個体領域の形状は外接矩形に限定されるものではなく、内接矩形、あるいは、多角形領域をそのまま個体領域としてもよい。また、二以上の監視画像で検出された複数の個体領域が重複していると判断した場合(例えば、個体領域の重なりが大きい場合、個体領域の外見特徴が類似している場合)には、複数の個体領域を一つに統合する処理を追加することもできる。
Further, as shown in FIG. 22, the rectangular individual area detected by the individual
つぎに、追跡処理実行部54は、時系列において隣接する全体画像間において各個体領域の追跡処理を実行する。具体的には、図23(a),(b)に示すように、全ての監視カメラで撮影された時系列の全体画像において、時刻tの全体画像から検出された個体領域群を牛舎座標系に変換したものを{B(t)1, B(t)2, B(t)3,…B(t)nt}とし、時刻t-1の全体画像から検出された個体領域群を牛舎座標系に変換したものを{B(t-1)1, B(t-1)2, B(t-1)3,…B(t-1)nt-1}とする。この場合、追跡処理実行部54は、時刻tと時刻t-1の全体画像間で個体領域の対応づけを行うことにより、図23(c)に示すように、個体毎の軌跡断片が全ての監視画像に跨った状態で得られる。なお、追跡処理実行部54において、SORT(Simple Online and Realtime Tracking)等の移動体追跡アルゴリズムを使用する点は第1実施形態と同様である。ただし、追跡処理を個別の監視画像内(画像座標系)ではなく、全ての監視画像からなる全体画像内(牛舎座標系)で行う点が第1実施形態とは異なる。
Next, the tracking
また、本第2実施形態において、軌跡断片取得部55は、追跡処理実行部54によって同一の軌跡断片IDが付与された個体領域のそれぞれについて中心点を特定し、当該中心点の牛舎座標系における二次元座標値を算出する。そして、当該二次元座標値をそのまま軌跡断片として取得する。また、軌跡断片取得部55は、取得した軌跡断片を軌跡断片IDに対応付けて軌跡断片バッファ43に保存する。
Further, in the second embodiment, the locus
行動軌跡出力部61は、軌跡断片を個体IDごとの行動軌跡として出力するものである。本第2実施形態において、行動軌跡出力部61は、軌跡断片取得部55によって軌跡断片バッファ43に蓄積された軌跡断片と、個体特徴照合部58によって取得された個体IDとを対応付けて、最終的な個体ID付きの行動軌跡として行動軌跡データベース45に出力する。
The action
つぎに、本第2実施形態の行動軌跡推定装置10、行動軌跡推定プログラム1bおよび行動軌跡推定方法による作用について説明する。
Next, the actions of the action
具体的には、図24に示すように、監視画像取得部52が複数の監視カメラ11から時系列の監視画像を取得すると(ステップS11)、個体領域検出部53が、各監視画像内に存在する全乳牛の個体領域を検出する(ステップS12)。そして、各監視カメラ11の監視画像について、上述したステップS11からステップS12までの処理を繰り返す(ステップS41)。これにより、全ての監視カメラ11から取得した全ての監視画像に含まれる個体領域が検出される。
Specifically, as shown in FIG. 24, when the surveillance
つぎに、全監視カメラ11の監視画像について処理が完了すると(ステップS41:YES)、追跡処理実行部54が、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において各個体領域の追跡処理を実行する(ステップS13)。このとき、本第2実施形態では、追跡処理実行部54が事前に、個体領域の位置座標群を画像座標系から牛舎座標系に変換するため、全体画像間における追跡処理が可能となる。これにより、個体毎の軌跡断片が全ての監視画像に跨った状態で得られる。
Next, when the processing for the surveillance images of all the
その後、ステップS14からステップS24まで、およびステップS26では、第1実施形態と同様の処理を実行する。これにより、牛舎全体の全体画像に含まれる全個体領域の軌跡断片が、所定時間分ずつ軌跡断片バッファ43に一時保存される。
After that, from step S14 to step S24, and in step S26, the same processing as in the first embodiment is executed. As a result, the locus fragments of all the individual regions included in the entire image of the entire barn are temporarily stored in the
そして、所定時間が経過すると(ステップS26)、行動軌跡出力部61は、軌跡断片を個体IDごとの行動軌跡として出力する(ステップS42)。すなわち、本第2実施形態では、同一時刻に撮影された全ての監視画像を全体画像とし、この全体画像間において追跡処理を実行するため、軌跡断片がそのまま行動軌跡となる。よって、第1実施形態のように、軌跡断片同士を統合する必要がなく、推定演算に係る処理効率が向上する。
Then, when the predetermined time elapses (step S26), the action
以上のような本第2実施形態によれば、上述した第1実施形態の作用効果に加えて、行動軌跡の推定演算に係る処理効率を向上することができる。 According to the second embodiment as described above, in addition to the action and effect of the first embodiment described above, it is possible to improve the processing efficiency related to the estimation calculation of the action locus.
なお、本発明に係る行動軌跡推定装置1,10、行動軌跡推定プログラム1bおよび行動軌跡推定方法は、前述した実施形態に限定されるものではなく、適宜変更することができる。
The action
例えば、上述した本実施形態では、個体ごとの識別精度が低下するのを抑制するため、移動体姿勢推定部56が各個体領域に含まれる移動体の姿勢を推定している。しかしながら、個体ごとの識別精度をある程度担保できる場合は、移動体姿勢推定部56による姿勢の推定処理を実行しなくてもよい。
For example, in the above-described embodiment, the moving body
また、上述した本実施形態では、個体特徴登録部51や個体特徴抽出部57が機械学習モデルを用いているが、当該機械学習モデルのパラメータを行動軌跡データを用いて最適化してもよい。具体的には、個体ID付きの行動軌跡データから教師データ(個体ID付きの乳牛画像)を作成し、当該教師データを用いて畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)に、交差エントロピー損失やトリプレット損失などが最小化するように学習させてもよい。
Further, in the above-described embodiment, the individual
さらに、上述した本実施形態では、軌跡断片バッファ43に数時間から一日分の軌跡断片をバッファして保存している。しかしながら、実際に行動軌跡推定プログラム1bを実装する際には、数分程度に短く設定することが好ましい。この場合、行動軌跡が出力されるたびに、それまでに作成した行動軌跡との間で連続性を判定し、当該連続性が最も高い行動軌跡同士を統合すればよい。なお、連続性の判定は、上述したとおり、時間的な連続性、空間的な連続性および個体特徴間の類似性に基づいて行われる。
Further, in the present embodiment described above, the locus fragments for several hours to one day are buffered and stored in the
1 行動軌跡推定装置(第1実施形態)
1a 個体特徴登録プログラム
1b 行動軌跡推定プログラム
1c 個体特徴追加プログラム
2 表示手段
3 入力手段
4 記憶手段
5 演算処理手段
10 行動軌跡推定装置(第2実施形態)
11 監視カメラ
41 プログラム記憶部
42 個体特徴データベース
43 軌跡断片バッファ
44 姿勢推定データベース
45 行動軌跡データベース
51 個体特徴登録部
52 監視画像取得部
53 個体領域検出部
54 追跡処理実行部
55 軌跡断片取得部
56 移動体姿勢推定部
57 個体特徴抽出部
58 個体特徴照合部
59 軌跡断片統合部
60 個体特徴追加部
61 行動軌跡出力部
1 Behavior trajectory estimation device (first embodiment)
1a Individual
11
Claims (11)
複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、
時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、
前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、
前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、
前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合部と、
を有する、行動軌跡推定装置。 It is a behavior trajectory estimation device that can estimate the behavior trajectory of a moving body for each individual.
An individual area detection unit that detects the image area occupied by the individual as an individual area in each time-series surveillance image taken by a plurality of surveillance cameras.
A tracking process execution unit that tracks the moving object for each individual by associating individual regions having similar positions, moving directions, and velocities between adjacent surveillance images in chronological order.
A locus fragment acquisition unit that acquires a time-series position coordinate group as a locus fragment in a predetermined coordinate system of an individual region associated with the tracking process execution unit.
An individual feature extraction unit that extracts individual features, which are feature vectors based on the appearance of the individual, from the individual region.
The individual feature extracted by the individual feature extraction unit is compared with the individual feature database in which the individual feature is registered in association with the individual ID that identifies the individual, and the individual ID corresponding to the extracted individual feature is collated. With the individual feature collation unit to acquire
A locus fragment integration unit that integrates the locus fragments having the highest continuity between the locus fragments and outputs them as an action locus for each individual ID.
An action locus estimation device.
前記個体特徴抽出部は、前記個体を識別するのに適した姿勢の移動体を含む個体領域のみから前記個体特徴を抽出する、請求項1に記載の行動軌跡推定装置。 It has a moving body posture estimation unit that estimates the posture of the moving body included in the individual area.
The behavior trajectory estimation device according to claim 1, wherein the individual feature extraction unit extracts the individual feature only from an individual region including a moving body having a posture suitable for identifying the individual.
前記移動体姿勢推定部は、前記個体領域が前記姿勢推定可能領域に含まれる場合、当該姿勢推定可能領域に対応付けられた姿勢を前記個体領域に含まれる移動体の姿勢として推定する、請求項2に記載の行動軌跡推定装置。 For each of the surveillance cameras, a posture estimable region in which the posture of the moving body can be estimated and a posture often taken by the moving body existing in the posture estimable region are set.
The moving body posture estimation unit estimates the posture associated with the posture estimable region as the posture of the moving body included in the individual region when the individual region is included in the posture estimable region. 2. The action locus estimation device according to 2.
複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、
時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、
前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、
前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、
前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合部と、
してコンピュータを機能させる、行動軌跡推定プログラム。 It is a behavior trajectory estimation program that can estimate the behavior trajectory of a moving body for each individual.
An individual area detection unit that detects the image area occupied by the individual as an individual area in each time-series surveillance image taken by a plurality of surveillance cameras.
A tracking process execution unit that tracks the moving object for each individual by associating individual regions having similar positions, moving directions, and velocities between adjacent surveillance images in chronological order.
A locus fragment acquisition unit that acquires a time-series position coordinate group as a locus fragment in a predetermined coordinate system of an individual region associated with the tracking process execution unit.
An individual feature extraction unit that extracts individual features, which are feature vectors based on the appearance of the individual, from the individual region.
The individual feature extracted by the individual feature extraction unit is compared with the individual feature database in which the individual feature is registered in association with the individual ID that identifies the individual, and the individual ID corresponding to the extracted individual feature is collated. With the individual feature collation unit to acquire
A locus fragment integration unit that integrates the locus fragments having the highest continuity between the locus fragments and outputs them as an action locus for each individual ID.
An action trajectory estimation program that makes a computer function.
複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出ステップと、
時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行ステップと、
前記追跡処理実行ステップで対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出ステップと、
前記個体特徴抽出ステップで抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合ステップと、
前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合ステップと、
を有する、行動軌跡推定方法。 It is a behavior trajectory estimation method that can estimate the behavior trajectory of a moving body for each individual.
An individual area detection step for detecting an image area occupied by an individual as an individual area in each of the time-series surveillance images taken by a plurality of surveillance cameras.
A tracking process execution step for tracking the moving object for each individual by associating individual regions having similar positions, moving directions, and velocities between adjacent monitoring images in a time series.
A locus fragment acquisition unit that acquires a time-series position coordinate group as a locus fragment in a predetermined coordinate system of the individual region associated with the tracking process execution step.
An individual feature extraction step for extracting individual features, which are feature vectors based on the appearance of the individual, from the individual region,
The individual features extracted in the individual feature extraction step are collated with the individual feature database in which the individual features are registered in association with the individual ID that identifies the individual, and the individual ID corresponding to the extracted individual features is collated. And the individual feature matching step to acquire
A locus fragment integration step that integrates the locus fragments having the highest continuity between the locus fragments and outputs them as an action locus for each individual ID.
A method for estimating a behavioral trajectory.
複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、
同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、
前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、
前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、
前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力部と、
を有する、行動軌跡推定装置。 It is a behavior trajectory estimation device that can estimate the behavior trajectory of a moving body for each individual.
An individual area detection unit that detects the image area occupied by the individual as an individual area in each time-series surveillance image taken by a plurality of surveillance cameras.
The moving object is tracked for each individual by associating individual regions having similar positions, moving directions, and velocities between the entire images that are adjacent to each other in the time series among the entire images composed of all the monitoring images taken at the same time. Tracking process execution unit and
A locus fragment acquisition unit that acquires a time-series position coordinate group as a locus fragment in a predetermined coordinate system of an individual region associated with the tracking process execution unit.
An individual feature extraction unit that extracts individual features, which are feature vectors based on the appearance of the individual, from the individual region.
The individual feature extracted by the individual feature extraction unit is compared with the individual feature database in which the individual feature is registered in association with the individual ID that identifies the individual, and the individual ID corresponding to the extracted individual feature is collated. With the individual feature collation unit to acquire
An action locus output unit that outputs the locus fragment as an action locus for each individual ID,
An action locus estimation device.
複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、
同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、
前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、
前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、
前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力部と、
してコンピュータを機能させる、行動軌跡推定プログラム。 It is a behavior trajectory estimation program that can estimate the behavior trajectory of a moving body for each individual.
An individual area detection unit that detects the image area occupied by the individual as an individual area in each time-series surveillance image taken by a plurality of surveillance cameras.
The moving object is tracked for each individual by associating individual regions having similar positions, moving directions, and velocities between the entire images that are adjacent to each other in the time series among the entire images composed of all the monitoring images taken at the same time. Tracking process execution unit and
A locus fragment acquisition unit that acquires a time-series position coordinate group as a locus fragment in a predetermined coordinate system of an individual region associated with the tracking process execution unit.
An individual feature extraction unit that extracts individual features, which are feature vectors based on the appearance of the individual, from the individual region.
The individual feature extracted by the individual feature extraction unit is compared with the individual feature database in which the individual feature is registered in association with the individual ID that identifies the individual, and the individual ID corresponding to the extracted individual feature is collated. With the individual feature collation unit to acquire
An action locus output unit that outputs the locus fragment as an action locus for each individual ID,
An action trajectory estimation program that makes a computer function.
複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出ステップと、
同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行ステップと、
前記追跡処理実行ステップで対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出ステップと、
前記個体特徴抽出ステップで抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合ステップと、
前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力ステップと、
を有する、行動軌跡推定方法。 It is a behavior trajectory estimation method that can estimate the behavior trajectory of a moving body for each individual.
An individual area detection step for detecting an image area occupied by an individual as an individual area in each of the time-series surveillance images taken by a plurality of surveillance cameras.
The moving object is tracked for each individual by associating individual regions having similar positions, moving directions, and velocities between the entire images that are adjacent to each other in the time series among the entire images composed of all the monitoring images taken at the same time. Tracking process execution step and
A locus fragment acquisition unit that acquires a time-series position coordinate group as a locus fragment in a predetermined coordinate system of the individual region associated with the tracking process execution step.
An individual feature extraction step for extracting individual features, which are feature vectors based on the appearance of the individual, from the individual region,
The individual features extracted in the individual feature extraction step are collated with the individual feature database in which the individual features are registered in association with the individual ID that identifies the individual, and the individual ID corresponding to the extracted individual features is collated. And the individual feature matching step to acquire
An action locus output step that outputs the locus fragment as an action locus for each individual ID,
A method for estimating a behavioral trajectory.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020182950 | 2020-10-30 | ||
JP2020182950 | 2020-10-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022074009A true JP2022074009A (en) | 2022-05-17 |
JP7211601B2 JP7211601B2 (en) | 2023-01-24 |
Family
ID=81604220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021166583A Active JP7211601B2 (en) | 2020-10-30 | 2021-10-11 | Action trajectory estimation device, action trajectory estimation program, and action trajectory estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7211601B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009055139A (en) * | 2007-08-23 | 2009-03-12 | Hitachi Kokusai Electric Inc | Person tracking system, apparatus, and program |
JP2012185769A (en) * | 2011-03-08 | 2012-09-27 | Canon Inc | Authentication device, authentication method, authentication program, and storage medium |
JP2014225082A (en) * | 2013-05-15 | 2014-12-04 | 富士通株式会社 | Monitoring system, program and method |
JP2017011598A (en) * | 2015-06-25 | 2017-01-12 | 株式会社日立国際電気 | Monitoring system |
JP2019194857A (en) * | 2018-05-04 | 2019-11-07 | キヤノン株式会社 | Object tracking method and device |
JP2020107349A (en) * | 2014-09-26 | 2020-07-09 | 日本電気株式会社 | Object tracking device, object tracking system, and program |
-
2021
- 2021-10-11 JP JP2021166583A patent/JP7211601B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009055139A (en) * | 2007-08-23 | 2009-03-12 | Hitachi Kokusai Electric Inc | Person tracking system, apparatus, and program |
JP2012185769A (en) * | 2011-03-08 | 2012-09-27 | Canon Inc | Authentication device, authentication method, authentication program, and storage medium |
JP2014225082A (en) * | 2013-05-15 | 2014-12-04 | 富士通株式会社 | Monitoring system, program and method |
JP2020107349A (en) * | 2014-09-26 | 2020-07-09 | 日本電気株式会社 | Object tracking device, object tracking system, and program |
JP2017011598A (en) * | 2015-06-25 | 2017-01-12 | 株式会社日立国際電気 | Monitoring system |
JP2019194857A (en) * | 2018-05-04 | 2019-11-07 | キヤノン株式会社 | Object tracking method and device |
Non-Patent Citations (1)
Title |
---|
伊藤 誠也: "共可視特徴に基づく複数カメラ間の人物同定", 画像電子学会誌 VOL.45 NO.3 2016, vol. 45, no. 3, JPN6022044287, 31 July 2016 (2016-07-31), JP, pages 382 - 391, ISSN: 0004906386 * |
Also Published As
Publication number | Publication date |
---|---|
JP7211601B2 (en) | 2023-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jun et al. | Estimating pig weights from images without constraint on posture and illumination | |
US10080513B2 (en) | Activity analysis, fall detection and risk assessment systems and methods | |
JP6000602B2 (en) | Body detection method and object detection apparatus | |
WO2020042419A1 (en) | Gait-based identity recognition method and apparatus, and electronic device | |
JP6969611B2 (en) | Information processing systems, control methods, and programs | |
US9408561B2 (en) | Activity analysis, fall detection and risk assessment systems and methods | |
RU2546327C1 (en) | Human tracking device, human tracking method and non-temporary computer-readable medium storing human tracking programme | |
Leroy et al. | A computer vision method for on-line behavioral quantification of individually caged poultry | |
JP6666488B2 (en) | Image extraction device | |
JP2018097492A (en) | Image processing device, system, method and program | |
JP6915904B2 (en) | Interpretation system for cow riding behavior | |
JP2018206321A (en) | Image processing device, image processing method and image processing program | |
JP6503079B2 (en) | Specific person detection system, specific person detection method and detection device | |
Zheng et al. | Cows' legs tracking and lameness detection in dairy cattle using video analysis and Siamese neural networks | |
JP5940862B2 (en) | Image processing device | |
CN110738650B (en) | Infectious disease infection identification method, terminal device and storage medium | |
JP5001808B2 (en) | Crime prevention device and crime prevention program | |
JP2011113313A (en) | Attitude estimation device | |
JP2017205135A (en) | Individual identification device, individual identification method, and individual identification program | |
CN104335577B (en) | Information processing equipment, information processing method and surveillance camera system | |
JP2017205134A (en) | Body condition detection device, body condition detection method, and body condition detection program | |
Nouredanesh et al. | Chasing feet in the wild: a proposed egocentric motion-aware gait assessment tool | |
JP2021089778A (en) | Information processing apparatus, information processing method, and program | |
JP7211601B2 (en) | Action trajectory estimation device, action trajectory estimation program, and action trajectory estimation method | |
CN112132110A (en) | Method for intelligently judging human body posture and nursing equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20211011 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7211601 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |