JP7211601B2 - 行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法 - Google Patents

行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法 Download PDF

Info

Publication number
JP7211601B2
JP7211601B2 JP2021166583A JP2021166583A JP7211601B2 JP 7211601 B2 JP7211601 B2 JP 7211601B2 JP 2021166583 A JP2021166583 A JP 2021166583A JP 2021166583 A JP2021166583 A JP 2021166583A JP 7211601 B2 JP7211601 B2 JP 7211601B2
Authority
JP
Japan
Prior art keywords
individual
trajectory
posture
region
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021166583A
Other languages
English (en)
Other versions
JP2022074009A (ja
Inventor
行信 谷口
諒佑 古田
翔太郎 石渡
和希 脇田
和宏 穐澤
葵 松永
敏行 土谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo University of Science
Original Assignee
Tokyo University of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo University of Science filed Critical Tokyo University of Science
Publication of JP2022074009A publication Critical patent/JP2022074009A/ja
Application granted granted Critical
Publication of JP7211601B2 publication Critical patent/JP7211601B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、動物や人間等の移動体を複数の監視カメラで広域監視するのに好適な行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法に関するものである。
従来、乳牛等の動物を監視する方法としては、人が直接監視する方法、家畜にセンサを取り付けて監視する方法、および監視カメラによって監視する方法等が知られている。例えば、特開2019-24482号公報には、空間情報(赤外画像等)から検出した物体情報(牛の輪郭情報等)と、互いに接触している牛の配置情報(個体識別情報等)とから生成した牛の行動情報(歩行距離、立位・座位・横臥時間、接触回数等)に基づいて、牛の異常行動を判定する技術が提案されている(特許文献1)。
特開2019-24482号公報
しかしながら、近年は酪農の大規模化が進んでおり、フリーストール牛舎やフリーバーン牛舎のように、広い牛舎内で数百頭以上の牛を自由に行動させながら飼育する方法が主流となってきている。このため、人が直接監視する方法では、全ての牛を個体ごとに混同することなく十分に監視し、体調等を管理することは困難である。
また、家畜にセンサを取り付けて監視する方法では、全頭分のセンサを用意する必要があるため、大規模な牛舎になるほどコストがかさむ。また、センサが脱落、破損、電池切れ等するたびに、その牛を探し出して交換等する必要があり、メンテナンスにも手間と費用が掛かる。さらに、牛は何でも飲み込んでしまう習性があるため、脱落したセンサや電池を餌と一緒に飲み込んでしまう危険性もある。
さらに、監視カメラによって監視する方法については、特許文献1のように、狭い牛房内で少数頭の牛を監視するシステムでは、多数頭の広域監視に対応できないという問題がある。また、広域監視を実現するために、広角レンズを備えた監視カメラを使用すると、画像中の牛の位置や牛の姿勢によって見え方が大きく変化してしまう。このため、広角画像から牛を個体ごとに識別することが困難となり、個体ごとの行動軌跡を正しく推定することができないという問題がある。
本発明は、このような問題点を解決するためになされたものであって、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定することができる行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法を提供することを目的としている。
本発明に係る行動軌跡推定装置は、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定装置であって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合部と、を有する。
また、本発明の一態様として、個体ごとの識別精度が低下するのを抑制するという課題を解決するために、前記個体領域に含まれる移動体の姿勢を推定する移動体姿勢推定部を有しており、前記個体特徴抽出部は、前記個体を識別するのに適した姿勢の移動体を含む個体領域のみから前記個体特徴を抽出してもよい。
さらに、本発明の一態様として、簡易的に移動体の姿勢を高精度に推定するという課題を解決するために、前記監視カメラごとに、移動体の姿勢を推定可能な姿勢推定可能領域と、前記姿勢推定可能領域に存在する移動体がとることの多い姿勢とが設定されており、前記移動体姿勢推定部は、前記個体領域が前記姿勢推定可能領域に含まれる場合、当該姿勢推定可能領域に対応付けられた姿勢を前記個体領域に含まれる移動体の姿勢として推定してもよい。
また、本発明の一態様として、個体の識別精度を向上するという課題を解決するために、前記行動軌跡に基づいて、前記個体IDごとに、前記監視画像から前記個体領域を切り出して移動体画像列を取得し、各移動体画像の個体特徴を抽出して前記個体特徴データベースに追加する個体特徴追加部を有していてもよい。
さらに、本発明の一態様として、個体ごとの行動軌跡を高精度に推定するという課題を解決するために、前記軌跡断片統合部は、前記軌跡断片間における時間的な連続性、空間的な連続性および個体特徴間の類似性に基づいて、前記軌跡断片間の連続性が最も高い軌跡断片を特定してもよい。
また、本発明の一態様として、外見が似ている個体同士であっても、異なる個体の軌跡断片同士を誤って統合するのを防止するという課題を解決するために、前記軌跡断片統合部は、前記軌跡断片間の連続性が最も高い軌跡断片同士のそれぞれに対応付けられた個体IDが異なる場合、当該軌跡断片同士を統合しないようにしてもよい。
本発明に係る行動軌跡推定プログラムは、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定プログラムであって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合部と、してコンピュータを機能させる。
本発明に係る行動軌跡推定方法は、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定方法であって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出ステップと、時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行ステップと、前記追跡処理実行ステップで対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出ステップと、前記個体特徴抽出ステップで抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合ステップと、前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合ステップと、を有する。
本発明に係る行動軌跡推定装置は、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するとともに、当該推定演算に係る処理効率を向上するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定装置であって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力部と、を有する。
本発明に係る行動軌跡推定プログラムは、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するとともに、当該推定演算に係る処理効率を向上するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定プログラムであって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力部と、してコンピュータを機能させる。
本発明に係る行動軌跡推定方法は、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定するとともに、当該推定演算に係る処理効率を向上するという課題を解決するために、移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定方法であって、複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出ステップと、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行ステップと、前記追跡処理実行ステップで対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出ステップと、前記個体特徴抽出ステップで抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合ステップと、前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力ステップと、を有する。
本発明によれば、多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定することができる。
本発明に係る行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法を用いて監視する乳牛(移動体)と、その牛舎の一例を示す図である。 本発明に係る行動軌跡推定装置の第1実施形態を示すブロック図である。 本第1実施形態の個体特徴データベースに保存されるデータの一例を示す図である。 本第1実施形態の軌跡断片バッファに保存されるデータの一例を示す図である。 本第1実施形態の個体領域を示す監視画像の一例である。 本第1実施形態の姿勢推定データベースに保存されるデータの一例を示す図である。 本第1実施形態の行動軌跡データベースに保存されるデータの一例を示す図である。 本第1実施形態の個体特徴を登録する際に必要となる画像群を撮影するための装置の一例である。 乳牛を異なる方向から撮影した画像の模式図である。 本第1実施形態における、(a)追跡処理実行部による追跡処理と、(b)個体ごとの軌跡断片を示す図である。 画像座標系(二次元空間)の模式図である。 牛舎座標系(三次元空間)の模式図である。 本第1実施形態の軌跡断片統合部によって統合された軌跡断片の一例を示す図である。 本第1実施形態の行動軌跡推定装置によって推定された行動軌跡の一例を示す図である。 本第1実施形態の個体特徴登録処理を示すフローチャートである。 本第1実施形態の行動軌跡推定処理を示すフローチャートである。 本第1実施形態の姿勢推定処理を示すフローチャートである。 本第1実施形態の個体特徴追加処理を示すフローチャートである。 本発明に係る行動軌跡推定装置の第2実施形態を示すブロック図である。 本第2実施形態の軌跡断片バッファに保存されるデータの一例を示す図である。 本第2実施形態の行動軌跡データベースに保存されるデータの一例を示す図である。 本第2実施形態において、画像座標系における個体領域を牛舎座標系における個体領域に変換する様子を示す図である。 本第2実施形態における、(a)各監視画像内で検出された個体領域、(b)全体画像内で検出された個体領域、および(c)個体ごとの軌跡断片を示す図である。 本第2実施形態の行動軌跡推定処理を示すフローチャートである。
以下、本発明に係る行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法の実施形態について図面を用いて説明する。
本第1実施形態では、図1に示すように、フリーストール牛舎やフリーバーン牛舎のように、広い牛舎内で飼育される多数頭の乳牛を複数の監視カメラ11で監視し、各監視カメラ11の映像から本第1実施形態の行動軌跡推定装置1、行動軌跡推定プログラム1bおよび行動軌跡推定方法を用いて個体ごとの行動軌跡を推定する場合を例として説明する。なお、本第1実施形態では、監視対象の移動体として乳牛を想定しているが、これに限定されるものではなく、他の動物や人間の他、車等のように動くもの全てが本発明に係る移動体に含まれる。
本第1実施形態において、行動軌跡推定装置1は、パーソナルコンピュータ、スマートフォンまたはタブレット等のコンピュータによって構成されており、図2に示すように、主として、表示手段2と、入力手段3と、記憶手段4と、演算処理手段5とを有している。また、行動軌跡推定装置1には、上述した複数の監視カメラ11が接続されている。以下、各構成手段について詳細に説明する。
監視カメラ11は、監視しようとする移動体を撮影するものである。本第1実施形態において、監視カメラ11は、図1に示すように、牛舎の天井に複数台固定されており、数秒に一枚程度の間隔で時系列の監視画像を撮影するようになっている。また、本第1実施形態において、監視カメラ11は、動画の1フレームを監視画像として出力する動画カメラによって構成されているが、間欠的に監視画像を撮影する静止画カメラであってもよい。
なお、監視カメラ11の台数は、監視対象となる牛舎の広さや天井の高さによって調整する必要がある。また、監視カメラ11は夜間撮影時の感度を高めるために近赤外カメラとしてもよい。さらに、行動軌跡推定装置1と監視カメラ11との接続はバス接続に限定されるものではなく、イーサネット(登録商標)等の有線ネットワークや、Wi-Fi(登録商標)等の無線ネットワークによって接続されていてもよい。
表示手段2は、液晶ディスプレイ等で構成されており、行動軌跡推定装置1により推定された行動軌跡等を表示するものである。入力手段3は、キーボードやマウス等で構成されており、ユーザによる指示や選択を入力するものである。なお、これら表示手段2および入力手段3に代えて、表示機能および入力機能を兼ね備えたタッチパネル等の表示入力手段を有していてもよい。
記憶手段4は、各種のデータを記憶するとともに、演算処理手段5が演算処理を行う際のワーキングエリアとして機能するものである。本第1実施形態において、記憶手段4は、ハードディスク、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等で構成されており、図2に示すように、プログラム記憶部41と、個体特徴データベース42と、軌跡断片バッファ43と、姿勢推定データベース44と、行動軌跡データベース45とを有している。以下、各構成部についてより詳細に説明する。
プログラム記憶部41には、本第1実施形態の行動軌跡推定装置1が有する三つの機能、すなわち個体特徴登録機能、行動軌跡推定機能および個体特徴追加機能のそれぞれを実行するための個体特徴登録プログラム1a、行動軌跡推定プログラム1bおよび個体特徴追加プログラム1cがインストールされている。そして、演算処理手段5が、各プログラムを実行することにより、行動軌跡推定装置1としてのコンピュータを後述する各構成部として機能させるようになっている。
なお、個体特徴登録プログラム1a、行動軌跡推定プログラム1bおよび個体特徴追加プログラム1cの利用形態は、上記構成に限られるものではない。例えば、CD-ROMやDVD-ROM等のように、コンピュータで読み取り可能な非一時的な記録媒体に各プログラムを記憶させておき、当該記録媒体から直接読み出して実行してもよい。また、外部サーバ等からクラウドコンピューティング方式やASP(Application Service Provider)方式で利用してもよい。
個体特徴データベース42は、監視対象にしようとする移動体の個体ごとに、当該個体の外見に基づく特徴ベクトルである個体特徴を予め登録するものである。本第1実施形態において、個体特徴データベース42には、図3に示すように、個体を識別する個体IDに対応付けて、後述する個体特徴登録部51によって抽出される個体特徴と、当該個体特徴の抽出に用いた画像ファイル名とが格納される。
なお、個体特徴データベース42においては、後述する個体特徴照合部58が最近傍の個体特徴を高速に検索する必要があるため、最近傍探索用のインデックス(直積量子化、ハッシュインデックス、kdツリーインデックス等)を作成しておくことが好ましい。また、個体特徴データベース42は、個体の入れ替え等に伴って、個体特徴を削除したり、更新する機能を有していてもよい。
軌跡断片バッファ43は、個体ごとの行動軌跡の一部を構成する軌跡断片を所定時間分(数時間から一日分)ずつバッファして保存するものである。本第1実施形態において、軌跡断片バッファ43は、図4に示すように、軌跡断片を識別する軌跡断片IDに対応付けて、軌跡断片を取得した監視カメラ11のカメラ番号と、軌跡断片を取得した時刻と、個体が占める画像領域である個体領域(画像座標系における二次元座標値)と、乳牛の位置(牛舎座標系における二次元座標値)と、個体特徴(特徴ベクトル)と、個体IDとが保存されている。
なお、本第1実施形態において、個体領域は、後述する個体領域検出部53によって検出されるものであり、図5に示すように、監視画像内において個体が占める矩形の画像領域として検出される。そして、当該画像領域の対角をなす二点の位置座標(画像座標系における二次元座標値)が個体領域として保存される。また、乳牛の位置は、後述するとおり、画像座標系における個体領域の中心点を牛舎座標系における二次元点に変換したものである。しかしながら、軌跡断片は、上記に限定されるものではなく、少なくとも所定の座標系における個体領域の時系列の位置座標群を含むものであればよい。
姿勢推定データベース44は、後述する移動体姿勢推定部56が姿勢を推定する際に使用するデータを保存するものである。本第1実施形態において、姿勢推定データベース44には、図6に示すように、監視に使用する監視カメラ11のカメラ番号に対応付けて、移動体の姿勢を推定可能な姿勢推定可能領域(画像座標系の二次元座標値)と、当該姿勢推定可能領域に存在する移動体がとることの多い姿勢とが設定されている。
なお、姿勢推定可能領域は、牛舎のレイアウトに基づいて設定される。具体的には、図5の監視画像を例に説明すると、画像の上半分にはベッドが配置されており、横臥状態(肢を投げ出し横倒しの姿勢)や伏臥状態(膝を下ろし、胸を起こした姿勢)の乳牛が写っている。一方、画像の下半分には餌場が配置されており、起立状態で飼料を食べている採食状態の乳牛が写っている。さらに、画像の中央部には通路が配置されており、歩行中の乳牛が写っている。このように牛舎のレイアウトは決まっており、監視カメラ11も固定されているため、監視カメラ11ごとに、予め個体を識別するのに適した姿勢をとることが多い領域を姿勢推定能領域として設定することができる。
行動軌跡データベース45は、後述する軌跡断片統合部59から出力される個体IDごとの行動軌跡を保存するものである。本第1実施形態において、行動軌跡データベース45には、図7に示すように、行動軌跡を識別する行動軌跡IDに対応付けて、監視カメラ11のカメラ番号と、撮影時刻と、個体領域(画像座標系における二次元座標値)と、牛の位置(牛舎座標系における二次元座標値)と、個体特徴(特徴ベクトル)と、個体IDとが保存される。すなわち、軌跡断片バッファ43に格納される個体IDは、軌跡断片が統合される前の仮の個体IDであるが、後述する軌跡断片統合部59によって各軌跡断片が統合されると、最終的な個体IDとして行動軌跡データベース45に登録される。
つぎに、演算処理手段5は、CPU(Central Processing Unit)等で構成されており、記憶手段4にインストールされた各プログラムを実行することにより、行動軌跡推定装置1に各種の機能を発揮させるものである。具体的には、図2に示すように、演算処理手段5は、個体特徴登録プログラム1aを実行することにより、個体特徴登録機能を発揮する個体特徴登録部51として機能する。
また、演算処理手段5は、行動軌跡推定プログラム1bを実行することにより、行動軌跡推定機能を発揮させる監視画像取得部52と、個体領域検出部53と、追跡処理実行部54と、軌跡断片取得部55と、移動体姿勢推定部56と、個体特徴抽出部57と、個体特徴照合部58と、軌跡断片統合部59として機能する。さらに、演算処理手段5は、個体特徴追加プログラム1cを実行することにより、個体特徴追加機能を発揮させる個体特徴追加部60として機能する。以下、各機能ごとの構成部についてより詳細に説明する。
(1)個体特徴登録機能
個体特徴登録機能は、個体IDに対応付けて、個体の外見に基づく特徴ベクトルである個体特徴を個体特徴データベース42に事前登録する機能であり、個体特徴登録部51によって機能される。
本第1実施形態において、個体特徴登録部51は、まず、静止画カメラや動画カメラ等を用いて、新規登録しようとする乳牛の画像群を取得する。例えば、図8に示すような撮影枠に複数のカメラを固定するとともに通過センサや近接センサ等のセンサを設置し、乳牛が通過するタイミングでシャッターが切れるように制御することで、乳牛の全身が画面に収まるタイミングで複数の方向から撮影された画像群が取得される。
なお、個体特徴を登録する際に使用するカメラは、一般的なRGBカメラではなく、深度情報を取得可能なデプスカメラを使用することもできる。デプスカメラによって取得される深度データ付きRGB画像からは、乳牛の三次元モデルが作成される。また、当該三次元モデルを複数の方向から撮影した画像をコンピュータグラフィックスでレンダリングすることで多方向から乳牛を撮影した多視点画像データが生成される。そして、当該多視点画像データから個体特徴を抽出して個体特徴データベース42に登録することで、個体の識別精度を高めることができる。
つぎに、個体特徴登録部51は、個体を識別するための個体IDを取得する。本第1実施形態において、個体特徴登録部51は、乳牛の首輪や耳標に付与されている個体IDを無線センサやカメラを用いて読み取ることで取得する。あるいは、人間が耳標等に付与されている個体IDを目視で確認し、入力手段3から入力された個体IDを個体特徴登録部51が取得してもよい。
つづいて、個体特徴登録部51は、カメラで撮影した画像群から、乳牛の斑紋パターン、毛色、体型などの外見を表す特徴ベクトルを算出し、個体特徴として抽出する。個体特徴の抽出方法は、特に限定されるものではないが、畳み込みニューラルネットワーク(Convolutional Neural Network;CNN)等の機械学習モデルを用いて、入力画像から実数値を要素として持つベクトル(例えば2048次元)を算出してもよい。CNNのフィルタの重みパラメータを予め学習によって最適化しておくことで、個体識別の精度を高めることができる。重みパラメータは、教師データに対する交差エントロピー損失やトリプレット損失などを最小化するように調整する。
ここで、個体特徴を登録する際に使用する画像の模式図を図9に示す。乳牛を真上から下向きに撮影したカメラ1の画像では、背中の斑紋が写されている。一方、乳牛を上後方から撮影したカメラ2の画像では、臀部の斑紋が写されいてる。カメラ1,2の画像において共通する斑紋もあるが、一方のカメラにしか写っていない斑紋も存在する。また、撮影方向によって同一の斑紋も見え方が変化する。よって、個体特徴を抽出する際は、乳牛の全身の斑紋パターンをデータベース化するために、多方向から撮影した多視点画像を使用することが望ましい。
なお、一台のカメラで一度に乳牛の全身の斑紋を撮影することは困難である。よって、複数台のカメラから生成した多視点画像を入力とし、斑紋パターンを数値化することで個体識別の精度の向上が期待できる。また、複数の画像から個体特徴を抽出する場合は、全ての画像に対してCNNを用いて特徴ベクトルを算出し、各特徴ベクトルの要素毎の平均または最大値を特徴ベクトルとしてもよい。
最後に、個体特徴登録部51は、入力された全ての画像について個体特徴を抽出し、個体IDに対応付けて個体特徴データベース42に登録する。また、個体特徴登録部51は、監視しようとする全ての乳牛について個体特徴を抽出し、個体IDに対応付けて個体特徴データベース42に登録する。
(2)行動軌跡推定機能
行動軌跡推定機能は、監視カメラ11の監視画像から乳牛を個体ごとに識別し、個体ごとの行動軌跡を推定する機能であり、監視画像取得部52と、個体領域検出部53と、追跡処理実行部54と、軌跡断片取得部55と、移動体姿勢推定部56と、個体特徴抽出部57と、個体特徴照合部58と、軌跡断片統合部59とによって機能される。
監視画像取得部52は、複数の監視カメラ11から時系列の監視画像を取得するものである。本第1実施形態において、監視画像取得部52は、各監視カメラ11から数秒に一枚程度の間隔で時系列の監視画像を取得し、各監視カメラ11を識別するカメラ番号と、撮影時刻とを対応付けるようになっている。
個体領域検出部53は、複数の監視カメラ11で撮影された時系列の各監視画像内において、個体が占める画像領域を個体領域として検出するものである。本第1実施形態において、個体領域検出部53は、図5に示すように、監視画像取得部52によって取得された監視画像に写っている乳牛を個体ごとに検出し、各個体に外接する矩形の画像領域を個体領域として検出する。
本第1実施形態において、個体領域検出部53は、Faster R-CNNやMask R-CNN等の深層学習ベースの物体検出器を用いて個体領域を検出しているが、これに限定されるものではなく他の画像処理等によって検出してもよい。また、本第1実施形態では、個体領域を矩形形状として表現しているが、この形状に限定されるものではなく、多角形(ポリゴン)や円形等で表現してもよい。
追跡処理実行部54は、監視画像内の移動体を個体ごとに追跡するものである。本第1実施形態において、追跡処理実行部54は、例えば、SORT(Simple Online and Realtime Tracking)という移動体追跡アルゴリズムを使用し、個体領域検出部53によって検出された個体領域のそれぞれにつき、時系列において前後する監視画像(フレーム)間において、位置・移動方向・速度が近い個体領域を対応付けることでトラッキングするようになっている。
具体的には、図10(a)に示すように、時系列の監視画像において、時刻tの監視画像から検出された個体領域群を{B(t)1, B(t)2, B(t)3,…B(t)nt}とし、時刻t-1の監視画像から検出された個体領域群を{B(t-1)1, B(t-1)2, B(t-1)3,…B(t-1)nt-1}とする。この場合、追跡処理実行部54は、時刻tと時刻t-1のフレーム間で個体領域の対応づけを行うことにより、図10(b)に示すような個体ごとの軌跡断片が得られる。
例えば、監視画像内に含まれる乳牛がほとんど移動していない場合は、同じ数の個体領域が検出されるため(つまり、nt=nt-1)、全ての個体領域を1対1で対応付けることができる(全ての乳牛を追跡可能)。一方、時刻tの時点で新しい乳牛が監視画像内に入ってきた場合や、障害物の影から乳牛が現れた場合は、対応づけができない新たな個体領域として検出する。
そして、追跡処理実行部54は、個体領域の対応づけができない場合(時刻t-1の監視画像内に個体領域B(t)mに対応する個体領域が存在しない場合)、時刻tの監視画像内に新たな個体領域が出現したと判断し、新たな軌跡断片IDを払い出して対応付ける。一方、追跡処理実行部54は、個体領域の対応づけに成功した場合(個体領域B(t)mと個体領域B(t-1)nが対応する場合)、軌跡断片バッファ43から個体領域B(t-1)nに対応する軌跡断片IDを取得する。
なお、本第1実施形態において、追跡処理実行部54は、移動体追跡アルゴリズムとしてSORT(Simple Online and Realtime Tracking)を使用しているが、これに限定されるものではなく、他の移動体追跡アルゴリズムを使用してもよい。
軌跡断片取得部55は、追跡処理実行部54により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得するものである。本第1実施形態において、軌跡断片取得部55は、追跡処理実行部54によって同一の軌跡断片IDが付与された個体領域のそれぞれについて中心点を特定し、当該中心点の画像座標系における二次元座標値を算出する。そして、当該二次元座標値を牛舎座標系における三次元座標値に変換し、Z値(高さ)を除く二次元座標値を軌跡断片として取得する。また、軌跡断片取得部55は、取得した軌跡断片を軌跡断片IDに対応付けて軌跡断片バッファ43に保存する。
ここで、画像座標系の二次元点p=(x, y)から、牛舎座標系の三次元点 P=(X, Y, Z)を求める方法について説明する。図11は、画像座標系(二次元空間)の模式図であり、牛舎の天井に設置したカメラで撮影した画像に対応し左上隅を原点としている。また、図12は、牛舎座標系(三次元空間)の模式図であり、牛舎内の一点を原点O、鉛直上向き方向をZ、牛舎の床面をXY平面としている。
ピンホールカメラモデル(透視投影モデル)を用いると、画像座標系の二次元点 p=(x, y)と牛舎座標系の三次元点 P=(X, Y, Z)との対応関係は以下の式(1),(2)で表される。
Figure 0007211601000001
なお、カメラパラメータは、カメラの機種、設定、カメラの設置位置、角度等によって変化するので、カメラ設置時にキャリブレーション処理によって求めておく。カメラキャリブレーション手法は、TsaiやZhangの手法とよばれる一般的な方法を用いることができる。式(1),(2)では、レンズ歪みを考慮していないが、レンズ歪みパラメータを含むカメラモデルを用いることもできる。
図11および図12に示すように、乳牛の背中の点が、牛舎座標系では三次元点P1=(X1, Y1, Z1)、画像座標系では二次元点p1=(x1, y1)で表されるとする。乳牛の身長(床面から背中までの高さ)Hが既知であると仮定して、式(2)に代入して整理すると、以下の式(3)となる。
Figure 0007211601000002
画像座標系の二次元点p1=(x1, y1)は、例えば、個体領域の中心点として取得しているため、式(3)の連立一次方程式を解くことにより、牛舎座標系の三次元点P1=(X1, Y1, Z1)が求められる。なお、乳牛の身長Hは個体に依らず一定とみなしてもよく、身長等から推定してもよい。
画像座標系では、乳牛がカメラから遠ざかるほどゆっくりと歩いているように見えるため、等速で歩いていても等速移動として判定されない。これに対し、牛舎座標系では乳牛が等速で移動していれば等速移動と判定できる。よって、個体追跡処理においては、画像座標系ではなく牛舎座標系を用いた方が乳牛の移動を正確に判定できるため望ましい。
移動体姿勢推定部56は、個体領域に含まれる移動体の姿勢を推定するものである。本第1実施形態において、移動体姿勢推定部56は、個体領域検出部53によって検出された個体領域のそれぞれについて、乳牛の姿勢(起立、横臥、頭の向き等)を推定し、個体を識別するのに適した姿勢であるか否かを判定する。そして、個体を識別するのに適した姿勢である場合のみ、個体特徴抽出部57によって個体特徴を抽出させるようになっている。
本第1実施形態では、上述したとおり、牛舎レイアウトに基づいて、予め姿勢推定能領域が姿勢推定データベース44に設定されている。したがって、移動体姿勢推定部56は、まず、個体領域検出部53によって検出された個体領域を取得するとともに、当該個体領域を含む監視画像を撮影した監視カメラ11のカメラ番号を取得する。
つぎに、移動体姿勢推定部56は、姿勢推定データベース44を参照し、取得したカメラ番号に対応付けて設定されている姿勢推定可能領域および姿勢を取得する。そして、取得した個体領域が姿勢推定可能領域に包含されるか否かを判定し、含まれる場合、当該姿勢推定可能領域に対応付けられた姿勢を個体領域に含まれる移動体の姿勢として推定し出力する。一方、取得した個体領域が姿勢推定可能領域に含まれていない場合は、姿勢を推定することができないため姿勢を出力しない。
本第1実施形態では、出力された姿勢が起立状態であれば、個体を識別可能な姿勢をとっていると判断し、個体特徴抽出部57によって個体特徴を抽出させる。一方、出力された姿勢が横臥状態である場合、あるいは姿勢を推定できない場合には、個体を識別可能な姿勢をとっていないと判断し、個体特徴を抽出することなく、他の個体領域の処理へと移行するようになっている。
なお、本第1実施形態において、移動体姿勢推定部56は、個体領域と姿勢推定可能領域との包含関係のみを考慮している。しかしながら、この条件に限定されるものではなく、個体領域の縦横比や面積、直前の監視画像における個体領域の位置(すなわち乳牛の移動方向や移動量)、異なる個体領域の重複率等を条件に加えることで、姿勢の推定精度を向上させることができる。例えば、個体領域の重複率が大きい場合、すなわち隣接する個体領域同士の重なりが大きい場合は乳牛同士が密接しているので個体の識別は不可能としてもよい。
また、本第1実施形態では、個体領域が姿勢推定可能領域に含まれない場合は、個体を識別するための個体特徴を抽出しないようになっている。しかしながら、このような処理に限定されるものではなく、個体領域が姿勢推定可能領域に含まれない場合であっても、個体特徴を抽出し、当該個体特徴に対応する個体IDを信頼度の低いデータとして取り扱うようにしてもよい。
さらに、本第1実施形態において、移動体姿勢推定部56は、牛舎レイアウトに基づいて予め設定した姿勢推定能領域を用いて移動体の姿勢を推定している。しかしながら、例えば、乳牛が餌場にいても餌を食べず横を向いている場合等のように、例外的な状況もある。このような例外的な状況や、牛舎レイアウトに基づく方法では推定できない姿勢に対応するために、画像認識によって乳牛の姿勢を推定してもよい。
また、本第1実施形態において、移動体姿勢推定部56は、全ての個体領域について姿勢推定処理を実行しているが、この構成に限定されるものではない。例えば、直前の監視画像内における個体領域と比較して、処理しようとする個体領域の位置や形状の変化が予め設定したしきい値より小さい場合は、乳牛の姿勢変化が小さく個体の識別結果も同一となる可能性が高いため、姿勢推定処理を行わないようにしてもよい。これにより、個体特徴の抽出処理や照合処理に要する時間が削減される。
個体特徴抽出部57は、個体領域から個体特徴を抽出するものである。本第1実施形態において、個体特徴抽出部57は、上述した個体特徴登録部51と同様の処理によって、個体領域から個体特徴を抽出する。また、個体特徴抽出部57は、個体を識別するのに適した姿勢の移動体を含む個体領域のみから個体特徴を抽出する一方、個体を識別するのに適した姿勢でない移動体を含む個体領域や、姿勢を推定できない移動体を含む個体領域については、個体特徴を抽出しない。
個体特徴照合部58は、抽出された個体特徴を個体特徴データベース42と照合し、個体を識別するものである。本第1実施形態において、個体特徴照合部58は、個体特徴抽出部57によって抽出された個体特徴と、個体特徴データベース42に登録されている個体特徴とを照合し、抽出された個体特徴に対応する個体IDを取得するようになっている。
具体的には、個体特徴抽出部57によって抽出された個体特徴(特徴ベクトル)をxq(クエリとよぶ)とし、個体特徴データベース42に登録されている個体特徴(特徴ベクトル集合)をxi(i=1,2,…,n)とした場合、個体特徴照合部58は、以下の式(4)によって表される特徴ベクトル間の距離d(xi,xq)=||xi-xq||が最も小さい(最近傍となる)個体特徴の番号iminを求める。
Figure 0007211601000003
そして、個体特徴照合部58は、個体特徴データベース42において、imin番目の個体特徴に対応付けられている個体IDを個体の識別結果として取得する。なお、特徴ベクトル間の距離としては、ユークリッド距離やコサイン距離など様々なものを適用できる。また、特徴ベクトル間の距離d(xi,xq)は0以上の値をとり、0に近いほど個体特徴が類似していることを示すため、個体識別結果の信頼度として用いてもよい。あるいは、最近傍の距離d1と二番目に近傍の距離d2を算出し、これらの距離比d2/d1を信頼度としてもよい。
軌跡断片統合部59は、軌跡断片間の連続性が最も高い軌跡断片同士を統合し、個体IDごとの行動軌跡として出力するものである。本第1実施形態において、軌跡断片統合部59は、所定時間おきに、軌跡断片バッファ43に蓄積された軌跡断片間の連続性を判定し、当該連続性が最も高い軌跡断片同士を統合することで、最終的な個体ID付きの行動軌跡を行動軌跡データベース45に出力する。このとき、軌跡断片統合部59は、統合した軌跡断片群に唯一の行動軌跡IDを割り当てる。また、一つの行動軌跡IDに対して唯一の個体IDが対応するようにする。
また、本第1実施形態において、軌跡断片統合部59は、軌跡断片間における時間的な連続性、空間的な連続性および個体特徴間の類似性に基づいて、軌跡断片間の連続性が最も高い軌跡断片を特定する。具体的には、軌跡断片統合部59は、軌跡断片Tiに接続する軌跡断片Tjを求める場合、下記式(5)によって定義される軌跡断片間の距離の重み付き和d(Ti, Tj)が、最小の値をとるTjを軌跡断片間の連続性が最も高い軌跡断片として特定する。
d(Ti, Tj)=wtdtime(Ti, Tj)+wldloc(Ti, Tj)+wfdfeature(Ti, Tj) ・・・式(5)
上記式(5)において、dtime(Ti, Tj)は軌跡断片Tiの終了時刻e(Ti)と軌跡断片Tjの開始時刻s(Tj)との差であり、軌跡断片間における時間的な連続性を示す。また、dloc(Ti, Tj)は軌跡断片Tiの最終位置Pe(Ti)と軌跡断片Tjの開始位置Ps(Tj)との差であり、軌跡断片間における空間的な連続性を示す。さらに、dfeature(Ti, Tj)は軌跡断片Ti,Tjのそれぞれに関連付けられた個体特徴x(Ti),x(Tj)間の距離であり、個体特徴間の類似性を示す。ただし、dtime(Ti, Tj)およびdloc(Ti, Tj)は、軌跡断片Ti,Tjがこの順に接続する場合にのみ定義するものとする。また、軌跡断片間の距離は上記式(5)に限定されるものではなく、移動速度や移動方向の差異を評価対象としてもよい。
ここで、軌跡断片を統合する具体的な手順について、図13の例を用いて説明する。まず、1番の監視カメラ11で取得された軌跡断片T1(仮の個体ID=3)から統合処理を開始する。2番の監視カメラ11で取得された軌跡断片T2(仮の個体ID:不明)、および3番の監視カメラ11で取得された軌跡断片T3(仮の個体ID=4)、T4(仮の個体ID=3)のそれぞれに対する上記距離d(Ti, Tj)(j=2,3,4)は以下となる。なお、ここでは簡単化するため、wt=wl=1, wf=0とした。
d(T1, T2)=|11-10|+√((19-20)2+(12-12)2 )=2
d(T1, T3)=|20-10|+√((9-20)2+(12-12)2 )=21
d(T1, T4)=|20-10|+√((9-20)2+(8-12)2 )=21.7
以上の通り、軌跡断片T1に対する上記距離d(Ti, Tj)が最小となるのは軌跡断片T2であるため、両者を結合し軌跡断片{T1, T2}とする。さらに、この軌跡断片{T1, T2}と軌跡断片T3,T4の間の上記距離d(Ti, Tj)(j=3,4)は以下となる。
d(T2, T3)=|20-20|+√((10-10)2+(12-10)2 )=2
d(T2, T4)=|20-20|+√((9-10)2+(8-10)2 )=2.236
以上の通り、軌跡断片{T1, T2}に対する上記距離d(Ti, Tj)が最小となるのは軌跡断片T3であるため両者を結合し、結果として行動軌跡{T1, T2, T3}が得られる。ただし、上記の手順で軌跡断片を結合すると、仮の個体IDに矛盾が生じる場合がある。すなわち、図13の例では、軌跡断片T1に対応する仮の個体IDが3で、軌跡断片T3に対応する仮の個体IDが4と異なっており、矛盾が生じている。
上記矛盾の原因としては、軌跡断片統合処理における誤り、または個体識別処理における誤りの二通りが考えられる。したがって、個体識別処理の精度が高く信頼できる場合は、仮の個体IDが一致しない軌跡断片T3の代わりに、仮の個体IDが一致するT4を統合すればよい。このように、軌跡断片間の連続性が最も高い軌跡断片同士のそれぞれに対応付けられた個体IDが異なる場合、当該軌跡断片同士を統合しない、という制約を設けることにより、外見が似ている個体同士であっても、誤って別の個体の軌跡断片を統合してしまうことが防止される。一方、個体識別処理の精度がそれほど高くない場合は、仮の個体IDに矛盾がある軌跡断片同士であっても、軌跡断片統合処理の結果を優先して統合してもよい。
なお、本第1実施形態では、軌跡断片を貪欲(greedy)に統合するアルゴリズムについて説明したが、組合せ最適化問題として定式化し求解してもよい。牛舎内に同じ個体IDを持つ乳牛は一頭しかいないことを制約に加えて最適化することにより、さらに統合精度が向上する。また、仮の個体IDが異なる軌跡断片同士を結合しないよう制約を設ける代わりに、仮の個体IDの信頼度を算出しておき、当該信頼度の総和が最も高くなる仮の個体IDを統合対象として採用してもよい。さらに、仮の個体IDの矛盾を全自動で解消するのではなく、矛盾が発生したことをオペレータに通知し、オペレータが監視画像や現地を確認して正しい個体IDを付与する等、行動軌跡を手動で補正してもよい。
(3)個体特徴追加機能
個体特徴追加機能は、行動軌跡推定機能によって推定された行動軌跡に基づいて、個体特徴データベース42に登録されていない個体特徴を追加して拡張する機能であり、個体特徴追加部60によって機能される。
本第1実施形態において、個体特徴追加部60は、まず、個体特徴を追加しようとする個体の個体IDに基づいて、行動軌跡データベース45から行動軌跡を取得する。つぎに、個体特徴追加部60は、取得した行動軌跡データ中のカメラ番号、撮影時刻および個体領域に基づいて、監視画像から個体領域を切り出して移動体画像列として取得する。そして、個体特徴追加部60は、個体特徴抽出部57と同様の処理により各移動体画像の個体特徴を抽出し、個体特徴データベース42に登録されている個体IDに対応付けて追加する。
ここで図14は、本第1実施形態の行動軌跡推定装置1によって推定された行動軌跡の一例を示す図である。監視カメラ11から切り出した個体ID=Xの乳牛画像(移動体画像)が、時系列に沿って五枚ピックアップされている。この例では、一枚目(t=0)の乳牛画像と五枚目(t=80)の乳牛画像は姿勢推定可能領域から切り出されたもので、対応する個体特徴が予め個体特徴データベース42に登録されている。一方、二枚目(t=10)、三枚目(t=30)および四枚目(t=50)の乳牛画像は姿勢推定可能領域に含まれていなかったため、対応する個体特徴が個体特徴データベース42に登録されていない状態である。
以上のような状態の場合、個体特徴追加部60は、二枚目(t=10)、三枚目(t=30)および四枚目(t=50)の乳牛画像から個体特徴を抽出し、各個体特徴を個体特徴データベース42に追加する。なお、全ての乳牛画像を個体特徴データベース42に追加しようとすると、個体特徴データベース42の規模が大きくなり、個体特徴抽出処理に時間がかかるため、クラスタリング処理等を行って、追加する個体特徴を減らしてもよい。
また、個体特徴追加部60は、古い個体特徴を削除し、最新の個体特徴を順次入れ替えていくことで、個体の成長や体型の変化があっても個体識別の精度が維持される。ただし、行動軌跡に誤りがある場合に、個体特徴データベース42を更新すると、個体の識別精度が低下する場合があるため、信頼度の高い行動軌跡データのみを用いることが好ましい。あるいは、行動軌跡に誤りがないことをオペレータが確認した上で、個体特徴データベース42を更新してもよい。
つぎに、本第1実施形態の行動軌跡推定装置1、行動軌跡推定プログラム1bおよび行動軌跡推定方法による作用について説明する。
本第1実施形態の行動軌跡推定装置1、行動軌跡推定プログラム1bおよび行動軌跡推定方法を用いて乳牛(移動体)の行動軌跡を推定する場合、まず、個体特徴登録機能を用いて、監視しようとする全ての乳牛について、個体特徴を個体特徴データベース42に登録する。
具体的には、図15に示すように、個体特徴登録部51が、新規登録しようとする乳牛の画像群を取得するとともに(ステップS1)、新規登録しようとする乳牛の個体IDを取得する(ステップS2)。そして、個体特徴登録部51が、ステップS1で取得した画像群から個体特徴を抽出すると(ステップS3)、当該個体特徴をステップS2で取得した個体IDに対応付けて個体特徴データベース42に登録する(ステップS4)。これにより、ある個体についての個体IDと個体特徴とが関連付けて登録される。
ある個体について、取得された全ての画像について上記ステップS3~ステップS4を繰り返した後(ステップS5:YES)、別の個体について、上記ステップS1~ステップS5を繰り返す。そして、監視しようとする全ての乳牛について個体特徴が登録されると(ステップS6:YES)、本処理を終了する。これにより、監視しようとする全ての乳牛の個体特徴が個体特徴データベース42に事前登録される。よって、各個体の個体特徴さえわかれば、当該個体特徴を有する個体IDが特定されるため、乳牛の個体識別が可能となる。
個体特徴データベース42の準備が完了すると、行動軌跡推定機能を用いて、各乳牛の行動軌跡を個体ごとに推定する。具体的には、図16に示すように、まず、監視画像取得部52が複数の監視カメラ11から時系列の監視画像を取得する(ステップS11)。つぎに、個体領域検出部53が、各監視画像内に存在する全乳牛の個体領域を検出し(ステップS12)、当該個体領域のそれぞれについて、追跡処理実行部54が追跡処理を実行する(ステップS13)。
追跡処理の結果、監視画像内に新たな個体領域が出現した場合(ステップS14:YES)、追跡処理実行部54が新たな軌跡断片IDを払い出し(ステップS15)、新たな個体領域に対応付ける。一方、監視画像内に新たな個体領域がない場合(ステップS14:NO)、追跡処理実行部54が各個体領域に対応する軌跡断片IDを取得する(ステップS16)。これにより、時系列の監視画像において、同一の個体と思われる個体領域には同一の軌跡断片IDが付与されるため、全乳牛の行動が個体ごとに追跡される。
つぎに、軌跡断片取得部55が、各個体領域の軌跡断片を取得すると(ステップS17)、取得された軌跡断片が軌跡断片IDに対応付けて軌跡断片バッファ43に保存される(ステップS18)。これにより、複数の監視カメラ11ごとに撮影範囲内における乳牛の行動軌跡が軌跡断片として収集される。
つづいて、本第1実施形態では、移動体姿勢推定部56が、個体ごとの識別精度が低下するのを抑制するため、各個体領域に含まれる移動体の姿勢を推定する(ステップS19)。具体的には、図17に示すように、移動体姿勢推定部56は、まず、個体領域検出部53によって検出された個体領域と、当該個体領域を含む監視画像を撮影した監視カメラ11のカメラ番号とを取得する(ステップS191)。
つぎに、移動体姿勢推定部56は、取得したカメラ番号に対応付けて設定されている姿勢推定可能領域および姿勢を取得し(ステップS192)、ステップS191で取得した個体領域が姿勢推定可能領域に包含されるか否かを判定する(ステップS193)。当該判定の結果、個体領域が姿勢推定可能領域に包含される場合(ステップS193:YES)、当該姿勢推定可能領域に対応付けられた姿勢を出力する(ステップS194)。一方、個体領域が姿勢推定可能領域に包含されていない場合(ステップS193:NO)、姿勢を出力しない。これにより、簡易的に移動体の姿勢が高精度に推定される。
つづいて、移動体姿勢推定部56によって推定された姿勢が、個体を識別するのに適した姿勢である場合(ステップS20:YES)、個体特徴抽出部57が各個体領域の個体特徴を抽出する(ステップS21)。一方、個体を識別するのに適した姿勢でない場合(ステップS20:NO)、後述するステップS24へ進む。
つぎに、個体特徴照合部58が、ステップS21で抽出された個体特徴を個体特徴データベース42と照合し、各個体領域に対応する個体IDを取得する(ステップS22)。これにより、各個体領域に含まれる乳牛が個体ごとに高精度に識別される。
その後、ステップS21で抽出された各個体領域の個体特徴と、ステップS22で取得された各個体領域に対応する個体IDとが軌跡断片バッファ43に保存される(ステップS23)。そして、ステップS12で検出された各個体領域について、上述したステップS13からステップS23までの処理を繰り返し、全ての個体領域について処理が完了すると(ステップS24:YES)、ステップS25へと進む。これにより、ある監視画像に含まれる全個体領域の軌跡断片が、個体特徴や個体IDと関連付けられて軌跡断片バッファ43に一時保存される。
つぎに、ステップS25では、各監視カメラ11の監視画像について、上述したステップS11からステップS24までの処理を繰り返し、全ての監視カメラ11について処理が完了すると(ステップS25:YES)、所定時間が経過するまで、上述したステップS11からステップS24までの処理を繰り返す。これにより、全監視画像に含まれる全個体領域の軌跡断片が、所定時間分ずつ軌跡断片バッファ43に一時保存される。
そして、所定時間が経過すると(ステップS26:YES)、軌跡断片統合部59が、軌跡断片間の連続性が最も高い軌跡断片同士を統合し、最終的な個体IDごとの行動軌跡として行動軌跡データベース45に出力する(ステップS27)。これにより、異なる監視カメラ11で撮影された監視画像内の軌跡断片であっても、高精度に個体ごとに統合される。よって、多数の乳牛を広域監視する場合であっても、高い精度で乳牛が個体ごとに識別され、個体ごとの行動軌跡が正しく推定される。
また、本第1実施形態では、個体特徴追加機能を用いて、個体特徴データベース42に登録されていない個体特徴を追加して拡張する。具体的には、図18に示すように、個体特徴追加部60が個体特徴を追加しようとする個体の個体IDに基づいて、行動軌跡データベース45から行動軌跡を取得する(ステップS31)。
つぎに、個体特徴追加部60は、取得した行動軌跡データに基づいて、監視画像から個体領域を切り出し移動体画像列として取得する(ステップS32)。そして、個体特徴追加部60が各移動体画像の個体特徴を抽出すると(ステップS33)、当該個体特徴を個体特徴データベース42に登録されている個体IDに対応させて追加する(ステップS34)。これにより、様々な姿勢の個体特徴が追加されるため、個体の識別精度が向上する。
以上のような本第1実施形態の行動軌跡推定装置1、行動軌跡推定プログラム1bおよび行動軌跡推定方法によれば、以下のような効果を奏する。
1.多数の移動体の広域監視を実現しながら、高い精度で移動体を個体ごとに識別し、個体ごとの行動軌跡を正しく推定することができる。
2.個体識別に適した姿勢の移動体を含む個体領域のみから個体特徴を抽出することで、個体ごとの識別精度が低下するのを抑制することができる。
3.牛舎等のレイアウトに基づく姿勢推定可能領域を設定することで、簡易的に移動体の姿勢を高精度に推定することができる。
4.行動軌跡データに基づいて様々な姿勢の個体特徴を追加することで、個体の識別精度を向上することができる。
5.軌跡断片間における時間的・空間的な連続性や個体特徴間の類似性に基づいて軌跡断片同士を統合することで、個体ごとの行動軌跡を高精度に推定することができる。
6.個体IDに矛盾がある軌跡断片同士を統合しないようにすることで、外見が似ている個体同士であっても、異なる個体の軌跡断片同士を誤って統合するのを防止することができる。
つぎに、本発明に係る行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法の第2実施形態について説明する。なお、本第2実施形態の構成のうち、上述した第1実施形態と同一もしくは相当する構成については同一の符号を付し、再度の説明を省略する。
上述した第1実施形態では、追跡処理実行部54が、同一の監視カメラ11で撮影された時系列の監視画像に対して画像座標系で追跡処理を実行し、軌跡断片取得部55が、各監視画像内の画像座標系における位置座標群を牛舎座標系における位置座標群に変換したものを軌跡断片として取得し、軌跡断片統合部59が、異なる監視カメラ11で撮影された監視画像内の軌跡断片同士を統合することで行動軌跡を作成していた。
これに対して、本第2実施形態の特徴は、追跡処理実行部54が事前に、個体領域検出部53によって検出された個体領域の画像座標系における位置座標群を牛舎座標系における位置座標群に変換する。そして、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において追跡処理を実行することにより、牛舎全体における行動軌跡を取得する点にある。
具体的には、本第2実施形態の行動軌跡推定装置10は、図19に示すように、異なる監視カメラ11間における軌跡断片同士を統合する軌跡断片統合部59の代わりに、全体画像から得られた軌跡断片をそのまま行動軌跡として出力する行動軌跡出力部61を有している。また、軌跡断片バッファ43と行動軌跡データベース45のデータ内容、および追跡処理実行部54と軌跡断片取得部55の処理内容が第1実施形態と相違するため、当該相違部分について説明する。
本第2実施形態において、軌跡断片バッファ43には、図20に示すように、個体が占める矩形の個体領域として、画像座標系における二次元座標値の代わりに、牛舎座標系における二次元座標値が保存される。また、本第2実施形態において、行動軌跡データベース45には、図21に示すように、個体領域として、画像座標系における二次元座標値の代わりに、牛舎座標系における二次元座標値が保存される。軌跡断片バッファ43および行動軌跡データベース45に保存されるその他のデータは、第1実施形態と同様である。
追跡処理実行部54は、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像内に存在する移動体を個体ごとに追跡するものである。本第2実施形態において、追跡処理実行部54は、まず、個体領域検出部53によって検出された個体領域の画像座標系における位置座標群を牛舎座標系における位置座標群に変換する。なお、画像座標系から牛舎座標系への座標変換処理は、第1実施形態の軌跡断片取得部55が実行する処理(段落[0054]~[0058])と同様である。
また、図22に示すように、個体領域検出部53によって検出された矩形の個体領域は、画像座標系から牛舎座標系に変換すると歪な四角形に変形してしまう。このため、本第2実施形態では、追跡処理実行部54が、牛舎座標系に変換後の歪な四角形に対する外接矩形を牛舎座標系における個体領域とする。なお、個体領域の形状は外接矩形に限定されるものではなく、内接矩形、あるいは、多角形領域をそのまま個体領域としてもよい。また、二以上の監視画像で検出された複数の個体領域が重複していると判断した場合(例えば、個体領域の重なりが大きい場合、個体領域の外見特徴が類似している場合)には、複数の個体領域を一つに統合する処理を追加することもできる。
つぎに、追跡処理実行部54は、時系列において隣接する全体画像間において各個体領域の追跡処理を実行する。具体的には、図23(a),(b)に示すように、全ての監視カメラで撮影された時系列の全体画像において、時刻tの全体画像から検出された個体領域群を牛舎座標系に変換したものを{B(t)1, B(t)2, B(t)3,…B(t)nt}とし、時刻t-1の全体画像から検出された個体領域群を牛舎座標系に変換したものを{B(t-1)1, B(t-1)2, B(t-1)3,…B(t-1)nt-1}とする。この場合、追跡処理実行部54は、時刻tと時刻t-1の全体画像間で個体領域の対応づけを行うことにより、図23(c)に示すように、個体毎の軌跡断片が全ての監視画像に跨った状態で得られる。なお、追跡処理実行部54において、SORT(Simple Online and Realtime Tracking)等の移動体追跡アルゴリズムを使用する点は第1実施形態と同様である。ただし、追跡処理を個別の監視画像内(画像座標系)ではなく、全ての監視画像からなる全体画像内(牛舎座標系)で行う点が第1実施形態とは異なる。
また、本第2実施形態において、軌跡断片取得部55は、追跡処理実行部54によって同一の軌跡断片IDが付与された個体領域のそれぞれについて中心点を特定し、当該中心点の牛舎座標系における二次元座標値を算出する。そして、当該二次元座標値をそのまま軌跡断片として取得する。また、軌跡断片取得部55は、取得した軌跡断片を軌跡断片IDに対応付けて軌跡断片バッファ43に保存する。
行動軌跡出力部61は、軌跡断片を個体IDごとの行動軌跡として出力するものである。本第2実施形態において、行動軌跡出力部61は、軌跡断片取得部55によって軌跡断片バッファ43に蓄積された軌跡断片と、個体特徴照合部58によって取得された個体IDとを対応付けて、最終的な個体ID付きの行動軌跡として行動軌跡データベース45に出力する。
つぎに、本第2実施形態の行動軌跡推定装置10、行動軌跡推定プログラム1bおよび行動軌跡推定方法による作用について説明する。
具体的には、図24に示すように、監視画像取得部52が複数の監視カメラ11から時系列の監視画像を取得すると(ステップS11)、個体領域検出部53が、各監視画像内に存在する全乳牛の個体領域を検出する(ステップS12)。そして、各監視カメラ11の監視画像について、上述したステップS11からステップS12までの処理を繰り返す(ステップS41)。これにより、全ての監視カメラ11から取得した全ての監視画像に含まれる個体領域が検出される。
つぎに、全監視カメラ11の監視画像について処理が完了すると(ステップS41:YES)、追跡処理実行部54が、同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において各個体領域の追跡処理を実行する(ステップS13)。このとき、本第2実施形態では、追跡処理実行部54が事前に、個体領域の位置座標群を画像座標系から牛舎座標系に変換するため、全体画像間における追跡処理が可能となる。これにより、個体毎の軌跡断片が全ての監視画像に跨った状態で得られる。
その後、ステップS14からステップS24まで、およびステップS26では、第1実施形態と同様の処理を実行する。これにより、牛舎全体の全体画像に含まれる全個体領域の軌跡断片が、所定時間分ずつ軌跡断片バッファ43に一時保存される。
そして、所定時間が経過すると(ステップS26)、行動軌跡出力部61は、軌跡断片を個体IDごとの行動軌跡として出力する(ステップS42)。すなわち、本第2実施形態では、同一時刻に撮影された全ての監視画像を全体画像とし、この全体画像間において追跡処理を実行するため、軌跡断片がそのまま行動軌跡となる。よって、第1実施形態のように、軌跡断片同士を統合する必要がなく、推定演算に係る処理効率が向上する。
以上のような本第2実施形態によれば、上述した第1実施形態の作用効果に加えて、行動軌跡の推定演算に係る処理効率を向上することができる。
なお、本発明に係る行動軌跡推定装置1,10、行動軌跡推定プログラム1bおよび行動軌跡推定方法は、前述した実施形態に限定されるものではなく、適宜変更することができる。
例えば、上述した本実施形態では、個体ごとの識別精度が低下するのを抑制するため、移動体姿勢推定部56が各個体領域に含まれる移動体の姿勢を推定している。しかしながら、個体ごとの識別精度をある程度担保できる場合は、移動体姿勢推定部56による姿勢の推定処理を実行しなくてもよい。
また、上述した本実施形態では、個体特徴登録部51や個体特徴抽出部57が機械学習モデルを用いているが、当該機械学習モデルのパラメータを行動軌跡データを用いて最適化してもよい。具体的には、個体ID付きの行動軌跡データから教師データ(個体ID付きの乳牛画像)を作成し、当該教師データを用いて畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)に、交差エントロピー損失やトリプレット損失などが最小化するように学習させてもよい。
さらに、上述した本実施形態では、軌跡断片バッファ43に数時間から一日分の軌跡断片をバッファして保存している。しかしながら、実際に行動軌跡推定プログラム1bを実装する際には、数分程度に短く設定することが好ましい。この場合、行動軌跡が出力されるたびに、それまでに作成した行動軌跡との間で連続性を判定し、当該連続性が最も高い行動軌跡同士を統合すればよい。なお、連続性の判定は、上述したとおり、時間的な連続性、空間的な連続性および個体特徴間の類似性に基づいて行われる。
1 行動軌跡推定装置(第1実施形態)
1a 個体特徴登録プログラム
1b 行動軌跡推定プログラム
1c 個体特徴追加プログラム
2 表示手段
3 入力手段
4 記憶手段
5 演算処理手段
10 行動軌跡推定装置(第2実施形態)
11 監視カメラ
41 プログラム記憶部
42 個体特徴データベース
43 軌跡断片バッファ
44 姿勢推定データベース
45 行動軌跡データベース
51 個体特徴登録部
52 監視画像取得部
53 個体領域検出部
54 追跡処理実行部
55 軌跡断片取得部
56 移動体姿勢推定部
57 個体特徴抽出部
58 個体特徴照合部
59 軌跡断片統合部
60 個体特徴追加部
61 行動軌跡出力部

Claims (9)

  1. 移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定装置であって、
    複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、
    時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、
    前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
    前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、
    前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、
    前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合部と、
    前記個体領域に含まれる移動体の姿勢を推定する移動体姿勢推定部と、
    を有し、
    前記監視カメラごとに、移動体の姿勢を推定可能な姿勢推定可能領域と、前記姿勢推定可能領域に存在する移動体がとることの多い姿勢とが設定されており、
    前記移動体姿勢推定部は、前記個体領域が前記姿勢推定可能領域に含まれる場合、当該姿勢推定可能領域に対応付けられた姿勢を前記個体領域に含まれる移動体の姿勢として推定し、
    前記個体特徴抽出部は、前記個体を識別するのに適した姿勢の移動体を含む個体領域のみから前記個体特徴を抽出する、行動軌跡推定装置。
  2. 前記行動軌跡に基づいて、前記個体IDごとに、前記監視画像から前記個体領域を切り出して移動体画像列を取得し、各移動体画像の個体特徴を抽出して前記個体特徴データベースに追加する個体特徴追加部を有している、請求項1に記載の行動軌跡推定装置。
  3. 前記軌跡断片統合部は、前記軌跡断片間における時間的な連続性、空間的な連続性および個体特徴間の類似性に基づいて、前記軌跡断片間の連続性が最も高い軌跡断片を特定する、請求項1または請求項2に記載の行動軌跡推定装置。
  4. 前記軌跡断片統合部は、前記軌跡断片間の連続性が最も高い軌跡断片同士のそれぞれに対応付けられた個体IDが異なる場合、当該軌跡断片同士を統合しない、請求項1から請求項のいずれかに記載の行動軌跡推定装置。
  5. 移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定プログラムであって、
    複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、
    時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、
    前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
    前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、
    前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、
    前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合部と、
    前記個体領域に含まれる移動体の姿勢を推定する移動体姿勢推定部と、
    してコンピュータを機能させるとともに、
    前記監視カメラごとに、移動体の姿勢を推定可能な姿勢推定可能領域と、前記姿勢推定可能領域に存在する移動体がとることの多い姿勢とが設定されており、
    前記移動体姿勢推定部は、前記個体領域が前記姿勢推定可能領域に含まれる場合、当該姿勢推定可能領域に対応付けられた姿勢を前記個体領域に含まれる移動体の姿勢として推定し、
    前記個体特徴抽出部は、前記個体を識別するのに適した姿勢の移動体を含む個体領域のみから前記個体特徴を抽出する、行動軌跡推定プログラム。
  6. 移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定方法であって、
    複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出ステップと、
    時系列において隣接する監視画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行ステップと、
    前記追跡処理実行ステップで対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
    前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出ステップと、
    前記個体特徴抽出ステップで抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合ステップと、
    前記軌跡断片間の連続性が最も高い軌跡断片同士を統合し、前記個体IDごとの行動軌跡として出力する軌跡断片統合ステップと、
    前記個体領域に含まれる移動体の姿勢を推定する移動体姿勢推定ステップと、
    を有し、
    前記監視カメラごとに、移動体の姿勢を推定可能な姿勢推定可能領域と、前記姿勢推定可能領域に存在する移動体がとることの多い姿勢とが設定されており、
    前記移動体姿勢推定ステップでは、前記個体領域が前記姿勢推定可能領域に含まれる場合、当該姿勢推定可能領域に対応付けられた姿勢を前記個体領域に含まれる移動体の姿勢として推定し、
    前記個体特徴抽出ステップでは、前記個体を識別するのに適した姿勢の移動体を含む個体領域のみから前記個体特徴を抽出する、行動軌跡推定方法。
  7. 移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定装置であって、
    複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、
    同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、
    前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
    前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、
    前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、
    前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力部と、
    前記個体領域に含まれる移動体の姿勢を推定する移動体姿勢推定部と、
    を有し、
    前記監視カメラごとに、移動体の姿勢を推定可能な姿勢推定可能領域と、前記姿勢推定可能領域に存在する移動体がとることの多い姿勢とが設定されており、
    前記移動体姿勢推定部は、前記個体領域が前記姿勢推定可能領域に含まれる場合、当該姿勢推定可能領域に対応付けられた姿勢を前記個体領域に含まれる移動体の姿勢として推定し、
    前記個体特徴抽出部は、前記個体を識別するのに適した姿勢の移動体を含む個体領域のみから前記個体特徴を抽出する、行動軌跡推定装置。
  8. 移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定プログラムであって、
    複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出部と、
    同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行部と、
    前記追跡処理実行部により対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
    前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出部と、
    前記個体特徴抽出部によって抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合部と、
    前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力部と、
    前記個体領域に含まれる移動体の姿勢を推定する移動体姿勢推定部と、
    してコンピュータを機能させるとともに、
    前記監視カメラごとに、移動体の姿勢を推定可能な姿勢推定可能領域と、前記姿勢推定可能領域に存在する移動体がとることの多い姿勢とが設定されており、
    前記移動体姿勢推定部は、前記個体領域が前記姿勢推定可能領域に含まれる場合、当該姿勢推定可能領域に対応付けられた姿勢を前記個体領域に含まれる移動体の姿勢として推定し、
    前記個体特徴抽出部は、前記個体を識別するのに適した姿勢の移動体を含む個体領域のみから前記個体特徴を抽出する、行動軌跡推定プログラム。
  9. 移動体の行動軌跡を個体ごとに推定可能な行動軌跡推定方法であって、
    複数の監視カメラで撮影された時系列の各監視画像内において、前記個体が占める画像領域を個体領域として検出する個体領域検出ステップと、
    同一時刻に撮影された全ての監視画像からなる全体画像のうち、時系列において隣接する全体画像間において、位置・移動方向・速度が近い個体領域を対応付けることにより、前記移動体を個体ごとに追跡する追跡処理実行ステップと、
    前記追跡処理実行ステップで対応付けられた個体領域の所定の座標系における時系列の位置座標群を軌跡断片として取得する軌跡断片取得部と、
    前記個体領域から前記個体の外見に基づく特徴ベクトルである個体特徴を抽出する個体特徴抽出ステップと、
    前記個体特徴抽出ステップで抽出された個体特徴と、前記個体を識別する個体IDに対応付けて前記個体特徴が登録されている個体特徴データベースとを照合し、抽出された個体特徴に対応する個体IDを取得する個体特徴照合ステップと、
    前記軌跡断片を前記個体IDごとの行動軌跡として出力する行動軌跡出力ステップと、
    前記個体領域に含まれる移動体の姿勢を推定する移動体姿勢推定ステップと、
    を有し、
    前記監視カメラごとに、移動体の姿勢を推定可能な姿勢推定可能領域と、前記姿勢推定可能領域に存在する移動体がとることの多い姿勢とが設定されており、
    前記移動体姿勢推定ステップでは、前記個体領域が前記姿勢推定可能領域に含まれる場合、当該姿勢推定可能領域に対応付けられた姿勢を前記個体領域に含まれる移動体の姿勢として推定し、
    前記個体特徴抽出ステップでは、前記個体を識別するのに適した姿勢の移動体を含む個体領域のみから前記個体特徴を抽出する、行動軌跡推定方法。
JP2021166583A 2020-10-30 2021-10-11 行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法 Active JP7211601B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020182950 2020-10-30
JP2020182950 2020-10-30

Publications (2)

Publication Number Publication Date
JP2022074009A JP2022074009A (ja) 2022-05-17
JP7211601B2 true JP7211601B2 (ja) 2023-01-24

Family

ID=81604220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021166583A Active JP7211601B2 (ja) 2020-10-30 2021-10-11 行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法

Country Status (1)

Country Link
JP (1) JP7211601B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055139A (ja) 2007-08-23 2009-03-12 Hitachi Kokusai Electric Inc 人物追跡システム、人物追跡装置および人物追跡プログラム
JP2012185769A (ja) 2011-03-08 2012-09-27 Canon Inc 認証装置、認証方法、および認証プログラム、並びに記録媒体
JP2014225082A (ja) 2013-05-15 2014-12-04 富士通株式会社 監視装置、プログラムおよび方法
JP2017011598A (ja) 2015-06-25 2017-01-12 株式会社日立国際電気 監視システム
JP2019194857A (ja) 2018-05-04 2019-11-07 キヤノン株式会社 物体追跡方法および装置
JP2020107349A (ja) 2014-09-26 2020-07-09 日本電気株式会社 物体追跡システム、物体追跡方法、プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055139A (ja) 2007-08-23 2009-03-12 Hitachi Kokusai Electric Inc 人物追跡システム、人物追跡装置および人物追跡プログラム
JP2012185769A (ja) 2011-03-08 2012-09-27 Canon Inc 認証装置、認証方法、および認証プログラム、並びに記録媒体
JP2014225082A (ja) 2013-05-15 2014-12-04 富士通株式会社 監視装置、プログラムおよび方法
JP2020107349A (ja) 2014-09-26 2020-07-09 日本電気株式会社 物体追跡システム、物体追跡方法、プログラム
JP2017011598A (ja) 2015-06-25 2017-01-12 株式会社日立国際電気 監視システム
JP2019194857A (ja) 2018-05-04 2019-11-07 キヤノン株式会社 物体追跡方法および装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伊藤 誠也,共可視特徴に基づく複数カメラ間の人物同定,画像電子学会誌 Vol.45 No.3 2016,Vol.45 No.3,日本,一般社団法人画像電子学会,2016年07月31日,P.382~391

Also Published As

Publication number Publication date
JP2022074009A (ja) 2022-05-17

Similar Documents

Publication Publication Date Title
JP5001260B2 (ja) オブジェクト追跡方法及びオブジェクト追跡装置
JP6286474B2 (ja) 画像処理装置および領域追跡プログラム
JP6666488B2 (ja) 画像抽出装置
JP2007272488A (ja) 画像処理装置、監視カメラ及び画像監視システム
US10467461B2 (en) Apparatus for searching for object and control method thereof
JP2018206321A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN107038402B (zh) 用于患者移动检测的检测方法及检测设备
JP6503079B2 (ja) 特定人物検知システム、特定人物検知方法および検知装置
WO2018008702A1 (ja) 振る舞い検知システム
JP6789421B2 (ja) 情報処理装置、追跡方法、及び追跡プログラム
JP5937823B2 (ja) 画像照合処理装置、画像照合処理方法及び画像照合処理プログラム
JP2021086322A (ja) 画像処理装置、画像処理方法及びプログラム
US11182636B2 (en) Method and computing device for adjusting region of interest
CN110910449B (zh) 识别物体三维位置的方法和系统
US11948312B2 (en) Object detection/tracking device, method, and program recording medium
JP7211601B2 (ja) 行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法
CN104335577B (zh) 信息处理设备、信息处理方法和监视摄像机系统
JP7197011B2 (ja) 身長推定装置、身長推定方法及びプログラム
JP7173341B2 (ja) 人物状態検出装置、人物状態検出方法及びプログラム
CN112132110A (zh) 一种智能判断人体姿态的方法及看护设备
JP6793383B1 (ja) 行動体特定システム
JP7048347B2 (ja) 位置関係決定装置
JP7396364B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2018128800A (ja) ベッド識別装置
JP2017005582A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20211011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221228

R150 Certificate of patent or registration of utility model

Ref document number: 7211601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150