JP2021081804A - 状態認識装置、状態認識方法及び状態認識プログラム - Google Patents

状態認識装置、状態認識方法及び状態認識プログラム Download PDF

Info

Publication number
JP2021081804A
JP2021081804A JP2019206472A JP2019206472A JP2021081804A JP 2021081804 A JP2021081804 A JP 2021081804A JP 2019206472 A JP2019206472 A JP 2019206472A JP 2019206472 A JP2019206472 A JP 2019206472A JP 2021081804 A JP2021081804 A JP 2021081804A
Authority
JP
Japan
Prior art keywords
recognition
state
processing unit
recognized
monitoring target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019206472A
Other languages
English (en)
Inventor
関 海克
Haike Guan
海克 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019206472A priority Critical patent/JP2021081804A/ja
Priority to US17/030,391 priority patent/US11256911B2/en
Publication of JP2021081804A publication Critical patent/JP2021081804A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】監視対象の状態認識を可能とする。【解決手段】認識部が、撮像画像に基づいて、監視対象を認識し、動作認識処理部が、認識された監視対象の所定の部位の動作をそれぞれ認識する。また、状態認識処理部が、認識された部位の動作に基づいて、監視対象の状態を認識する。そして、認識結果出力部が、状態認識処理部で認識された監視対象の状態を示す状態情報を、監視対象の状態認識結果として出力する。これにより、監視対象の各部の動作に基づいて総合的に監視対象の状態を認識でき、監視対象の状態を、より高い精度で認識可能とすることができる。【選択図】図18

Description

本発明は、状態認識装置、状態認識方法及び状態認識プログラムに関する。
今日において、例えば人物、動物、作業機械等の監視対象の行動又は動作等をカメラ装置で撮像し、この撮像画像を解析することで、人物、動物、作業機械等の行動を可視化して認識可能とする行動認識装置が知られている。
例えば、特許文献1(特開2011−100175号公報)には、映像処理のみで、混雑したシーンに含まれる人物の行動を判定可能とした人物行動判定装置が開示されている。この人物行動判定装置は、映像処理で同一と判別した人物の重心位置及び重心の軌跡に基づいて重心軌跡を特徴量として検出する。そして、検出した特徴量を、事前登録されている行動毎の軌跡特徴量と照合することで、人物の行動を判断する。
しかし、特許文献1に開示されている人物行動判定装置の場合、監視対象全体の動きに基づいて監視対象を認識しているため、監視対象自体の認識は可能であるが、監視対象の状態を認識することは困難であった。
本発明は、上述の課題に鑑みてなされたものであり、監視対象の状態を認識可能とした状態認識装置、状態認識方法及び状態認識プログラムの提供を目的とする。
上述した課題を解決し、目的を達成するために、本発明は、撮像画像に基づいて、監視対象を認識する認識部と、認識された監視対象の所定の部位の動作をそれぞれ認識する動作認識処理部と、認識された部位の動作に基づいて、監視対象の状態を認識する状態認識処理部と、状態認識処理部で認識された監視対象の状態を示す状態情報を、監視対象の状態認識結果として出力する認識結果出力部とを有する。
本発明によれば、監視対象の状態を認識できるという効果を奏する。
図1は、実施の形態の行動認識システムのシステム構成図である。 図2は、実施の形態の行動認識システムに設けられている行動認識装置のハードウェア構成図である。 図3は、行動認識装置の機能ブロック図である。 図4は、行動認識装置における、監視対象の行動認識処理の流れを示すフローチャートである。 図5は、行動認識装置の認識部による作業者の認識動作を説明するための図である。 図6は、行動認識装置の認識部による特徴量の演算処理を説明するための図である。 図7は、行動認識装置の認識部による作業者の認識処理の階層構造を示す図である。 図8は、認識された各作業者に対して、行動認識装置の初期ID設定部により、それぞれ設定されたIDを示す図である。 図9は、行動認識装置の追尾処理部に対して順次入力される作業者の撮像画像を示す図である。 図10は、行動認識装置の追尾処理部で行われる追尾動作を説明するための図である。 図11は、行動認識装置の追尾処理部で行われる追尾動作を説明するための他の図である。 図12は、行動認識装置の追尾処理部が、作業者の予測領域の特徴量を評価して重み係数を得る動作を説明するための図である。 図13は、カメラ装置から行動認識装置に入力される、作業者の複数フレームの撮像画像を示す図である。 図14は、複数フレームの撮像画像からなる時空間画像データを説明するための図である。 図15は、行動認識装置の行動認識処理部で認識された作業者の行動認識結果の一例を示す図である。 図16は、歩行から棚入れまでの一連の行動のうち、歩行中に、作業者が検出困難となった行動認識結果の例を示す図である。 図17は、歩行から棚入れまでの一連の行動のうち、棚入れ中に、作業者が検出困難となった行動認識結果の例を示す図である。 図18は、各部位の動作に基づく、各牛の状態認識処理の流れを示すフローチャートである。 図19は、行動認識処理部における、牛の頭部の動作の認識処理を説明するための図である。 図20は、行動認識処理部における、牛の胴体の動作の認識処理を説明するための図である。 図21は、行動認識処理部における、牛の各部の動作に基づく、牛の状態の認識処理を説明するための図である。
以下、状態認識装置、状態認識方法及び状態認識プログラムの適用例となる実施の形態の行動認識システムを説明する。
(システム構成)
図1は、実施の形態の行動認識システムのシステム構成図である。この図1に示すように行動認識システムは、行動認識装置1及びカメラ装置2を有している。カメラ装置2は、例えば単数又は複数の人物、動物、ロボット等の監視対象を撮像する。
行動認識装置1は、入力インタフェース部3及び行動認識処理部4を有している。インタフェース3は、カメラ装置2からの監視対象の撮像画像を取得する。行動認識処理部4は、インタフェース3を介して取得した撮像画像に基づいて、監視対象の行動(動き)を認識し、この行動認識結果を例えば監視者が見るモニタ装置等の外部機器に出力する。
(行動認識装置のハードウェア構成)
図2は、行動認識装置1のハードウェア構成図である。この図2に示すように、行動認識装置1は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、通信部14、HDD(Hard Disk Drive)15、入力インタフェース部3及び出力インタフェース部17を有している。これら各部3、11〜15及び17は、バスライン18を介して相互に接続されている。
入力インタフェース部3には、上述のカメラ装置2の他、例えばキーボード装置及びマウス装置等の操作部20が接続されている。出力インタフェース部17には、行動認識結果を表示するためのモニタ装置(表示部)が記憶されている。出力インタフェース部17を介して、例えばHDD又は半導体メモリ等の外部記憶装置に行動認識結果を出力してもよい。
通信部14には、例えばインターネット等の広域網又はLAN(Local Area Network)等のプライベート網等のネットワークを介してサーバ装置22が接続されている。通信部14は、このサーバ装置22に対して行動認識結果を送信して記憶させる。これにより、管理者等は、例えばスマートホン、タブレット端末装置、パーソナルコンピュータ装置等の通信機器を介してサーバ装置22にアクセスして行動認識結果を取得でき、監視対象を遠隔監視できる。
HDD15には、監視対象の行動認識処理を行う行動認識プログラムが記憶されている。CPU11は、この行動認識プログラムを実行することで、以下に説明する各機能を実現し、監視対象の行動認識処理を実行する。
(行動認識機能)
図3は、CPU11が行動認識プログラムを実行することで実現される各機能の機能ブロック図である。この図3に示すように、CPU11は、行動認識プログラムを実行することで入力部31、認識部32、初期識別番号設定部(初期ID設定部)33、追尾処理部34、行動認識処理部35、認識結果出力部36、監視対象認識辞書入力部37及び行動認識辞書入力部38の各機能を実現する。初期ID設定部33は、識別番号設定部の一例である。行動認識処理部35は、動作認識処理部及び状態認識処理部の一例である。
なお、入力部31〜行動認識辞書入力部38は、ソフトウェアで実現することとしたが、これらのうち、一部又は全部を、IC(Integrated Circuit)等のハードウェアで実現してもよい。
また、行動認識プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)などのコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、行動認識プログラムは、CD−R、DVD(Digital Versatile Disk)、ブルーレイディスク(登録商標)、半導体メモリなどのコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、行動認識プログラムは、インターネット等のネットワーク経由でインストールするかたちで提供してもよいし、機器内のROM等に予め組み込んで提供してもよい。
(行動認識処理)
このような入力部31〜行動認識辞書入力部38による監視対象の行動認識処理を、図4のフローチャートを用いて説明する。CPU11は、行動認識プログラムを読み込むことで、この図4のフローチャートに示す各処理を実行する。
すなわち、まず、入力部31は、カメラ装置2からの撮像画像を取得する(ステップS1)。この撮像画像は、例えば監視対象の一例となる一人又は複数の作業者が、職場の商品を棚に入れる作業等の作業状況を撮像した撮像画像である。
次に、監視対象認識辞書入力部37が、作業者を認識するための監視対象認識辞書を、認識部32に入力する(ステップS2)。この監視対象認識辞書は、認識部32の各階層の評価値を計算するための特徴量、重み係数及び各階層での評価値閾値を示す辞書(データ群)となっている。この監視対象認識辞書は、人の撮像画像及び人ではない物体の撮像画像に対して、以下に説明する特徴量を計算するための矩形の頂点位置座標、重み係数及び各階層での評価閾値を予め学習して形成される。
次に、認識部32は、この監視対象認識辞書を参照し、入力部31により取得された撮像画像に写っている作業者を認識する(ステップS3)。図5は、認識部32による作業者の認識動作を説明するための図である。この図5に示すように、認識部32は、撮影画像50の範囲内で、例えば矩形状等の所定の形状のブロック51、52・・・を切り出す。ブロック51の左上の座標(Xs,Ys)と、ブロック51の右下の座標(Xe,Ye)は、撮像画像50内におけるブロック51の位置及び矩形の大きさで決定される。
認識部32は、大きいサイズから小さいサイズの順に、ブロック51を選択して以下に説明する特徴量等の演算を行う。すなわち、大きいブロック及び小さいブロックの処理時間は同じである。また、撮像画像50内に存在するブロックとしては、大きいサイズのブロックの数は少なく、小さいサイズのブロック数は多い。このため、認識部32は、大きいサイズのブロックから小さいサイズのブロックの順に選択して特徴量等の演算を行う。これにより、オブジェクト(監視対象)の迅速な検出が可能となる。
図6(a)〜図6(b)は、特徴量の演算処理を説明するための図である。この図6(a)〜図6(b)に示すように、認識部32は、入力された監視対象認識辞書を参照して、ブロック内における白黒の矩形領域に白い領域内の画素値を加算処理し、黒い画素領域内の画素合計値との差を、ブロック内の特徴量h(x)として算出する。そして、認識部32は、この特徴量h(x)に、所定の重みを付け処理を行うことで、評価値f(x)を算出する。
以下の(1)式が、このような評価値f(x)の演算式である。
Figure 2021081804
ここで、認識部32は、図7に示すように第1の階層〜第nの階層(nは自然数)等の階層毎に評価値f(x)を算出する。算出した評価値f(x)が、監視対象認識辞書で示される、予め設定した閾値よりも小さい場合、認識部32は、人以外の物体として判断し(非人ブロック)、そのブロックの評価を中止する。これに対して、算出した評価値f(x)が、監視対象認識辞書で示される、予め設定した閾値以上の場合、認識部32は、そのブロックは、人が写っているブロックとして判断する。
このように人が写っているブロックが認識されると、初期ID設定部33は、各ブロックに対して識別番号を設定する(ステップS4)。図8の例は、人が写っているブロックとして、3つのブロックが認識され、初期ID設定部33が、各ブロック(初期領域)に対して、ID1、ID2及びID3の識別番号を設定した例である。
次に、追尾処理部34は、各ブロックに写っている作業者を追尾する(ステップS5)。具体的には、追尾処理部34には、図9に示すように、最初のフレームF0が供給され、Δt時間後に次のフレームF1が供給される等のように、入力部31を介して取得された撮像画像が、順次(時系列に)供給される。
追尾処理部34は、最初のフレームで、作業者の状態「S(x,y,vx,vy,Hx,Hy,M)」を定義する。x,yは、図9に矩形の枠で囲んで示す作業者(追尾対象)が写っているブロックの左上の点Aの座標値である。Hx、Hyは作業者が写っているブロックの横のサイズ及び縦のサイズを示す。vx,vyは、ブロック内の作業者が横方向及び縦方向に動く速度(初期値は0に設定)を示す。Mは、ブロック内の作業者の変倍率変化(前フレームに対する作業者のサイズ変化率:初期値は0に設定)である。
追尾処理部34は、図10及び図11に示すように、作業者の状態の予測→観測→修正を繰り返し行うことで、作業者を追尾する。図11に示す「St」は、時間tにおける作業者(追尾対象)状態を示し、「Yt」は、時間tの観測結果を示す。
追尾処理部34は、以下の(2)式の演算により、作業者の状態Sk-1から状態Sまでの状態変化を算出する。
Figure 2021081804
追尾処理部34は、以下の(3)式〜(9)式の演算を行うことで、k−1の作業者の状態から次のkの作業者の状態を予測する。
Figure 2021081804
Figure 2021081804
Figure 2021081804
Figure 2021081804
Figure 2021081804
Figure 2021081804
Figure 2021081804
次に、追尾処理部34は、以下の(10)式の演算を行うことで、作業者の状態Sの観測データZを算出する。
Figure 2021081804
観測データは、作業者の図9に示したブロック内(追尾対象が写っている領域内)のカラーヒストグラムとなっている。追尾処理部34は、以下の(11)式の演算を行うことで、カラーヒストグラムを算出する。(11)式において、k()は、カラーヒストグラムを計算するカーネルである。また、(11)式において、aは変倍率、h(x)はカラー画素値である。Pはカラーヒストグラムの頻度である。
Figure 2021081804
この(11)式におけるカーネルkは、以下の(12)式で算出される。
Figure 2021081804
この数12式で算出されるカーネルkを用いることで、ブロック(被写体領域)の中心部の値は大きな値が算出され、ブロックの周辺に近くなるほど、小さな値が算出されるようになる。これにより、ブロック(被写体領域)の周辺の影響を軽減することができる。
次に、追尾処理部34は、以下の(13)式の演算を行うことで、予測状態S (i)を観測し、観測結果評価の重み加重平均を計算する。この際、追尾処理部34は、図12に複数の枠で示すようにN個の予測領域の特徴量を評価し、重み係数を求める。この求めた重み係数の加重平均が追尾結果となる。
Figure 2021081804
具体的には、追尾処理部34は、上述の式(3)式〜(9)式にランダム変数を加えた、以下の式(14)式〜(20)式の演算を行うことで、作業者の状態Sを予測する。r〜rとしては、例えばガウシアン(Gaussian)ランダム変数を用いることができる。
Figure 2021081804
Figure 2021081804
Figure 2021081804
Figure 2021081804
Figure 2021081804
Figure 2021081804
Figure 2021081804
次に、追尾処理部34は、予測した状態の重み係数πを、以下のように計算する。すなわち、まず、追尾処理部34は、作業者の追尾領域から計算したヒストグラムPをモデルとして使用し、予測したN個の予測領域のカラーヒストグラムqとして、以下の(21)式の演算を行うことで、バタチャリア(Bhattacharyya)係数を算出する。
Figure 2021081804
このバタチャリア係数は、作業者の追尾領域のカラーヒストグラム(=モデル)と、予測した領域のカラーヒストグラムの類似度を表す。このため、バタチャリア係数の値が大きいということは、両者の類似度が高いことを意味する。追尾処理部34は、このバタチャリア係数を用いて、以下の(22)式の演算を行うことで、予測した状態の重み係数πを算出する。
Figure 2021081804
なお、(22)式における「d」は、以下の(23)式で算出される。
Figure 2021081804
追尾処理部34は、このように算出した重み係数π、及び、予測した状態S を用いて、上述の(13)式の演算を行うことで、作業者の追尾結果を算出する。
次に、追尾処理部34は、上述の(21)式の演算を行うことで算出したバタチャリア係数で示される追尾結果の類似度ρ[p,q]を、作業者追尾の確信度とする。この確信度の値は、0〜1.0の範囲の値となる。ρ[p,q]の値が高くなるほど、確信度が高いことを示す。
追尾処理部34は、この確信度が、予め設定されている所定の閾値以上の値であれば、追尾成功と判断し、図8に示した各作業者のIDを、そのまま維持する。また、追尾処理部34は、例えば追尾成功と判断した作業者の位置情報(=矩形情報)及び作業者の矩形領域の画像データを作業者情報として記憶部に保存する。次のフレームの画像情報が入力されると、追尾処理部34は、上述の追尾処理を行い、追尾成功した場合に、作業者のIDを維持すると共に、記憶部に保存した作業者情報を更新する。
次に、このような作業者の追尾中において、作業者同士が重なり、物陰に移動し、又は、カメラ装置2の撮像範囲外に移動することで、追尾していた作業者が撮像画像上から消失又は検出困難となり、作業者の追尾が困難となる場合がある。このような場合、消失又は検出困難となったIDの作業者のデータを取得することも困難となる。
なお、「追尾が困難となる場合」とは、「追尾ができない場合」、「追尾が非継続となった場合」、又は、「追尾不良となった場合」等と同義語である。
作業者の追尾に成功している場合、上述のように、追尾処理部34は、追尾している作業者のIDを維持し、記憶部の作業者情報を更新する。これに対して、追尾困難となった場合、追尾処理部34は、最後に追尾が成功したフレームで検出された追尾困難となった作業者のID及び作業者情報を維持する。例えば、図8の例において、ID3の作業者の追尾が困難となった場合、追尾処理部34は、追尾が最後に成功したフレームで検出された作業者のID3及び作業者情報を維持する。
作業者の追尾が困難となった場合、認識部32は、再度、各作業者の認識処理を行い、各作業者に対してIDを再設定する。このIDの再設定の際、再認識した各作業者のうち、追尾困難となった作業者の類似度に最も近似する類似度を有する作業者に対して、追尾困難となった作業者のIDを設定する。これにより、同一の作業者に対して同じIDを設定できる。
このようなIDの再設定動作を具体的に説明すると、作業者の追尾が困難となった場合、認識部32は、入力部31を介して取得された撮像画像に基づいて、再度、作業者の再認識処理を行う。この再認識処理により、例えばA,B,Cの3人の作業者が認識されたものとする。
初期ID設定部33は、再認識したA,B,Cの3人の作業者の類似度、及び、追尾困難となった際に維持した例えばID3の作業者の類似度(バタチャリア係数)を、上述の(21)式の演算を行うことで、それぞれ算出する。そして、初期ID設定部33は、A,B,Cの3人の作業者のうち、追尾困難となった際に維持したID3の作業者の類似度に最も近い類似度を有する作業者に対して「ID3」を設定する。これにより、一旦、追尾困難となった作業者が、再度検出可能な状態となった際に、追尾困難となった際に設定されていたIDと同じIDを設定して、追尾を継続することができる。
同様に、例えばID1及びID2の2人の作業者の追尾が困難となった場合、初期ID設定部33は、A,B,Cの3人の作業者のうち、追尾困難となった際に維持したID1の作業者の類似度に最も近い類似度を有する作業者に対して「ID1」を設定する。また、初期ID設定部33は、A,B,Cの3人の作業者のうち、追尾困難となった際に維持したID2の作業者の類似度に最も近い類似度を有する作業者に対して「ID2」を設定する。再認識後も、同じIDで各作業者を追尾可能とすることができる。
次に、行動認識処理部35は、図4のフローチャートのステップS6において行動認識辞書入力部38から入力される、作業者の行動を認識するための行動認識辞書に基づいて、作業者の行動認識処理を行う(ステップS7)。
具体的には、行動認識処理部35は、図13に示すように、入力部31を介して入力される複数フレームにおける作業者の矩形領域の時空間特徴を抽出する。なお、図13に示す各フレームの横軸x、縦軸yは空間座標である。また、この図13は、フレームF1、F2・・・が時間軸tに沿って時系列で並んでいる様子を示している。すなわち、各フレームは、時空間(x,y,t)画像データである。また、時空間の一つ画素値I(x,y,t)は、空間座標(x,y)と時間tの関数である。
作業者が動くと、図13に示す時空間画像データに変化点が発生する。行動認識処理部35は、この変化点(=時空間の特徴点)に基づいて、作業者の特定行動を認識する。行動認識処理部35は、この変化点(時空間の特徴点)を、以下のようにして検出する。
すなわち、図14に、時空間画像データを示す。この図14に示す大きな立方体が時空間画像データである。横軸は空間座標x(画素)を示し、縦軸は空間座標y(画素)を示す。時間軸tは、例えば毎秒30フレーム等の所定のフレームレートで入力される撮像画像の時系列軸である。
行動認識処理部35は、図14に示す時空間画像データを、x方向がM画素、y方向がN画素、t方向がTフレームのサイズ(M×N×T)のブロックに分割する。作業者が特定の動作をすると、時空間画像データ中における、作業者の動作に対応するブロックの特徴量が大きくなる(時空間に大きな変化量が発生する)。行動認識処理部35は、以下に説明するように、変化量の大きいブロックを特徴点として抽出する。
行動認識処理部35は、時空間画像データから特徴点を抽出する場合、まず、空間方向(x、y)方向のノイズを除去するために、以下の(24)式の演算を行うことで、時空間画像データに平滑化処理を施す。
Figure 2021081804
この(24)式に示すI(x,y,t)は、時間tのフレームにおけるxy座標の画素値を示している。また、(24)式に示すg(x,y)は、平滑化処理のためのカーネルである。「*」の記号は、畳み込み処理が行われることを意味する。平滑化処理は、画素を平均化することで行ってもよいし、ガウシアン(Gaussian)平滑化フィルタを用いて行ってもよい。
次に、行動認識処理部35は、平滑化処理を施した時空間画像データに対して、時間軸でフィルタリング処理を施す。このフィルタリング処理としては、以下の(25)式に示すガボール(Gabor)フィルタリング処理が行われる。
Figure 2021081804
この(25)式に示す「gev」及び「god」は、それぞれ以下の(26)式及び(27)式に示す、ガボールフィルタのカーネルである。「*」の記号は、畳み込み処理が行われることを意味する。「τ」及び「ω」は、ガボールフィルタのカーネルのパラメータである。
Figure 2021081804
Figure 2021081804
次に、行動認識処理部35は、図13に示した時空間画像データの全画素に対して、上述の(2)式で示したフィルタリング処理を施した後、図14に示したように分割したブロックの平均値を、以下の(28)式の演算で算出する。
Figure 2021081804
行動認識処理部35は、(28)式の演算で算出されたブロックの平均値(M(x,y,t))が、以下の(29)式に示すように所定の閾値(Thre)以上の値である場合、このブロックを特徴点として抽出する。
Figure 2021081804
次に、行動認識処理部35は、時空間画像データから抽出した特徴点となるブロックの画素の時空間エッジ情報を、以下の(30)式の微分演算を行うことで算出する。
Figure 2021081804
図14に示す例の場合、1つのブロックは、M×N×T個の画素を有するため、M×N×T×3個の微分値を得ることができる。従って、各ブロックを、MxNxTx3個の微分値のベクトルで記述できる。すなわち、特徴点をM×N×T×3次元のベクトルで記述できる。
図3に示した行動認識辞書入力部38から行動認識処理部35に入力される行動認識辞書は、例えば作業者が荷物を担ぐ、歩く及び荷物を棚に置く等の特定の行動を撮像したNフレームの撮像画像から検出した特徴点に基づいて、(30)式の演算を行うことで予め算出(学習)されたM×N×T×3次元のベクトル情報である。
行動認識辞書を作成する場合、行動認識辞書入力部38は、例えばK平均法(k-means clustering)等を用いて、M×N×T×3次元のベクトルである特徴点を、例えばK種類の特徴点に分類する。この分類処理を行うことで、近似する特徴を有する特徴点同士を、同じ種類の特徴点として分類することができる。
次に、行動認識辞書入力部38は、分類処理したK種類の特徴点について、同じ種類の特徴点のM×N×T×3次元のエッジベクトルを平均化し、K個の平均ベクトルVkを算出する。各ベクトルは、その種類の特徴点を代表する認識ベクトルである。作業者の特定行動の撮像画像から得られた特徴点は、同じ特定行動の学習データで得られた平均ベクトルVkの近くに分布する。
この特性を利用し、行動認識辞書入力部38は、K種類の各特徴点グループのブロック合計数を計算し、特徴点グループの頻度である認識ヒストグラムH(k)を算出する。上述のように、認識対象特徴点の分布は、学習データの特徴点の分布と近似している。このため、認識対象となる例えば作業者の認識ヒストグラムは、作業者の同じ行動(動作)の学習データの学習ヒストグラムと近似する。このため、学習データから求めたヒストグラムH(k)で、作業者等の特定行動を認識するための行動認識辞書を作成することができる。
一例ではあるが、行動認識辞書は、SVM(Support Vector Machine)の機械学習方法を用いて作成できる。この機械学習方法で行動認識辞書を作成する場合、認識対象となる作業者の特定行動の撮像画像から学習した正の学習データと、特定行動とは異なる作業者の行動の撮像画像から学習した負の学習データで、行動認識辞書を作成する。
なお、行動認識辞書は、SVM機械学習方法以外でも、例えばK近傍法(K Nearest Neighbor)又は多層パーセプトロン(Multilayer Perceptron)等の他の機械学習方法を用いて作成してもよい。
以上説明した行動認識処理部35の行動認識動作をまとめると、行動認識処理部35は、認識対象となる作業者の撮像画像(動画)として入力されたNフレームの時空間画像データから上述の時空間特徴点を抽出する。行動認識処理部35は、各特徴点ブロックのM×N×T×3次元の微分ベクトルを求める。この微分ベクトル及び入力された学習データから求めたK個の学習平均ベクトルVkとの距離を計算し、特徴点ブロックの種類を、最も距離が近い学習平均ベクトルVkの種類に分類する。この方法で特徴点ブロックを分類することで、特徴点ブロックをK種類に分類できる。行動認識処理部35は、各種類の特徴点ブロックの出現頻度に基づいて、認識対象の撮像画像(動画)の特徴点ヒストグラムT(k)を作成する。
そして、行動認識処理部35は、行動認識辞書入力部38から入力された行動認識辞書、及び、認識対象の撮像画像の特徴点ヒストグラムT(k)に基づき、上述のSVM機械学習法を用いて、作業者の特定行動の認識処理を行う。SVM機械学習法を用いたSVM認識処理では、作業者の特定行動と特定行動以外の認識結果を出力する。
図3に示す認識結果出力部36は、作業者の特定行動と特定行動以外の認識結果を、例えば出力インタフェース部17を介してモニタ装置23に出力する(ステップS8)。これにより、モニタ装置23を介して作業者等の監視対象の監視を可能とすることができる。図4のフローチャートのステップS9では、CPU11が、このような認識処理が終了したか否かを判別する。認識処理が終了していないと判別された場合(ステップS9:No)、処理がステップS1に戻り、上述の作業者の特定行動の認識処理が繰り返し行われる。認識処理が終了したと判別された場合(ステップS9:Yes)、図4のフローチャートの全処理が終了する。
なお、認識結果出力部36は、認識結果を通信部14及びネットワーク21を介してサーバ装置22に送信してもよい。この場合、管理者等は、スマートホン、タブレット端末装置又はパーソナルコンピュータ装置等の通信機器を介してサーバ装置22にアクセスし、認識結果を取得する。これにより、作業者等の監視対象の遠隔監視を可能とすることができる。
次に、作業者が歩行して棚の位置まで移動し、商品を抱えて棚入れする行動を、認識対象例として用いて、認識結果出力部36による認識結果の出力形態を説明する。この場合、認識結果出力部36は、図15に示すように、行動認識処理部35で認識された作業者の行動の認識結果に基づいて、行動の開始時間及び持続時間を出力する。歩行終了時間t2と歩行開始時間t1の差(t2−t1)は、歩行時間である。
また、棚入れ行動の終了時間t3と棚入れ行動の開始時間t2の差(t3−t2)は棚入れ行動の時間となる。棚入れの作業時間は、作業者の歩行時間と棚入れの作業時間との合計時間となり、棚入れ終了時間t3と歩行開始時間t1の差(t3−t1)の時間である。認識結果出力部36は、各作業者の歩行時間、棚入れ行動時間、及び、棚入れ作業全体の時間を出力する。
次に、例えば作業者が他の作業者と重なり合い、また、作業者の姿勢が変化することで、作業者が認識困難となると、行動認識処理部35による作業者の認識処理が中断される。図16は、作業者が商品の棚入れ作業を行う際に、歩行途中で、作業者を認識することが困難となった例を示している。図16に示す時間t3と時間t2との間が、歩行中の作業者の認識が困難となった時間を示している。
このような場合、行動認識処理部35は、歩行中の作業者の認識が困難となった時間t3−時間t2の時間差は、所定の閾値Thre_w以下であるか否かを判別する。歩行中の作業者が他の作業者と重なり合うことで、例えば2秒間又は5秒間等のように、一時的に認識困難となることは多々ある。このため、行動認識処理部35は、例えば閾値Thre_wを、例えば2秒間又は5秒間等とし、歩行中の作業者の認識が困難となった時間t3−時間t2の時間差が、この2秒以下又は5秒以下であった場合に、時間t3−時間t2の間は、作業者が歩行状態であったものと認識する。
すなわち、行動認識処理部35は、作業者の認識が困難となった時間が所定時間以下であれば、その間、認識が困難となる前に認識されていた行動(動作)が継続して行われていたものと認識する。これにより、図16に示す歩行開始時間t1から棚入れ開始時間t4までの間は、途中、作業者が認識困難となった場合でも、作業者は連続して歩行状態にあったものと認識される。
図17は、棚入れの途中に作業者が一時的に認識困難となった例である。図17に示す時間t3〜時間t4が、棚入れの途中に作業者が一時的に認識困難となっていた時間である。この場合も上述と同様に、行動認識処理部35は、作業者が認識困難となっていた時間が例えば2秒間又は5秒間等の閾値Thre_wとなる時間以下であれば、作業者が認識困難となっていた時間も、作業者は継続して棚入れ作業を行っていたものと認識する。これにより、図17に示す棚入れ開始時間t2から棚入れ終了時間t5までの間は、途中、作業者が認識困難となった場合でも、作業者は連続して棚入れ作業中であったものと認識される。
このように、作業者の認識が困難となった時間が所定時間以下であれば、その間、認識が困難となる前に認識されていた行動(動作)が継続して行われていたものと認識することで、途中、作業者が認識困難となった場合でも、正しい作業時間の測定等を可能とすることができる。
認識結果出力部36は、作業者毎に、行動の認識結果となる作業開始時間、作業終了時間及び作業時間(一連の作業(動作)の開始から終了までの時間=所要時間)等を、各作業者の行動認識結果として出力する。
(部位毎の動作認識に基づく状態判別)
次に、実施の形態の行動認識システムは、各監視対象の所定の部位毎の上述の動作認識処理を行い、各部位の動作認識結果に基づいて、各監視対象の状態等を認識可能となっている。なお、上述の説明では、監視対象として作業者を例示して説明を行ったが、以下、監視対象として動物である「牛」を例として説明を行う。すなわち、実施の形態の行動認識システムは、上述のように、各牛の行動認識を行うことができる。また、実施の形態の行動認識システムは、以下に説明するように、各牛の例えば頭部と胴体等のように所定の部位に分けて動作を認識し、各部位の動作の認識結果に基づいて、各牛の状態を認識する。また、頭部と胴体等のように複数の部位の動作を認識することとして説明を進めるが、頭部のみ等のように、一つの部位で動作を認識してもよい。
図18は、各部位の動作に基づく、各牛の状態認識処理の流れを示すフローチャートである。この図18のフローチャートの場合、監視対象が動物である牛であるため、ステップS12で図3に示した監視対象認識辞書入力部37から牛認識用の辞書(動物認識辞書)が認識部32に入力される。なお、この動物認識辞書は、後述するように、牛の頭部の認識用、及び、胴体の認識用等のように、監視対象の部位毎に作成されて認識部32に入力される。認識部32は、上述と同様に、動物認識辞書に基づいてステップS11で取得した撮像画像から一頭又は複数の牛の各部位を認識する(ステップS13)。
認識された各牛に対しては、各牛の全体画像に基づいて、図8を用いて説明したように初期ID設定部33でそれぞれIDが設定され、追尾処理部34で追尾が行われる。行動認識処理部35には、ステップS14において行動認識辞書入力部38から、動物の行動を認識するための辞書(動物行動認識辞書)が入力される。なお、この動物行動認識辞書は、後述するように、牛の頭部の認識用、及び、動体の認識用等のように、監視対象の部位毎に作成されて行動認識処理部35に入力される。行動認識処理部35は、追尾が成功した牛の動きを、頭及び胴体等の部位毎に認識する(ステップS15)。
具体的には、行動認識処理部35は、複数フレームの各撮像画像における動物矩形領域において時空間特徴点を抽出する。具体的には、行動認識処理部35は、図14に示した立方体の時空間(x,y,t)の時空間画像データをフロックで分割する(t方向サイズは、動きの認識処理に必要なフレーム数)。牛が動くと、この時空間画像データで変化点が発生する。この立方体の時空間における変化点を検出することで、牛の動きを認識する。この際、実施の形態の行動認識システムは、牛の例えば頭と胴体等の部位毎に動きを認識する。
すなわち、図14に示した大きな時空間立法体の(x、y)方向のサイズは、認識された牛に対応する矩形サイズである。牛の頭部の動きを認識する場合、(x、y)方向の立方体サイズは、図19に示すように牛の頭部の大きさの矩形サイズとなる。また、牛の頭部を除く胴体の動きを認識する場合、(x、y)方向の立方体サイズは、図20に示すように牛の胴体の大きさの矩形サイズとなる。
このようなブロックの時空間画像データにおいて、牛の動きに対応するブロックの特徴量(変化量)は大きくなる。行動認識処理部35は、変化量の大きいブロックを特徴点として抽出する。この特徴点の抽出を行う場合、行動認識処理部35は、まず、空間方向及び(x、y)方向で、模様があるブロック等の特徴のあるブロックを抽出し、以下の(31)式の演算を行うことで画像の模様強度を算出する。
Figure 2021081804
そして、行動認識処理部35は、算出した模様強度が所定の模様強度閾値以上であった場合に、そのブロックを特徴点抽出用のブロックとして用いる。
(31)式において、x,y微分は、撮像画像のフレーム内における上下左右の差分である。積分は、ブロック内の和である。この(31)式に基づいて、以下の(32)式の演算を行うことで、有効な輝度模様の強度(又は画像のコントラスト)を算出する。
Figure 2021081804
行動認識処理部35は、この(32)式で算出した「t」の値が、所定の閾値Thre_t以上となるブロックを、時空間特徴抽出用のブロックとして用いる。
さらに説明すると、牛等の動物の行動認識の特徴点を抽出する場合、行動認識処理部35は、画像の時空間微分を用いる方法を使用し,抽出した模様特徴のあるブロックの特徴抽出を行う。
すなわち、対象画像f(x,y)が速度(u,v)で移動しているものとする。この対象を、微小な時間間隔Δtをおいて撮影した2枚の画像f(x,y)、f(x,y)は、以下の(33)式の関係を満たす。
Figure 2021081804
f(x,y)を一次近似し,x,y,tでそれぞれ偏微分すると、以下の(34)式のようになる。
Figure 2021081804
この(34)式を用いて、速度(u,v)を算出できる。しかし、このままでは一次近似からのずれ又は雑音等の影響による測定誤差が大きい。ここで、小さい領域では物体が均一の速度で動くと仮定した場合、上述の(34)式が成立している必要がある。この(34)式の左辺の近傍領域内での2乗積分を評価関数とし、これを最小化すると、速度(u,v)は、以下の(35)式及び(36)式で算出できる。
Figure 2021081804
Figure 2021081804
この演算により、フレーム間のブロックのずれ量を画素以下のずれ量とすることができる。Sijは、(31)式で定義される。
このような行動認識処理部35による行動認識処理をまとめると、行動認識処理部35は、図14に示した行動認識用の時空間立法体で動物行動認識を行う。この時空間立法体の小さいブロックにおける時空間特徴は、フレーム間ブロックの移動量(u,v)とする。(i,j,t)番目のブロックの時空間特徴量は、(uijt,vijt)とする。これに対して、模様のないブロックの特徴量(uijt,vijt)は、(0,0)とする。
また、行動認識処理部35は、行動認識対象となる大きい立法体内の小さいブロックで得られたブロック移動量(u,v)を一次元に並べて展開し、特徴ベクトルV(…,uijt,vijt,…)を作成する。この特徴ベクトルの要素は、小さいブロック数の2倍となる。
なお、監視対象認識辞書入力部37から入力される動物認識辞書、及び、行動認識辞書入力部37から入力される動物行動認識辞書は、このような特徴ベクトルを、牛等の動物の頭及び胴体等の部位別に検出して作成される。
行動認識処理部35は、この特徴ベクトルを用いて、上述のSVM機械学習法に基づき、牛の頭部及び胴体(体全体)等の部位別に動作を認識し(ステップS16〜ステップS18)、特定行動及び特定行動以外の認識結果を出力する。
次に、行動認識処理部35は、この動作の認識を行う際、牛の頭部における静止と活動、及び、胴体(体全体)における静止と活動をそれぞれ認識する。図21(a)は、牛の胴体の静止及び活動の各時間を示している。これに対して、図21(b)は、牛の頭部(体全体)の静止及び活動の各時間を示している。図21(a)の例は、時間t1〜時間t2の間、牛の胴体は静止していたが、時間t2〜時間t3の間、牛の胴体は活動状態にあったことを示している。図21(b)の例は、時間t1〜時間t2の間、及び、時間t2〜時間t3の間、共に牛の頭部は活動状態にあったことを示している。
行動認識処理部35は、このような牛の各部の動作を総合的に判断して、牛の状態を認識する。一例ではあるが、図21(a)及び図21(b)の時間t1〜時間t2の間において、牛の胴体は静止しているが、頭部は活動している。この場合、行動認識処理部35は、時間t1〜時間t2の間、牛は反芻状態であったと認識する。また、図21(a)及び図21(b)の時間t2〜時間t3の間において、牛の胴体及び頭部はそれぞれ活動している。この場合、行動認識処理部35は、時間t2〜時間t3の間、牛は歩行状態であったと認識する。
なお、図16及び図17を用いて説明したが、行動認識処理部35は、牛の各部の動作の認識が困難となった時間が所定時間以下であれば、その間、認識が困難となる前に認識されていた動作が継続して行われていたものと認識する。これにより、途中、牛の動作が認識困難となった場合でも、この認識困難となった前後で、同じ動作が行われていたものと認識できる。
認識結果出力部36は、このような牛の状態認識結果となる状態認識情報、及び、各牛の体全体の動作の静止、動作開始時間、動作終了時間、運動の継続時間、及び、各牛の各部位の動作の静止、動作開始時間、動作終了時間、運動の継続時間等を各牛の行動認識結果として、モニタ装置23又はサーバ装置22等に出力する。このように、牛の各部の動作に基づいて、総合的に牛の状態を認識することで、より高い精度で牛の状態を認識できる。
なお、監視対象は、牛以外であっても、例えば各作業者の動作を、作業者の頭及び胴体に分けて認識し、この頭の動作の認識結果及び胴体の動作の認識結果に基づいて、作業者の状態(食事中、商品の棚入れ中、歩行中等)を認識してもよい。
(実施の形態の効果)
以上の説明から明らかなように、実施の形態の行動認識システムは、複数の作業者等の監視対象の撮像画像に基づいて各監視対象を認識して、それぞれIDを設定する。設定したIDに基づいて各監視対象を追尾するが、監視対象が認識困難となった場合、認識困難となった監視対象のID及び関連情報(位置情報及び画像データ)を維持する。この状態で、上述の(21)式の演算を行い、認識困難となった監視対象の類似度、及び、再認識した各監視対象の類似度を算出する。そして、再認識した各監視対象のうち、認識困難となった監視対象の類似度に最も近似する類似度を有する監視対象に対して、認識困難となった監視対象のIDを設定する。
これにより、複数の監視対象を同時に認識し、一部又は全部の監視対象が一時的に認識困難となった場合でも、監視対象の再認識を行った際に、認識困難となる前及び後で、同じIDを監視対象に設定して追尾可能とすることができる。このため、複数の監視対象を精度よく監視可能とすることができる。
また、実施の形態の行動認識システムは、複数フレームの撮像画像から監視対象領域の時空間特徴点を抽出し、抽出した時空間特徴点に基づいて、各監視対象の行動(動作)に対応する特徴量を検出する。そして、この特徴量に基づいて、各監視対象の行動(動作)を認識し、各監視対象の例えば行動開始時間、行動終了時間、及び、所要時間等を認識結果として出力する。また、各監視対象の各部位の動作に基づいて判断した各監視対象の状態を示す状態情報を認識結果として出力する。これにより、複数の監視対象の行動をそれぞれ可視化することができる。
また、単数又は複数の監視対象を、例えば頭部及び胴体等のように複数の部位に分けて、それぞれ動作を認識し、この各部位の動作の認識結果に基づいて、監視対象の状態を認識する。これにより、監視対象の各部の動作に基づいて総合的に監視対象の状態を認識でき、監視対象の状態を、より高い精度で認識可能とすることができる。
また、牛の首等に装着した例えば3軸の加速度センサ等のセンサ出力を併用することで、牛の頭部のより細かな動作を精度良く検出できる。また、牛の体全体の認識処理は、画像認識処理でも精度良く検出できるため、牛の頭部の動作は、上述の加速度センサ等で検出し、牛の体全体の動作を画像に基づいて検出してもよい。
最後に、上述の実施の形態は、一例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な各実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。
例えば、上述の実施の形態の説明では、監視対象は作業者であることとして説明したが、これは、動物、道路上の通行人、特定の場所に集まった人、又は、ロボット等の他の監視対象でもよい。この場合も、上述と同じ効果を得ることができる。
また、実施の形態及び実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 行動認識装置
2 カメラ装置
3 インタフェース部
11 CPU
15 HDD
31 入力部
32 認識部
33 初期ID設定部
34 追尾処理部
35 行動認識処理部
36 認識結果出力部
37 監視対象認識辞書入力部
38 行動認識辞書入力部
特開2011−100175号公報

Claims (10)

  1. 撮像画像に基づいて、監視対象を認識する認識部と、
    認識された前記監視対象の所定の部位の動作をそれぞれ認識する動作認識処理部と、
    認識された部位の動作に基づいて、前記監視対象の状態を認識する状態認識処理部と、
    前記状態認識処理部で認識された前記監視対象の状態認識結果を出力する認識結果出力部と
    を有する状態認識装置。
  2. 前記認識部は、前記撮像画像に基づいて複数の監視対象を認識し、
    前記認識部で認識された各前記監視対象に識別番号を設定する識別番号設定部と、
    前記撮像画像で認識された各前記監視対象の領域に基づいて、前記撮像画像で認識される、識別番号が設定された各前記監視対象をそれぞれ追尾する追尾処理部と、をさらに備え、
    前記動作認識処理部は、各前記監視対象を追尾した前記撮像画像の結果領域で、各前記監視対象の動作を所定の部位毎にそれぞれ認識し、
    前記状態認識処理部は、認識された前記部位の動作に基づいて、前記監視対象の状態をそれぞれ認識すること
    を特徴とする請求項1に記載の状態認識装置。
  3. 前記認識部は、前記撮像画像に基づいて複数の動物を認識し、
    前記動作認識処理部は、前記動物の体全体、及び、体の一部の動作をそれぞれ認識し、
    前記識別番号設定部は、前記動物の体全体の前記撮像画像に基づいて、前記認識部で認識された各前記動物に識別番号を設定すること
    を特徴とする請求項2に記載の状態認識装置。
  4. 前記認識結果出力部は、前記動物の体全体の動作の静止又は運動の継続時間、及び、体の一部の動作の静止又は運動の継続時間を、前記状態認識結果として出力すること
    を特徴とする請求項3に記載の状態認識装置。
  5. 前記認識結果出力部は、前記監視対象の一連の動作中における、前記追尾処理部による前記監視対象の追尾が困難となった時間が所定時間以下の場合、追尾が困難となった時間中も一連の動作が行われていたものと認識した前記状態認識結果を出力すること
    を特徴とする請求項2から請求項4のうち、いずれか一項に記載の状態認識装置。
  6. 前記追尾処理部は、前記監視対象の前記識別番号、位置情報及び画像情報を維持し、追尾が成功した際に、前記位置情報及び前記画像情報を更新すること
    を特徴とする請求項2から請求項5のうち、いずれか一項に記載の状態認識装置。
  7. 前記追尾処理部は、追尾が困難となった前記監視対象の前記識別番号、位置情報及び画像情報を維持し、
    前記識別番号設定部は、追尾が困難となった前記監視対象の類似度を算出すると共に、追尾が困難となることで、前記認識部により再認識された監視対象の類似度をそれぞれ算出し、前記認識部により再認識された各監視対象の類似度が、追尾が困難となった前記監視対象の類似度に、近似する場合に、追尾が困難となった前記監視対象に対して設定されていた識別番号と同じ識別番号を設定すること
    を特徴とする請求項2から請求項6のうち、いずれか一項に記載の状態認識装置。
  8. 前記動作認識処理部は、複数フレームの前記撮像画像から時空間特徴点を抽出し、抽出した時空間特徴点に基づいて、前記監視対象の動作を認識すること
    を特徴とする請求項1から請求項7のうち、いずれか一項に記載の状態認識装置。
  9. 認識部が、撮像画像に基づいて、監視対象を認識する認識ステップと、
    動作認識処理部が、認識された前記監視対象の所定の部位の動作をそれぞれ認識する動作認識処理ステップと、
    状態認識処理部が、認識された部位の動作に基づいて、前記監視対象の状態を認識する状態認識処理ステップと、
    認識結果出力部が、前記状態認識処理部で認識された前記監視対象の状態を示す状態情報を、前記監視対象の状態認識結果として出力する認識結果出力ステップと
    を有する状態認識方法。
  10. コンピュータを、
    撮像画像に基づいて、監視対象を認識する認識部と、
    認識された前記監視対象の所定の部位の動作をそれぞれ認識する動作認識処理部と、
    認識された部位の動作に基づいて、前記監視対象の状態を認識する状態認識処理部と、
    前記状態認識処理部で認識された前記監視対象の状態を示す状態情報を、前記監視対象の状態認識結果として出力する認識結果出力部として機能させること
    を特徴とする状態認識プログラム。
JP2019206472A 2019-11-14 2019-11-14 状態認識装置、状態認識方法及び状態認識プログラム Pending JP2021081804A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019206472A JP2021081804A (ja) 2019-11-14 2019-11-14 状態認識装置、状態認識方法及び状態認識プログラム
US17/030,391 US11256911B2 (en) 2019-11-14 2020-09-24 State recognition apparatus, state recognition method, and non-transitory computer-readable medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019206472A JP2021081804A (ja) 2019-11-14 2019-11-14 状態認識装置、状態認識方法及び状態認識プログラム

Publications (1)

Publication Number Publication Date
JP2021081804A true JP2021081804A (ja) 2021-05-27

Family

ID=75908740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019206472A Pending JP2021081804A (ja) 2019-11-14 2019-11-14 状態認識装置、状態認識方法及び状態認識プログラム

Country Status (2)

Country Link
US (1) US11256911B2 (ja)
JP (1) JP2021081804A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115631464B (zh) * 2022-11-17 2023-04-04 北京航空航天大学 面向大时空目标关联的行人立体表示方法
WO2024130195A1 (en) * 2022-12-16 2024-06-20 Insurance Services Office, Inc. Machine learning systems and methods for validating workflows

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038330A (ja) * 2002-06-28 2004-02-05 National Institute Of Advanced Industrial & Technology 対象物の動作追跡方法
JP2011100175A (ja) * 2009-11-04 2011-05-19 Nippon Hoso Kyokai <Nhk> 人物行動判定装置及びそのプログラム
WO2015033576A1 (ja) * 2013-09-06 2015-03-12 日本電気株式会社 セキュリティシステム、セキュリティ方法及び非一時的なコンピュータ可読媒体
JP2019175268A (ja) * 2018-03-29 2019-10-10 株式会社リコー 行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016146162A (ja) 2014-12-04 2016-08-12 株式会社リコー 運転判定装置、運転判定プログラム、演算システム、検知装置、検知システム、検知方法及びプログラム
JP2016140030A (ja) 2015-01-29 2016-08-04 株式会社リコー 画像処理装置、撮像装置、及び画像処理プログラム
US20170228606A1 (en) 2016-02-09 2017-08-10 Haike Guan Information processing apparatus, information processing method, and recording medium
JP6834625B2 (ja) 2017-03-13 2021-02-24 富士通株式会社 行動量算出プログラム、行動量算出方法、行動量算出装置および動物監視システム
US10565764B2 (en) * 2018-04-09 2020-02-18 At&T Intellectual Property I, L.P. Collaborative augmented reality system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038330A (ja) * 2002-06-28 2004-02-05 National Institute Of Advanced Industrial & Technology 対象物の動作追跡方法
JP2011100175A (ja) * 2009-11-04 2011-05-19 Nippon Hoso Kyokai <Nhk> 人物行動判定装置及びそのプログラム
WO2015033576A1 (ja) * 2013-09-06 2015-03-12 日本電気株式会社 セキュリティシステム、セキュリティ方法及び非一時的なコンピュータ可読媒体
JP2019175268A (ja) * 2018-03-29 2019-10-10 株式会社リコー 行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
RALF REULKE ET AL.: ""Analysis of Motion Patterns for Pain Estimation of Horses"", 2018 15TH IEEE INTERNATIONAL CONFERENCE ON ADVANCED VIDEO AND SIGNAL BASED SURVEILLANCE (AVSS), JPN6023031368, 27 November 2018 (2018-11-27), US, pages 1 - 6, XP033518234, ISSN: 0005118473, DOI: 10.1109/AVSS.2018.8639330 *
山田 花穂、外2名: ""パーツ領域限定Dense TrajectoriesとLSTMを用いた行動認識"", 電子情報通信学会技術研究報告, vol. 117, no. 392, JPN6023031369, 11 January 2018 (2018-01-11), JP, pages 183 - 188, ISSN: 0005118472 *

Also Published As

Publication number Publication date
US20210150198A1 (en) 2021-05-20
US11256911B2 (en) 2022-02-22

Similar Documents

Publication Publication Date Title
US10970559B2 (en) People flow estimation device, people flow estimation method, and recording medium
JP4763863B1 (ja) 関節状領域検出装置およびその方法
US20120243733A1 (en) Moving object detecting device, moving object detecting method, moving object detection program, moving object tracking device, moving object tracking method, and moving object tracking program
US9147114B2 (en) Vision based target tracking for constrained environments
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
KR102371127B1 (ko) 골격의 길이 정보를 이용한 제스쳐 인식 방법 및 처리 시스템
US20210158566A1 (en) Information processing apparatus, information processing method, and storage medium
JP2011186576A (ja) 動作認識装置
JP7069725B2 (ja) 不審者検出装置、不審者検出方法及び不審者検出用コンピュータプログラム
US11256911B2 (en) State recognition apparatus, state recognition method, and non-transitory computer-readable medium storing program
CN113297963A (zh) 多人姿态的估计方法、装置、电子设备以及可读存储介质
JP7263094B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN110910426A (zh) 动作过程和动作趋势识别方法、存储介质和电子装置
Nieto-Hidalgo et al. Vision based gait analysis for frontal view gait sequences using RGB camera
KR101542206B1 (ko) 코아스-파인 기법을 이용한 객체 추출과 추적 장치 및 방법
JP7488674B2 (ja) 物体認識装置、物体認識方法及び物体認識プログラム
CN107665495B (zh) 对象跟踪方法及对象跟踪装置
Beltrán et al. Automated Human Movement Segmentation by Means of Human Pose Estimation in RGB-D Videos for Climbing Motion Analysis.
JP2021077177A (ja) 動作認識装置、動作認識方法及び動作認識プログラム
EP3610358B1 (en) Depth information based pose determination for mobile platforms, and associated systems and methods
KR101320922B1 (ko) 가중 탐색 영역을 이용한 움직임 추적 및 아바타 제어 방법
US20220343112A1 (en) Learning data generation device, learning data generation method, and learning data generation program
JP7422572B2 (ja) 移動物体追跡装置、移動物体追跡方法及び移動物体追跡プログラム
Deepak et al. Design and utilization of bounding box in human detection and activity identification
Sigalas et al. Robust model-based 3d torso pose estimation in rgb-d sequences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231017