JP2020087312A - 行動認識装置、行動認識方法及びプログラム - Google Patents

行動認識装置、行動認識方法及びプログラム Download PDF

Info

Publication number
JP2020087312A
JP2020087312A JP2018225439A JP2018225439A JP2020087312A JP 2020087312 A JP2020087312 A JP 2020087312A JP 2018225439 A JP2018225439 A JP 2018225439A JP 2018225439 A JP2018225439 A JP 2018225439A JP 2020087312 A JP2020087312 A JP 2020087312A
Authority
JP
Japan
Prior art keywords
action
elemental
work
worker
actions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018225439A
Other languages
English (en)
Other versions
JP7222231B2 (ja
Inventor
関 海克
Haike Guan
海克 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018225439A priority Critical patent/JP7222231B2/ja
Priority to CN201911181304.1A priority patent/CN111259723A/zh
Publication of JP2020087312A publication Critical patent/JP2020087312A/ja
Application granted granted Critical
Publication of JP7222231B2 publication Critical patent/JP7222231B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

【課題】作業者が作業しているときの一連の行動を高精度に認識する。【解決手段】一実施形態に係る行動認識装置は、作業者を撮影した映像から予め監視対象として定められた標準作業を認識する。前記行動認識装置は、画像取得手段と、行動認識手段と、行動判定手段とを備える。前記画像取得手段は、前記映像に含まれる複数のフレーム画像を取得する。前記行動認識手段は、前記各フレーム画像の特徴的な変化から前記標準作業に含まれる複数の要素行動を認識するとともに、これらの要素行動の確信度を算出する。前記行動判定手段は、前記各要素行動の確信度を統合処理し、前記各要素行動の中から前記作業者の作業行動を判定する。【選択図】 図1

Description

本発明は、行動認識装置、行動認識方法及びプログラムに関する。
例えば、オフィスや工場などの作業場において、カメラの映像から作業者の作業行動を可視化して分析することは、作業の効率化を図る上で重要なことである。
従来、カメラから連続的に得られる複数のフレーム画像から人物を認識し、その人物の重心位置の軌跡を特徴量として抽出することにより、予め登録された行動の重心軌跡と照らし合わせて、当該人物の行動を認識する方法が知られている(例えば、特許文献1参照)。
しかしながら、作業者が作業しているときの行動は1つではなく、例えば物を持つ、歩くなど、多数存在する。これらの一連の行動は、上述した重心位置の軌跡を追うことでは認識することはできない。
本発明の目的は、作業者が作業しているときの一連の行動を高精度に認識することのできる行動認識装置、行動認識方法及びプログラムを提供することにある。
一実施形態に係る行動認識装置は、作業者を撮影した映像から予め監視対象として定められた標準作業を認識する。前記行動認識装置は、画像取得手段と、行動認識手段と、行動判定手段とを備える。前記画像取得手段は、前記映像に含まれる複数のフレーム画像を取得する。前記行動認識手段は、前記各フレーム画像の特徴的な変化から前記標準作業に含まれる複数の要素行動を認識するとともに、これらの要素行動の確信度を算出する。前記行動判定手段は、前記各要素行動の確信度を統合処理し、前記各要素行動の中から前記作業者の作業行動を判定する。
本発明によれば、作業者が作業しているときの一連の行動を高精度に認識することができる。
第1の実施形態に係る行動認識装置の機能構成を示すブロック図である。 作業場における作業者の作業行動の一例を示す図である。 商品棚入れ作業のイメージの一例を示す図である。 商品棚入れ作業に関係する作業行動のイメージの一例を示す図である。 時空間画像データの構成を模式的に示した図である。 Fフレームの時空間画像データを示す図である。 Fフレームの時空間画像データの更新方法を説明するための図である。 各要素行動の確信度の変移特性を示す図である。 時空間画像データのブロック分割を示す図である。 図2の作業場で作業者を撮影したときの時空間画像データから抽出した時間tにおける特徴点の一例を示す図である。 図2の作業場で作業者を撮影したときの時空間画像データから抽出した時間t+Δt時間後における特徴点の一例を示す図である。 第1の実施形態における行動認識装置の認識辞書作成処理の動作を説明するためのフローチャートである。 第1の実施形態における行動認識装置の行動認識処理の動作を説明するためのフローチャートである。 第1の実施形態における行動認識装置の統合処理部で実行される統合処理の動作を説明するためのフローチャートである。 第2の実施形態における行動認識装置の統合処理部で実行される統合処理の動作を説明するためのフローチャートである。 第3の実施形態における行動認識装置の統合処理部で実行される統合処理の動作を説明するためのフローチャートである。 第4の実施形態における行動認識装置の統合処理部で実行される統合処理の動作を説明するためのフローチャートである。 第5の実施形態における行動認識装置の統合処理部で実行される統合処理の動作を説明するためのフローチャートである。 第6の実施形態における行動認識装置の統合処理部で実行される統合処理の動作を説明するためのフローチャートである。 行動認識システムの一例を示す図である。 カメラのハードウェア構成の一例を示す図である。 行動認識装置のハードウェア構成の一例を示す図である。
以下、図面を参照して本発明の実施形態を説明する。
本発明の行動認識装置は、作業者を撮影したカメラの映像から予め監視対象として定められた作業行動(これを標準作業と称す)を認識するものである。前記作業場としては、例えばオフィスや工場などが含まれるが、本発明はこれに限定されるものではない。
(第1の実施形態)
図1は第1の実施形態に係る行動認識装置の機能構成を示すブロック図である。
本実施形態における行動認識装置100は、画像取得部101、時空間特徴抽出部102、行動認識部103、統合処理部104、辞書作成部105、認識結果出力部106を備える。
画像取得部101は、例えば図2に示すような作業場201に設置されたカメラ203の映像をリアルタイムあるいはオフラインで取得する。カメラ203の設置場所は任意であり、作業場201の中で作業者202が作業しているときの行動を撮影可能な場所であれば、どこでも良い。このカメラ203の映像は、例えばカメラ203から有線あるいは無線で行動認識装置100に直接送ることでも良いし、記録媒体を介して行動認識装置100に与えることでも良い。
時空間特徴抽出部102は、画像取得部101によって得られた映像に含まれる各フレーム画像から時空間特徴点を抽出する。「時空間特徴点」とは、画像の空間的な変化と時間的な変化を表す特徴点のことであり、人物の動きの変化を表している。なお、この時空間特徴点の抽出方法については後に詳しく説明する。
行動認識部103は、時空間特徴抽出部102によって抽出された時空間特徴点に基づいて行動認識辞書105aを検索することにより、標準作業に含まれる複数の要素行動を認識するとともに、これらの要素行動の確信度を算出する。「要素行動」とは、標準作業に含まれる特徴的な行動のことであり、作業の内容に応じて複数種類存在する。「確信度」とは、認識結果の確からしさを表す指標であり、0.0〜1.0の範囲の値を取り、数値が大きいほど、確信度が高いことを意味する。
行動認識辞書105aは、辞書作成部105によって作成される。行動認識辞書105aには、予め標準作業に含まれる各種行動(要素行動)を認識するための情報が登録されている。なお、行動認識辞書105aの作成方法については、後に詳しく説明する。
統合処理部104は、行動判定部104aと行動時間算出部104bとで構成される。行動判定部104aは、各要素行動の確信度を統合処理し、各要素行動の中から作業者202の作業行動を時系列で判定する。「統合処理」とは、各要素行動の確信度を所定の時間単位で比較し、これらの各要素行動の中から最終的な認識結果を導き出す処理のことである。行動時間算出部104bは、行動判定部104aによって作業者202の作業行動として判定された要素行動の開始時間と持続時間をフレームレートに従って算出する。
認識結果出力部106は、統合処理部104によって最終的に得られた認識結果の出力処理を行う。
図2は作業場における作業者の作業行動の一例を示す図であり、例えば工場等の作業場201において、作業者202が商品の棚入れ作業を行っている状態を示している。
商品棚入れ作業時における作業者202の作業行動には、例えば、「箱204を床に仮置きする行動(仮置き行動)」,「箱204の中の商品を確認する行動(商品確認行動)」,「箱204から商品を取り出す行動(商品取り出し行動)」,「商品を棚に入れる行動(商品棚入れ行動)」などがある。本実施形態における行動認識装置100は、行動認識辞書105aを用いて、これらの一連の行動を要素行動として認識する。
図3は商品棚入れ作業に関係する作業行動のイメージの一例を示す図であり、作業者202が箱204を床に仮置きしているときの状態を示している。図4は歩き行動のイメージの一例を示す図である。作業者202が歩きながら商品棚入れ作業を行うことが多いので、歩き行動を含めて認識する必要がある。
作業場201に設置されたカメラ203は、連続撮影可能な機能(動画撮影機能)を有する。このカメラ203の映像に含まれるフレーム画像は、例えば1秒間に30フレームレートで行動認識装置100に取り込まれる。この場合、1フレームの時間は1/30秒である。
図5は時空間画像データの構成を模式的に示した図である。x軸は画像の横幅であり、y軸は画像の縦幅である。奥行きは時間tの長さであり、フレーム数で決まる。フレーム画像の空間座標は(x,y)である。1フレームの時間をtとすると、図5に示すように、時空間画像データは3次元の立方体で表される。つまり、時空間画像データの座標は(x,y,t)であり、時空間画像データの一つの画素値Iは空間座標(x,y)と時間tの関数となる。
図6はFフレームの時空間画像データを示す図である。縦軸は確信度Pを示し、横軸は時間tを示し、フレーム番号に比例する。QはFフレームの時空間画像データを時間に換算したときの中心位置を示している。
本実施形態では、Fフレームの時空間画像データを一つの認識対象単位としている。Fはフレーム数であり、任意に設定できる。例えば、作業者202の作業行動を2秒間で認識したい場合には、F=60フレームに設定すれば良い。
上述したように、作業者202の作業行動には複数の要素行動が含まれており、これらの要素行動を認識したときに確信度P(Q)を算出する。つまり、図3に示すような商品棚入れ作業行動を認識したときに確信度P(Q)を算出する。また、図4に示すような作業者202が歩く行動を認識したときに確信度P(Q)を算出する。要素行動の数I個がある場合、P(Q)〜PI−1(Q)のI個の確信度が得られる。
ここで、Fフレームの時空間画像データから得られた要素行動の確信度P(Q)を当該時空間画像データの中心フレームの結果とする。つまり、図6に示すように、中心位置をQとすると、確信度P(Q)は、Q番目でのフレーム位置でのi番目の要素行動の確信度となる。
図7はFフレームの時空間画像データの更新方法を説明するための図である。縦軸は確信度Pを示し、横軸は時間tを示す。
図7の例では、Fフレームの時空間画像データを時間軸方向に1フレームずつ移動させた状態を示している。上述したように、Fフレームの時空間画像データを一つの認識対象単位とし、要素行動の確信度P(Q)を当該時空間画像データの中心フレームの結果とする。図中のQ,Q+1,…Q+n(nは0以上の整数)は、それぞれにFフレームの時空間画像データを移動させたときの中心位置を示している。なお、時空間画像データを移動させる間隔は、1フレームに限らず、複数フレーム単位であっても良い。
図8は各要素行動の確信度の変移特性を示す図である。図8の例では、Fフレームの時空間画像データを時間軸方向に1フレームずつ移動させたときに得られる2つの要素行動a,bを認識したときの確信度の変移を表している。横軸は時間であり、単位はフレーム数である。縦軸は確信度Pを示している。
図中のTwは要素行動を監視している時間(判定時間)、Threは確信度の閾値を示している。なお、判定時間Twと閾値Threについては、後に他の実施形態において詳しく説明する。
一般的に、商品棚入れ作業では、作業者202が歩きながら作業を行うことが多いため、歩き行動も含めて認識する必要がある。実線は要素行動a(例えば商品の棚入れ行動)の確信度の変移特性を示している。点線は要素行動b(例えば歩き行動)の確信度の変移特性を示している。なお、図8の例では、説明を簡単にするため、2つの要素行動a,bだけを示したが、実際には商品棚入れ作業にはさらに複数の要素行動が存在し、これらの要素行動毎にそれぞれの確信度の変移特性が得られる。
次に、図9乃至図11を用いて、時空間画像データを用いた行動認識方法について説明する。
図9は時空間画像データのブロック分割を示す図である。横軸は空間座標x、縦軸は空間座標yである。時間軸をtで示す。つまり、時間軸tの方向は、例えば1秒間に30フレームレートで入力される映像の時系列軸である。フレーム数で換算して、実際の時間が求められる。作業者202が何らかの行動を取ると、時空間画像データに変化点が発生する。この変化点つまり時空間の特徴点を見つけることで、要素行動を認識することができる。
図9に示すように、時空間画像データを所定サイズ(Mp,Np,T)のブロックで分割する。Mp,Npは画素数、Tは特徴点を抽出するための時間幅である。つまり、1ブロックのサイズは横Mp画素、縦Np画素、奥行きTフレームになる。
作業者が何らかの行動をしたとき、その動きに対応した時空間画像データのブロックの特徴量が大きくなる。つまり、時空間に大きな変化量が発生する。その変化量の大きいブロックを特徴点として抽出する。
まず、空間方向である(x、y)方向でノイズを除去するため、式(1)の平滑化処理を行う。
Figure 2020087312
ここで、I(x,y,t)は時間tのフレーム画像、(x,y)座標での画素値である。g(x,y)は平滑化処理ためのカーネルである。*は畳み込み処理である。平滑化処理は、画素平均処理でも良いし、既存のGaussian平滑化フィルタ処理でも良い。
次に、時間軸でフィルタリング処理を行う。ここで、式(2)に示すGaborフィルタリング処理を行う。
ここで、gevとgodは式(3)と式(4)が示すGaborフィルタのカーネルである。*は畳み込み処理である。τとωはGaborフィルタのカーネルのパラメータである。
Figure 2020087312
Figure 2020087312
Figure 2020087312
図9に示す時空間画像データの全画素に対して、前記式(2)のフィルタリング処理した後、式(5)で、時空間座標(x,y,t)にあるブロックRの平均値Mを求める。
Figure 2020087312
そして、式(6)に示すように、ブロックRの平均値M(x,y,t)が一定の閾値Thre_Mよりも高い場合に、当該ブロックRを特徴点として抽出する。
Figure 2020087312
図10は図2の作業場201で作業者202を撮影したときの時空間画像データから抽出した時間tにおける特徴点の一例である。例えば、作業者202が屈んだときに、時空間画像データの中で動きのある部分が特徴点として抽出される。図11は時間t+Δt時間後における時空間画像データから抽出された特徴点の一例である。
次に、時空間画像データから抽出した特徴点の記述方法について説明する。
時空間画像データから特徴点となるブロックを抽出すると、当該ブロック内の画素I(x,y,t)の時空間エッジ情報E(x,y,t)を求める。具体的には、下記の式(7)の微分演算を行う。
Figure 2020087312
1ブロックにMp×Np×Tの画素があるので、Mp×Np×T×3個の微分値が得られる。このブロックは、Mp×Np×T×3次元ベクトルで記述される。つまり、特徴点がMp×Np×T×3次元ベクトルで記述される。
次に、本実施形態における行動認識装置100の処理動作について、(a)認識辞書作成処理と、(b)行動認識処理とに分けて説明する。なお、以下の各フローチャートで示される処理は、コンピュータである行動認識装置100が所定のプログラムを読み込むことにより実行される。
(a)認識辞書作成処理
図12は第1の実施形態における行動認識装置100の認識辞書作成処理の動作を説明するためのフローチャートである。
図2に示した作業場201において、作業者202の作業行動を認識する場合に、事前に行動認識辞書105aを作成しておく必要がある。行動認識装置100は、以下のような手順で行動認識辞書105aを作成する。
まず、行動認識装置100は、画像取得部101を通じて学習動画データを取得する(ステップS11)。すなわち、標準作業に関する動画サンプルを集めて、その動画サンプルを学習動画データとして使う。この場合、動画サンプルの中でFフレームの時空間画像データを1つの学習動画データとする。行動認識装置100に備えられた時空間特徴抽出部102は、この学習動画データ(Fフレームの時空間画像データ)から上述した方法で動き変化に対応した特徴点を要素行動として抽出する(ステップS12)。
このようにして、複数の学習動画データを集め、それぞれの学習動画データから動き変化に対応した特徴点がそれぞれ抽出される。この場合、同じ行動であれば、行動認識のシステムは同じでなくとも良い。要は、後述するK種類の要素行動に関するデータを取得できれば良い。行動認識部103は、前記各学習動画データから抽出した各特徴点を前記式(7)で微分処理して、Mp×Np×T×3次元ベクトルを求め、これらをK−means方法によって要素行動毎に分類する(ステップS13)。
ここで、分類したクラスの数をKとすると、複数の学習動画データから抽出された特徴点はK種類の要素行動に分類される。同じ種類の特徴点は、類似の特徴を持つ。行動認識部103は、K種類の要素行動に分類された各特徴点について、それぞれに同じ種類の特徴点のMp×Np×T×3次元ベクトルを平均化することで、平均ベクトルVkを作成する(ステップS14)。この平均ベクトルVkは、それぞれの要素行動の特徴点を代表するベクトルである。
また、行動認識部103は、K種類の特徴点に対応したブロックの合計数を計算し、学習用のヒストグラムH(k)を求める(ステップS15)。このヒストグラムH(k)は、K種類の特徴点の頻度を表している。
このようにして、各特徴点の平均ベクトルVkとヒストグラムH(k)が求められる。辞書作成部105は、これらの情報を学習情報として行動認識辞書105aに登録する(ステップS16)。
(b)行動認識処理
図13は第1の実施形態における行動認識装置100の行動認識処理の動作を説明するためのフローチャートである。
まず、行動認識装置100は、作業場201に設置されたカメラ203の映像に含まれる複数のフレーム画像を時系列順に取得する(ステップS21)。行動認識装置100の時空間特徴抽出部102は、これらのフレーム画像を用いてFフレーム単位で時空間画像データを生成し、その時空間画像データから上述した方法で動き変化に対応した複数の特徴点を要素行動として抽出する(ステップS22)。
ここで、行動認識部103は、Fフレームの時空間画像データから抽出された各特徴点のMp×Np×T×3次元ベクトルを求める(ステップS23)。この3次元ベクトルと行動認識辞書105aに登録されたK種類の平均ベクトルVkとの距離が最も近いベクトルが同じ要素行動の特徴点になる。
次に、行動認識部103は、Fフレームの時空間画像データから抽出された各特徴点をK種類の要素行動に分類して、それぞれにヒストグラムTs(k)を作成する(ステップS24)。行動認識部103は、これらのヒストグラムTs(k)と行動認識辞書105aに登録された各特徴点のヒストグラムH(k)とを比較することで、両者の類似度S(Ts,H)を式(8)で求める。行動認識部103は、この類似度S(Ts,H)を確信度Pとして算出する(ステップS25)。
Figure 2020087312
行動認識部103は、上述した処理をFフレームの時空間画像データに含まれる各要素行動毎に繰り返し行い、それぞれの確信度Pを得る(ステップS26)。統合処理部104は、行動認識部103によって得られた各要素行動の確信度Pに基づいて、各要素行動の中から作業者202の作業行動を判定する(ステップS27)。この統合処理については、後に図14を参照して説明する。
認識結果出力部106は、統合処理部104によって最終的に得られた認識結果の出力処理を行う(ステップS28)。この出力処理には、例えば図示せぬ監視者の端末装置に要素行動の種類と時間を時系列で視認可能に表示することや、通信ネットワークを介して外部の監視センタに送ることなどを含む。
なお、図13のフローチャートでは、説明を簡単にするために、Fフレーム分の処理だけを示した。実際には図7で説明したように、Fフレームの時空間画像データを時間軸方向に例えば1フレームずつ移動させながら前記同様の処理を繰り返し、標準作業時における一連の行動をフレーム単位で時系列に認識し、その認識結果を出力する。
また、図13のフローチャートで示される処理は、オフラインでもリアルタイムでも実行可能である。以下では、説明を簡単にするため、オフラインで処理する場合を想定して説明する。
(統合処理)
図14は第1の実施形態における行動認識装置100の統合処理部104で実行される統合処理の動作を説明するためのフローチャートである。なお、このフローチャートで示される統合処理は、図13のステップS27で実行される。
作業場201において、作業者202の作業行動は1つではなく、歩く行動を含め、様々な行動(要素行動)を含んでいる。これらの行動は時間的に重なることもあり、その時々で主としてどのような行動を取っていたのかを的確に判定することが重要となる。行動認識装置100の統合処理部104は、以下のような手順で、行動認識部103によって認識された各要素行動の確信度Pを統合処理して、作業者202の一連の行動を時系列順に区分けして判定する。
すなわち、まず、統合処理部104は、行動認識部103からFフレームの各要素行動をこれらの確信度Pと共に取得し、図示せぬワークメモリに保持する(ステップS31)。統合処理部104は、前記ワークメモリをサーチし、Fフレームの中で最大の確信度Pを有する要素行動を選択する(ステップS32)。
統合処理部104は、この選択された要素行動を対象作業行動として判定し(ステップS33)、その対象作業行動の開始時間と持続時間を算出する(ステップS34)。なお、「対象作業行動」とは、監視対象としている作業者202の作業行動のことである。
詳しく説明すると、図6に示したFフレームの時空間画像データからN種類の要素行動が得られたとする。統合処理部104は、これらの要素行動の確信度Pを統合して、その中で対象作業行動を決める。ここで、第1の実施形態では、Fフレームの時空間画像データから得られたN種類の要素行動の中で、確信度Pが最大値Pmaxの要素行動を対象作業行動として選択する。
また、対象作業行動として選択された要素行動は、図6に示したFフレームの中心位置Qの認識結果としている。要素行動の開始時間は、フレームレートに従って算出される。つまり、映像のフレーム取得毎が開始のタイミングになり、要素行動の判定との兼ね合いから決めることができる。また、この要素行動の持続時間は、Fフレームの中心位置Qに存在するフレームの持続時間となる。
具体的には、フレームレートは、F_ratの場合は1秒間F_ratフレームがあるので、1フレーム当たりの時間は1/F_rat秒となる。例えばフレームレートが「30」の場合、1フレームあたりの時間は1/30秒である。要素行動が最初に検知されたときの開始フレームはQであり、開始時間はQ/F_rat秒である。要素行動が検知続ける持続フレーム数がQ_actフレームの場合、持続時間はQ_act/F_rat秒である。この要素行動の開始時間と持続時間を可視化すれば、例えば作業者に負担がかかっている作業の分析などに役立つ。
このようにして、統合処理部104は、Fフレームの中で最も確信度Pが高い要素行動を対象作業行動として判定し、そのFフレームの中心位置Qを基準にして当該要素行動の開始時間と持続時間を算出する(ステップS35)。
以後、図7に示したように、Fフレームが例えば1フレームずつ更新される毎に前記同様の処理が繰り返し実行される。これにより、図8の例であれば、以下のような認識結果が出力されることになる。要素行動aは、例えば商品の棚入れ行動である。要素行動bは、例えば歩き行動である。
・t0〜t4:要素行動b
・t4〜t5:要素行動a
・t5〜t8:要素行動b
・t8〜t12:要素行動a
このように第1の実施形態によれば、各フレーム画像から得られた各要素行動の確信度Pを統合処理し、フレーム単位毎に各要素行動の中で最も確信度Pの高い要素行動を選択することで、作業者の一連の行動を時系列順に区分けして正しく認識することができる。
(第2の実施形態)
次に、第2の実施形態について説明する。
第2の実施形態では、前記第1の実施形態において、要素行動の確信度Pが予め判定基準として設定された閾値Threよりも高いことを条件に加えて統合処理を行うようにしたものである。
行動認識装置100として基本的な構成は前記第1の実施形態の図1と同様である。第2の実施形態において、統合処理部104の行動判定部104aは、各要素行動の確信度Pをフレーム単位で比較し、確信度Pが閾値Threよりも高く、かつ、確信度Pが最も高い要素行動を対象作業行動として判定する機能を有する。以下に、第2の実施形態の処理動作について詳しく説明する。
図15は第2の実施形態における行動認識装置100の統合処理部104で実行される統合処理の動作を説明するためのフローチャートである。なお、このフローチャートで示される統合処理は、図13のステップS27で実行される。
前記第1の実施形態と同様に、まず、統合処理部104は、行動認識部103からFフレームの各要素行動をこれらの確信度Pと共に取得し、図示せぬワークメモリに保持する(ステップS41)。統合処理部104は、前記ワークメモリをサーチし、Fフレームの中で最大の確信度Pを有する要素行動を選択する(ステップS42)。
ここで、第2の実施形態において、統合処理部104は、予め要素行動の判定基準として設定された閾値Threを有する。この閾値Threは、作業場401の環境や作業内容などに応じて任意に設定される。
統合処理部104は、前記ステップS42で選択された要素行動の確信度Pが閾値Threより高いか否かを判断する(ステップS43)。要素行動の確信度Pが閾値Threより高い場合には(ステップS43のYes)、統合処理部104は、当該要素行動を対象作業行動として判定し(ステップS44)、その対象作業行動の開始時間と持続時間を算出する(ステップS46)。
一方、前記ステップS42で選択された要素行動の確信度Pが閾値Thre以下であった場合には(ステップS43のNo)、統合処理部104は、当該要素行動を対象作業行動の可能性ありとして判定する(ステップS45)。
なお、要素行動の確信度Pが閾値Thre以下であった場合に対象作業行動ではないと判定しても良い。ただし、ある程度の確信度Pを持っていれば、対象作業行動の可能性があるため、可能性ありとして判定することが好ましい。対象作業行動の可能性ありと判定した場合もその対象作業行動の開始時間と持続時間を算出する。また、対象作業行動の可能性ありと判定した場合には、例えば特定の色を付けて認識結果を出力するなど、前記ステップS44で判定した対象作業行動と区別することが好ましい。
このようにして、統合処理部104は、要素行動の確信度Pが閾値Threよりも高いことを条件に加えて、Fフレームの中から対象作業行動を判定する。
以後、図7に示したように、Fフレームが例えば1フレームずつ更新される毎に前記同様の処理が繰り返し実行される(ステップS47)。これにより、図8の例であれば、以下のような認識結果が出力されることになる。要素行動aは、例えば商品の棚入れ行動である。要素行動bは、例えば歩き行動である。
・t1〜t4:要素行動b
・t4〜t5:要素行動a
・t5〜t7:要素行動b
・t9〜t10:要素行動a
また、可能性ありを含めること下記のようになる。
・t0〜t1:要素行動bの可能性あり
・t7〜t8:要素行動bの可能性あり
・t8〜t9:要素行動aの可能性あり
・t10〜t12:要素行動aの可能性あり
このように第2の実施形態によれば、要素行動の確信度Pに対する閾値Threを設定しておき、その閾値Threより高い確信度Pを有する要素行動を対象作業行動として判定することで、作業者の一連の行動をより正確に認識することができる。
(第3の実施形態)
次に、第3の実施形態について説明する。
第3の実施形態では、要素行動を判定するための判定時間Twを有し、その判定時間Twの間隔で要素行動を判定するようにしたものである。
行動認識装置100として基本的な構成は前記第1の実施形態の図1と同様である。第3の実施形態において、統合処理部104の行動判定部104aは、各要素行動の確信度Pを判定時間Twで比較し、最も確信度Pが高い要素行動を対象作業行動と判定する機能を有する。以下に、第3の実施形態の処理動作について詳しく説明する。
図16は第3の実施形態における行動認識装置100の統合処理部104で実行される統合処理の動作を説明するためのフローチャートである。なお、このフローチャートで示される統合処理は、図13のステップS27で実行される。
まず、統合処理部104は、要素行動を判定するための時間Twを設定する(ステップS51)。この判定時間TwはFフレームの時間以上であり、作業場401の環境などに応じて任意に設定される。
統合処理部104は、行動認識部103から判定時間Twの全フレームの要素行動をこれらの確信度Pと共に取得し、図示せぬワークメモリに保持する(ステップS52)。統合処理部104は、前記ワークメモリをサーチし、判定時間Twの全フレームの中から最大の確信度Pを有する要素行動を選択する(ステップS53)。
統合処理部104は、この選択された要素行動を対象作業行動として判定し(ステップS54)、その対象作業行動の開始時間と持続時間を算出する(ステップS55)。要素行動の開始時間は、その要素行動を含むフレームを基準にして算出される。
要素行動の開始時間は最初に要素行動が検知されたとき、判定時間Tw単位で、要素行動の開始時間を計測する。また、この要素行動の持続時間は、判定時間Twの中で当該要素行動を含むフレームの持続時間となる。この場合、要素行動の連続検知した判定時間Twの倍数時間となる。例えば、連続して3回判定時間Tw内に要素行動として検知されたとき、持続時間は3×Twとなる。
このようにして、統合処理部104は、判定時間Twの全フレームに対して同様の処理を繰り返し、最も確信度Pが高い要素行動を対象作業行動として判定し、その要素行動を含むフレームを基準にして当該要素行動の開始時間と持続時間を算出する(ステップS56)。
これにより、図8の例であれば、判定時間Twの間隔(t0〜t3,t3〜t6,t6〜t11)で要素行動が判定され、以下のような認識結果が出力されることになる。要素行動aは、例えば商品の棚入れ行動である。要素行動bは、例えば歩き行動である。
・t0〜t3:要素行動b
・t3〜t6:要素行動a
・t6〜t11:要素行動b
このように第3の実施形態によれば、要素行動を判定するための時間に幅を持たせ、その時間間隔の中で要素行動を判定する。これにより、例えば画像にノイズが入っているような場合に、そのノイズによる誤判定を防いで、作業者202の行動を正しく認識することができる。
また、作業者が作業動作中に例えば別の方向を振り向くなど、イレギュラーな行動を取ることがある。このような場合も判定時間に幅を持たせておくことで、そのイレギュラーな行動による誤判定を防ぐことができる。
(第4の実施形態)
次に、第4の実施形態について説明する。
第4の実施形態では、前記第3の実施形態において、確信度Pが閾値Threよりも高いことを条件に加えて統合処理を行うようにしたものである。
行動認識装置100として基本的な構成は前記第1の実施形態の図1と同様である。第4の実施形態において、統合処理部104の行動判定部104aは、各要素行動の確信度Pを判定時間Twで比較し、確信度Pが閾値Threよりも高く、かつ、確信度Pが最も高い要素行動を対象作業行動と判定する機能を有する。以下に、第4の実施形態の処理動作について詳しく説明する。
図17は第4の実施形態における行動認識装置100の統合処理部104で実行される統合処理の動作を説明するためのフローチャートである。なお、このフローチャートで示される統合処理は、図13のステップS27で実行される。
前記第3の実施形態と同様に、まず、統合処理部104は、要素行動を判定するための時間Twを設定する(ステップS61)。この判定時間TwはFフレームの時間以上であり、作業場401の環境や作業内容などに応じて任意に設定される。
統合処理部104は、行動認識部103から判定時間Twの全フレームの要素行動をこれらの確信度Pと共に取得し、図示せぬワークメモリに保持する(ステップS62)。統合処理部104は、前記ワークメモリをサーチし、判定時間Twの全フレームの中から最大の確信度Pを有する要素行動を選択する(ステップS63)。
ここで、第4の実施形態において、統合処理部104は、予め要素行動の判定基準として設定された閾値Threを有する。この閾値Threは、作業場401の環境や作業内容などに応じて任意に設定される。
統合処理部104は、前記ステップS63で選択された要素行動の確信度Pが閾値Threより高いか否かを判断する(ステップS64)。要素行動の確信度Pが閾値Threより高い場合には(ステップS64のYes)、統合処理部104は、当該要素行動を対象作業行動として判定し(ステップS65)、その対象作業行動の開始時間と持続時間を算出する(ステップS67)。
一方、前記ステップS63で選択された要素行動の確信度Pが閾値Thre以下であった場合には(ステップS64のNo)、統合処理部104は、当該要素行動を対象作業行動の可能性ありとして判定する(ステップS66)。
なお、要素行動の確信度Pが閾値Thre以下であった場合に対象作業行動ではないと判定しても良い。ただし、ある程度の確信度Pを持っていれば、対象作業行動の可能性があるため、可能性ありとして判定することが好ましい。対象作業行動の可能性ありと判定した場合もその対象作業行動の開始時間と持続時間を算出する。また、対象作業行動の可能性ありと判定した場合には、例えば特定の色を付けて認識結果を出力するなど、前記ステップS65で判定した対象作業行動と区別することが好ましい。
このようにして、統合処理部104は、判定時間Twの全フレームに対して同様の処理を繰り返し、閾値Threを基準にして最も確信度Pが高い要素行動を対象作業行動として判定し、その要素行動を含むフレームを基準にして当該要素行動の開始時間と持続時間を算出する(ステップS68)。
これにより、図8の例であれば、判定時間Twの間隔(t0〜t3,t3〜t6,t6〜t11)で要素行動が判定され、以下のような認識結果が出力されることになる。要素行動aは、例えば商品の棚入れ行動である。要素行動bは、例えば歩き行動である。
・t0〜t3:要素行動b
・t3〜t6:要素行動a
・t6〜t11:要素行動b
なお、判定時間Twの中で要素行動aと要素行動bのどちらの確信度Pが閾値Thre以下であれば、確信度Pの高い要素行動が対象作業行動の可能性ありとして選択される。
このように第4の実施形態によれば、要素行動の確信度Pに対する閾値Threを条件に加えることで、前記第3の実施形態よりも作業者の一連の行動をより正確に認識することができる。
(第5の実施形態)
次に、第5の実施形態について説明する。
第5の実施形態では、前記第3の実施形態と同様に、要素行動を判定するための判定時間Twを有し、その判定時間Twの間隔で要素行動を判定する。ただし、前記第3の実施形態では、判定時間Twの中で最大の確信度Pを有する要素行動を選択した。これに対し、第5の実施形態では、判定時間Twの中で時系列順に最大の確信度Pを有する要素行動の数をカウントし、そのカウント値が最多の要素行動を選択する点で異なる。
行動認識装置100として基本的な構成は前記第1の実施形態の図1と同様である。第4の実施形態において、統合処理部104の行動判定部104aは、各要素行動の確信度Pを判定時間Twの間隔で比較し、確信度Pが最大になる頻度が最多の要素行動を対象作業行動と判定する機能を有する。以下に、第5の実施形態の処理動作について詳しく説明する。
図18は第5の実施形態における行動認識装置100の統合処理部104で実行される統合処理の動作を説明するためのフローチャートである。なお、このフローチャートで示される統合処理は、図13のステップS27で実行される。
まず、統合処理部104は、要素行動を判定するための時間Twを設定する(ステップS71)。この判定時間TwはFフレームの時間以上であり、作業場401の環境や作業内容などに応じて任意に設定される。
統合処理部104は、行動認識部103から判定時間Twの全フレームの要素行動をこれらの確信度Pと共に取得し、図示せぬワークメモリに保持する(ステップS72)。
ここで、第5の実施形態において、統合処理部104は、前記ワークメモリをサーチし、判定時間Twの中で最大の確信度Pを有する要素行動の数をカウントする(ステップS73)。このカウント値は、判定時間Twの間に確信度Pが最大になる要素行動の頻度を表している。
統合処理部104は、カウント値が最多の要素行動つまり判定時間Twの間に確信度Pが最大になる頻度が最多の要素行動を選択する(ステップS74)。統合処理部104は、この選択された要素行動を対象作業行動として判定し(ステップS75)、その対象作業行動の開始時間と持続時間を算出する(ステップS76)。
要素行動の開始時間は、その要素行動を含むフレームを基準にして算出される。要素行動の開始時間は最初に要素行動が検知されたとき、判定時間Tw単位で、要素行動の開始時間を計測する。また、この要素行動の持続時間は、判定時間Twの中で当該要素行動を含むフレームの持続時間となる。要素行動の連続検知した判定時間Twの倍数時間となる。例えば、連続して3回判定時間Tw内に要素行動として検知されたとき、持続時間は3×Twとなる。
このようにして、統合処理部104は、判定時間Twの全フレームに対して同様の処理を繰り返し、確信度Pが最大になる頻度が最多の要素行動を対象作業行動として判定し、その要素行動を含むフレームを基準にして当該要素行動の開始時間と持続時間を算出する(ステップS77)。
これにより、図8の例であれば、判定時間Twの間隔(t0〜t3,t3〜t6,t6〜t11)で要素行動が判定され、以下のような認識結果が出力されることになる。要素行動aは、例えば商品の棚入れ行動である。要素行動bは、例えば歩き行動である。
・t0〜t3:要素行動b
・t3〜t6:要素行動a
・t6〜t11:要素行動a
このように第5の実施形態によれば、要素行動を判定するための判定時間Twを設定しておき、その判定時間Twの間隔で確信度Pが最大になる頻度が最多の要素行動を対象作業行動として判定する。これにより、例えば画像にノイズが入りやすい作業環境であった場合に、ノイズによる判定誤差を防いで作業者202の行動を正しく認識することができる。また、作業者が瞬間的にイレギュラーな行動を取った場合にも対応できる。特に、第5の実施形態では、確信度Pが最大になる頻度に基づいて要素行動を判定しているため、第3の実施形態よりもノイズやイレギュラーな行動による判定誤差を防いで、より正しい認識結果を得ることができる。
(第6の実施形態)
次に、第6の実施形態について説明する。
第6の実施形態では、前記第5の実施形態において、確信度Pが閾値Threよりも高いことを条件に加えて統合処理を行うようにしたものである。
行動認識装置100として基本的な構成は前記第1の実施形態の図1と同様である。第6の実施形態において、統合処理部104の行動判定部104aは、各要素行動の確信度Pを判定時間Twの間隔で比較し、確信度Pが閾値Threよりも高く、かつ、確信度Pが最大になる頻度が最多の要素行動を対象作業行動と判定する機能を有する。以下に、第6の実施形態の処理動作について詳しく説明する。
図19は第6の実施形態における行動認識装置100の統合処理部104で実行される統合処理の動作を説明するためのフローチャートである。なお、このフローチャートで示される統合処理は、図13のステップS27で実行される。
前記第5の実施形態と同様に、まず、統合処理部104は、要素行動を判定するための時間Twを設定する(ステップS81)。この判定時間TwはFフレームの時間以上であり、作業場401の環境や作業内容などに応じて任意に設定される。
統合処理部104は、行動認識部103から判定時間Twの全フレームの要素行動をこれらの確信度Pと共に取得し、図示せぬワークメモリに保持する(ステップS82)。ここで、第6の実施形態において、統合処理部104は、予め要素行動の判定基準として設定された閾値Threを有する。この閾値Threは、作業場401の環境や作業内容などに応じて任意に設定される。
統合処理部104は、前記ワークメモリをサーチし、判定時間Twの中で閾値Threより大きく、かつ、最大の確信度Pを有する要素行動の数をカウントする(ステップS83)。このカウント値は、判定時間Twの間に閾値Threより大きく、確信度Pが最大になる要素行動の頻度を表している。
統合処理部104は、カウント値が最多の要素行動つまり判定時間Twの間に閾値Threより大きく、確信度Pが最大になる頻度が最多の要素行動を選択する(ステップS84)。統合処理部104は、この選択された要素行動を対象作業行動として判定し(ステップS85)、その対象作業行動の開始時間と持続時間を算出する(ステップS86)。
このようにして、統合処理部104は、判定時間Twの全フレームに対して同様の処理を繰り返し、閾値Threより大きく、確信度Pが最大になる頻度が最多の要素行動を対象作業行動として判定し、その要素行動を含むフレームを基準にして当該要素行動の開始時間と持続時間を算出する(ステップS87)。
これにより、図8の例であれば、判定時間Twの間隔(t0〜t3,t3〜t6,t6〜t11)で要素行動が判定され、以下のような認識結果が出力されることになる。要素行動aは、例えば商品の棚入れ行動である。要素行動bは、例えば歩き行動である。
・t0〜t3:要素行動b
・t3〜t6:要素行動a
・t6〜t11:要素行動a
このように第6の実施形態によれば、要素行動の確信度Pに対する閾値Threを条件に加えることで、例えばノイズの多い作業環境において、前記第5の実施形態よりも作業者の一連の行動をより正確に認識することができる。
(各実施形態の組み合わせ)
上述した各実施形態で説明した手法は、作業環境などに応じて適宜切り替えて使用することができる。この場合、行動認識装置100に全実施形態に対応した各機能を組み込んでおき、状況に応じて選択できるようにしておくことでも良い。「状況に応じて」とは、例えば、工場などでラインの製造物が変わることなどが含まれる。
各機能の切り替え方法としては、例えば監視者が行動認識装置100に備えられた図示せぬモードスイッチを操作して各機能を切り替えても良い。また、例えば照明光による影響、人混みによる影響など、映像にノイズが入りやすい環境を検知するセンサを用い、そのセンサの信号に基づいて各機能を切り替えることでも良い。
なお、前記各実施形態は、以下のような使い分けができる。
・行動認識の確信度が低くても、認識結果を出力する必要がある場合。つまり、要素行動の開始時間、持続時間をより細かい時間単位(例えば1/30秒)で出力したい場合に第1実施形態を採用する。
・細かい時間単位で確実に認識結果を出力したい場合に第2の実施形態を採用する。
・細かい時間単位で認識結果を出力する必要がなく、判定時間Twの時間単位で確信度Pの最大値を重視して認識結果を出力したい場合に第3の実施形態を採用する。
・細かい時間単位で認識結果を出力する必要がなく、判定時間Twの時間単位で確信度Pの最大値を重視して、第3の実施形態よりも的確な認識結果を出力したい場合に第4の実施形態を採用する。
・細かい時間単位で認識結果を出力する必要がなく、判定時間Tw内で確信度Pの最大値が発生する頻度を重視して認識結果を出力する場合に第5の実施形態を採用する。
・細かい時間単位で認識結果を出力する必要がなく、判定時間Tw内で確信度Pの最大値が発生する頻度を重視して、第5の実施形態よりも的確な認識結果を出力したい場合に第6の実施形態を採用する。
(システム構成)
図20は上述した行動認識装置100を用いた行動認識システムの一例を示す図である。
行動認識装置100は、情報処理装置301の中に組み込まれている。情報処理装置301は、作業場201の中に設置されていても良いし、作業場201以外の場所に設置されていても良い。作業場201には動画撮影可能なカメラ203が設置されており、作業場201で作業中の作業者202を撮影する。カメラ203で撮影された映像(動画)は、有線あるいは無線で情報処理装置301に送られ、I/F(インターフェイス)302を介して行動認識装置100に与えられる。
行動認識装置100は、上述した第1乃至第6の実施形態で説明した手法により作業者202の作業行動を認識する。情報処理装置301は、行動認識装置100の認識結果を例えば図示せぬ表示装置に所定の形式で表示する。さらに、情報処理装置301は、行動認識装置100の認識結果をインターネット等の通信ネットワーク303を介して外部の監視装置304に送ることでも良い。
(カメラのハードウェア構成)
図21はカメラ203のハードウェア構成の一例を示す図である。
被写体光は、撮影光学系1を通してCCD(Charge Coupled Device)3に入射される。撮影光学系1とCCD3との間は、メカシャッタ2が配置されており、このメカシャッタ2によりCCD3への入射光を遮断することができる。なお、撮影光学系1及びメカシャッタ2は、モータドライバ6より駆動される。
CCD3は、撮像面に結像された光学像を電気信号に変換して、アナログの画像データとして出力する。CCD3から出力された画像情報は、CDS(Correlated Double Sampling:相関2重サンプリング)回路4によりノイズ成分を除去され、A/D変換器5によりデジタル値に変換された後、画像処理回路8に対して出力される。
画像処理回路8は、画像データを一時格納するSDRAM(Synchronous Dynamic Random Access Memory)12を用いて、YCrCb変換処理や、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理、色変換処理などの各種画像処理を行う。なお、ホワイトバランス処理は、画像情報の色濃さを調整し、コントラスト補正処理は、画像情報のコントラストを調整する画像処理である。エッジ強調処理は、画像情報のシャープネスを調整し、色変換処理は、画像情報の色合いを調整する画像処理である。また、画像処理回路8は、信号処理や画像処理が施された画像情報をLCD(Liquid Crystal Display)16に表示する。
また、信号処理、画像処理が施された画像情報は、圧縮伸張回路13を介してメモリカード14に記録される。圧縮伸張回路13は、操作部15から取得した指示によって、画像処理回路8から出力される画像情報を圧縮してメモリカード14に出力するとともに、メモリカード14から読み出した画像情報を伸張して画像処理回路8に出力する回路である。
また、CCD3、CDS回路4及びA/D変換器5は、タイミング信号を発生するタイミング信号発生器7を介してCPU9によってタイミングが制御されている。さらに、画像処理回路8、圧縮伸張回路13、メモリカード14も、CPU9によって制御されている。
カメラ203には、プログラムに従って各種演算処理を行うCPU9が備えられている。また、カメラ203には、プログラムなどを格納したROM11及び各種の処理過程で利用するワークエリア、各種データを格納するRAM10などを備え、これらがバスラインによって相互接続されている。
(行動認識装置のハードウェア構成)
図22は行動認識装置100のハードウェア構成の一例を示す図である。
行動認識装置100は、CPU21、不揮発性メモリ22、主メモリ23、通信デバイス24等を備える。
CPU21は、行動認識装置100内の様々なコンポーネントの動作を制御するハードウェアプロセッサである。CPU21は、ストレージデバイスである不揮発性メモリ22から主メモリ23にロードされる様々なプログラムを実行する。
CPU21によって実行されるプログラムには、オペレーティングシステム(OS)の他に、図12乃至図19のフローチャートに示した各種処理を実行するためのプログラム(以下、行動認識処理プログラムと称す)等が含まれる。また、CPU21は、例えばハードウェア制御のためのプログラムである基本入出力システム(BIOS)等も実行する。
図1に示した画像取得部101、時空間特徴抽出部102、行動認識部103、辞書作成部105、統合処理部104、認識結果出力部106の一部または全ては、CPU21(コンピュータ)に行動認識処理プログラムを実行させることで実現される。
この行動認識処理プログラムは、コンピュータが読み取り可能な記録媒体に格納して頒布されても良いし、またはネットワークを通じて行動認識装置100にダウンロードされても良い。
CPU21は、この行動認識プログラムを読み込みことで、前記各実施形態のそれぞれに対応した各種処理を実行する。例えば、CPU21は、Fフレームの時空間画像データから抽出された各特徴点をK種類の要素行動に分類して、それぞれにヒストグラムT(k)を作成する。CPU21は、各特徴点のヒストグラムT(k)と行動認識辞書105aに登録された各特徴点のヒストグラムH(k)との類似度S(Ts,H)を求め、この類似度S(Ts,H)を各要素行動の確信度Pとして算出する。CPU21は、各要素行動の確信度Pを統合処理して、作業者202の一連の行動を時系列順に区分けして判定し、それぞれの行動の開始時間と持続時間を認識結果として出力する。
なお、図1に示した画像取得部101、時空間特徴抽出部102、行動認識部103、辞書作成部105、統合処理部104、認識結果出力部106の一部または全ては、IC(Integrated Circuit)等のハードウェアによって実現されてもよいし、当該ソフトウェア及びハードウェアの組み合わせ構成として実現されてもよい。通信デバイス24は、例えば有線または無線による外部の装置との通信を実行するように構成されたデバイスである。
以上のように少なくとも1つの実施形態によれば、作業者が作業しているときの一連の行動を高精度に認識することができる。特に、各フレーム画像の特徴的変化から抽出された各要素行動の確信度を所定時間単位で比較して作業者の作業行動を判定するといった手法により、例えば複数の要素行動が時間的に重なるような状況であっても、最も確からしい要素行動を認識結果として出力することができる。これに対し、例えば各フレーム画像で人物の重心軌跡を追うような手法では、複数の要素行動が時間的に重なるような状況で作業者の作業行動を正しく認識することはできない。
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100…行動認識装置、101…画像取得部、102…時空間特徴抽出部、103…行動認識部、104…統合処理部、104a…行動判定部、104b…行動時間算出部、105…辞書作成部、105a…行動認識辞書、106…認識結果出力部、201…作業場、202…作業者、203…カメラ、204…箱、301…情報処理装置、302…I/F、303…通信ネットワーク、304…監視装置、21…CPU、22…不揮発性メモリ、23…主メモリ、24…通信デバイス。
特開2011−100175号公報

Claims (9)

  1. 作業者を撮影した映像から予め監視対象として定められた標準作業を認識する行動認識装置であって、
    前記映像に含まれる複数のフレーム画像を取得する画像取得手段と、
    前記各フレーム画像の特徴的な変化から前記標準作業に含まれる複数の要素行動を認識するとともに、これらの要素行動の確信度を算出する行動認識手段と、
    前記各要素行動の確信度を統合処理し、前記各要素行動の中から前記作業者の作業行動を判定する行動判定手段と
    を具備した行動認識装置。
  2. 前記行動判定手段は、前記各要素行動の中から前記作業者の作業行動を時系列で判定する請求項1記載の行動認識装置。
  3. 前記作業者の作業行動として判定された要素行動の開始時間と持続時間を算出する行動時間算出手段をさらに具備した請求項1または2に記載の行動認識装置。
  4. 前記行動判定手段は、
    前記各要素行動の確信度をフレーム単位で比較し、確信度が高い要素行動を前記作業者の作業行動として判定する請求項1または2に記載の行動認識装置。
  5. 前記行動判定手段は、
    前記各要素行動の確信度を一定の時間間隔で比較し、確信度が高い要素行動を前記作業者の作業行動として判定する請求項1または2に記載の行動認識装置。
  6. 前記行動判定手段は、
    前記各要素行動の確信度を一定の時間間隔で比較し、確信度が高い要素行動の頻度が多い要素行動を前記作業者の作業行動として判定する請求項1または2に記載の行動認識装置。
  7. 前記行動判定手段は、
    予め判定基準として設定された閾値よりも高い確信度を有する要素行動を条件にして前記作業者の作業行動を判定する請求項4乃至6のいずれか1つに記載の行動認識装置。
  8. 作業者を撮影した映像から予め監視対象として定められた標準作業を認識する行動認識方法であって、
    前記映像に含まれる複数のフレーム画像を取得するステップと、
    前記各フレーム画像の特徴的な変化から前記標準作業に含まれる複数の要素行動を認識するとともに、これらの要素行動の確信度を算出するステップと、
    前記各要素行動の確信度を統合処理し、前記各要素行動の中から前記作業者の作業行動を判定するステップと
    を有する行動認識方法。
  9. 作業者を撮影した映像から予め監視対象として定められた標準作業を認識するためのプログラムであって、
    コンピュータを、
    前記映像に含まれる複数のフレーム画像を取得する画像取得手段、
    前記各フレーム画像の特徴的な変化から前記標準作業に含まれる複数の要素行動を認識するとともに、これらの要素行動の確信度を算出する行動認識手段、
    前記各要素行動の確信度を統合処理し、前記各要素行動の中から前記作業者の作業行動を判定する行動判定手段
    として機能させるためのプログラム。
JP2018225439A 2018-11-30 2018-11-30 行動認識装置、行動認識方法及びプログラム Active JP7222231B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018225439A JP7222231B2 (ja) 2018-11-30 2018-11-30 行動認識装置、行動認識方法及びプログラム
CN201911181304.1A CN111259723A (zh) 2018-11-30 2019-11-27 行动识别装置、行动识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018225439A JP7222231B2 (ja) 2018-11-30 2018-11-30 行動認識装置、行動認識方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020087312A true JP2020087312A (ja) 2020-06-04
JP7222231B2 JP7222231B2 (ja) 2023-02-15

Family

ID=70908478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018225439A Active JP7222231B2 (ja) 2018-11-30 2018-11-30 行動認識装置、行動認識方法及びプログラム

Country Status (2)

Country Link
JP (1) JP7222231B2 (ja)
CN (1) CN111259723A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183363A (zh) * 2020-09-29 2021-01-05 北京市政建设集团有限责任公司 地铁工程施工人员安全行为智能分析方法及其系统
CN112580543A (zh) * 2020-12-24 2021-03-30 四川云从天府人工智能科技有限公司 行为识别方法、系统及装置
WO2022153597A1 (ja) * 2021-01-15 2022-07-21 オムロン株式会社 作業レベル変換装置、作業レベル変換方法及び作業レベル変換プログラム
WO2022244536A1 (ja) * 2021-05-17 2022-11-24 株式会社日立製作所 作業認識装置および作業認識方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4389956B2 (ja) * 2007-04-04 2009-12-24 ソニー株式会社 顔認識装置及び顔認識方法、並びにコンピュータ・プログラム
US8027542B2 (en) * 2007-06-18 2011-09-27 The Regents Of The University Of California High speed video action recognition and localization
JP5525202B2 (ja) * 2009-07-30 2014-06-18 株式会社構造計画研究所 動作分析装置、動作分析方法及び動作分析プログラム
JP5594672B2 (ja) * 2011-04-14 2014-09-24 株式会社 日立産業制御ソリューションズ 物体認識装置および物体認識方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
関 海克: "職場における行動認識", 第23回 画像センシングシンポジウム SSII2017, JPN6022036606, 8 June 2017 (2017-06-08), ISSN: 0004866848 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183363A (zh) * 2020-09-29 2021-01-05 北京市政建设集团有限责任公司 地铁工程施工人员安全行为智能分析方法及其系统
CN112580543A (zh) * 2020-12-24 2021-03-30 四川云从天府人工智能科技有限公司 行为识别方法、系统及装置
CN112580543B (zh) * 2020-12-24 2024-04-16 四川云从天府人工智能科技有限公司 行为识别方法、系统及装置
WO2022153597A1 (ja) * 2021-01-15 2022-07-21 オムロン株式会社 作業レベル変換装置、作業レベル変換方法及び作業レベル変換プログラム
WO2022244536A1 (ja) * 2021-05-17 2022-11-24 株式会社日立製作所 作業認識装置および作業認識方法

Also Published As

Publication number Publication date
JP7222231B2 (ja) 2023-02-15
CN111259723A (zh) 2020-06-09

Similar Documents

Publication Publication Date Title
JP7222231B2 (ja) 行動認識装置、行動認識方法及びプログラム
US11450114B2 (en) Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects
JP6800628B2 (ja) 追跡装置、追跡方法、及びプログラム
CN106603968B (zh) 信息处理装置及信息处理方法
KR102199094B1 (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
US11915430B2 (en) Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity
JP4764172B2 (ja) 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム
JP7210890B2 (ja) 行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体
US20150339523A1 (en) Image processing apparatus, image processing method, and storage medium
JPWO2014045479A1 (ja) オブジェクト情報抽出装置、オブジェクト情報抽出プログラム、及びオブジェクト情報抽出方法
WO2018008702A1 (ja) 振る舞い検知システム
JP2011133984A (ja) 動作特徴抽出装置および動作特徴抽出方法
US10455144B2 (en) Information processing apparatus, information processing method, system, and non-transitory computer-readable storage medium
EP3355243A1 (en) Information processing apparatus, information processing method, and program
JP7186128B2 (ja) 物品認識システムおよび物品認識方法
CN110225335B (zh) 相机稳定性评估方法及装置
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
KR102107137B1 (ko) 팬틸트줌 카메라를 이용한 이벤트 감지방법 및 장치
KR20140045834A (ko) 단일객체의 크기를 추정하는 영상 감시장치 및 방법
JP6939065B2 (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
JP5539565B2 (ja) 撮像装置及び被写体追跡方法
KR20160062665A (ko) 동작 인식 장치 및 방법
JP6348020B2 (ja) 画像処理装置、画像処理方法およびそれを用いた検査方法。
JP2018055151A (ja) 炎検出装置及びプログラム
EP3496390A1 (en) Information processing device, information processing method, and storage medium

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190813

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221028

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20221104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230117

R151 Written notification of patent or utility model registration

Ref document number: 7222231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151