JP7119912B2 - 行動認識方法、行動認識プログラムおよび行動認識装置 - Google Patents

行動認識方法、行動認識プログラムおよび行動認識装置 Download PDF

Info

Publication number
JP7119912B2
JP7119912B2 JP2018205097A JP2018205097A JP7119912B2 JP 7119912 B2 JP7119912 B2 JP 7119912B2 JP 2018205097 A JP2018205097 A JP 2018205097A JP 2018205097 A JP2018205097 A JP 2018205097A JP 7119912 B2 JP7119912 B2 JP 7119912B2
Authority
JP
Japan
Prior art keywords
recognition
recognition model
output
action
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018205097A
Other languages
English (en)
Other versions
JP2020071665A (ja
Inventor
勉 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018205097A priority Critical patent/JP7119912B2/ja
Publication of JP2020071665A publication Critical patent/JP2020071665A/ja
Application granted granted Critical
Publication of JP7119912B2 publication Critical patent/JP7119912B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、行動認識方法、行動認識プログラムおよび行動認識装置に関する。
商業施設や空港などに設置された数十台から数百台の監視カメラの画像から、不審な動きなどの特定の行動を認識する認識モデル(学習モデル)を用いて、特定の行動を行う人物を検出することが行われている。このような認識モデルは、特定したい行動の映像を訓練データとして大量に収集し、深層学習(DL:Deep Learning)などを用いた機械学習によって生成される。
訓練データを大量に収集するには膨大なコストがかかることから、近年では、あらかじめ用意しておいた複数の学習済みの認識モデルで、特定の行動を認識する映像検索技術が利用されている。例えば、行動認識用の認識モデル、外観認識用の認識モデル、状況認識用の認識モデルを用意し、各認識モデルの推論結果を組み合わせて、不審な行動を判定する検出ルールを作成しておく。そして、撮像された映像を各認識モデルに入力して、各認識モデルの推論結果を取得し、各認識モデルの推論結果と検出ルールとを比較して、特定の行動を行う人物の検出を行う。
Li-Jia Li et al、"Objects as Attributes for Scene Classification"、European Conference on Computer Vision、57-69、2010年
しかしながら、上記技術では、各認識モデルの計算コストが高く、システム全体の計算コストが高くなるので、認識時間が長くなり、処理時間の遅延が発生することもある。具体的には、認識対象の場所によっては認識モデルが冗長となる。例えば、大人しか現れない場所に、子供まで認識できる認識モデルを用いると、不要な認識処理の時間が長くなり、認識処理全体の処理時間も長くなる。特に、ニューラルネットワークにおいては、認識する対象や対象のカテゴリが増えると、ニューラルネットワークの中間層が増えることで、認識時の計算量が増加する。
一つの側面では、行動検出にかかる処理時間を短縮することができる行動認識方法、行動認識プログラムおよび行動認識装置を提供することを目的とする。
第1の案では、行動認識方法は、コンピュータが、映像データを第1の認識モデルに入力して得られる、複数の出力ラベルを含む出力結果に基づいて、特定の行動を含む映像を検出する処理を実行する。行動認識方法は、コンピュータが、所定期間に取得された各映像データを前記第1の認識モデルに入力して得られる、前記複数の出力ラベルを含む出力結果の統計を計数する処理を実行する。行動認識方法は、コンピュータが、計数された前記複数の出力ラベルのうち、前記特定の行動として認識する認識対象の出力ラベルの数の割合が閾値以上である場合に、前記第1の認識モデルよりも識別対象の数が少ない第2の認識モデルに切り替える処理を実行する。
一つの側面では、行動検出にかかる処理時間を短縮することができる。
図1は、実施例1にかかる行動認識システムの全体構成例を示す図である。 図2は、実施例1にかかる行動認識装置の機能構成を示す機能ブロック図である。 図3は、認識モデルDBに記憶される情報の例を示す図である。 図4は、高位モデルと低位モデルを説明する図である。 図5は、ルールDBに記憶される情報の例を示す図である。 図6は、検出ルールを用いた行動検出を説明する図である。 図7は、切替判定と認識モデルの切替を説明する図である。 図8は、認識モデルの切替と検出ルールの再構成を説明する図である。 図9は、行動検出処理の流れを示すフローチャートである。 図10は、モデル切替処理の流れを示すフローチャートである。 図11は、行動認識システムの別構成例を示す図である。 図12は、ハードウェア構成例を説明する図である。
以下に、本願の開示する行動認識方法、行動認識プログラムおよび行動認識装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[全体構成]
図1は、実施例1にかかる行動認識システムの全体構成例を示す図である。図1に示すように、このシステムは、商業施設1に設置されるカメラ、商業施設2に設置されるカメラ、空港3に設置されるカメラ、行動認識装置10のそれぞれがネットワークNを介して、相互に通信可能に接続される。なお、各施設の種別や数は、あくまで一例であり、任意に変更することができる。また、ネットワークNは、有線や無線を問わず、インターネットや専用線などの任意のネットワークを採用することができる。
各施設のカメラは、飲食店などに設置される監視カメラの一例であり、映像を撮像して行動認識装置10に映像データとして送信する。このカメラは、撮像した映像をリアルタイムに行動認識装置10に送信することもでき、数秒または数分など一定間隔でまとめて送信することもできる。
行動認識装置10は、デジタルサイネージでクーポンを配るために、各施設のカメラから取得した映像を用いて、「飲食店に興味を持つ」の行動を行う人物が写る映像を認識(検出)するサーバ装置の一例である。具体的には、行動認識装置10は、行動、外観、状況の各カテゴリに対応した、学習済みの認識モデルを用意する。また、行動認識装置10は、特定行動「飲食店に興味を持つ」を示す各認識モデルの認識結果(ラベル)の組み合わせを検出ルールとして保存する。
このような状態で、行動認識装置10は、カメラから映像データを取得すると、当該映像データを各カテゴリに対応する各認識モデルに入力して、各認識モデルの出力である各認識結果を取得する。続いて、行動認識装置10は、各認識結果の組み合わせが特定行動「飲食店に興味を持つ」の検出ルールに該当するか否かを判定する。そして、行動認識装置10は、検出ルールに該当する場合、特定行動「飲食店に興味を持つ」の映像を検出する。
ここで、行動認識装置10は、各カテゴリに対応する各認識モデルとして、対象を細かく認識する高位の認識モデル(以下では高位モデルと記載する場合がある)と、対象を大雑把に認識する低位の認識モデル(以下では低位モデルと記載する場合がある)とを保持する。そして、行動認識装置10は、各ラベルの出現する統計情報に基づき、検出精度が下がらないように、認識モデルを高位から下位モデルに切り替えるとともに、検出の検出ルールも切り替えて、特定行動の映像を検出する。
すなわち、行動認識装置10は、認識状況に応じて、認識するラベルを減らした認識モデルに自動的に切り替えることで、検出精度を維持しつつ、計算コストを削減することができ、認識処理の処理時間を短縮することができる。
[機能構成]
図2は、実施例1にかかる行動認識装置10の機能構成を示す機能ブロック図である。図2に示すように、行動認識装置10は、通信部11、記憶部12、制御部20を有する。
通信部11は、他の装置の間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、各カメラから映像データを受信し、管理者端末などから各種指示を受信し、管理者端末に認識結果などを送信する。
記憶部12は、データや制御部20が実行するプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、テストデータDB13、映像データDB14、認識モデルDB15、ルールDB16を記憶する。
テストデータDB13は、正解ラベルが付与されている教師データを記憶するデータベースである。例えば、テストデータDB13は、後述する検出ルール変更時に、変更後の検出ルールの検証に使用される検証用のデータを記憶する。
映像データDB14は、各カメラが撮像した映像データを記憶するデータベースである。例えば、映像データDB14は、カメラごとに、撮像された順番で映像データを記憶する。
認識モデルDB15は、行動認識に使用される、学習済みの認識モデルを記憶するデータベースである。具体的には、認識モデルDB15は、検出ルールを特定するカテゴリごとに、高位や低位の認識モデルを記憶する。なお、ここで記憶される情報は、各認識モデルで使用されるパラメータなど、認識モデルを構築するときに使用される情報を含む。
図3は、認識モデルDB15に記憶される情報の例を示す図である。図3に示すように、認識モデルDB15は、行動、外観、状況のカテゴリごとに、認識モデルを記憶する。例えば、カテゴリ「行動」に対しては認識モデルA1を記憶し、カテゴリ「外観」に対しては認識モデルB1と認識モデルB2を記憶し、カテゴリ「状況」に対しては認識モデルC1と認識モデルC2を記憶する。
そして、カテゴリ「外観」では、認識モデルB1が高位モデルであり、認識モデルB2が低位モデルである。また、カテゴリ「状況」では、認識モデルC1が高位モデルであり、認識モデルC2が低位モデルである。図4は、高位モデルと低位モデルを説明する図である。図4に示すように、高位モデルは、中間層が22層あるようなニューラルネットワークを用いた学習モデルであり、低位モデルは、中間層が7層のように、高位モデルと比較して中間層が少ないニューラルネットワークを用いた学習モデルである。つまり、中間層が多い高位モデルとは、例えば大人の男性、大人の女性、子供の男性、子供の女性のように、大人か子供かの属性に加え、男性か女性かの属性も認識できる、対象を細かく認識(識別)モデルである。一方、中間層が少ない低位モデルとは、例えば人か否かの属性を認識する、対象を大雑把に認識するだけのモデルである。
ルールDB16は、認識対象の行動を特定する検出ルールを記憶するデータベースである。具体的には、ルールDB16は、特定の行動と特定できる、各認識モデルの認識結果(出力ラベル)の組み合わせを検出ルールとして記憶する。言い換えると、ルールDB16は、認識モデルが出力する出力対象のうち、特定行動に該当する出力ラベルを規定した検出ルールを記憶する。実施例1では、一例として、ルールDB16は、特定行動「飲食店に興味を持つ」を特定する検出ルールを記憶する。
図5は、ルールDB16に記憶される情報の例を示す図である。図5に示すように、ルールDB16は、カメラごとに、認識モデルと検出ルールと対応付けて記憶する。図5の例では、カメラC-1に対して、カテゴリ「行動」を認識するために認識モデルA1、カテゴリ「外観」を認識するために認識モデルB1、カテゴリ「状況」を認識するために認識モデルC1を使用中であるすることを示す。また、カメラC-1に対して、検出ルール「行動:立ち止まる、外観:大人・男or大人・女、状況:飲食店の前」が対応付けられている。この検出ルールは、認識モデルA1の出力結果が「立ち止まる」、認識モデルB1の出力結果が「大人・男」または「大人・女」、認識モデルC1の出力結果が「飲食店の前」であるときに、特定行動「飲食店に興味を持つ」に該当すると判定するための検出ルールである。
制御部20は、行動認識装置10全体を司る処理部であり、例えばプロセッサなどである。制御部20は、映像取得部21、行動検出部22、モデル切替部23を有し、特定の行動を認識(検出)する。例えば、映像取得部21、行動検出部22、モデル切替部23は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
映像取得部21は、各カメラが撮像した映像データを取得する処理部である。例えば、映像取得部21は、カメラC-1から映像データを取得すると、取得した映像データを行動検出部22に出力し、映像データDB14に格納する。
行動検出部22は、認識モデルの認識結果を用いて、特定行動「飲食店に興味を持つ」の映像を検出する処理部である。具体的には、行動検出部22は、認識モデルDB15を参照し、各カテゴリの行動認識に使用する各認識モデルのパラメータ等を読み出して、各認識モデルを構築する。そして、行動検出部22は、映像取得部21により取得された映像データを各認識モデルに入力し、各認識モデルの出力結果(ラベル)を取得する。そして、行動検出部22は、各認識モデルの出力結果がルールDB16に記憶される検出ルールと一致する場合に、特定行動「飲食店に興味を持つ」を行う映像を検出する。その後、行動検出部22は、デジタルサイネージに当該飲食店のクーポンを表示したり、検出結果を管理者端末に送信したりする。
例えば、カメラC-1に対する行動認識を例にして説明する。図6は、検出ルールを用いた行動検出を説明する図である。まず、行動検出部22は、図5を参照して、カテゴリ「行動」用の認識モデルA1、カテゴリ「外観」用の認識モデルB1、カテゴリ「状況」用の認識モデルC1の各パラメータを読み出して、各認識モデルを構築する。次に、行動検出部22は、映像取得部21から映像データが入力されると、構築した認識モデルA1、認識モデルB1、認識モデルC1の各モデルに映像データを入力する。
そして、行動検出部22は、各認識モデルの出力結果を取得する。ここで、図6に示すように、行動検出部22は、認識モデルA1の出力候補の属性「動く、立ち止まる、走る、振り返る」のうち「立ち止まる」を取得する。さらに、行動検出部22は、認識モデルB1の出力候補の属性「大人・男、大人・女、子供・男、子供・女」のうち「大人・男」または「大人・女」を取得する。さらに、行動検出部22は、認識モデルC1の出力候補の属性「飲食店の前、外、駐車場」などのうち「飲食店の前」を取得する。この場合、行動検出部22は、特定行動「飲食店に興味を持つ」を検出する。すなわち、行動検出部22は、検出ルールに記憶される行動、外観、状況のそれぞれと一致する認識結果が得られた場合に、特定行動「飲食店に興味を持つ」の映像を検出する。
モデル切替部23は、切替判定部24、検証部25、切替実行部26を有し、認識モデルの認識状況に応じて、使用する認識モデルの自動切り替えを実行する処理部である。
切替判定部24は、各認識モデルの認識状況に基づいて、認識モデルの切替要否を判定する処理部である。具体的には、切替判定部24は、各カテゴリの各認識モデルについて、1週間などの所定期間内のラベル毎の認識回数を計数する。そして、切替判定部24は、認識したい対象の割合が閾値以上の場合に、低位モデルに切り替える。
図7は、切替判定と認識モデルの切替を説明する図である。図7では、上記特定行動「飲食店に興味を持つ」の行動認識のうち、カテゴリ「外観」の認識用として用意された認識モデルB1と認識モデルB2とを用いて説明する。ここでは、認識対象の行動が「飲食店に興味を持つ」であることから、外観として「大人・男」または「大人・女」を認識できれば十分であるので、認識したい対象は「大人・男」または「大人・女」となる。
なお、認識モデルB1は、ラベル「大人・男、大人・女、子供・男、子供・女」を出力する高位モデルであり、認識モデルB2は、ラベル「人」を出力する低位モデルである。つまり、認識モデルB1は、映像データが入力されると、「大人・男、大人・女、子供・男、子供・女」の4パターンそれぞれに該当する確率を出力し、4パターンのいずれに該当するかを認識する。認識モデルB2は、映像データが入力されると、「人」に該当する確率を出力し、人か否かを認識する。
図7に示すように、まず、切替判定部24は、認識モデルB1を用いて行動認識を実行してい状態とする。その状態で、切替判定部24は、1週間分の認識モデルB1の出力結果を計数する。ここで、認識モデルB1の認識結果が、ラベル「大人・男」が42回、ラベル「大人・女」が24回、ラベル「子供・男」が3回、ラベル「子供・女」が5回であったとする。
この場合、切替判定部24は、認識対象である「大人・男」と「大人・女」の認識回数が合計66回で全体の89%であり、閾値(例えば85%)を超えることから、対応するカメラで撮像される場所にはほとんど大人しか出現しないと判定することができるので、「人」か否かを認識できれば十分と判断し、切替可能と判定する。そして、切替判定部24は、カテゴリ「外観」の認識用として使用する認識モデルを、高位の認識モデルB1から低位の認識モデルB2に切り替える。また、切替判定部24は、切替結果を検証部25に通知する。
検証部25は、切替判定部24による認識モデルの切替に応じて、検出ルールの再構成および再構成後の検出ルールによる検出精度の検証を実行する処理部である。具体的には、検証部25は、更新前の検出ルールのうち、認識モデルが切替れたカテゴリの認識対象を低位モデルの認識対象に書き換えて、新たな検出ルールを生成する。そして、検証部25は、テストデータを用いて、変更後の検出ルールによる検出精度がユーザの要求を満たす場合に、認識モデルおよび検出ルールの切替を許容する。
図8は、認識モデルの切替と検出ルールの再構成を説明する図である。図8に示すように、検証部25は、切替判定部24によってカテゴリ「外観」の認識で使用する認識モデルが低位モデルに切り替えられたことから、検出ルールの外観を、切替前の高位モデル(認識モデルB1)の出力ラベル(認識対象)である「大人・男or大人・女」から切替後の低位モデル(認識モデルB2)の出力ラベル(認識対象)である「人」に変更して、検出ルールを再構成する。ここで再構築された新検出ルールは、行動「立ち止まる」、外観「人」、状況「飲食店の前」の認識結果が得られたときに、特定行動「飲食店に興味を持つ」を認識するための検出ルールである。
その後、検証部25は、各テストデータを、カテゴリ「行動」用の認識モデルA1、カテゴリ「外観」用の認識モデルB2、カテゴリ「状況」用の認識モデルC1のそれぞれに入力して、認識結果を取得する。そして、検証部25は、特定行動「飲食店に興味を持つ」に該当するテストデータを用いたときに、切替後の各認識モデルで特定行動「飲食店に興味を持つ」の行動を検出できたか否かを判定する。
ここで、検証部25は、テストデータに付与される正解ラベルと、切替後の各認識モデルおよび新検出ルールを用いたときの認識結果との一致数が閾値以上である場合に、切替後の各認識モデルおよび新検出ルールに切替可能と判定する。例えば、検証部25は、テストデータのうち9割が正確に検出できている場合に、切替可能と判定する。
すなわち、検証部25は、切替後の認識モデルおよび変更後の検出ルールを用いて、特定行動「飲食店に興味を持つ」のラベルが付与されたテストデータを入力したときに、特定行動が正確に検出できて、特定行動「飲食店に興味を持つ」以外のラベルが付与されたテストデータを入力したときに、特定行動ではないと正確に検出できている場合に、切替を許容する。その後、検証部25は、切替後の各認識モデルおよび新検出ルールに関する情報および切替可能を示す情報を切替実行部26に出力する。
切替実行部26は、検証部25による検証結果に応じて、認識モデルや検出ルールの切替を実行する処理部である。例えば、切替実行部26は、検証部から、カテゴリ「外観」の認識で使用する認識モデルを認識モデルB2に変更したこと、検出ルールの外観を「人」に変更したことの通知を受信する。すると、切替実行部26は、通知されたそれらの情報にしたがって、認識モデルDB15やルールDB16を更新して、切替を実行する。
[処理の流れ]
次に、上述した行動検出処理の流れと、モデル切替処理の流れについて説明する。
(行動検出処理の流れ)
図9は、行動検出処理の流れを示すフローチャートである。図9に示すように、映像取得部21が映像データを受信すると(S101:Yes)、行動検出部22は、認識モデルDB15を参照して、現在使用されている各認識モデルに、受信された映像データを入力する(S102)。
続いて、行動検出部22は、各認識モデルからの出力結果を取得し(S103)、各出力結果とルールDB16に記憶される検出ルールとを比較し(S104)、出力結果が検出ルールに該当するか否かを判定する(S105)。
そして、行動検出部22は、検出ルールに該当する場合(S105:Yes)、特定行動を検出し(S106)、検出ルールに該当しない場合(S105:No)、処理を終了する。
(モデル切替処理の流れ)
図10は、モデル切替処理の流れを示すフローチャートである。図10に示すように、モデル切替部23は、デフォルトの認識モデルと検出ルールを生成して、認識モデルDB15とルールDB16に格納する(S201)。
続いて、モデル切替部23は、認識モデルのカテゴリを1つ選択し(S202)、一定期間に対する映像データに対する認識モデルの認識状況を取得する(S203)。例えば、モデル切替部23は、カテゴリ「行動、外観、状況」のうち1つを選択し、1週間分の認識結果を用いて、当該カテゴリに対応する認識対象の検出頻度を計数する。
そして、モデル切替部23は、認識状況が切替条件を満たす場合(S204:Yes)、選択中のカテゴリに対応する認識モデルを低位モデルに切り替えるとともに(S205)、検出ルールを再構築する(S206)。
続いて、モデル切替部23は、テストデータを用いて、切替後の認識モデルおよび検出ルールの検出精度の検証を実行する(S207)。
ここで、モデル切替部23は、検出精度が要件を満たす場合(S208:Yes)、認識モデルと検出ルールを切替えると判定し(S209)、検出精度が要件を満たさない場合(S208:No)、認識モデルと検出ルールを切替えずに、元の認識モデルおよび元の検出ルールを維持すると判定する(S210)。
そして、モデル切替部23は、未処理のカテゴリが存在する場合(S211:No)、次のカテゴリについてS202以降を繰り返す。一方、モデル切替部23は、すべてのカテゴリについて処理が終了すると(S211:Yes)、切替後の認識モデルと再構築した検出ルールを格納する(S212)。なお、S204において、モデル切替部23は、認識状況が切替条件を満たさない場合(S204:No)、S210を実行する。
[効果]
上述したように、行動認識装置10は、映像の中から特定の行動を認識するシステムであり、カメラ毎に一定期間内での認識対象ラベルの検出頻度の統計情報に基づき、適用されている認識モデルが冗長であるかを判定する。そして、行動認識装置10は、適用されている認識モデルが冗長である場合には、低位の認識モデルに切り替え、特定行動を検出する精度を担保できるかを確認する。その後、行動認識装置10は、担保できる場合には認識モデルと検出ルールを切り替え、カメラ毎に適切な認識モデルと検出ルールを適用する。
このように、行動認識装置10は、カメラに応じて、適切な認識モデルの選択と検出ルールの適用とを実現することができ、認識モデルを用いた冗長な推定処理を削減できるので、特定行動の検出精度を維持しつつ、システム全体の計算コストを削減することができる。この結果、行動認識装置10は、認識処理の処理時間を短縮することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[認識対象]
実施例1では、認識対象の行動として「飲食店に興味を持つ」を例示したが、これに限定されるものではなく、不審な行動や迷子などの他の行動を認識対象とすることができる。また、行動認識装置10の認識対象は1つに限らず、行動認識装置10が、各行動に対応した検出ルールを保持することで、複数の行動の認識判定を同時に実行することもできる。
[認識モデル]
実施例で説明した認識モデルには、ニューラルネットワーク、ディープテンソル、CNN(Convolution Neural Network)などの様々な深層学習や他の機械学習を採用することができる。また、上記検出ルールのカテゴリは、あくまで一例であり、認識対象の行動ごとに任意に変更することができる。また、認識モデルの切替は、時間帯や曜日などに応じて切り替えることもできる。この場合、時間帯や曜日ごとに切替状況を取得し、認識対象の認識回数の割合が閾値を超えるか否かにより、切替判定を実行することができる。
[認識モデルの切替]
上記実施例では、高位モデルから低位モデルへの切替を例にして説明したが、これに限定されるものではない。例えば、低位モデルに切り替えた後、定期的に認識状況を集計し、ユーザの要望に応えられない程度の認識状況となった場合(上記閾値未満の状態)、高位モデルに再切替を行うこともできる。また、認識モデルは、2段階に限らず、3段階以上であってもよい。また、低位モデルは、高位モデルよりも中間層の数が少ないモデルである例で説明したが、これに限定されず、例えば出力層の数や出力ラベルの数が少ないモデル、中間層のノードの数が少ないモデル、中間層に適応するフィルタのチャネル数が少ないモデルなどを採用することができる。
[構成]
上記実施例では、1台の行動認識装置10が、各施設のカメラの映像から行動認識を行う例を説明したが、これに限定されるものではない。例えば、各施設に行動認識装置10を設置することもできる。図11は、行動認識システムの別構成例を示す図である。図11に示すように、各施設に行動認識装置10を設置し、各行動認識装置10が上記実施例と同様の手法を用いた行動認識を行って、その結果を管理者端末50に送信する。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、行動検出部22とモデル切替部23とを統合することもできる。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図12は、ハードウェア構成例を説明する図である。図12に示すように、行動認識装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図12に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD10bは、図2に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図2に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図2等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、行動認識装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、映像取得部21、行動検出部22、モデル切替部23等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、映像取得部21、行動検出部22、モデル切替部23等と同様の処理を実行するプロセスを実行する。
このように行動認識装置10は、プログラムを読み出して実行することで行動認識方法を実行する情報処理装置として動作する。また、行動認識装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、行動認識装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
10 行動認識装置
11 通信部
12 記憶部
13 テストデータDB
14 映像データDB
15 認識モデルDB
16 ルールDB
20 制御部
21 映像取得部
22 行動検出部
23 モデル切替部
24 切替判定部
25 検証部
26 切替実行部

Claims (8)

  1. コンピュータが、
    映像データを第1の認識モデルに入力して得られる、複数の出力ラベルを含む出力結果に基づいて、特定の行動を含む映像を検出し、
    所定期間に取得された各映像データを前記第1の認識モデルに入力して得られる、前記複数の出力ラベルを含む出力結果の統計を計数し、
    計数された前記複数の出力ラベルのうち、前記特定の行動として認識する認識対象の出力ラベルの数の割合が閾値以上である場合に、前記第1の認識モデルよりも識別対象の数が少ない第2の認識モデルに切り替える
    処理を実行する行動認識方法。
  2. 前記検出する処理は、前記特定の行動を特定する複数のカテゴリそれぞれについて学習された学習済みの各第1の認識モデルに前記映像データを入力し、前記各第1の認識モデルから得られる各出力結果の組み合わせに基づいて、前記特定の行動を含む映像を検出し、
    前記計数する処理は、前記複数のカテゴリそれぞれについて前記出力結果の統計を計数し、
    前記切り替える処理は、前記複数のカテゴリそれぞれについて、前記認識対象の出力ラベルの数の割合が閾値以上であるか否かを判定し、閾値以上である場合に、前記第2の認識モデルに切り替えることを特徴とする請求項1に記載の行動認識方法。
  3. 前記検出する処理は、前記複数のカテゴリにそれぞれに対応する前記各第1の認識モデルが出力する出力対象のうち、前記特定の行動に該当する出力ラベルを規定した検出ルールを参照し、前記複数のカテゴリに対応する各第1の認識モデルの出力結果が前記検出ルールと一致する場合に、前記特定の行動を含む映像を検出することを特徴とする請求項2に記載の行動認識方法。
  4. 前記切り替える処理は、前記複数のカテゴリのうち前記第2の認識モデルに切り替えられたカテゴリに対応する検出ルールを、切替後の前記第2の認識モデルが出力する出力ラベルのうち前記認識対象の出力ラベルに変更することを特徴とする請求項3に記載の行動認識方法。
  5. 正解情報として前記特定の行動を示すラベルが付与された複数のテストデータを用いて、切替後の前記第2の認識モデルを含む各認識モデルおよび変更後の検出ルールの精度を検証し、前記精度が所定条件を満たす場合に、認識モデルの切替および検出ルールの変更を許容する処理を、前記コンピュータが実行することを特徴とする請求項4に記載の行動認識方法。
  6. 前記第1の認識モデルおよび前記第2の認識モデルは、入力層、中間層、出力層を有するニューラルネットワークであり、
    前記検出する処理は、前記中間層または前記出力層の数が前記第1の認識モデルよりも少ない前記第2の認識モデル、または、出力ラベルの数が前記第1の認識モデルよりも少ない前記第2の認識モデルに切り替えることを特徴とする請求項1に記載の行動認識方法。
  7. コンピュータに、
    映像データを第1の認識モデルに入力して得られる、複数の出力ラベルを含む出力結果に基づいて、特定の行動を含む映像を検出し、
    所定期間に取得された各映像データを前記第1の認識モデルに入力して得られる、前記複数の出力ラベルを含む出力結果の統計を計数し、
    計数された前記複数の出力ラベルのうち、前記特定の行動として認識する認識対象の出力ラベルの数の割合が閾値以上である場合に、前記第1の認識モデルよりも識別対象の数が少ない第2の認識モデルに切り替える
    処理を実行させる行動認識プログラム。
  8. 映像データを第1の認識モデルに入力して得られる、複数の出力ラベルを含む出力結果に基づいて、特定の行動を含む映像を検出する検出部と、
    所定期間に取得された各映像データを前記第1の認識モデルに入力して得られる、前記複数の出力ラベルを含む出力結果の統計を計数する計数部と、
    計数された前記複数の出力ラベルのうち、前記特定の行動として認識する認識対象の出力ラベルの数の割合が閾値以上である場合に、前記第1の認識モデルよりも識別対象の数が少ない第2の認識モデルに切り替える切替部と
    を有する行動認識装置。
JP2018205097A 2018-10-31 2018-10-31 行動認識方法、行動認識プログラムおよび行動認識装置 Active JP7119912B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018205097A JP7119912B2 (ja) 2018-10-31 2018-10-31 行動認識方法、行動認識プログラムおよび行動認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018205097A JP7119912B2 (ja) 2018-10-31 2018-10-31 行動認識方法、行動認識プログラムおよび行動認識装置

Publications (2)

Publication Number Publication Date
JP2020071665A JP2020071665A (ja) 2020-05-07
JP7119912B2 true JP7119912B2 (ja) 2022-08-17

Family

ID=70549576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018205097A Active JP7119912B2 (ja) 2018-10-31 2018-10-31 行動認識方法、行動認識プログラムおよび行動認識装置

Country Status (1)

Country Link
JP (1) JP7119912B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101667052B1 (ko) * 2010-06-15 2016-10-17 한양대학교 산학협력단 액정 표시 장치

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7402121B2 (ja) 2020-06-02 2023-12-20 株式会社日立製作所 物体検出システムおよび物体検出方法
JP2023098484A (ja) 2021-12-28 2023-07-10 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
JP2023098506A (ja) 2021-12-28 2023-07-10 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
JP2023098505A (ja) 2021-12-28 2023-07-10 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
JP2023098482A (ja) 2021-12-28 2023-07-10 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
JP2023098483A (ja) 2021-12-28 2023-07-10 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
WO2023127156A1 (ja) 2021-12-28 2023-07-06 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
JP2024013129A (ja) 2022-07-19 2024-01-31 富士通株式会社 表示制御プログラム、表示制御方法および情報処理装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007164560A (ja) 2005-12-15 2007-06-28 Sony Corp 画像処理装置および方法、並びにプログラム
JP2007213528A (ja) 2006-02-13 2007-08-23 Sanyo Electric Co Ltd 行動認識システム
JP2013041323A (ja) 2011-08-11 2013-02-28 Nec Corp 行動識別装置、行動識別方法、及びプログラム
JP2015014819A (ja) 2013-07-03 2015-01-22 クラリオン株式会社 接近物検出システム、及び車両
JP2017102612A (ja) 2015-11-30 2017-06-08 富士通株式会社 情報処理装置、活動状態検出プログラムおよび活動状態検出方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007164560A (ja) 2005-12-15 2007-06-28 Sony Corp 画像処理装置および方法、並びにプログラム
JP2007213528A (ja) 2006-02-13 2007-08-23 Sanyo Electric Co Ltd 行動認識システム
JP2013041323A (ja) 2011-08-11 2013-02-28 Nec Corp 行動識別装置、行動識別方法、及びプログラム
JP2015014819A (ja) 2013-07-03 2015-01-22 クラリオン株式会社 接近物検出システム、及び車両
JP2017102612A (ja) 2015-11-30 2017-06-08 富士通株式会社 情報処理装置、活動状態検出プログラムおよび活動状態検出方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101667052B1 (ko) * 2010-06-15 2016-10-17 한양대학교 산학협력단 액정 표시 장치

Also Published As

Publication number Publication date
JP2020071665A (ja) 2020-05-07

Similar Documents

Publication Publication Date Title
JP7119912B2 (ja) 行動認識方法、行動認識プログラムおよび行動認識装置
US11294754B2 (en) System and method for contextual event sequence analysis
US20120237081A1 (en) Anomalous pattern discovery
US20160055044A1 (en) Fault analysis method, fault analysis system, and storage medium
CN110096938B (zh) 一种视频中的动作行为的处理方法和装置
CN111738120B (zh) 人物识别方法、装置、电子设备及存储介质
CN112488218A (zh) 图像分类方法、图像分类模型的训练方法和装置
CN109063611A (zh) 一种基于视频语义的人脸识别结果处理方法和装置
CN113761359B (zh) 数据包推荐方法、装置、电子设备和存储介质
CN109934072B (zh) 人员统计方法及装置
CN111405030A (zh) 一种消息推送方法、装置、电子设备和存储介质
CN110751191A (zh) 一种图像的分类方法及系统
CN114359790A (zh) 基于弱监督学习的视频时序行为检测方法
CN113705896A (zh) 目标设备的确定方法、装置及电子设备
Anees et al. Deep learning framework for density estimation of crowd videos
KR101932765B1 (ko) 게임 어뷰저 검출을 위한 로그 데이터 처리 방법 및 장치
CN114912012A (zh) 通过基于源域特征的迁移学习进行内容推荐的方法和系统
CN112967190A (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
KR102565580B1 (ko) 그래디언트를 이용한 원본 데이터 재복원 방법 및 서버
CN114241243B (zh) 图像分类模型的训练方法、装置、电子设备和存储介质
WO2024114034A1 (zh) 内容推荐方法、装置、设备、介质和程序产品
CN118069869B (zh) 基于时间规律捕获的时序知识图谱推理方法及装置
JP7371695B2 (ja) 劣化検出方法、劣化検出プログラムおよび情報処理装置
CN111815442B (zh) 一种链接预测的方法、装置和电子设备
US20240046688A1 (en) Storage medium, determination method, and information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R150 Certificate of patent or registration of utility model

Ref document number: 7119912

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150