JP7098972B2 - Behavior recognition device, behavior recognition system, behavior recognition method and program - Google Patents
Behavior recognition device, behavior recognition system, behavior recognition method and program Download PDFInfo
- Publication number
- JP7098972B2 JP7098972B2 JP2018044782A JP2018044782A JP7098972B2 JP 7098972 B2 JP7098972 B2 JP 7098972B2 JP 2018044782 A JP2018044782 A JP 2018044782A JP 2018044782 A JP2018044782 A JP 2018044782A JP 7098972 B2 JP7098972 B2 JP 7098972B2
- Authority
- JP
- Japan
- Prior art keywords
- reliability
- behavior
- sensor
- unit
- detection result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
本発明は、行動認識装置、行動認識システム、行動認識方法およびプログラムに関する。 The present invention relates to a behavior recognition device, a behavior recognition system, a behavior recognition method and a program.
人の行動を分析するための手段として、画像認識技術を用いる方法が知られている。特に、画像認識と被験者に装着したセンサが検出した加速度等の情報との組み合わせによって、行動分析の精度を向上させる行動認識システムが知られている(例えば、特許文献1)。 As a means for analyzing human behavior, a method using image recognition technology is known. In particular, there is known a behavior recognition system that improves the accuracy of behavior analysis by combining image recognition with information such as acceleration detected by a sensor attached to the subject (for example, Patent Document 1).
しかし、このような従来の行動認識システムでは、人の行動を検出するための検出手段として、センサとカメラを備えて、センサの検出結果と、カメラで撮像した画像からの検出結果と、を単に補完する目的で組み合わせていた。したがって、それぞれの検出手段によって認識された人の行動の種類に齟齬が生じた場合についての扱いが明確でないという問題があった。例えば、行動検出対象の人が歩行状態、或いは静止状態にあることは、センサと画像認識のどちらでも認識することが可能である。ところが、センサは歩行状態を検出しているにも関わらず、画像認識では静止状態と認識される場合、どちらの検出結果を採用すべきかを判断するための基準を設けることが望まれていた。 However, such a conventional behavior recognition system is provided with a sensor and a camera as detection means for detecting a person's behavior, and simply obtains the detection result of the sensor and the detection result from the image captured by the camera. It was combined for the purpose of complementing. Therefore, there is a problem that it is not clear how to handle the case where the type of human behavior recognized by each detection means is inconsistent. For example, it is possible to recognize that the person to be behavior-detected is in a walking state or a stationary state by either a sensor or image recognition. However, when the sensor detects a walking state but is recognized as a stationary state by image recognition, it has been desired to provide a standard for determining which detection result should be adopted.
例えば、特許文献1には、複数のセンサで検出した情報を統合して活用しているが、どのセンサの検出結果を採用するかは、ユーザが入力したテキスト情報に基づいて決定している。そのため、ユーザが介在しない状態であっても、行動の認識精度を高めることが望まれる。
For example, in
本発明は、上記に鑑みてなされたものであり、ユーザの介在なしに、複数の検出手段の検出結果に基づく、対象物の行動の推定精度を向上させることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to improve the estimation accuracy of the behavior of an object based on the detection results of a plurality of detection means without the intervention of a user.
前記した課題を解決し、目的を達成するために、本発明の行動認識装置は、対象物の動きを検出する複数の動き検出部と、前記動き検出部の各検出結果に基づいて、検出結果の種類に応じた固定的な信頼度を付与する信頼度算出部と、前記動き検出部の各検出結果と前記信頼度とに基づいて、前記対象物の行動を認識する行動認識部と、を備える。 In order to solve the above-mentioned problems and achieve the object, the behavior recognition device of the present invention has a plurality of motion detection units for detecting the movement of an object, and detection results based on each detection result of the motion detection unit. A reliability calculation unit that imparts a fixed reliability according to the type of the object, and an action recognition unit that recognizes the behavior of the object based on each detection result of the motion detection unit and the reliability. Be prepared.
本発明によれば、ユーザの介在なしに、対象物の行動の認識精度を向上させることができる。 According to the present invention, it is possible to improve the recognition accuracy of the behavior of an object without the intervention of a user.
以下、添付図面を参照して、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
(行動認識装置の構成の説明)
図1は、本実施形態の行動認識装置1のシステム構成を示すブロック図である。行動認識装置1は、行動を認識される検出対象である人10に装着されたセンサタグ2と、無線AP(アクセスポイント)3と、複数のカメラ4a、4b、4cと、サーバ5とを備える。なお、カメラの台数は3台に限定されるものではない。また、検出対象である人10は1人とは限らない。したがって、人10に装着されるセンサタグ2は、検出対象となる人10の人数分が使用される。なお、行動認識装置1は、サーバ装置の一例としてのサーバ5と、動き検出装置としての動き検出部20(図3参照)と、を備える行動認識システムの一例である。
(Explanation of the configuration of the behavior recognition device)
FIG. 1 is a block diagram showing a system configuration of the
センサタグ2は、検出対象である人10の動きを検出する。そして、センサタグ2は、検出したデータを、所定の時間間隔で無線AP3に送信する。なお、センサタグ2は、少なくとも、加速度検出機能と、角速度検出機能と、気圧計測機能と、地磁気検出機能と、無線通信機能と、を備える。なお、センサタグ2は第2のセンサの一例である。
The
無線AP3は、無線LANとしてのWi-Fi(登録商標)や、Bluetooth(登録商標)等の無線通信規格を用いてセンサタグ2と接続されている。無線AP3は、センサタグ2が検出したデータを受信する。また、無線AP3は、センサタグ2から受信したデータをサーバ5に送信する。
The wireless AP3 is connected to the
カメラ4a、4b、4cは、いずれも、人10を含む画像Ia、Ib、Icを、例えば、サーバ5の指示により、所定の時間間隔で、略同時刻に撮像する(外部同期による撮像動作)。なお、画像Ii(i=a、b、c)はカメラ4i(i=a、b、c)で撮像された画像であるとする。そして、カメラ4a、4b、4cは、撮像した画像Ia、Ib、Icをサーバ5に送信する。なお、カメラ4a、4b、4cは、第1のセンサの一例である。ここで、カメラ4a、4b、4cは、例えば、カメラ4aの指示により、所定の時間間隔で、略同時刻に画像Ia、Ib、Icを撮像する構成であってもよい(内部同期による撮像動作)。
The
サーバ5は、画像Ia、Ib、Icと、無線AP3から送信されたデータと、を受信する。また、サーバ5は、画像Ia、Ib、Icと、無線AP3から送られてきたデータと、を分析する処理を行う。そして、サーバ5は、分析結果を時系列で記録する。なお、センサタグ2が検出したデータの分析は、サーバ5が行う代わりに、センサタグ2が備えるCPU(Central Processing Unit)2a(図2参照)が行ってもよい。
The
(行動認識装置のハードウェア構成の説明)
図2は、行動認識装置1のハードウェア構成の一例を示すハードウェアブロック図である。
(Explanation of hardware configuration of behavior recognition device)
FIG. 2 is a hardware block diagram showing an example of the hardware configuration of the
センサタグ2は、CPU2aと、RAM(Random Access Memory)2bと、ROM(Read Only Memory)2cと、加速度センサ2dと、角速度センサ2eと、気圧センサ2fと、地磁気センサ2gと、無線通信I/F(Interface)2hとを備える。
The
CPU2aは、ROM2cに記憶された制御プログラムP1を読み出して、RAM2bに展開して実行する。これによって、CPU2aは、センサタグ2の動作を制御して、加速度センサ2dと、角速度センサ2eと、気圧センサ2fと、地磁気センサ2gと、の出力を、略同時刻に取得する。このように、センサタグ2は、一般のコンピュータの構成を有する。
The
加速度センサ2dは、例えば、xyz3軸方向に沿う梁を備えて、各梁に貼り付けられた歪ゲージの撓み量に基づいて、当該加速度センサ2dが装着された人10の3軸各方向の加速度、すなわち、直線運動の大きさと向きを検出する。なお、加速度を検出する方法としては、その他にも、圧電素子を用いる方法、静電容量を用いる方法等が提案されており、加速度センサ2dは、そのいずれの方法に基づくセンサであってもよい。
The
角速度センサ2eは、例えばジャイロセンサで構成されて、当該角速度センサ2eが装着された人10の角速度、すなわち、回転運動の大きさと向きを検出する。
The angular velocity sensor 2e is composed of, for example, a gyro sensor, and detects the angular velocity of the
気圧センサ2fは、例えば大気圧に応じて変化する静電容量の大きさ、または大気圧に応じて変化する抵抗値の大きさを計測することによって、当該気圧センサ2fが装着された人10に作用する大気圧の大きさを検出する。
The
地磁気センサ2gは、例えば、磁界の変化に応じて出力電圧値が変化する、いわゆるホール効果を有する素子(ホール素子)を用いて、当該地磁気センサ2gが装着された人10に作用する地磁気の大きさを検出する。
The
なお、センサタグ2が備えるセンサの種類は、図2に記載したものに限定されない。すなわち、センサタグ2には、行動認識装置1の認識対象となる人10がとる行動の種類に対応する出力を得ることができるセンサが、適宜備えられる。例えば、センサタグ2は、GPS衛星からの電波を受信することによって、受信者の現在位置を検出するGPS(Global Positioning Sensor)受信機等を備えていてもよい。
The type of sensor included in the
無線通信I/F2hは、無線AP3との間で無線通信を確立させる。無線通信I/F2hは、センサタグ2が備える各センサ(加速度センサ2d、角速度センサ2e、気圧センサ2f、地磁気センサ2g)の出力を、無線AP3に送信する。
The wireless communication I / F2h establishes wireless communication with the wireless AP3. The wireless communication I / F2h transmits the output of each sensor (
無線AP3は、無線通信I/F3aを備える。無線通信I/F3aは、センサタグ2から、前記した各センサの出力を受信する。また、無線AP3は、受信した各センサの出力を、サーバ5に送信する。
The wireless AP3 includes a wireless communication I / F3a. The wireless communication I / F3a receives the output of each of the above-mentioned sensors from the
カメラ4a、4b、4cは、予め設定された範囲の画像を撮像して、撮像した画像Ia、Ib、Icを、それぞれ、サーバ5に送信する。カメラ4a、4b、4cは、一般的に使用されている、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサを受光素子とするカメラである。
The
サーバ5は、CPU5aと、RAM5bと、ROM5cと、HDD5dと、キーボード5eと、モニタ5fと、を備える。
The
CPU5aは、ROM5cに記憶された制御プログラムP2を読み出して、RAM5bに展開して実行する。これによって、CPU5aは、サーバ5の動作を制御して、センサタグ2の出力を無線AP3の無線通信I/F3aから受信する。また、CPU5aは、サーバ5の動作を制御して、カメラ4a、4b、4cが撮像した画像Ia、Ib、Icを受信する。そして、CPU5aは、センサタグ2の出力、および画像Ia、Ib、Icを用いて、人10の行動認識を行い、さらに、認識された行動に対する信頼度を算出する。なお、信頼度について詳しくは後述する。
The CPU 5a reads out the control program P2 stored in the
さらに、CPU5aは、センサタグ2の出力に基づいて認識された人10の行動および信頼度を、センサタグ2の出力を受信した日付および時刻とともに、HDD5dに記憶する。また、CPU5aは、画像Ia、Ib、Icに基づいて認識された人10の行動および信頼度を、画像Ia、Ib、Icを受信した日付および時刻とともに、HDD5dに記憶する。なお、センサタグ2の出力を受信した日付および時刻と、画像Ia、Ib、Icを受信した日付および時刻とは、CPU5aが備える計時手段としてのタイマの出力を参照することによって取得される。このように、サーバ5は、一般のコンピュータの構成を有する。
Further, the CPU 5a stores the behavior and reliability of the
HDD5dは、認識された人10の行動を、データベースDBに記憶する。なお、HDD5dは、さらに、センサタグ2の出力および画像Ia、Ib、Icを記憶してもよい。
The
キーボード5eは、ユーザの操作を受け付けて、受け付けた操作情報をCPU5aに伝達する。
The
モニタ5fは、キーボード5eの操作に応じた情報を表示する。
The
(行動認識装置の機能構成の説明)
図3は、行動認識装置1の機能構成の一例を示す機能ブロック図である。
(Explanation of the functional configuration of the behavior recognition device)
FIG. 3 is a functional block diagram showing an example of the functional configuration of the
サーバ5のCPU5aは、ROM5cに記憶された制御プログラムP2を読み出して、RAM5bに展開する。そして、CPU5aは、RAM5bに展開された制御プログラムP2を実行することによって、図3に示す動き検出部20と、信頼度算出部30と、行動認識部40と、を機能部として実現する。
The CPU 5a of the
動き検出部20は、人10の動きを検出する。なお、人10は、対象物の一例である。動き検出部20は、人10を含む画像Ii(i=a、b、c)を撮像する複数のカメラ4i(i=a、b、c)と、人10の動きに伴って発生する信号を検出する、人10に装着されたセンサタグ2と、を備える。センサタグ2は、前記した異なる複数のセンサ(例えば、加速度センサ2d、角速度センサ2e、気圧センサ2f、地磁気センサ2g等)を備える(図2参照)。なお、カメラ4i(i=a、b、c)は第1のセンサの一例である。また、センサタグ2は、第2のセンサの一例である。
The motion detection unit 20 detects the motion of the
また、動き検出部20は、カメラ4i(i=a、b、c)の出力である画像Ii(i=a、b、c)に基づいて、人10の動きに伴って発生する挙動を分析する画像分析部24と、センサタグ2の出力に基づいて、人10の動きに伴って発生する信号を分析するセンサデータ分析部22と、を備える。
Further, the motion detection unit 20 analyzes the behavior generated with the movement of the
信頼度算出部30は、センサデータ分析部22の分析結果に対する信頼度32aを算出する。また、信頼度算出部30は、画像分析部24の分析結果に対する信頼度32bを算出する。
The
行動認識部40は、センサデータ分析部22の分析結果と、当該分析結果に対する信頼度32aと、画像分析部24の分析結果と、当該分析結果に対する信頼度32bと、に基づいて、人10の行動を認識する。
The
(信頼度の説明)
次に、図4、図5を用いて、本実施形態の行動認識装置1で利用する信頼度32a、32bについて説明する。図4は、センサタグ2の出力に基づく分析結果の一例を示す図である。なお、図4に示すデータは、HDD5d(図2参照)に記憶される。また、図5は、カメラ4i(i=a、b、c)が撮像した画像Ii(i=a、b、c)の分析結果の一例を示す図である。なお、図5に示すデータも、HDD5dに記憶される。ここで、図4、図5は、フォークリフトを用いて作業を行っている人10の行動分析に、行動認識装置1を適用した例を示すものである。
(Explanation of reliability)
Next, the
図4において、センサタグ2の出力に基づく分析結果は、センサタグ2の出力を取得した日付D1と、センサタグ2の出力を取得した時刻T1と、認識された人10の行動B1と、信頼度32aとを含む。
In FIG. 4, the analysis results based on the output of the
行動認識装置1は、センサタグ2の出力を分析することによって、「歩行状態」、「停止状態」、「フォーリフトに乗車した状態」、「フォークリフトで移動している状態」等の人10の行動B1を認識する。
By analyzing the output of the
信頼度32aは、行動B1をどの程度の確からしさで認識したかを示す値である。より具体的には、信頼度32aは、行動B1を最も信頼できる状態で認識した状態を100、全く信頼できない状態で認識した状態を0として、100段階で数値化した値である。図4の例では、例えば、歩行の信頼度が70、停止の信頼度が90であることを示している。
The
例えば、人10が「停止状態」であることは、センサタグ2が備える加速度センサ2dの出力がゼロに近い所定値以下の状態が継続していることを検出することによって認識することができる。
For example, the fact that the
また、人10が「歩行状態」であることは、人10の歩行に起因する所定の時間間隔毎の加速度の推移パターンをモデルとして、加速度センサ2dの出力と、加速度の推移パターンのモデルとの相関を取ることによって認識することができる。しかしながら、「歩行状態」において発生する加速度には個人差が存在する。すなわち、歩行行動自体のぶれ(急いでいるかゆっくり歩いているか)が存在するため、信頼度32aは、一般には高くない。そのため、行動認識装置1は、画像Iiから分析した人10の行動B2の信頼度32bと、センサタグ2の出力から分析した人10の行動B1の信頼度32aと、の両者に基づいて、人10の行動を認識する。
Further, the fact that the
なお、図4に示す、「フォークリフトに乗車」する行動は、例えば、人10が上方へ移動していることに基づいて検出することができる。すなわち、上方に移動する加速度を検出することによって、フォークリフトに乗車したことを検出することができる。また、「フォークリフトで移動」する行動は、例えば、人10の存在位置が、時間の経過とともに、歩行動作を超える速度で移動していることに基づいて検出することができる。
The behavior of "getting on a forklift" shown in FIG. 4 can be detected, for example, based on the fact that the
図5において、カメラ4i(i=a、b、c)が撮像した画像Ii(i=a、b、c)に基づく分析結果は、画像Iiを取得した日付D2と、画像Iiを取得した時刻T2と、認識された人10の行動B2と、信頼度32bとを含む。
In FIG. 5, the analysis results based on the image Ii (i = a, b, c) captured by the
画像認識に基づく行動検出では、センサタグ2によると識別が困難な細かい手の動き等を検出することが可能である。認識の手段としては、例えば、画像Ii(i=a、b、c)から抽出した特徴量の時間変化と、モデルとなる行動の特徴量の時間変化と、を比較する方法を用いる。この方法は、センサタグ2による「歩行状態」の検出と同様、モデルとなる加速度の推移パターンとの比較によるため、モデルとの類似度によって検出結果の信頼度32bは変動する。
In behavior detection based on image recognition, it is possible to detect fine hand movements and the like that are difficult to identify according to the
次に、図6を用いて、複数のカメラで同一時刻に撮像される画像の違いについて説明する。図6は、2台のカメラ4a、4bで同一時刻に撮像される画像Ia、Ibの一例を示す図である。図6に示すように、カメラ4a、4bの設置位置と人10との位置関係に応じて、画像Ia、Ibに映る人10の大きさや向きが変化する。例えば、図6の例では、人10とカメラ4aとの距離d1は、人10とカメラ4bとの距離d2よりも大きくなっている。したがって、人10は、画像Iaよりも画像Ibにおいて大きく観測される。
Next, the difference between the images captured at the same time by a plurality of cameras will be described with reference to FIG. FIG. 6 is a diagram showing an example of images Ia and Ib captured at the same time by two
図6の状態にあっては、人10が異なる大きさで観測されるため、一般に、画像Iaから検出した特徴量に基づく人10の動きに伴う挙動(標準動作)の信頼度は、画像Ibから検出した同じ挙動の信頼度よりも小さくなる。そのため、行動認識を行う過程で算出した、人10の動きに伴う挙動と当該挙動のモデルとの類似度を信頼度32bに反映させる際に、人10の大きさを考慮するのが望ましい。具体的には、人10がより大きく観測された画像Ibから算出した挙動とモデルとの類似度には、より高い信頼度を与える。すなわち、信頼度32bの値を、人10の観測サイズに応じて動的に決定する。
In the state of FIG. 6, since the human 10 is observed with different sizes, the reliability of the behavior (standard motion) accompanying the movement of the human 10 based on the feature amount detected from the image Ia is generally determined by the image Ib. It is less than the reliability of the same behavior detected from. Therefore, it is desirable to consider the size of the
具体的には、撮像された画像(図6の例では、画像Ia、Ib)の中から、人10の動きを特徴付ける特徴量を検出する際に、まず、画像Ia、Ibの中に人10がどの位の大きさで観測されているかを見積もる。そして、人10が大きく観測された画像ほど、当該画像から検出した人10の動きを特徴付ける特徴量(例えば類似度)に高い信頼度32bを付与する。なお、単にモデルとの類似度に応じて、類似度が高いほど高い信頼度32bを付与するようにしてもよい。
Specifically, when detecting the feature amount that characterizes the movement of the
そして、同一被写体に対して複数のカメラ4i(i=a、b、c)、すなわち同種の検出原理に基づく複数のカメラ4i(第1のセンサ)が撮像した画像Ii(i=a、b、c)に基づく検出結果の中から、信頼度32bが最も高い検出結果を採用することで、総合的に高い信頼度32bの検出結果を得ることができる。
Then, the images Ii (i = a, b, By adopting the detection result having the
ここで、加速度センサ2d(センサタグ2)とカメラ4i(i=a、b、c)とは、ともに、人10の同一の行動を検出することができる。例えば、図4、図5に示すように、「歩行状態」は、加速度センサ2dとカメラ4a、4b、4cのいずれでも検出可能である。しかしながら、加速度センサ2dとカメラ4iでは検出原理が異なるため、検出結果に対する信頼度32a、32bは異なる。「歩行状態」の検出については、一般に、加速度センサ2dの出力に基づく検出結果の方が高い信頼度が得られることが知られている。このため、信頼度32a、32bとして、予め評価した結果に基づく固定値を割り当てるのが望ましい。
Here, both the
例えば、図4の例では、加速度センサ2dの出力に基づく「歩行状態」との検出結果には、信頼度32aとして、一律に70を割り当てている。一方、図5に示すように、画像Ii(i=a、b、c)に基づく「歩行状態」との検出結果には、信頼度32bとして、70よりも低い40を一律に割り当てている。
For example, in the example of FIG. 4, 70 is uniformly assigned as the
なお、同一時刻におけるカメラ4i(第1のセンサ)が撮像した画像Iiに基づく分析結果と、センサタグ2(第2のセンサ)の出力に基づく分析結果と、が等しい場合は、いずれのセンサの出力に基づく分析結果を採用しても問題ない。しかし、両者が異なる分析結果であった場合には、例えば、信頼度32a、32bの高い方の分析結果を採用するものとする。具体的には、図5において、時刻「15:33:37」のとき、画像Iiに基づく分析結果は「歩行状態」であるが、図4において、同一時刻における加速度センサ2dの出力に基づく分析結果は「停止状態」を示している。このときの信頼度32a、32bを比較すると、画像Iiに基づく信頼度32bが40、加速度センサ2dに基づく信頼度32aが90であるため、時刻「15:33:37」における人10の行動B2として、加速度センサ2dに基づく検出結果である「停止状態」を採用するのが望ましい。
If the analysis result based on the image Ii captured by the
(行動認識装置が行う処理の流れの説明)
次に、図7を用いて、行動認識装置1が行う処理の流れについて説明する。図7は、行動認識装置1が行う処理の流れの一例を示すフローチャートである。
(Explanation of the flow of processing performed by the action recognition device)
Next, the flow of processing performed by the
まず、センサタグ2は、人10に装着された各センサ(加速度センサ2d、角速度センサ2e、気圧センサ2f、地磁気センサ2g)の出力を取得する(ステップS10)。
First, the
次に、カメラ4i(i=a、b、c)(第1のセンサ)は、人10を含む画像Ii(i=a、b、c)を撮像する(ステップS12)。
Next, the
サーバ5は、無線AP3を介して、センサタグ2の出力を受信する(ステップS14)。
The
また、サーバ5は、カメラ4iが撮像した画像Iiを受信する(ステップS16)。
Further, the
センサデータ分析部22は、センサタグ2の出力を分析する(ステップS18)。
The sensor
信頼度算出部30は、センサタグ2の出力の分析結果に信頼度32aを付与する(ステップS20)。
The
画像分析部24は、画像Iiを分析する(ステップS22)。 The image analysis unit 24 analyzes the image Ii (step S22).
信頼度算出部30は、画像Iiの分析結果に信頼度32bを付与する(ステップS24)。
The
行動認識部40は、センサタグ2の出力の分析結果と、画像Iiの分析結果と、に基づいて、人10の行動を認識する(ステップS26)。
The
行動認識部40は、人10の行動の認識結果を、データベースDBに蓄積する(ステップS28)。
The
行動認識部40は、処理を終了するかを判定する。処理を終了すると判定される(S30:Yes)と、図7の処理を終了する。一方、処理を終了すると判定されない(S30:No)と、ステップS10に戻って、前記した一連の処理を繰り返す。なお、処理の終了の判定は、例えば、予め設定した所定時間が経過したことを条件として処理を終了すると判定してもよいし、画像Iiの中から人10が検出できなくなったら処理を終了すると判定してもよい。
The
以上説明したように、本実施の形態に係る行動認識装置1によれば、動き検出部20が、カメラ4i(i=a、b、c)(第1のセンサ)が撮像した画像Ii(i=a、b、c)を分析して、人10(対象物)の動きを検出する。また、動き検出部20が、センサタグ2(第2のセンサ)の出力を分析して、人10の動きを検出する。そして、信頼度算出部30が、センサタグ2の出力に基づく人10の動きの検出結果に対して信頼度32aを付与する。また、信頼度算出部30が、画像Iiに基づく人10の動きの検出結果に対して信頼度32bを付与する。さらに、行動認識部40が、動き検出部20が検出した人10の動きの検出結果と当該検出結果の信頼度32a、32bとに基づいて、ユーザの介在なしに、人10の行動を認識する。したがって、ユーザの介在なしに、複数の検出手段の検出結果に基づく、人10の行動の認識精度を向上させることができる。
As described above, according to the
また、本実施の形態に係る行動認識装置1によれば、動き検出部20は、人10(対象物)を撮像する少なくとも1つのカメラ4i(i=a、b、c、…)(第1のセンサ)と、カメラ4iが撮像した画像Ii(i=a、b、c、…)を分析することによって人10の動きを検出する画像分析部24と、を含む。したがって、人10の、例えば手の動きのような細かい動作を検出することができる。
Further, according to the
また、本実施の形態に係る行動認識装置1によれば、複数の動き検出部20は、人10(対象物)に装着された、少なくとも加速度センサ2dを備えて、人10の動きに応じた検出結果を出力するセンサタグ2(第2のセンサ)と、センサタグ2の出力を分析することによって、人10の動きを分析するセンサデータ分析部22と、を含む。したがって、人10の歩行状態、停止状態、フォークリフトへの乗車状態等のおおまかな行動を精度よく検出することができる。
Further, according to the
また、本実施の形態に係る行動認識装置1によれば、行動認識部40は、カメラ4i(第1のセンサ)による人10(対象物)の動きの検出結果に対する信頼度32bと、センサタグ2(第2のセンサ)による人10の動きの検出結果に対する信頼度32aと、のうち、同一時刻において、より高い信頼度を有する検出結果に基づく行動を、人10の行動として認識する。したがって、カメラ4iとセンサタグ2とが、人10の行動を互いに異なる行動として認識した場合であっても、信頼度32a、32bの大小に応じて人10の正しい行動を容易に認識することができる。
Further, according to the
また、本実施の形態に係る行動認識装置1によれば、信頼度算出部30は、動き検出部20の各検出結果に対して、該検出結果の種類に応じた固定的な信頼度32a、32bを付与する。したがって、認識された人10の行動種別に応じて、信頼度32a、32bを即座に付与することができるため、行動認識の結果を素早く出力することができる。
Further, according to the
また、本実施の形態に係る行動認識装置1によれば、信頼度算出部30は、画像分析部24の分析結果に対して、人10の観測サイズが大きいほど高い(観測サイズが小さいほど低い)信頼度32bを付与する。したがって、画像分析部24の分析結果に基づいて、適応的に(動的に)信頼度32bを付与することにより、信頼度32bに人10の状態を反映することができる。これにより、人10の行動推定の精度を高めることができる。
Further, according to the
また、本実施の形態に係る行動認識装置1によれば、信頼度算出部30は、動き検出部20の各検出結果と人10の標準動作との類似度に応じて、類似度が高いほど高い信頼度32a、32bを付与する。したがって、信頼度32a、32bを定量的に算出することができる。
Further, according to the
また、本実施の形態に係る行動認識装置1によれば、信頼度算出部30は、予め設定した値の範囲内で信頼度32a、32bを算出する。したがって、動き検出部20の各検出結果に突発的な変動が発生した場合に、それに伴って信頼度32a、32bが突発的に変動するのを抑止することができる。
Further, according to the
以上、本発明の実施の形態について説明したが、前記した実施の形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能である。また、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。また、この実施の形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiments of the present invention have been described above, the above-described embodiments are presented as examples and are not intended to limit the scope of the present invention. This novel embodiment can be implemented in various other embodiments. In addition, various omissions, replacements, and changes can be made without departing from the gist of the invention. Further, this embodiment is included in the scope and gist of the invention, and is also included in the scope of the invention described in the claims and the equivalent scope thereof.
例えば、本実施の形態の例では、行動認識装置1は、CPU5a(2a)が、各種処理を制御プログラムP2(P1)で実現することとしたが、その一部または全部を、IC(Integrated Circuit)等のハードウェアで実現してもよい。また、制御プログラムP2(P1)は、インストール可能な形式、または実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD、ブルーレイディスク(登録商標)、半導体メモリ等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。DVDは、「Digital Versatile Disc」の略記である。また、制御プログラムP2(P1)は、インターネット等のネットワーク経由でインストールする形態で提供してもよい。また、制御プログラムP2(P1)は、機器内のROM等に予め組み込んで提供してもよい。
For example, in the example of the present embodiment, in the
1 行動認識装置(行動認識システム)
2 センサタグ(第2のセンサ)
2d 加速度センサ
2e 角速度センサ
2f 気圧センサ
2g 地磁気センサ
3 無線AP
4a、4b、4c、4i カメラ(第1のセンサ)
5 サーバ(サーバ装置)
10 人(対象物)
20 動き検出部(動き検出装置)
22 センサデータ分析部
24 画像分析部
30 信頼度算出部
32a、32b 信頼度
40 行動認識部
Ia、Ib、Ic、Ii 画像
1 Behavior recognition device (behavior recognition system)
2 Sensor tag (second sensor)
2d accelerometer
2e Angular velocity sensor
2f barometric pressure sensor
2g geomagnetic sensor
3 Wireless AP
4a, 4b, 4c, 4i camera (first sensor)
5 Server (server device)
10 people (object)
20 Motion detection unit (motion detection device)
22 Sensor data analysis unit
24 Image Analysis Department
30 Reliability calculation unit
32a, 32b reliability
40 Behavior recognition unit Ia, Ib, Ic, Ii images
Claims (11)
前記動き検出部の各検出結果に基づいて、検出結果の種類に応じた固定的な信頼度を付与する信頼度算出部と、
前記動き検出部の各検出結果と前記信頼度とに基づいて、前記対象物の行動を認識する行動認識部と、
を備える行動認識装置。 Multiple motion detectors that detect the motion of an object,
Based on each detection result of the motion detection unit, a reliability calculation unit that imparts a fixed reliability according to the type of detection result, and a reliability calculation unit.
An action recognition unit that recognizes the behavior of the object based on each detection result of the motion detection unit and the reliability.
Behavior recognition device equipped with.
当該第1のセンサが撮像した画像を分析することによって前記対象物の動きを分析する画像分析部と、を含む、
ことを特徴とする請求項1に記載の行動認識装置。 The motion detection unit includes at least one first sensor that images the object, and the motion detection unit.
Includes an image analysis unit that analyzes the movement of the object by analyzing the image captured by the first sensor.
The behavior recognition device according to claim 1.
当該第2のセンサの出力を分析することによって、前記対象物の動きを分析するセンサデータ分析部と、を含む、
ことを特徴とする請求項2に記載の行動認識装置。 The motion detection unit includes at least an acceleration sensor attached to the object, and a second sensor that outputs a detection result according to the motion of the object.
A sensor data analysis unit that analyzes the movement of the object by analyzing the output of the second sensor, and the like.
The behavior recognition device according to claim 2 , wherein the behavior recognition device is characterized by the above.
ことを特徴とする請求項3に記載の行動認識装置。 The action recognition unit determines the action based on the detection result having higher reliability at the same time among the reliability of the detection result of the movement of the object by the first sensor and the second sensor. Recognize as the behavior of an object,
The behavior recognition device according to claim 3 , wherein the behavior recognition device is characterized by the above.
ことを特徴とする請求項2に記載の行動認識装置。 The reliability calculation unit imparts a dynamically calculated reliability to the analysis result of the image analysis unit.
The behavior recognition device according to claim 2 , wherein the behavior recognition device is characterized by the above.
ことを特徴とする請求項5に記載の行動認識装置。 The reliability calculation unit imparts higher reliability to the analysis result of the image analysis unit according to the observation size of the object, as the observation size is larger.
The behavior recognition device according to claim 5 .
ことを特徴とする請求項5に記載の行動認識装置。 The reliability calculation unit imparts higher reliability as the degree of similarity is higher, depending on the degree of similarity between each detection result of the motion detection unit and the standard operation of the object.
The behavior recognition device according to claim 5 .
ことを特徴とする請求項5から請求項7のいずれか1項に記載の行動認識装置。 The reliability calculation unit calculates the reliability within a range of preset values.
The behavior recognition device according to any one of claims 5 to 7 , wherein the behavior recognition device is characterized by the above.
前記サーバ装置は、
前記動き検出装置の各検出結果に基づいて、検出結果の種類に応じた固定的な信頼度を付与する信頼度算出部と、
前記動き検出装置の各検出結果と前記信頼度とに基づいて、前記対象物の行動を認識する行動認識部と、
を備える行動認識システム。 A behavior recognition system including a plurality of motion detection devices for detecting the movement of an object and a server device for recognizing the behavior of the object based on the detection result of each of the motion detection devices.
The server device is
Based on each detection result of the motion detection device, a reliability calculation unit that gives a fixed reliability according to the type of detection result, and a reliability calculation unit.
An action recognition unit that recognizes the behavior of the object based on each detection result of the motion detection device and the reliability.
Behavior recognition system with.
前記動き検出ステップの各検出結果に基づいて、検出結果の種類に応じた固定的な信頼度を付与する信頼度算出ステップと、
前記動き検出ステップの各検出結果と前記信頼度とに基づいて、前記対象物の行動を認識する行動認識ステップと、
を含む行動認識方法。 A motion detection step that detects the motion of an object by multiple motion detectors,
Based on each detection result of the motion detection step, a reliability calculation step that imparts a fixed reliability according to the type of detection result, and a reliability calculation step.
An action recognition step that recognizes the behavior of the object based on each detection result of the motion detection step and the reliability,
Behavior recognition methods including.
対象物の動きを検出する複数の動き検出部と、
前記動き検出部の各検出結果に基づいて、検出結果の種類に応じた固定的な信頼度を付与する信頼度算出部と、
前記動き検出部の各検出結果と前記信頼度とに基づいて、前記対象物の行動を認識する行動認識部と、
を実行させるプログラム。 On the computer
Multiple motion detectors that detect the motion of an object,
Based on each detection result of the motion detection unit, a reliability calculation unit that imparts a fixed reliability according to the type of detection result, and a reliability calculation unit.
An action recognition unit that recognizes the behavior of the object based on each detection result of the motion detection unit and the reliability.
A program to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018044782A JP7098972B2 (en) | 2018-03-12 | 2018-03-12 | Behavior recognition device, behavior recognition system, behavior recognition method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018044782A JP7098972B2 (en) | 2018-03-12 | 2018-03-12 | Behavior recognition device, behavior recognition system, behavior recognition method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159726A JP2019159726A (en) | 2019-09-19 |
JP7098972B2 true JP7098972B2 (en) | 2022-07-12 |
Family
ID=67993953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018044782A Active JP7098972B2 (en) | 2018-03-12 | 2018-03-12 | Behavior recognition device, behavior recognition system, behavior recognition method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7098972B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7373323B2 (en) | 2019-09-02 | 2023-11-02 | キヤノン株式会社 | Image processing device, radiation imaging system, image processing method and program |
JP7346342B2 (en) * | 2020-03-23 | 2023-09-19 | 三菱重工業株式会社 | Measuring device, measuring method and program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017228100A (en) | 2016-06-23 | 2017-12-28 | コニカミノルタ株式会社 | Behavior recognition device and behavior recognition program |
-
2018
- 2018-03-12 JP JP2018044782A patent/JP7098972B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017228100A (en) | 2016-06-23 | 2017-12-28 | コニカミノルタ株式会社 | Behavior recognition device and behavior recognition program |
Also Published As
Publication number | Publication date |
---|---|
JP2019159726A (en) | 2019-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20160061582A1 (en) | Scale estimating method using smart device and gravity data | |
US9418278B2 (en) | Image analysis method, camera apparatus, control apparatus, control method and storage medium | |
WO2011068184A1 (en) | Moving body positioning device | |
WO2013042205A1 (en) | Pedestrian action prediction device and pedestrian action prediction method | |
JP6988790B2 (en) | Crowd type identification system, crowd type identification method and crowd type identification program | |
US20140285794A1 (en) | Measuring device | |
JP6688962B2 (en) | Judgment device, judgment method, and judgment program | |
JP5507334B2 (en) | Registration apparatus, registration method, and computer program | |
JP7098972B2 (en) | Behavior recognition device, behavior recognition system, behavior recognition method and program | |
JP7484924B2 (en) | Imaging device, image processing system, image processing method and program | |
JP2019534716A5 (en) | ||
JP6573744B2 (en) | Object tracking device and object tracking method | |
US20230069018A1 (en) | Image processing apparatus, imaging apparatus, image processing system, image processing method, and non-transitory computer readable medium | |
US11656242B2 (en) | Angular velocity detection device, image display apparatus, angular velocity detection method, and storage medium | |
WO2018037891A1 (en) | Image processing device, image processing system, image processing method, and program recording medium | |
CN111104845B (en) | Detection apparatus, control method, and computer-readable recording medium | |
JP4742695B2 (en) | Gaze recognition apparatus and gaze recognition method | |
KR102675182B1 (en) | Vision based Hybrid Prognosis Health Monitoring System | |
KR102134771B1 (en) | Device and method for determining an emergency situation through object detection | |
JP2001256500A (en) | System and method for judging target | |
US10661142B2 (en) | Movement analysis device for determining whether a time range between a start time and a completion time of a predetermined movement by a target person is valid, and movement analysis method and recording medium | |
CN116745808A (en) | Job estimation device, job estimation method, and job estimation program | |
US20230267718A1 (en) | Systems and methods for training event prediction models for camera-based warning systems | |
JP2021197623A5 (en) | ||
US20230134912A1 (en) | Information processing device, information processing system, information processing method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220613 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7098972 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |