JP7098972B2 - Behavior recognition device, behavior recognition system, behavior recognition method and program - Google Patents

Behavior recognition device, behavior recognition system, behavior recognition method and program Download PDF

Info

Publication number
JP7098972B2
JP7098972B2 JP2018044782A JP2018044782A JP7098972B2 JP 7098972 B2 JP7098972 B2 JP 7098972B2 JP 2018044782 A JP2018044782 A JP 2018044782A JP 2018044782 A JP2018044782 A JP 2018044782A JP 7098972 B2 JP7098972 B2 JP 7098972B2
Authority
JP
Japan
Prior art keywords
reliability
behavior
sensor
unit
detection result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018044782A
Other languages
Japanese (ja)
Other versions
JP2019159726A (en
Inventor
隆史 牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018044782A priority Critical patent/JP7098972B2/en
Publication of JP2019159726A publication Critical patent/JP2019159726A/en
Application granted granted Critical
Publication of JP7098972B2 publication Critical patent/JP7098972B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、行動認識装置、行動認識システム、行動認識方法およびプログラムに関する。 The present invention relates to a behavior recognition device, a behavior recognition system, a behavior recognition method and a program.

人の行動を分析するための手段として、画像認識技術を用いる方法が知られている。特に、画像認識と被験者に装着したセンサが検出した加速度等の情報との組み合わせによって、行動分析の精度を向上させる行動認識システムが知られている(例えば、特許文献1)。 As a means for analyzing human behavior, a method using image recognition technology is known. In particular, there is known a behavior recognition system that improves the accuracy of behavior analysis by combining image recognition with information such as acceleration detected by a sensor attached to the subject (for example, Patent Document 1).

しかし、このような従来の行動認識システムでは、人の行動を検出するための検出手段として、センサとカメラを備えて、センサの検出結果と、カメラで撮像した画像からの検出結果と、を単に補完する目的で組み合わせていた。したがって、それぞれの検出手段によって認識された人の行動の種類に齟齬が生じた場合についての扱いが明確でないという問題があった。例えば、行動検出対象の人が歩行状態、或いは静止状態にあることは、センサと画像認識のどちらでも認識することが可能である。ところが、センサは歩行状態を検出しているにも関わらず、画像認識では静止状態と認識される場合、どちらの検出結果を採用すべきかを判断するための基準を設けることが望まれていた。 However, such a conventional behavior recognition system is provided with a sensor and a camera as detection means for detecting a person's behavior, and simply obtains the detection result of the sensor and the detection result from the image captured by the camera. It was combined for the purpose of complementing. Therefore, there is a problem that it is not clear how to handle the case where the type of human behavior recognized by each detection means is inconsistent. For example, it is possible to recognize that the person to be behavior-detected is in a walking state or a stationary state by either a sensor or image recognition. However, when the sensor detects a walking state but is recognized as a stationary state by image recognition, it has been desired to provide a standard for determining which detection result should be adopted.

例えば、特許文献1には、複数のセンサで検出した情報を統合して活用しているが、どのセンサの検出結果を採用するかは、ユーザが入力したテキスト情報に基づいて決定している。そのため、ユーザが介在しない状態であっても、行動の認識精度を高めることが望まれる。 For example, in Patent Document 1, information detected by a plurality of sensors is integrated and utilized, but which sensor's detection result is adopted is determined based on text information input by a user. Therefore, it is desired to improve the recognition accuracy of the behavior even in a state where the user does not intervene.

本発明は、上記に鑑みてなされたものであり、ユーザの介在なしに、複数の検出手段の検出結果に基づく、対象物の行動の推定精度を向上させることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to improve the estimation accuracy of the behavior of an object based on the detection results of a plurality of detection means without the intervention of a user.

前記した課題を解決し、目的を達成するために、本発明の行動認識装置は、対象物の動きを検出する複数の動き検出部と、前記動き検出部の各検出結果に基づいて、検出結果の種類に応じた固定的な信頼度を付与する信頼度算出部と、前記動き検出部の各検出結果と前記信頼度とに基づいて、前記対象物の行動を認識する行動認識部と、を備える。 In order to solve the above-mentioned problems and achieve the object, the behavior recognition device of the present invention has a plurality of motion detection units for detecting the movement of an object, and detection results based on each detection result of the motion detection unit. A reliability calculation unit that imparts a fixed reliability according to the type of the object, and an action recognition unit that recognizes the behavior of the object based on each detection result of the motion detection unit and the reliability. Be prepared.

本発明によれば、ユーザの介在なしに、対象物の行動の認識精度を向上させることができる。 According to the present invention, it is possible to improve the recognition accuracy of the behavior of an object without the intervention of a user.

図1は、実施形態に係る行動認識装置のシステム構成を示すブロック図である。FIG. 1 is a block diagram showing a system configuration of an action recognition device according to an embodiment. 図2は、行動認識装置のハードウェア構成の一例を示すハードウェアブロック図である。FIG. 2 is a hardware block diagram showing an example of the hardware configuration of the action recognition device. 図3は、行動認識装置の機能構成の一例を示す機能ブロック図である。FIG. 3 is a functional block diagram showing an example of the functional configuration of the action recognition device. 図4は、センサタグの出力に基づく分析結果の一例を示す図である。FIG. 4 is a diagram showing an example of an analysis result based on the output of the sensor tag. 図5は、カメラが撮像した画像の分析結果の一例を示す図である。FIG. 5 is a diagram showing an example of the analysis result of the image captured by the camera. 図6は、2台のカメラで同一時刻に撮像される画像の一例を示す図である。FIG. 6 is a diagram showing an example of images captured at the same time by two cameras. 図7は、行動認識装置が行う処理の流れの一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the flow of processing performed by the action recognition device.

以下、添付図面を参照して、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

(行動認識装置の構成の説明)
図1は、本実施形態の行動認識装置1のシステム構成を示すブロック図である。行動認識装置1は、行動を認識される検出対象である人10に装着されたセンサタグ2と、無線AP(アクセスポイント)3と、複数のカメラ4a、4b、4cと、サーバ5とを備える。なお、カメラの台数は3台に限定されるものではない。また、検出対象である人10は1人とは限らない。したがって、人10に装着されるセンサタグ2は、検出対象となる人10の人数分が使用される。なお、行動認識装置1は、サーバ装置の一例としてのサーバ5と、動き検出装置としての動き検出部20(図3参照)と、を備える行動認識システムの一例である。
(Explanation of the configuration of the behavior recognition device)
FIG. 1 is a block diagram showing a system configuration of the behavior recognition device 1 of the present embodiment. The action recognition device 1 includes a sensor tag 2 attached to a person 10 who is a detection target for recognizing actions, a wireless AP (access point) 3, a plurality of cameras 4a, 4b, 4c, and a server 5. The number of cameras is not limited to three. Further, the number of people 10 to be detected is not limited to one. Therefore, the sensor tag 2 attached to the person 10 is used for the number of people 10 to be detected. The behavior recognition device 1 is an example of a behavior recognition system including a server 5 as an example of a server device and a motion detection unit 20 (see FIG. 3) as a motion detection device.

センサタグ2は、検出対象である人10の動きを検出する。そして、センサタグ2は、検出したデータを、所定の時間間隔で無線AP3に送信する。なお、センサタグ2は、少なくとも、加速度検出機能と、角速度検出機能と、気圧計測機能と、地磁気検出機能と、無線通信機能と、を備える。なお、センサタグ2は第2のセンサの一例である。 The sensor tag 2 detects the movement of the person 10 to be detected. Then, the sensor tag 2 transmits the detected data to the wireless AP3 at predetermined time intervals. The sensor tag 2 has at least an acceleration detection function, an angular velocity detection function, a barometric pressure measurement function, a geomagnetic detection function, and a wireless communication function. The sensor tag 2 is an example of the second sensor.

無線AP3は、無線LANとしてのWi-Fi(登録商標)や、Bluetooth(登録商標)等の無線通信規格を用いてセンサタグ2と接続されている。無線AP3は、センサタグ2が検出したデータを受信する。また、無線AP3は、センサタグ2から受信したデータをサーバ5に送信する。 The wireless AP3 is connected to the sensor tag 2 using a wireless communication standard such as Wi-Fi (registered trademark) as a wireless LAN or Bluetooth (registered trademark). The wireless AP 3 receives the data detected by the sensor tag 2. Further, the wireless AP 3 transmits the data received from the sensor tag 2 to the server 5.

カメラ4a、4b、4cは、いずれも、人10を含む画像Ia、Ib、Icを、例えば、サーバ5の指示により、所定の時間間隔で、略同時刻に撮像する(外部同期による撮像動作)。なお、画像Ii(i=a、b、c)はカメラ4i(i=a、b、c)で撮像された画像であるとする。そして、カメラ4a、4b、4cは、撮像した画像Ia、Ib、Icをサーバ5に送信する。なお、カメラ4a、4b、4cは、第1のセンサの一例である。ここで、カメラ4a、4b、4cは、例えば、カメラ4aの指示により、所定の時間間隔で、略同時刻に画像Ia、Ib、Icを撮像する構成であってもよい(内部同期による撮像動作)。 The cameras 4a, 4b, and 4c all capture images Ia, Ib, and Ic including the human 10 at substantially the same time at predetermined time intervals according to the instruction of the server 5, for example (imaging operation by external synchronization). .. It is assumed that the image Ii (i = a, b, c) is an image captured by the camera 4i (i = a, b, c). Then, the cameras 4a, 4b, and 4c transmit the captured images Ia, Ib, and Ic to the server 5. The cameras 4a, 4b, and 4c are examples of the first sensor. Here, the cameras 4a, 4b, and 4c may be configured to capture images Ia, Ib, and Ic at substantially the same time at predetermined time intervals, for example, according to the instruction of the camera 4a (imaging operation by internal synchronization). ).

サーバ5は、画像Ia、Ib、Icと、無線AP3から送信されたデータと、を受信する。また、サーバ5は、画像Ia、Ib、Icと、無線AP3から送られてきたデータと、を分析する処理を行う。そして、サーバ5は、分析結果を時系列で記録する。なお、センサタグ2が検出したデータの分析は、サーバ5が行う代わりに、センサタグ2が備えるCPU(Central Processing Unit)2a(図2参照)が行ってもよい。 The server 5 receives the images Ia, Ib, Ic and the data transmitted from the wireless AP3. Further, the server 5 performs a process of analyzing the images Ia, Ib, Ic and the data sent from the wireless AP3. Then, the server 5 records the analysis result in time series. The data detected by the sensor tag 2 may be analyzed by the CPU (Central Processing Unit) 2a (see FIG. 2) included in the sensor tag 2 instead of being performed by the server 5.

(行動認識装置のハードウェア構成の説明)
図2は、行動認識装置1のハードウェア構成の一例を示すハードウェアブロック図である。
(Explanation of hardware configuration of behavior recognition device)
FIG. 2 is a hardware block diagram showing an example of the hardware configuration of the action recognition device 1.

センサタグ2は、CPU2aと、RAM(Random Access Memory)2bと、ROM(Read Only Memory)2cと、加速度センサ2dと、角速度センサ2eと、気圧センサ2fと、地磁気センサ2gと、無線通信I/F(Interface)2hとを備える。 The sensor tag 2 includes a CPU 2a, a RAM (Random Access Memory) 2b, a ROM (Read Only Memory) 2c, an acceleration sensor 2d, an angular velocity sensor 2e, a barometric pressure sensor 2f, a geomagnetic sensor 2g, and a wireless communication I / F. (Interface) 2h and the like.

CPU2aは、ROM2cに記憶された制御プログラムP1を読み出して、RAM2bに展開して実行する。これによって、CPU2aは、センサタグ2の動作を制御して、加速度センサ2dと、角速度センサ2eと、気圧センサ2fと、地磁気センサ2gと、の出力を、略同時刻に取得する。このように、センサタグ2は、一般のコンピュータの構成を有する。 The CPU 2a reads out the control program P1 stored in the ROM 2c, expands it into the RAM 2b, and executes it. As a result, the CPU 2a controls the operation of the sensor tag 2 and acquires the outputs of the acceleration sensor 2d, the angular velocity sensor 2e, the barometric pressure sensor 2f, and the geomagnetic sensor 2g at substantially the same time. As described above, the sensor tag 2 has a general computer configuration.

加速度センサ2dは、例えば、xyz3軸方向に沿う梁を備えて、各梁に貼り付けられた歪ゲージの撓み量に基づいて、当該加速度センサ2dが装着された人10の3軸各方向の加速度、すなわち、直線運動の大きさと向きを検出する。なお、加速度を検出する方法としては、その他にも、圧電素子を用いる方法、静電容量を用いる方法等が提案されており、加速度センサ2dは、そのいずれの方法に基づくセンサであってもよい。 The acceleration sensor 2d is provided with, for example, a beam along the xyz3 axis direction, and the acceleration in each of the three axes of the person 10 to which the acceleration sensor 2d is attached is based on the amount of deflection of the strain gauge attached to each beam. That is, the magnitude and direction of the linear motion are detected. In addition, as a method for detecting acceleration, a method using a piezoelectric element, a method using a capacitance, and the like have been proposed, and the acceleration sensor 2d may be a sensor based on any of these methods. ..

角速度センサ2eは、例えばジャイロセンサで構成されて、当該角速度センサ2eが装着された人10の角速度、すなわち、回転運動の大きさと向きを検出する。 The angular velocity sensor 2e is composed of, for example, a gyro sensor, and detects the angular velocity of the person 10 to which the angular velocity sensor 2e is attached, that is, the magnitude and direction of the rotational motion.

気圧センサ2fは、例えば大気圧に応じて変化する静電容量の大きさ、または大気圧に応じて変化する抵抗値の大きさを計測することによって、当該気圧センサ2fが装着された人10に作用する大気圧の大きさを検出する。 The barometric pressure sensor 2f is attached to the person 10 to which the barometric pressure sensor 2f is attached, for example, by measuring the magnitude of the capacitance that changes according to the atmospheric pressure or the magnitude of the resistance value that changes according to the atmospheric pressure. Detects the magnitude of the acting atmospheric pressure.

地磁気センサ2gは、例えば、磁界の変化に応じて出力電圧値が変化する、いわゆるホール効果を有する素子(ホール素子)を用いて、当該地磁気センサ2gが装着された人10に作用する地磁気の大きさを検出する。 The geomagnetic sensor 2g uses, for example, an element (Hall element) having a so-called Hall effect in which the output voltage value changes according to a change in the magnetic field, and the magnitude of the geomagnetism acting on the person 10 to which the geomagnetic sensor 2g is attached is large. Detect.

なお、センサタグ2が備えるセンサの種類は、図2に記載したものに限定されない。すなわち、センサタグ2には、行動認識装置1の認識対象となる人10がとる行動の種類に対応する出力を得ることができるセンサが、適宜備えられる。例えば、センサタグ2は、GPS衛星からの電波を受信することによって、受信者の現在位置を検出するGPS(Global Positioning Sensor)受信機等を備えていてもよい。 The type of sensor included in the sensor tag 2 is not limited to that shown in FIG. That is, the sensor tag 2 is appropriately provided with a sensor capable of obtaining an output corresponding to the type of action taken by the person 10 to be recognized by the action recognition device 1. For example, the sensor tag 2 may include a GPS (Global Positioning Sensor) receiver or the like that detects the current position of the receiver by receiving radio waves from GPS satellites.

無線通信I/F2hは、無線AP3との間で無線通信を確立させる。無線通信I/F2hは、センサタグ2が備える各センサ(加速度センサ2d、角速度センサ2e、気圧センサ2f、地磁気センサ2g)の出力を、無線AP3に送信する。 The wireless communication I / F2h establishes wireless communication with the wireless AP3. The wireless communication I / F2h transmits the output of each sensor (accelerometer 2d, angular velocity sensor 2e, barometric pressure sensor 2f, geomagnetic sensor 2g) included in the sensor tag 2 to the wireless AP3.

無線AP3は、無線通信I/F3aを備える。無線通信I/F3aは、センサタグ2から、前記した各センサの出力を受信する。また、無線AP3は、受信した各センサの出力を、サーバ5に送信する。 The wireless AP3 includes a wireless communication I / F3a. The wireless communication I / F3a receives the output of each of the above-mentioned sensors from the sensor tag 2. Further, the wireless AP 3 transmits the output of each received sensor to the server 5.

カメラ4a、4b、4cは、予め設定された範囲の画像を撮像して、撮像した画像Ia、Ib、Icを、それぞれ、サーバ5に送信する。カメラ4a、4b、4cは、一般的に使用されている、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサを受光素子とするカメラである。 The cameras 4a, 4b, and 4c capture images in a preset range, and transmit the captured images Ia, Ib, and Ic to the server 5, respectively. The cameras 4a, 4b, and 4c are cameras that use a commonly used CCD (Charge Coupled Device) sensor or CMOS (Complementary Metal Oxide Semiconductor) sensor as a light receiving element.

サーバ5は、CPU5aと、RAM5bと、ROM5cと、HDD5dと、キーボード5eと、モニタ5fと、を備える。 The server 5 includes a CPU 5a, a RAM 5b, a ROM 5c, an HDD 5d, a keyboard 5e, and a monitor 5f.

CPU5aは、ROM5cに記憶された制御プログラムP2を読み出して、RAM5bに展開して実行する。これによって、CPU5aは、サーバ5の動作を制御して、センサタグ2の出力を無線AP3の無線通信I/F3aから受信する。また、CPU5aは、サーバ5の動作を制御して、カメラ4a、4b、4cが撮像した画像Ia、Ib、Icを受信する。そして、CPU5aは、センサタグ2の出力、および画像Ia、Ib、Icを用いて、人10の行動認識を行い、さらに、認識された行動に対する信頼度を算出する。なお、信頼度について詳しくは後述する。 The CPU 5a reads out the control program P2 stored in the ROM 5c, expands it into the RAM 5b, and executes it. As a result, the CPU 5a controls the operation of the server 5 and receives the output of the sensor tag 2 from the wireless communication I / F3a of the wireless AP3. Further, the CPU 5a controls the operation of the server 5 to receive the images Ia, Ib, and Ic captured by the cameras 4a, 4b, and 4c. Then, the CPU 5a recognizes the behavior of the person 10 by using the output of the sensor tag 2 and the images Ia, Ib, and Ic, and further calculates the reliability of the recognized behavior. The reliability will be described in detail later.

さらに、CPU5aは、センサタグ2の出力に基づいて認識された人10の行動および信頼度を、センサタグ2の出力を受信した日付および時刻とともに、HDD5dに記憶する。また、CPU5aは、画像Ia、Ib、Icに基づいて認識された人10の行動および信頼度を、画像Ia、Ib、Icを受信した日付および時刻とともに、HDD5dに記憶する。なお、センサタグ2の出力を受信した日付および時刻と、画像Ia、Ib、Icを受信した日付および時刻とは、CPU5aが備える計時手段としてのタイマの出力を参照することによって取得される。このように、サーバ5は、一般のコンピュータの構成を有する。 Further, the CPU 5a stores the behavior and reliability of the person 10 recognized based on the output of the sensor tag 2 in the HDD 5d together with the date and time when the output of the sensor tag 2 is received. Further, the CPU 5a stores the behavior and reliability of the person 10 recognized based on the images Ia, Ib, and Ic in the HDD 5d together with the date and time when the images Ia, Ib, and Ic are received. The date and time when the output of the sensor tag 2 is received and the date and time when the images Ia, Ib, and Ic are received are acquired by referring to the output of the timer as the timekeeping means provided in the CPU 5a. As described above, the server 5 has a general computer configuration.

HDD5dは、認識された人10の行動を、データベースDBに記憶する。なお、HDD5dは、さらに、センサタグ2の出力および画像Ia、Ib、Icを記憶してもよい。 The HDD 5d stores the recognized behavior of the person 10 in the database DB. The HDD 5d may further store the output of the sensor tag 2 and the images Ia, Ib, and Ic.

キーボード5eは、ユーザの操作を受け付けて、受け付けた操作情報をCPU5aに伝達する。 The keyboard 5e accepts the user's operation and transmits the accepted operation information to the CPU 5a.

モニタ5fは、キーボード5eの操作に応じた情報を表示する。 The monitor 5f displays information according to the operation of the keyboard 5e.

(行動認識装置の機能構成の説明)
図3は、行動認識装置1の機能構成の一例を示す機能ブロック図である。
(Explanation of the functional configuration of the behavior recognition device)
FIG. 3 is a functional block diagram showing an example of the functional configuration of the action recognition device 1.

サーバ5のCPU5aは、ROM5cに記憶された制御プログラムP2を読み出して、RAM5bに展開する。そして、CPU5aは、RAM5bに展開された制御プログラムP2を実行することによって、図3に示す動き検出部20と、信頼度算出部30と、行動認識部40と、を機能部として実現する。 The CPU 5a of the server 5 reads out the control program P2 stored in the ROM 5c and expands it in the RAM 5b. Then, the CPU 5a realizes the motion detection unit 20, the reliability calculation unit 30, and the action recognition unit 40 shown in FIG. 3 as functional units by executing the control program P2 expanded in the RAM 5b.

動き検出部20は、人10の動きを検出する。なお、人10は、対象物の一例である。動き検出部20は、人10を含む画像Ii(i=a、b、c)を撮像する複数のカメラ4i(i=a、b、c)と、人10の動きに伴って発生する信号を検出する、人10に装着されたセンサタグ2と、を備える。センサタグ2は、前記した異なる複数のセンサ(例えば、加速度センサ2d、角速度センサ2e、気圧センサ2f、地磁気センサ2g等)を備える(図2参照)。なお、カメラ4i(i=a、b、c)は第1のセンサの一例である。また、センサタグ2は、第2のセンサの一例である。 The motion detection unit 20 detects the motion of the person 10. The person 10 is an example of an object. The motion detection unit 20 transmits a plurality of cameras 4i (i = a, b, c) that capture an image Ii (i = a, b, c) including the person 10 and a signal generated by the movement of the person 10. It includes a sensor tag 2 attached to the person 10 for detection. The sensor tag 2 includes a plurality of different sensors (for example, an acceleration sensor 2d, an angular velocity sensor 2e, a barometric pressure sensor 2f, a geomagnetic sensor 2g, etc.) (see FIG. 2). The camera 4i (i = a, b, c) is an example of the first sensor. Further, the sensor tag 2 is an example of the second sensor.

また、動き検出部20は、カメラ4i(i=a、b、c)の出力である画像Ii(i=a、b、c)に基づいて、人10の動きに伴って発生する挙動を分析する画像分析部24と、センサタグ2の出力に基づいて、人10の動きに伴って発生する信号を分析するセンサデータ分析部22と、を備える。 Further, the motion detection unit 20 analyzes the behavior generated with the movement of the person 10 based on the image Ii (i = a, b, c) which is the output of the camera 4i (i = a, b, c). An image analysis unit 24 is provided, and a sensor data analysis unit 22 that analyzes a signal generated with the movement of the person 10 based on the output of the sensor tag 2.

信頼度算出部30は、センサデータ分析部22の分析結果に対する信頼度32aを算出する。また、信頼度算出部30は、画像分析部24の分析結果に対する信頼度32bを算出する。 The reliability calculation unit 30 calculates the reliability 32a for the analysis result of the sensor data analysis unit 22. Further, the reliability calculation unit 30 calculates the reliability 32b for the analysis result of the image analysis unit 24.

行動認識部40は、センサデータ分析部22の分析結果と、当該分析結果に対する信頼度32aと、画像分析部24の分析結果と、当該分析結果に対する信頼度32bと、に基づいて、人10の行動を認識する。 The behavior recognition unit 40 is based on the analysis result of the sensor data analysis unit 22, the reliability 32a for the analysis result, the analysis result of the image analysis unit 24, and the reliability 32b for the analysis result. Recognize actions.

(信頼度の説明)
次に、図4、図5を用いて、本実施形態の行動認識装置1で利用する信頼度32a、32bについて説明する。図4は、センサタグ2の出力に基づく分析結果の一例を示す図である。なお、図4に示すデータは、HDD5d(図2参照)に記憶される。また、図5は、カメラ4i(i=a、b、c)が撮像した画像Ii(i=a、b、c)の分析結果の一例を示す図である。なお、図5に示すデータも、HDD5dに記憶される。ここで、図4、図5は、フォークリフトを用いて作業を行っている人10の行動分析に、行動認識装置1を適用した例を示すものである。
(Explanation of reliability)
Next, the reliability 32a and 32b used in the behavior recognition device 1 of the present embodiment will be described with reference to FIGS. 4 and 5. FIG. 4 is a diagram showing an example of an analysis result based on the output of the sensor tag 2. The data shown in FIG. 4 is stored in the HDD 5d (see FIG. 2). Further, FIG. 5 is a diagram showing an example of the analysis result of the image Ii (i = a, b, c) captured by the camera 4i (i = a, b, c). The data shown in FIG. 5 is also stored in the HDD 5d. Here, FIGS. 4 and 5 show an example in which the behavior recognition device 1 is applied to the behavior analysis of the person 10 who is working using the forklift.

図4において、センサタグ2の出力に基づく分析結果は、センサタグ2の出力を取得した日付D1と、センサタグ2の出力を取得した時刻T1と、認識された人10の行動B1と、信頼度32aとを含む。 In FIG. 4, the analysis results based on the output of the sensor tag 2 include the date D1 when the output of the sensor tag 2 was acquired, the time T1 when the output of the sensor tag 2 was acquired, the action B1 of the recognized person 10, and the reliability 32a. including.

行動認識装置1は、センサタグ2の出力を分析することによって、「歩行状態」、「停止状態」、「フォーリフトに乗車した状態」、「フォークリフトで移動している状態」等の人10の行動B1を認識する。 By analyzing the output of the sensor tag 2, the action recognition device 1 analyzes the actions of the person 10 such as "walking state", "stopped state", "riding on a forklift", and "moving with a forklift". Recognize B1.

信頼度32aは、行動B1をどの程度の確からしさで認識したかを示す値である。より具体的には、信頼度32aは、行動B1を最も信頼できる状態で認識した状態を100、全く信頼できない状態で認識した状態を0として、100段階で数値化した値である。図4の例では、例えば、歩行の信頼度が70、停止の信頼度が90であることを示している。 The reliability 32a is a value indicating how certainty the action B1 is recognized. More specifically, the reliability 32a is a value quantified in 100 steps, where 100 is the state in which the action B1 is recognized in the most reliable state and 0 is the state in which the action B1 is recognized in the unreliable state. In the example of FIG. 4, for example, it is shown that the reliability of walking is 70 and the reliability of stopping is 90.

例えば、人10が「停止状態」であることは、センサタグ2が備える加速度センサ2dの出力がゼロに近い所定値以下の状態が継続していることを検出することによって認識することができる。 For example, the fact that the person 10 is in the "stopped state" can be recognized by detecting that the output of the acceleration sensor 2d included in the sensor tag 2 continues to be in a state of being close to zero and equal to or less than a predetermined value.

また、人10が「歩行状態」であることは、人10の歩行に起因する所定の時間間隔毎の加速度の推移パターンをモデルとして、加速度センサ2dの出力と、加速度の推移パターンのモデルとの相関を取ることによって認識することができる。しかしながら、「歩行状態」において発生する加速度には個人差が存在する。すなわち、歩行行動自体のぶれ(急いでいるかゆっくり歩いているか)が存在するため、信頼度32aは、一般には高くない。そのため、行動認識装置1は、画像Iiから分析した人10の行動B2の信頼度32bと、センサタグ2の出力から分析した人10の行動B1の信頼度32aと、の両者に基づいて、人10の行動を認識する。 Further, the fact that the person 10 is in the "walking state" means that the output of the acceleration sensor 2d and the model of the acceleration transition pattern are modeled on the acceleration transition pattern at predetermined time intervals caused by the walking of the person 10. It can be recognized by taking a correlation. However, there are individual differences in the acceleration generated in the "walking state". That is, the reliability 32a is generally not high because there is a blurring of the walking behavior itself (whether it is hurrying or walking slowly). Therefore, the action recognition device 1 is based on both the reliability 32b of the action B2 of the person 10 analyzed from the image Ii and the reliability 32a of the action B1 of the person 10 analyzed from the output of the sensor tag 2. Recognize the behavior of.

なお、図4に示す、「フォークリフトに乗車」する行動は、例えば、人10が上方へ移動していることに基づいて検出することができる。すなわち、上方に移動する加速度を検出することによって、フォークリフトに乗車したことを検出することができる。また、「フォークリフトで移動」する行動は、例えば、人10の存在位置が、時間の経過とともに、歩行動作を超える速度で移動していることに基づいて検出することができる。 The behavior of "getting on a forklift" shown in FIG. 4 can be detected, for example, based on the fact that the person 10 is moving upward. That is, by detecting the acceleration moving upward, it is possible to detect that the vehicle has entered the forklift. Further, the behavior of "moving by forklift" can be detected, for example, based on the fact that the position of the person 10 is moving at a speed exceeding the walking motion with the passage of time.

図5において、カメラ4i(i=a、b、c)が撮像した画像Ii(i=a、b、c)に基づく分析結果は、画像Iiを取得した日付D2と、画像Iiを取得した時刻T2と、認識された人10の行動B2と、信頼度32bとを含む。 In FIG. 5, the analysis results based on the image Ii (i = a, b, c) captured by the camera 4i (i = a, b, c) are the date D2 at which the image Ii was acquired and the time when the image Ii was acquired. Includes T2, the recognized behavior B2 of the person 10, and the reliability 32b.

画像認識に基づく行動検出では、センサタグ2によると識別が困難な細かい手の動き等を検出することが可能である。認識の手段としては、例えば、画像Ii(i=a、b、c)から抽出した特徴量の時間変化と、モデルとなる行動の特徴量の時間変化と、を比較する方法を用いる。この方法は、センサタグ2による「歩行状態」の検出と同様、モデルとなる加速度の推移パターンとの比較によるため、モデルとの類似度によって検出結果の信頼度32bは変動する。 In behavior detection based on image recognition, it is possible to detect fine hand movements and the like that are difficult to identify according to the sensor tag 2. As a means of recognition, for example, a method of comparing the time change of the feature amount extracted from the image Ii (i = a, b, c) with the time change of the feature amount of the behavior as a model is used. Since this method is based on comparison with the transition pattern of the acceleration as a model, similar to the detection of the "walking state" by the sensor tag 2, the reliability 32b of the detection result varies depending on the degree of similarity with the model.

次に、図6を用いて、複数のカメラで同一時刻に撮像される画像の違いについて説明する。図6は、2台のカメラ4a、4bで同一時刻に撮像される画像Ia、Ibの一例を示す図である。図6に示すように、カメラ4a、4bの設置位置と人10との位置関係に応じて、画像Ia、Ibに映る人10の大きさや向きが変化する。例えば、図6の例では、人10とカメラ4aとの距離d1は、人10とカメラ4bとの距離d2よりも大きくなっている。したがって、人10は、画像Iaよりも画像Ibにおいて大きく観測される。 Next, the difference between the images captured at the same time by a plurality of cameras will be described with reference to FIG. FIG. 6 is a diagram showing an example of images Ia and Ib captured at the same time by two cameras 4a and 4b. As shown in FIG. 6, the size and orientation of the person 10 reflected in the images Ia and Ib change according to the positional relationship between the installation position of the cameras 4a and 4b and the person 10. For example, in the example of FIG. 6, the distance d1 between the person 10 and the camera 4a is larger than the distance d2 between the person 10 and the camera 4b. Therefore, the person 10 is observed larger in the image Ib than in the image Ia.

図6の状態にあっては、人10が異なる大きさで観測されるため、一般に、画像Iaから検出した特徴量に基づく人10の動きに伴う挙動(標準動作)の信頼度は、画像Ibから検出した同じ挙動の信頼度よりも小さくなる。そのため、行動認識を行う過程で算出した、人10の動きに伴う挙動と当該挙動のモデルとの類似度を信頼度32bに反映させる際に、人10の大きさを考慮するのが望ましい。具体的には、人10がより大きく観測された画像Ibから算出した挙動とモデルとの類似度には、より高い信頼度を与える。すなわち、信頼度32bの値を、人10の観測サイズに応じて動的に決定する。 In the state of FIG. 6, since the human 10 is observed with different sizes, the reliability of the behavior (standard motion) accompanying the movement of the human 10 based on the feature amount detected from the image Ia is generally determined by the image Ib. It is less than the reliability of the same behavior detected from. Therefore, it is desirable to consider the size of the person 10 when reflecting the similarity between the behavior accompanying the movement of the person 10 and the model of the behavior calculated in the process of performing the behavior recognition in the reliability 32b. Specifically, a higher degree of reliability is given to the degree of similarity between the behavior calculated from the image Ib observed by the person 10 and the model. That is, the value of the reliability 32b is dynamically determined according to the observation size of the person 10.

具体的には、撮像された画像(図6の例では、画像Ia、Ib)の中から、人10の動きを特徴付ける特徴量を検出する際に、まず、画像Ia、Ibの中に人10がどの位の大きさで観測されているかを見積もる。そして、人10が大きく観測された画像ほど、当該画像から検出した人10の動きを特徴付ける特徴量(例えば類似度)に高い信頼度32bを付与する。なお、単にモデルとの類似度に応じて、類似度が高いほど高い信頼度32bを付与するようにしてもよい。 Specifically, when detecting the feature amount that characterizes the movement of the person 10 from the captured images (images Ia and Ib in the example of FIG. 6), first, the person 10 is included in the images Ia and Ib. Estimate how large the image is observed. Then, the larger the image in which the person 10 is observed, the higher the reliability 32b is given to the feature amount (for example, the degree of similarity) that characterizes the movement of the person 10 detected from the image. In addition, depending on the degree of similarity with the model, the higher the degree of similarity, the higher the reliability 32b may be given.

そして、同一被写体に対して複数のカメラ4i(i=a、b、c)、すなわち同種の検出原理に基づく複数のカメラ4i(第1のセンサ)が撮像した画像Ii(i=a、b、c)に基づく検出結果の中から、信頼度32bが最も高い検出結果を採用することで、総合的に高い信頼度32bの検出結果を得ることができる。 Then, the images Ii (i = a, b, By adopting the detection result having the highest reliability 32b from the detection results based on c), the detection result having the highest reliability 32b can be obtained comprehensively.

ここで、加速度センサ2d(センサタグ2)とカメラ4i(i=a、b、c)とは、ともに、人10の同一の行動を検出することができる。例えば、図4、図5に示すように、「歩行状態」は、加速度センサ2dとカメラ4a、4b、4cのいずれでも検出可能である。しかしながら、加速度センサ2dとカメラ4iでは検出原理が異なるため、検出結果に対する信頼度32a、32bは異なる。「歩行状態」の検出については、一般に、加速度センサ2dの出力に基づく検出結果の方が高い信頼度が得られることが知られている。このため、信頼度32a、32bとして、予め評価した結果に基づく固定値を割り当てるのが望ましい。 Here, both the accelerometer 2d (sensor tag 2) and the camera 4i (i = a, b, c) can detect the same behavior of the person 10. For example, as shown in FIGS. 4 and 5, the "walking state" can be detected by any of the accelerometer 2d and the cameras 4a, 4b, and 4c. However, since the detection principle is different between the accelerometer 2d and the camera 4i, the reliability 32a and 32b for the detection result are different. Regarding the detection of the "walking state", it is generally known that the detection result based on the output of the acceleration sensor 2d can obtain higher reliability. Therefore, it is desirable to assign fixed values based on the results of prior evaluation as the reliability 32a and 32b.

例えば、図4の例では、加速度センサ2dの出力に基づく「歩行状態」との検出結果には、信頼度32aとして、一律に70を割り当てている。一方、図5に示すように、画像Ii(i=a、b、c)に基づく「歩行状態」との検出結果には、信頼度32bとして、70よりも低い40を一律に割り当てている。 For example, in the example of FIG. 4, 70 is uniformly assigned as the reliability 32a to the detection result of the “walking state” based on the output of the acceleration sensor 2d. On the other hand, as shown in FIG. 5, 40, which is lower than 70, is uniformly assigned as the reliability 32b to the detection result of the "walking state" based on the image Ii (i = a, b, c).

なお、同一時刻におけるカメラ4i(第1のセンサ)が撮像した画像Iiに基づく分析結果と、センサタグ2(第2のセンサ)の出力に基づく分析結果と、が等しい場合は、いずれのセンサの出力に基づく分析結果を採用しても問題ない。しかし、両者が異なる分析結果であった場合には、例えば、信頼度32a、32bの高い方の分析結果を採用するものとする。具体的には、図5において、時刻「15:33:37」のとき、画像Iiに基づく分析結果は「歩行状態」であるが、図4において、同一時刻における加速度センサ2dの出力に基づく分析結果は「停止状態」を示している。このときの信頼度32a、32bを比較すると、画像Iiに基づく信頼度32bが40、加速度センサ2dに基づく信頼度32aが90であるため、時刻「15:33:37」における人10の行動B2として、加速度センサ2dに基づく検出結果である「停止状態」を採用するのが望ましい。 If the analysis result based on the image Ii captured by the camera 4i (first sensor) at the same time and the analysis result based on the output of the sensor tag 2 (second sensor) are equal, the output of any sensor is equal. There is no problem even if the analysis result based on is adopted. However, if the analysis results are different from each other, for example, the analysis result having the higher reliability 32a or 32b shall be adopted. Specifically, in FIG. 5, when the time is “15:33:37”, the analysis result based on the image Ii is “walking state”, but in FIG. 4, the analysis based on the output of the acceleration sensor 2d at the same time is performed. The result indicates a "stopped state". Comparing the reliability 32a and 32b at this time, since the reliability 32b based on the image Ii is 40 and the reliability 32a based on the acceleration sensor 2d is 90, the action B2 of the person 10 at the time "15:33:37". As a result, it is desirable to adopt a "stop state" which is a detection result based on the acceleration sensor 2d.

(行動認識装置が行う処理の流れの説明)
次に、図7を用いて、行動認識装置1が行う処理の流れについて説明する。図7は、行動認識装置1が行う処理の流れの一例を示すフローチャートである。
(Explanation of the flow of processing performed by the action recognition device)
Next, the flow of processing performed by the action recognition device 1 will be described with reference to FIG. 7. FIG. 7 is a flowchart showing an example of the flow of processing performed by the action recognition device 1.

まず、センサタグ2は、人10に装着された各センサ(加速度センサ2d、角速度センサ2e、気圧センサ2f、地磁気センサ2g)の出力を取得する(ステップS10)。 First, the sensor tag 2 acquires the output of each sensor (accelerometer 2d, angular velocity sensor 2e, barometric pressure sensor 2f, geomagnetic sensor 2g) attached to the person 10 (step S10).

次に、カメラ4i(i=a、b、c)(第1のセンサ)は、人10を含む画像Ii(i=a、b、c)を撮像する(ステップS12)。 Next, the camera 4i (i = a, b, c) (first sensor) captures an image Ii (i = a, b, c) including the person 10 (step S12).

サーバ5は、無線AP3を介して、センサタグ2の出力を受信する(ステップS14)。 The server 5 receives the output of the sensor tag 2 via the wireless AP3 (step S14).

また、サーバ5は、カメラ4iが撮像した画像Iiを受信する(ステップS16)。 Further, the server 5 receives the image Ii captured by the camera 4i (step S16).

センサデータ分析部22は、センサタグ2の出力を分析する(ステップS18)。 The sensor data analysis unit 22 analyzes the output of the sensor tag 2 (step S18).

信頼度算出部30は、センサタグ2の出力の分析結果に信頼度32aを付与する(ステップS20)。 The reliability calculation unit 30 imparts reliability 32a to the analysis result of the output of the sensor tag 2 (step S20).

画像分析部24は、画像Iiを分析する(ステップS22)。 The image analysis unit 24 analyzes the image Ii (step S22).

信頼度算出部30は、画像Iiの分析結果に信頼度32bを付与する(ステップS24)。 The reliability calculation unit 30 imparts reliability 32b to the analysis result of the image Ii (step S24).

行動認識部40は、センサタグ2の出力の分析結果と、画像Iiの分析結果と、に基づいて、人10の行動を認識する(ステップS26)。 The action recognition unit 40 recognizes the action of the person 10 based on the analysis result of the output of the sensor tag 2 and the analysis result of the image Ii (step S26).

行動認識部40は、人10の行動の認識結果を、データベースDBに蓄積する(ステップS28)。 The action recognition unit 40 stores the recognition result of the action of the person 10 in the database DB (step S28).

行動認識部40は、処理を終了するかを判定する。処理を終了すると判定される(S30:Yes)と、図7の処理を終了する。一方、処理を終了すると判定されない(S30:No)と、ステップS10に戻って、前記した一連の処理を繰り返す。なお、処理の終了の判定は、例えば、予め設定した所定時間が経過したことを条件として処理を終了すると判定してもよいし、画像Iiの中から人10が検出できなくなったら処理を終了すると判定してもよい。 The action recognition unit 40 determines whether to end the process. When it is determined that the process is completed (S30: Yes), the process of FIG. 7 is terminated. On the other hand, if it is not determined that the process is completed (S30: No), the process returns to step S10 and the series of processes described above is repeated. The determination of the end of the process may be determined, for example, to end the process on the condition that a predetermined predetermined time has elapsed, or when the process is terminated when the person 10 cannot be detected from the image Ii. You may judge.

以上説明したように、本実施の形態に係る行動認識装置1によれば、動き検出部20が、カメラ4i(i=a、b、c)(第1のセンサ)が撮像した画像Ii(i=a、b、c)を分析して、人10(対象物)の動きを検出する。また、動き検出部20が、センサタグ2(第2のセンサ)の出力を分析して、人10の動きを検出する。そして、信頼度算出部30が、センサタグ2の出力に基づく人10の動きの検出結果に対して信頼度32aを付与する。また、信頼度算出部30が、画像Iiに基づく人10の動きの検出結果に対して信頼度32bを付与する。さらに、行動認識部40が、動き検出部20が検出した人10の動きの検出結果と当該検出結果の信頼度32a、32bとに基づいて、ユーザの介在なしに、人10の行動を認識する。したがって、ユーザの介在なしに、複数の検出手段の検出結果に基づく、人10の行動の認識精度を向上させることができる。 As described above, according to the behavior recognition device 1 according to the present embodiment, the motion detection unit 20 captures the image Ii (i) captured by the camera 4i (i = a, b, c) (first sensor). = A, b, c) is analyzed to detect the movement of the person 10 (object). Further, the motion detection unit 20 analyzes the output of the sensor tag 2 (second sensor) to detect the motion of the person 10. Then, the reliability calculation unit 30 assigns the reliability 32a to the detection result of the movement of the person 10 based on the output of the sensor tag 2. Further, the reliability calculation unit 30 assigns the reliability 32b to the detection result of the movement of the person 10 based on the image Ii. Further, the behavior recognition unit 40 recognizes the behavior of the person 10 based on the detection result of the movement of the person 10 detected by the motion detection unit 20 and the reliability 32a and 32b of the detection result without the intervention of the user. .. Therefore, it is possible to improve the recognition accuracy of the behavior of the person 10 based on the detection results of the plurality of detection means without the intervention of the user.

また、本実施の形態に係る行動認識装置1によれば、動き検出部20は、人10(対象物)を撮像する少なくとも1つのカメラ4i(i=a、b、c、…)(第1のセンサ)と、カメラ4iが撮像した画像Ii(i=a、b、c、…)を分析することによって人10の動きを検出する画像分析部24と、を含む。したがって、人10の、例えば手の動きのような細かい動作を検出することができる。 Further, according to the behavior recognition device 1 according to the present embodiment, the motion detection unit 20 has at least one camera 4i (i = a, b, c, ...) (1st) that images a person 10 (object). Sensor) and an image analysis unit 24 that detects the movement of the person 10 by analyzing the image Ii (i = a, b, c, ...) Captured by the camera 4i. Therefore, it is possible to detect fine movements of the person 10, such as the movement of a hand.

また、本実施の形態に係る行動認識装置1によれば、複数の動き検出部20は、人10(対象物)に装着された、少なくとも加速度センサ2dを備えて、人10の動きに応じた検出結果を出力するセンサタグ2(第2のセンサ)と、センサタグ2の出力を分析することによって、人10の動きを分析するセンサデータ分析部22と、を含む。したがって、人10の歩行状態、停止状態、フォークリフトへの乗車状態等のおおまかな行動を精度よく検出することができる。 Further, according to the behavior recognition device 1 according to the present embodiment, the plurality of motion detection units 20 are provided with at least an acceleration sensor 2d attached to the person 10 (object) and respond to the movement of the person 10. It includes a sensor tag 2 (second sensor) that outputs a detection result, and a sensor data analysis unit 22 that analyzes the movement of the person 10 by analyzing the output of the sensor tag 2. Therefore, it is possible to accurately detect the rough behavior of the person 10, such as the walking state, the stopped state, and the riding state on the forklift.

また、本実施の形態に係る行動認識装置1によれば、行動認識部40は、カメラ4i(第1のセンサ)による人10(対象物)の動きの検出結果に対する信頼度32bと、センサタグ2(第2のセンサ)による人10の動きの検出結果に対する信頼度32aと、のうち、同一時刻において、より高い信頼度を有する検出結果に基づく行動を、人10の行動として認識する。したがって、カメラ4iとセンサタグ2とが、人10の行動を互いに異なる行動として認識した場合であっても、信頼度32a、32bの大小に応じて人10の正しい行動を容易に認識することができる。 Further, according to the behavior recognition device 1 according to the present embodiment, the behavior recognition unit 40 has a reliability 32b for the detection result of the movement of the person 10 (object) by the camera 4i (first sensor) and the sensor tag 2. Of the reliability 32a for the detection result of the movement of the person 10 by the (second sensor), the action based on the detection result having a higher reliability at the same time is recognized as the action of the person 10. Therefore, even when the camera 4i and the sensor tag 2 recognize the behavior of the person 10 as different behaviors from each other, the correct behavior of the person 10 can be easily recognized according to the magnitude of the reliability 32a and 32b. ..

また、本実施の形態に係る行動認識装置1によれば、信頼度算出部30は、動き検出部20の各検出結果に対して、該検出結果の種類に応じた固定的な信頼度32a、32bを付与する。したがって、認識された人10の行動種別に応じて、信頼度32a、32bを即座に付与することができるため、行動認識の結果を素早く出力することができる。 Further, according to the behavior recognition device 1 according to the present embodiment, the reliability calculation unit 30 has a fixed reliability 32a for each detection result of the motion detection unit 20 according to the type of the detection result. 32b is given. Therefore, since the reliability 32a and 32b can be immediately given according to the action type of the recognized person 10, the result of the action recognition can be quickly output.

また、本実施の形態に係る行動認識装置1によれば、信頼度算出部30は、画像分析部24の分析結果に対して、人10の観測サイズが大きいほど高い(観測サイズが小さいほど低い)信頼度32bを付与する。したがって、画像分析部24の分析結果に基づいて、適応的に(動的に)信頼度32bを付与することにより、信頼度32bに人10の状態を反映することができる。これにより、人10の行動推定の精度を高めることができる。 Further, according to the behavior recognition device 1 according to the present embodiment, the reliability calculation unit 30 is higher as the observation size of the person 10 is larger than the analysis result of the image analysis unit 24 (the smaller the observation size, the lower the value). ) The reliability 32b is given. Therefore, by adaptively (dynamically) imparting the reliability 32b based on the analysis result of the image analysis unit 24, the state of the person 10 can be reflected in the reliability 32b. Thereby, the accuracy of the behavior estimation of the person 10 can be improved.

また、本実施の形態に係る行動認識装置1によれば、信頼度算出部30は、動き検出部20の各検出結果と人10の標準動作との類似度に応じて、類似度が高いほど高い信頼度32a、32bを付与する。したがって、信頼度32a、32bを定量的に算出することができる。 Further, according to the behavior recognition device 1 according to the present embodiment, the reliability calculation unit 30 has a higher degree of similarity according to the degree of similarity between each detection result of the motion detection unit 20 and the standard operation of the person 10. High reliability 32a and 32b are imparted. Therefore, the reliability 32a and 32b can be calculated quantitatively.

また、本実施の形態に係る行動認識装置1によれば、信頼度算出部30は、予め設定した値の範囲内で信頼度32a、32bを算出する。したがって、動き検出部20の各検出結果に突発的な変動が発生した場合に、それに伴って信頼度32a、32bが突発的に変動するのを抑止することができる。 Further, according to the behavior recognition device 1 according to the present embodiment, the reliability calculation unit 30 calculates the reliability 32a and 32b within the range of the preset values. Therefore, when a sudden change occurs in each detection result of the motion detection unit 20, it is possible to prevent the reliability 32a and 32b from suddenly changing accordingly.

以上、本発明の実施の形態について説明したが、前記した実施の形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能である。また、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。また、この実施の形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiments of the present invention have been described above, the above-described embodiments are presented as examples and are not intended to limit the scope of the present invention. This novel embodiment can be implemented in various other embodiments. In addition, various omissions, replacements, and changes can be made without departing from the gist of the invention. Further, this embodiment is included in the scope and gist of the invention, and is also included in the scope of the invention described in the claims and the equivalent scope thereof.

例えば、本実施の形態の例では、行動認識装置1は、CPU5a(2a)が、各種処理を制御プログラムP2(P1)で実現することとしたが、その一部または全部を、IC(Integrated Circuit)等のハードウェアで実現してもよい。また、制御プログラムP2(P1)は、インストール可能な形式、または実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD、ブルーレイディスク(登録商標)、半導体メモリ等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。DVDは、「Digital Versatile Disc」の略記である。また、制御プログラムP2(P1)は、インターネット等のネットワーク経由でインストールする形態で提供してもよい。また、制御プログラムP2(P1)は、機器内のROM等に予め組み込んで提供してもよい。 For example, in the example of the present embodiment, in the action recognition device 1, the CPU 5a (2a) realizes various processes by the control program P2 (P1), but a part or all of them are IC (Integrated Circuit). ) And other hardware may be used. The control program P2 (P1) is a file in an installable format or an executable format, such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD, a Blu-ray disk (registered trademark), or a semiconductor memory. It may be recorded and provided on a recording medium readable by a computer device. DVD is an abbreviation for "Digital Versatile Disc". Further, the control program P2 (P1) may be provided in the form of being installed via a network such as the Internet. Further, the control program P2 (P1) may be provided by incorporating it into a ROM or the like in the device in advance.

1 行動認識装置(行動認識システム)
2 センサタグ(第2のセンサ)
2d 加速度センサ
2e 角速度センサ
2f 気圧センサ
2g 地磁気センサ
3 無線AP
4a、4b、4c、4i カメラ(第1のセンサ)
5 サーバ(サーバ装置)
10 人(対象物)
20 動き検出部(動き検出装置)
22 センサデータ分析部
24 画像分析部
30 信頼度算出部
32a、32b 信頼度
40 行動認識部
Ia、Ib、Ic、Ii 画像
1 Behavior recognition device (behavior recognition system)
2 Sensor tag (second sensor)
2d accelerometer
2e Angular velocity sensor
2f barometric pressure sensor
2g geomagnetic sensor
3 Wireless AP
4a, 4b, 4c, 4i camera (first sensor)
5 Server (server device)
10 people (object)
20 Motion detection unit (motion detection device)
22 Sensor data analysis unit
24 Image Analysis Department
30 Reliability calculation unit
32a, 32b reliability
40 Behavior recognition unit Ia, Ib, Ic, Ii images

特許第5904021号公報Japanese Patent No. 5904021

Claims (11)

対象物の動きを検出する複数の動き検出部と、
前記動き検出部の各検出結果に基づいて、検出結果の種類に応じた固定的な信頼度を付与する信頼度算出部と、
前記動き検出部の各検出結果と前記信頼度とに基づいて、前記対象物の行動を認識する行動認識部と、
を備える行動認識装置。
Multiple motion detectors that detect the motion of an object,
Based on each detection result of the motion detection unit, a reliability calculation unit that imparts a fixed reliability according to the type of detection result, and a reliability calculation unit.
An action recognition unit that recognizes the behavior of the object based on each detection result of the motion detection unit and the reliability.
Behavior recognition device equipped with.
前記動き検出部は、前記対象物を撮像する少なくとも1つの第1のセンサと、
当該第1のセンサが撮像した画像を分析することによって前記対象物の動きを分析する画像分析部と、を含む、
ことを特徴とする請求項1に記載の行動認識装置。
The motion detection unit includes at least one first sensor that images the object, and the motion detection unit.
Includes an image analysis unit that analyzes the movement of the object by analyzing the image captured by the first sensor.
The behavior recognition device according to claim 1.
前記動き検出部は、前記対象物に装着された、少なくとも加速度センサを備えて、当該対象物の動きに応じた検出結果を出力する第2のセンサと、
当該第2のセンサの出力を分析することによって、前記対象物の動きを分析するセンサデータ分析部と、を含む、
ことを特徴とする請求項2に記載の行動認識装置。
The motion detection unit includes at least an acceleration sensor attached to the object, and a second sensor that outputs a detection result according to the motion of the object.
A sensor data analysis unit that analyzes the movement of the object by analyzing the output of the second sensor, and the like.
The behavior recognition device according to claim 2 , wherein the behavior recognition device is characterized by the above.
前記行動認識部は、前記第1のセンサ及び前記第2のセンサによる前記対象物の動きの検出結果に対する信頼度のうち、同一時刻において、より高い信頼度を有する検出結果に基づく行動を、当該対象物の行動として認識する、
ことを特徴とする請求項に記載の行動認識装置。
The action recognition unit determines the action based on the detection result having higher reliability at the same time among the reliability of the detection result of the movement of the object by the first sensor and the second sensor. Recognize as the behavior of an object,
The behavior recognition device according to claim 3 , wherein the behavior recognition device is characterized by the above.
前記信頼度算出部は、前記画像分析部の分析結果に対して、動的に算出した信頼度を付与する、
ことを特徴とする請求項に記載の行動認識装置。
The reliability calculation unit imparts a dynamically calculated reliability to the analysis result of the image analysis unit.
The behavior recognition device according to claim 2 , wherein the behavior recognition device is characterized by the above.
前記信頼度算出部は、前記画像分析部の分析結果に対して、前記対象物の観測サイズに応じて、当該観測サイズが大きいほど高い信頼度を付与する、
ことを特徴とする請求項に記載の行動認識装置。
The reliability calculation unit imparts higher reliability to the analysis result of the image analysis unit according to the observation size of the object, as the observation size is larger.
The behavior recognition device according to claim 5 .
前記信頼度算出部は、前記動き検出部の各検出結果と前記対象物の標準動作との類似度に応じて、当該類似度が高いほど高い信頼度を付与する、
ことを特徴とする請求項に記載の行動認識装置。
The reliability calculation unit imparts higher reliability as the degree of similarity is higher, depending on the degree of similarity between each detection result of the motion detection unit and the standard operation of the object.
The behavior recognition device according to claim 5 .
前記信頼度算出部は、前記信頼度を、予め設定した値の範囲内で算出する、
ことを特徴とする請求項5から請求項のいずれか1項に記載の行動認識装置。
The reliability calculation unit calculates the reliability within a range of preset values.
The behavior recognition device according to any one of claims 5 to 7 , wherein the behavior recognition device is characterized by the above.
対象物の動きを検出する複数の動き検出装置と、前記動き検出装置の各検出結果に基づいて前記対象物の行動を認識するサーバ装置と、を備える行動認識システムであって、
前記サーバ装置は、
前記動き検出装置の各検出結果に基づいて、検出結果の種類に応じた固定的な信頼度を付与する信頼度算出部と、
前記動き検出装置の各検出結果と前記信頼度とに基づいて、前記対象物の行動を認識する行動認識部と、
を備える行動認識システム。
A behavior recognition system including a plurality of motion detection devices for detecting the movement of an object and a server device for recognizing the behavior of the object based on the detection result of each of the motion detection devices.
The server device is
Based on each detection result of the motion detection device, a reliability calculation unit that gives a fixed reliability according to the type of detection result, and a reliability calculation unit.
An action recognition unit that recognizes the behavior of the object based on each detection result of the motion detection device and the reliability.
Behavior recognition system with.
複数の動き検出部によって対象物の動きを検出する動き検出ステップと、
前記動き検出ステップの各検出結果に基づいて、検出結果の種類に応じた固定的な信頼度を付与する信頼度算出ステップと、
前記動き検出ステップの各検出結果と前記信頼度とに基づいて、前記対象物の行動を認識する行動認識ステップと、
を含む行動認識方法。
A motion detection step that detects the motion of an object by multiple motion detectors,
Based on each detection result of the motion detection step, a reliability calculation step that imparts a fixed reliability according to the type of detection result, and a reliability calculation step.
An action recognition step that recognizes the behavior of the object based on each detection result of the motion detection step and the reliability,
Behavior recognition methods including.
コンピュータに、
対象物の動きを検出する複数の動き検出部と、
前記動き検出部の各検出結果に基づいて、検出結果の種類に応じた固定的な信頼度を付与する信頼度算出部と、
前記動き検出部の各検出結果と前記信頼度とに基づいて、前記対象物の行動を認識する行動認識部と、
を実行させるプログラム。
On the computer
Multiple motion detectors that detect the motion of an object,
Based on each detection result of the motion detection unit, a reliability calculation unit that imparts a fixed reliability according to the type of detection result, and a reliability calculation unit.
An action recognition unit that recognizes the behavior of the object based on each detection result of the motion detection unit and the reliability.
A program to execute.
JP2018044782A 2018-03-12 2018-03-12 Behavior recognition device, behavior recognition system, behavior recognition method and program Active JP7098972B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018044782A JP7098972B2 (en) 2018-03-12 2018-03-12 Behavior recognition device, behavior recognition system, behavior recognition method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018044782A JP7098972B2 (en) 2018-03-12 2018-03-12 Behavior recognition device, behavior recognition system, behavior recognition method and program

Publications (2)

Publication Number Publication Date
JP2019159726A JP2019159726A (en) 2019-09-19
JP7098972B2 true JP7098972B2 (en) 2022-07-12

Family

ID=67993953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018044782A Active JP7098972B2 (en) 2018-03-12 2018-03-12 Behavior recognition device, behavior recognition system, behavior recognition method and program

Country Status (1)

Country Link
JP (1) JP7098972B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7373323B2 (en) 2019-09-02 2023-11-02 キヤノン株式会社 Image processing device, radiation imaging system, image processing method and program
JP7346342B2 (en) * 2020-03-23 2023-09-19 三菱重工業株式会社 Measuring device, measuring method and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017228100A (en) 2016-06-23 2017-12-28 コニカミノルタ株式会社 Behavior recognition device and behavior recognition program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017228100A (en) 2016-06-23 2017-12-28 コニカミノルタ株式会社 Behavior recognition device and behavior recognition program

Also Published As

Publication number Publication date
JP2019159726A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
US20160061582A1 (en) Scale estimating method using smart device and gravity data
US9418278B2 (en) Image analysis method, camera apparatus, control apparatus, control method and storage medium
WO2011068184A1 (en) Moving body positioning device
WO2013042205A1 (en) Pedestrian action prediction device and pedestrian action prediction method
JP6988790B2 (en) Crowd type identification system, crowd type identification method and crowd type identification program
US20140285794A1 (en) Measuring device
JP6688962B2 (en) Judgment device, judgment method, and judgment program
JP5507334B2 (en) Registration apparatus, registration method, and computer program
JP7098972B2 (en) Behavior recognition device, behavior recognition system, behavior recognition method and program
JP7484924B2 (en) Imaging device, image processing system, image processing method and program
JP2019534716A5 (en)
JP6573744B2 (en) Object tracking device and object tracking method
US20230069018A1 (en) Image processing apparatus, imaging apparatus, image processing system, image processing method, and non-transitory computer readable medium
US11656242B2 (en) Angular velocity detection device, image display apparatus, angular velocity detection method, and storage medium
WO2018037891A1 (en) Image processing device, image processing system, image processing method, and program recording medium
CN111104845B (en) Detection apparatus, control method, and computer-readable recording medium
JP4742695B2 (en) Gaze recognition apparatus and gaze recognition method
KR102675182B1 (en) Vision based Hybrid Prognosis Health Monitoring System
KR102134771B1 (en) Device and method for determining an emergency situation through object detection
JP2001256500A (en) System and method for judging target
US10661142B2 (en) Movement analysis device for determining whether a time range between a start time and a completion time of a predetermined movement by a target person is valid, and movement analysis method and recording medium
CN116745808A (en) Job estimation device, job estimation method, and job estimation program
US20230267718A1 (en) Systems and methods for training event prediction models for camera-based warning systems
JP2021197623A5 (en)
US20230134912A1 (en) Information processing device, information processing system, information processing method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220613

R151 Written notification of patent or utility model registration

Ref document number: 7098972

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151