JP2022073882A - Behavior estimation device, behavior estimation method, program and behavior estimation system - Google Patents

Behavior estimation device, behavior estimation method, program and behavior estimation system Download PDF

Info

Publication number
JP2022073882A
JP2022073882A JP2021042085A JP2021042085A JP2022073882A JP 2022073882 A JP2022073882 A JP 2022073882A JP 2021042085 A JP2021042085 A JP 2021042085A JP 2021042085 A JP2021042085 A JP 2021042085A JP 2022073882 A JP2022073882 A JP 2022073882A
Authority
JP
Japan
Prior art keywords
subject
person
unit
relationship
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021042085A
Other languages
Japanese (ja)
Other versions
JP2022073882A5 (en
Inventor
遼 田中
Ryo Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vaak Inc
Original Assignee
Vaak Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vaak Inc filed Critical Vaak Inc
Priority to JP2021042085A priority Critical patent/JP2022073882A/en
Publication of JP2022073882A publication Critical patent/JP2022073882A/en
Publication of JP2022073882A5 publication Critical patent/JP2022073882A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve accuracy of estimating human behavior.
SOLUTION: A behavior estimation device 10 includes an image acquisition unit 131 for acquiring captured image data representing captured images, a person detecting unit 132 for detecting movement of a person contained in a captured image, a subject detecting unit 133 for detecting a type of a subject contained in the captured image, a relation specification unit 135 for specifying a relative relation of the person and the subject induced by the person's movement, and an estimation unit 136 for estimating a content of the person's behavior based on a combination of the type of the subject and the relative relation.
SELECTED DRAWING: Figure 4
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、人の行動を推定するための行動推定装置、行動推定方法、プログラム及び行動推定システムに関する。 The present invention relates to a behavior estimation device, a behavior estimation method, a program, and a behavior estimation system for estimating a person's behavior.

時系列画像に写った人の関節を検出し、検出した関節の位置の変化に基づいて被写体の行動を推定する行動推定装置が知られている(例えば、特許文献1を参照)。 A behavior estimation device that detects a human joint in a time-series image and estimates the behavior of the subject based on the change in the position of the detected joint is known (see, for example, Patent Document 1).

特許第6525181号公報Japanese Patent No. 6525181

従来の行動推定装置は被写体の動きのみに基づいて行動を推定するため、動きが類似する行動を判別することが困難であるという問題が生じていた。 Since the conventional behavior estimation device estimates the behavior based only on the movement of the subject, there is a problem that it is difficult to discriminate the behavior having similar movements.

そこで、本発明はこれらの点に鑑みてなされたものであり、人の行動を推定する精度を向上させることを目的とする。 Therefore, the present invention has been made in view of these points, and an object thereof is to improve the accuracy of estimating human behavior.

本発明の第1の態様に係る行動推定装置は、撮像画像を示す撮像画像データを取得する画像取得部と、前記撮像画像に含まれる人の動きを検出する人検出部と、前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定する推定部と、を有する。 The behavior estimation device according to the first aspect of the present invention includes an image acquisition unit that acquires captured image data showing an captured image, a human detection unit that detects the movement of a person included in the captured image, and the captured image. The subject detection unit that detects the type of the included subject, the relationship specifying unit that specifies the relative relationship between the person and the subject due to the movement of the person, the type of the subject, and the relative relationship. It has an estimation unit that estimates the behavior content of the person based on the combination.

前記関係特定部は、前記人と前記被写体との距離を前記相対関係として特定し、前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた基準距離と、前記関係特定部が特定した前記人と前記被写体との距離と、を比較した結果に基づいて前記行動内容を推定してもよい。 The relationship specifying unit specifies the distance between the person and the subject as the relative relationship, and the estimation unit uses the reference distance associated with the type of the subject detected by the subject detecting unit and the relationship specifying unit. The action content may be estimated based on the result of comparing the distance between the person and the subject specified by.

前記関係特定部は、前記人の目線の方向と前記被写体の位置との関係を、前記相対関係として特定し、前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた目線の方向と被写体の位置との関係である基準目線関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定してもよい。 The relationship specifying unit specifies the relationship between the direction of the person's line of sight and the position of the subject as the relative relationship, and the estimation unit is the line of sight associated with the type of the subject detected by the subject detecting unit. The action content is based on the result of comparing the reference line-of-sight relationship, which is the relationship between the direction of the subject and the position of the subject, and the relationship between the direction of the line of sight of the person specified by the relationship specifying unit and the position of the subject. You may estimate.

前記関係特定部は、前記人の身体の向きと前記被写体の位置との関係を、前記相対関係として特定し、前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた身体の向きと被写体の位置との関係である基準身体向き関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定してもよい。 The relationship specifying unit specifies the relationship between the orientation of the person's body and the position of the subject as the relative relationship, and the estimation unit is the body associated with the type of the subject detected by the subject detecting unit. The action content based on the result of comparing the reference body orientation relationship, which is the relationship between the orientation of the subject and the position of the subject, and the relationship between the direction of the line of sight of the person specified by the relationship specifying unit and the position of the subject. May be estimated.

前記画像取得部は、時系列に作成された複数の前記撮像画像データを取得し、前記関係特定部は、前記相対関係の変化を特定し、前記推定部は、前記被写体の種別と、前記相対関係の変化との組み合わせに基づいて、前記人の行動内容を推定してもよい。 The image acquisition unit acquires a plurality of the captured image data created in time series, the relationship specifying unit identifies a change in the relative relationship, and the estimation unit determines the type of the subject and the relative. The behavioral content of the person may be estimated based on the combination with the change of the relationship.

前記推定部は、前記複数の撮像画像データのいずれかに、前記人検出部が前記人を検出する前に前記被写体が含まれていたか否かを判定した結果にさらに基づいて、前記行動内容を推定してもよい。 The estimation unit further determines the action content based on the result of determining whether or not the subject was included in any of the plurality of captured image data before the person detection unit detects the person. You may estimate.

前記人検出部は、前記人の属性をさらに検出し、前記推定部は、前記人検出部が検出した前記人の属性にさらに基づいて、前記行動内容を推定してもよい。 The person detection unit may further detect the attribute of the person, and the estimation unit may estimate the behavior content based on the attribute of the person detected by the person detection unit.

前記被写体検出部は、前記撮像画像に含まれる第1被写体及び第2被写体を検出し、前記関係特定部は、前記人の動きに伴う前記人と前記第1被写体との関係である第1相対関係、前記人の動きに伴う前記人と前記第2被写体との関係である第2相対関係、及び前記人の動きに伴う前記第1被写体と前記第2被写体との関係である第3相対関係を特定し、前記推定部は、前記被写体の種別と、前記第1相対関係、前記第2相対関係又は前記第3相対関係の少なくとも2つの相対関係と、の組み合わせに基づいて、前記人の行動内容を推定してもよい。 The subject detection unit detects the first subject and the second subject included in the captured image, and the relationship specifying unit is the first relative, which is the relationship between the person and the first subject due to the movement of the person. The relationship, the second relative relationship between the person and the second subject due to the movement of the person, and the third relative relationship between the first subject and the second subject due to the movement of the person. The estimation unit identifies the behavior of the person based on the combination of the type of the subject and at least two relative relationships of the first relative relationship, the second relative relationship, or the third relative relationship. The content may be estimated.

前記撮像画像に含まれる前記被写体の属性の設定を受け付ける設定受付部をさらに有し、前記推定部は、前記被写体の属性にさらに基づいて前記行動内容を推定してもよい。 The setting reception unit that accepts the setting of the attribute of the subject included in the captured image may be further provided, and the estimation unit may estimate the action content based on the attribute of the subject.

前記関係特定部は、前記被写体検出部が検出した被写体と前記設定受付部が属性の設定を受け付けた被写体との位置関係をさらに特定し、前記推定部は、前記関係特定部が特定した前記位置関係と、前記設定受付部が設定を受け付けた被写体の属性とにさらに基づいて前記行動内容を推定してもよい。 The relationship specifying unit further specifies the positional relationship between the subject detected by the subject detecting unit and the subject for which the setting receiving unit has received the attribute setting, and the estimation unit further identifies the positional relationship specified by the relationship specifying unit. The action content may be estimated based on the relationship and the attribute of the subject for which the setting receiving unit has received the setting.

前記撮像画像に写っている場所を特定する場所特定部と、前記推定部が推定した前記行動内容と、前記場所特定部が特定した場所とが所定の条件を満たす場合に通知情報を出力する出力部と、をさらに有してもよい。 Output that outputs notification information when a place specifying unit that specifies a place reflected in the captured image, the action content estimated by the estimation unit, and a place specified by the place specifying unit satisfy predetermined conditions. And may further have.

前記出力部は、前記場所特定部が特定した場所と前記行動内容との組み合わせに対応する種別の前記通知情報を出力してもよい。 The output unit may output the notification information of the type corresponding to the combination of the location specified by the location specifying unit and the action content.

前記人の色の変化又は前記被写体の色の変化の少なくともいずれかを特定する色特定部をさらに有し、前記推定部は、前記色特定部が特定した前記人の色の変化又は前記被写体の色の変化の少なくともいずれかにさらに基づいて、前記行動内容を推定してもよい。 Further having a color specifying unit that specifies at least one of the change in the color of the person or the color of the subject, the estimation unit is the change in the color of the person specified by the color specifying unit or the change in the subject. The behavior may be estimated based further on at least one of the color changes.

前記画像取得部は、複数の前記撮像画像データを取得し、前記関係特定部は、複数の前記相対関係を特定し、前記推定部は、複数の前記相対関係それぞれと前記被写体の種別との組み合わせに基づいて、前記人の行動内容を推定してもよい。 The image acquisition unit acquires a plurality of the captured image data, the relationship specifying unit identifies a plurality of the relative relationships, and the estimation unit combines each of the plurality of the relative relationships with the type of the subject. The behavior content of the person may be estimated based on the above.

本発明の第2の態様に係る行動推定方法は、コンピュータが実行する、撮像画像を示す撮像画像データを取得するステップと、前記撮像画像に含まれる人の動きを検出するステップと、前記撮像画像に含まれる被写体の種別を検出するステップと、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定するステップと、を有する。 The behavior estimation method according to the second aspect of the present invention includes a step of acquiring captured image data showing a captured image, a step of detecting a movement of a person included in the captured image, and the captured image, which are executed by a computer. Based on the step of detecting the type of the subject included in the above, the step of specifying the relative relationship between the person and the subject due to the movement of the person, and the combination of the type of the subject and the relative relationship. It has a step of estimating the behavior content of the person.

本発明の第3の態様に係るプログラムは、コンピュータに、撮像画像を示す撮像画像データを取得するステップと、前記撮像画像に含まれる人の動きを検出するステップと、前記撮像画像に含まれる被写体の種別を検出するステップと、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定するステップと、を実行させる。 The program according to the third aspect of the present invention includes a step of acquiring captured image data showing a captured image, a step of detecting a movement of a person included in the captured image, and a subject included in the captured image in a computer. Based on the combination of the step of detecting the type of the subject, the step of specifying the relative relationship between the person and the subject due to the movement of the person, and the type of the subject and the relative relationship, the person. To execute the step of estimating the action content of.

本発明の第4の態様に係る行動推定システムは、撮像装置が生成した撮像画像に基づいて人の行動内容を推定する行動推定装置と、前記行動推定装置が推定した前記人の行動内容を表示する情報端末と、を備え、前記行動推定装置は、前記撮像画像を示す撮像画像データを取得する画像取得部と、前記撮像画像に含まれる人の動きを検出する人検出部と、前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の前記行動内容を推定する推定部と、前記推定部が推定した前記行動内容を示す行動内容情報を前記情報端末に送信する送信部と、を有し、前記情報端末は、前記行動内容情報を受信する情報受信部と、前記情報受信部が受信した前記行動内容情報に基づいて前記行動内容を表示する表示部と、を有する。 The behavior estimation system according to the fourth aspect of the present invention displays a behavior estimation device that estimates a person's behavior content based on an image captured by the image pickup device, and the behavior content of the person estimated by the behavior estimation device. The behavior estimation device includes an image acquisition unit that acquires captured image data indicating the captured image, a person detection unit that detects the movement of a person included in the captured image, and the captured image. A subject detection unit that detects the type of subject included in the above, a relationship specifying unit that specifies a relative relationship between the person and the subject due to the movement of the person, a type of the subject, and the relative relationship. It has an estimation unit that estimates the behavior content of the person based on the combination of the above, and a transmission unit that transmits the behavior content information indicating the behavior content estimated by the estimation unit to the information terminal. The terminal has an information receiving unit that receives the action content information, and a display unit that displays the action content based on the action content information received by the information receiving unit.

本発明によれば、人の行動を推定する精度を向上させるという効果を奏する。 According to the present invention, there is an effect of improving the accuracy of estimating human behavior.

本実施形態に係る行動推定システムSの概要を説明するための図である。It is a figure for demonstrating the outline of the behavior estimation system S which concerns on this embodiment. 行動推定システムSの構成を説明するための図である。It is a figure for demonstrating the structure of the behavior estimation system S. 情報端末2の構成を説明するための図である。It is a figure for demonstrating the structure of the information terminal 2. 行動推定装置10の構成を説明するための図である。It is a figure for demonstrating the structure of the behavior estimation apparatus 10. 行動内容データベースの一例を示す図である。It is a figure which shows an example of the action content database. 行動推定装置10が人の行動内容を推定する動作の一例を示すフローチャートである。It is a flowchart which shows an example of the action which the action estimation apparatus 10 estimates a person's action content. 人又は被写体の色の変化に基づいて人の行動内容を推定する行動推定装置10の構成を示す図である。It is a figure which shows the structure of the behavior estimation apparatus 10 which estimates the behavior content of a person based on the change of the color of a person or a subject.

[行動推定システムSの概要]
図1は、本実施形態に係る行動推定システムSの概要を説明するための図である。図2は、行動推定システムSの構成を示す図である。行動推定システムSは、撮像装置1と、情報端末2と、行動推定装置10と、を備える。図2に示すように、撮像装置1と情報端末2と行動推定装置10とは、ネットワークNを介して接続されている。ネットワークNは、例えばイントラネット又はインターネットである。ネットワークNは、無線ネットワークを含んでもよい。
[Overview of behavior estimation system S]
FIG. 1 is a diagram for explaining an outline of the behavior estimation system S according to the present embodiment. FIG. 2 is a diagram showing a configuration of the behavior estimation system S. The behavior estimation system S includes an image pickup device 1, an information terminal 2, and a behavior estimation device 10. As shown in FIG. 2, the image pickup device 1, the information terminal 2, and the behavior estimation device 10 are connected via a network N. The network N is, for example, an intranet or the Internet. The network N may include a wireless network.

図1(a)は、空間Rを上から見た図であり、図1(b)は、空間Rを横から見た図である。空間Rは、例えば店舗の売場、店舗の倉庫、工場の倉庫、又は施設の備品置き場のように物体が置かれた空間である。図1に示すように、空間Rには複数の棚T(T1~T4)が設置されている。図1(b)に示すように、複数の棚T(T1~T3)には、複数の物体P(P1~P3)がそれぞれ置かれている。図1に示すように、空間Rには、人Mが滞在している。人Mは、物体Pを入れることが可能なバッグBを所持している。 FIG. 1 (a) is a view of the space R as viewed from above, and FIG. 1 (b) is a view of the space R as viewed from the side. The space R is a space in which an object is placed, such as a store sales floor, a store warehouse, a factory warehouse, or a facility storage space. As shown in FIG. 1, a plurality of shelves T (T1 to T4) are installed in the space R. As shown in FIG. 1 (b), a plurality of objects P (P1 to P3) are respectively placed on the plurality of shelves T (T1 to T3). As shown in FIG. 1, a person M is staying in the space R. The person M has a bag B in which the object P can be put.

図1においては、行動推定システムSは、空間Rに設置された一以上の撮像装置1が生成した撮像画像に基づいて人Mの行動内容を推定する行動推定装置10を備える。撮像装置1は、例えば監視カメラであり、人の行動内容を推定する領域を撮像する。撮像装置1は、撮像して生成した撮像画像データを行動推定装置10に送信する。撮像装置1は、撮像画像データとして動画像データを生成してもよい。動画像データは、例えばH.264又はH.265等の圧縮規格により符号化されたデータである。 In FIG. 1, the behavior estimation system S includes a behavior estimation device 10 that estimates the behavior content of the person M based on the captured images generated by one or more image pickup devices 1 installed in the space R. The image pickup device 1 is, for example, a surveillance camera, and captures an area for estimating a person's behavior. The image pickup device 1 transmits the captured image data generated by taking an image to the behavior estimation device 10. The image pickup apparatus 1 may generate moving image data as captured image data. The moving image data is, for example, H. 264 or H. The data is encoded by a compression standard such as 265.

行動推定装置10は、撮像装置1が生成した撮像画像に基づいて人Mの行動内容を推定し、推定した行動内容を示す行動内容情報を情報端末2に送信する。行動推定装置10は、撮像画像に含まれる人Mと被写体との相対関係に基づいて人Mの行動内容を推定する情報処理装置であり、例えばコンピュータである。被写体は、例えば複数の棚T、複数の物体P、バッグB又は他の人である。行動推定装置10は、単一の情報処理装置でもよいし、例えばクラウド型サーバのように複数の情報処理装置で構成されてもよい。 The behavior estimation device 10 estimates the behavior content of the person M based on the captured image generated by the image pickup device 1, and transmits the behavior content information indicating the estimated behavior content to the information terminal 2. The behavior estimation device 10 is an information processing device that estimates the behavior content of the person M based on the relative relationship between the person M and the subject included in the captured image, and is, for example, a computer. The subject is, for example, a plurality of shelves T, a plurality of objects P, a bag B, or another person. The behavior estimation device 10 may be a single information processing device, or may be composed of a plurality of information processing devices such as a cloud-type server.

行動推定装置10は、人Mと被写体との関係である相対関係を特定し、特定した相対関係と被写体の種別との組み合わせに基づいて人Mの行動内容を推定する。相対関係は、例えば人Mと物体Pとの距離、人Mの目線の方向と物体Pの位置との関係、又は人Mの身体の向きと物体Pの位置との関係である。被写体の種別は、例えば缶飲料、ナイフ、商品カゴのように、形状又は色の少なくともいずれかに基づいて被写体を特定できる情報により表される。本実施形態においては、説明を簡単にするために、被写体の種別を商品名で表す場合がある。なお、被写体は、物体又は人である。 The behavior estimation device 10 identifies the relative relationship between the person M and the subject, and estimates the behavior content of the person M based on the combination of the specified relative relationship and the type of the subject. The relative relationship is, for example, the distance between the person M and the object P, the relationship between the direction of the line of sight of the person M and the position of the object P, or the relationship between the orientation of the body of the person M and the position of the object P. The type of subject is represented by information that can identify the subject based on at least one of shape or color, such as canned beverages, knives, and product baskets. In the present embodiment, the type of the subject may be represented by a product name for the sake of simplicity. The subject is an object or a person.

人Mが物体P2を手に取った後に物体P2をバッグBに入れた場合、行動推定装置10は、人Mの手と被写体との距離に基づいて「物体P2と接触している人Mの手がバッグBと近接している」と相対関係を特定する。続いて、検出した物体P2の種別が「缶飲料」であり、検出したバッグBの種別が「ハンドバッグ」である場合、行動推定システムSは、特定した相対関係と、被写体の種別である缶飲料及びハンドバッグとの組み合わせに基づいて「人Mが缶飲料をハンドバッグに入れた」と特定することにより、人Mの行動内容が万引きであると推定する。 When the object P2 is put into the bag B after the person M picks up the object P2, the behavior estimation device 10 determines that "the person M in contact with the object P2 is in contact with the object P2" based on the distance between the person M's hand and the subject. The hand is in close proximity to bag B. " Subsequently, when the type of the detected object P2 is "canned beverage" and the type of the detected bag B is "handbag", the behavior estimation system S has the specified relative relationship and the canned beverage which is the type of the subject. And by specifying that "person M put the canned beverage in the handbag" based on the combination with the handbag, it is presumed that the action content of person M is a baggage.

一方、特定した相対関係が同じであっても、検出した物体P2の種別が「缶飲料」であり、検出したバッグBの種別が「商品カゴ」である場合、行動推定装置10は、相対関係と、被写体の種別である缶飲料及び商品カゴとの組み合わせに基づいて「人Mが缶飲料を商品カゴに入れた」と特定することにより、人Mの行動内容が買い物であると推定する。 On the other hand, even if the specified relative relationship is the same, if the type of the detected object P2 is "canned beverage" and the type of the detected bag B is "commodity basket", the behavior estimation device 10 has a relative relationship. By specifying that "person M put the canned beverage in the product basket" based on the combination of the canned beverage and the product basket, which are the types of the subject, it is presumed that the action content of the person M is shopping.

行動推定装置10は、推定した結果を情報端末2に送信する。情報端末2は、例えばスマートフォン、タブレット又はパーソナルコンピュータである。情報端末2は、例えば店舗の売場を監視する店員又は工場の倉庫を管理する社員(以下、「管理者」という)が使用する端末である。 The behavior estimation device 10 transmits the estimated result to the information terminal 2. The information terminal 2 is, for example, a smartphone, a tablet, or a personal computer. The information terminal 2 is a terminal used by, for example, a store clerk who monitors the sales floor of a store or an employee who manages a warehouse of a factory (hereinafter, referred to as "manager").

情報端末2は、行動推定装置10が推定した人の行動内容をディスプレイに表示する。情報端末2は、例えば行動推定装置10が推定した人の行動内容と当該人が写っている撮像画像とを含む行動内容情報を取得し、行動内容情報に含まれる撮像画像と当該撮像画像に含まれる人の行動内容とを関連付けて表示してもよい。 The information terminal 2 displays the behavior content of the person estimated by the behavior estimation device 10 on the display. The information terminal 2 acquires behavior content information including, for example, the behavior content of a person estimated by the behavior estimation device 10 and the captured image of the person, and is included in the captured image included in the behavior content information and the captured image. It may be displayed in association with the behavior content of the person.

このように、行動推定装置10は、人Mと被写体との相対関係と被写体の種別との組み合わせに基づいて人Mの行動内容を推定することで、動きが類似する行動を高い精度で判別することができる。そして、行動推定装置10は、予め設定された行動(例えば万引き行為)を検出したことを情報端末2に通知することで、情報端末2を使用する管理者が、予め設定された行動が行われたことを高い精度で把握することができる。 In this way, the behavior estimation device 10 estimates the behavior content of the human M based on the combination of the relative relationship between the human M and the subject and the type of the subject, thereby discriminating the behaviors having similar movements with high accuracy. be able to. Then, the action estimation device 10 notifies the information terminal 2 that a preset action (for example, shoplifting action) has been detected, so that the administrator using the information terminal 2 performs the preset action. It is possible to grasp that with high accuracy.

なお、情報端末2の管理者は、行動推定装置10が人の行動内容を推定するために使用する各種の情報を設定することができる。情報端末2は、管理者の操作に応じて、人の行動内容を推定するために用いる情報である設定情報を行動推定装置10に送信する。 The administrator of the information terminal 2 can set various information used by the behavior estimation device 10 to estimate the behavior content of a person. The information terminal 2 transmits setting information, which is information used for estimating the behavior content of a person, to the behavior estimation device 10 in response to the operation of the administrator.

設定情報は、例えば被写体の属性情報又は被写体の種別情報のうち少なくとも1つを含む。被写体の属性情報は、被写体の位置又は形状と被写体の属性とが関連付けられた情報である。被写体の属性は、例えば被写体の所有者、被写体の機能といった被写体の特徴を示す情報である。例えば、図1に示す棚T1の属性情報は、棚T1の位置又は形状と棚T1の属性を示す「店舗」とが関連付けられた情報である。 The setting information includes, for example, at least one of subject attribute information or subject type information. The subject attribute information is information in which the position or shape of the subject is associated with the subject attribute. The subject attribute is information indicating the characteristics of the subject such as the owner of the subject and the function of the subject. For example, the attribute information of the shelf T1 shown in FIG. 1 is information in which the position or shape of the shelf T1 is associated with the "store" indicating the attribute of the shelf T1.

被写体の種別情報は、被写体の形状と被写体の種別とが関連付けられた情報である。例えば被写体が缶飲料の場合、被写体の種別情報は、被写体の種別を示す「缶飲料」と当該缶飲料の形状とが関連付けられた情報である。 The subject type information is information in which the shape of the subject and the type of the subject are associated with each other. For example, when the subject is a canned beverage, the subject type information is information in which the "canned beverage" indicating the type of the subject is associated with the shape of the canned beverage.

[情報端末2の構成]
図3は、情報端末2の構成を説明するための図である。情報端末2は、通信部21と、記憶部22と、制御部23と、表示部24と、操作部25と、を有する。制御部23は、情報送信部231と、情報受信部232とを有する。
[Configuration of information terminal 2]
FIG. 3 is a diagram for explaining the configuration of the information terminal 2. The information terminal 2 has a communication unit 21, a storage unit 22, a control unit 23, a display unit 24, and an operation unit 25. The control unit 23 has an information transmission unit 231 and an information reception unit 232.

通信部21は、ネットワークNを介して情報を送受信するための通信デバイスを含む。通信デバイスは、例えばLAN(Local Area Network)コントローラ又は無線LANコントローラである。 The communication unit 21 includes a communication device for transmitting and receiving information via the network N. The communication device is, for example, a LAN (Local Area Network) controller or a wireless LAN controller.

記憶部22は、ROM(Read Only Memory)、RAM(Random Access Memory)及びSSD(Solid State Drive)等の記憶媒体を有する。記憶部22は、制御部23が実行するプログラムを記憶している。 The storage unit 22 has a storage medium such as a ROM (Read Only Memory), a RAM (Random Access Memory), and an SSD (Solid State Drive). The storage unit 22 stores a program executed by the control unit 23.

制御部23は、例えばCPU(Central Processing Unit)である。制御部23は、記憶部22に記憶されているプログラムを実行することにより、情報送信部231及び情報受信部232として機能する。情報送信部231は、情報端末2を使用する管理者が作成した行動推定装置10の設定情報を、通信部21を介して行動推定装置10に送信する。情報受信部232は、行動推定装置10が送信した行動内容情報を、通信部21を介して受信する。 The control unit 23 is, for example, a CPU (Central Processing Unit). The control unit 23 functions as an information transmission unit 231 and an information reception unit 232 by executing a program stored in the storage unit 22. The information transmission unit 231 transmits the setting information of the behavior estimation device 10 created by the administrator who uses the information terminal 2 to the behavior estimation device 10 via the communication unit 21. The information receiving unit 232 receives the behavior content information transmitted by the behavior estimation device 10 via the communication unit 21.

表示部24は、例えば、液晶ディスプレイ又は有機EL(Electro Luminescence)等の表示デバイスを有する。表示部24は、情報受信部232が受信した行動内容情報に基づいて行動内容を表示する。表示部24は、例えば、情報受信部232が受信した行動内容情報に含まれる人の行動内容と当該人が写っている撮像画像とを抽出する。表示部24は、抽出した撮像画像をディスプレイに表示するとともに、当該撮像画像に写っている人の行動内容を当該撮像画像と関連付けて表示する。 The display unit 24 has, for example, a liquid crystal display or a display device such as an organic EL (Electro Luminescence). The display unit 24 displays the action content based on the action content information received by the information receiving unit 232. The display unit 24 extracts, for example, the behavior content of the person included in the behavior content information received by the information receiving unit 232 and the captured image in which the person is captured. The display unit 24 displays the extracted captured image on the display, and displays the behavior content of the person in the captured image in association with the captured image.

操作部25は、情報端末2を使用する管理者の操作を受け付けるデバイスであり、キーボード、マウス又はタッチパネルである。操作部25は、管理者の操作内容を示す情報を情報送信部231に通知する。 The operation unit 25 is a device that accepts the operation of the administrator who uses the information terminal 2, and is a keyboard, a mouse, or a touch panel. The operation unit 25 notifies the information transmission unit 231 of information indicating the operation content of the administrator.

[行動推定装置10の構成]
図4は、行動推定装置10の構成を説明するための図である。行動推定装置10は、通信部11と、記憶部12と、制御部13とを有する。制御部13は、画像取得部131と、人検出部132と、被写体検出部133と、設定受付部134と、関係特定部135と、推定部136と、場所特定部137と、出力部138とを有する。
[Structure of behavior estimation device 10]
FIG. 4 is a diagram for explaining the configuration of the behavior estimation device 10. The behavior estimation device 10 has a communication unit 11, a storage unit 12, and a control unit 13. The control unit 13 includes an image acquisition unit 131, a person detection unit 132, a subject detection unit 133, a setting reception unit 134, a relationship identification unit 135, an estimation unit 136, a location identification unit 137, and an output unit 138. Have.

通信部11は、ネットワークNを介して情報を送受信するための通信デバイスを含む。通信デバイスは、例えばLANコントローラ又は無線LANコントローラである。記憶部12は、ROM、RAM及びSSD等の記憶媒体を有する。記憶部12は、制御部13が実行するプログラムを記憶している。記憶部12は、情報端末2から取得した設定情報を記憶する。 The communication unit 11 includes a communication device for transmitting and receiving information via the network N. The communication device is, for example, a LAN controller or a wireless LAN controller. The storage unit 12 has a storage medium such as a ROM, RAM, and SSD. The storage unit 12 stores a program executed by the control unit 13. The storage unit 12 stores the setting information acquired from the information terminal 2.

記憶部12は、推定部136が人の行動内容を推定するために用いられる各種の情報をデータベースに記憶している。記憶部12は、例えば、人の行動内容と、人の動きと、被写体の種別と、人と被写体との相対関係とが関連付けられた行動内容データベースを記憶している。被写体は、物体又は人である。 The storage unit 12 stores various types of information used by the estimation unit 136 for estimating the behavior content of a person in a database. The storage unit 12 stores, for example, an action content database in which a person's action content, a person's movement, a subject type, and a relative relationship between the person and the subject are associated with each other. The subject is an object or a person.

図5は、行動内容データベースの一例を示す図である。図5においては、人の行動内容のカテゴリと、行動内容と、行動内容を特定するための複数の要件とが関連付けられている。複数の要件は、行動を推定する人の属性、人の動き、複数の被写体の種別(図5に示す「被写体1」「被写体2」)、及び人と被写体との相対関係である。人の属性は、例えば購買客又は従業員のように、人の行動を推定する空間における人の立場又は役割等を示す。 FIG. 5 is a diagram showing an example of an action content database. In FIG. 5, the category of human behavior content, the behavior content, and a plurality of requirements for specifying the behavior content are associated with each other. The plurality of requirements are the attributes of the person who estimates the behavior, the movement of the person, the types of the plurality of subjects (“subject 1” and “subject 2” shown in FIG. 5), and the relative relationship between the person and the subject. The attribute of a person indicates the position or role of the person in the space for estimating the behavior of the person, for example, a purchaser or an employee.

例えば、行動内容「眺める」は、人の属性が「購買客」、人の動きが「注視する」、被写体1が「商品」、相対関係が「人と被写体1との距離は距離A1未満」及び「人の目線と被写体1との方向差は方向差A2未満」という要件に関連付けられている。距離A1は、例えば人が被写体と接触することが可能と考えられる距離の最大値である。方向差A2は、例えば人が被写体を注視していると考えられる目線の方向のうち最も被写体から離れている方向である。詳細については後述するが、推定部136は、行動内容データベースに含まれている要件の組み合わせに対応する行動内容を特定することにより、撮像画像に含まれている被写体の行動内容を特定する。 For example, in the action content "view", the attribute of the person is "purchaser", the movement of the person is "watching", the subject 1 is "product", and the relative relationship is "the distance between the person and the subject 1 is less than the distance A1". And "the direction difference between the person's line of sight and the subject 1 is less than the direction difference A2". The distance A1 is, for example, the maximum value of the distance at which a person can come into contact with the subject. The direction difference A2 is, for example, the direction farthest from the subject among the directions of the line of sight where the person is considered to be gazing at the subject. Although the details will be described later, the estimation unit 136 specifies the behavior content of the subject included in the captured image by specifying the behavior content corresponding to the combination of the requirements included in the behavior content database.

図4に戻って、制御部13は、例えばCPUである。制御部13は、記憶部12に記憶されているプログラムを実行することにより、画像取得部131、人検出部132、被写体検出部133、設定受付部134、関係特定部135、推定部136、場所特定部137及び出力部138として機能する。 Returning to FIG. 4, the control unit 13 is, for example, a CPU. By executing the program stored in the storage unit 12, the control unit 13 executes an image acquisition unit 131, a person detection unit 132, a subject detection unit 133, a setting reception unit 134, a relationship identification unit 135, an estimation unit 136, and a location. It functions as a specific unit 137 and an output unit 138.

画像取得部131は、撮像画像を示す撮像画像データを取得する。画像取得部131は、撮像装置1が撮像して生成した撮像画像データを、通信部11を介して取得する。画像取得部131は、時系列に作成された複数の撮像画像データを取得してもよい。 The image acquisition unit 131 acquires captured image data indicating the captured image. The image acquisition unit 131 acquires the captured image data imaged and generated by the image pickup device 1 via the communication unit 11. The image acquisition unit 131 may acquire a plurality of captured image data created in time series.

人検出部132は、撮像画像に含まれる人の動きを検出する。人の動きは、例えば図5に示す「人の動き」の欄に記載されたような動きである。人検出部132は、撮像画像に含まれる人の位置を検出し、位置を検出した人の動きをさらに検出する。人検出部132は、例えば撮像画像に含まれる人の関節の位置及び人の目線の向きの変化を特定することにより、撮像画像に含まれる人の動きを検出する。人検出部132は、検出した人の動きを示す人検出情報を推定部136に出力する。 The human detection unit 132 detects the movement of a person included in the captured image. The movement of a person is, for example, a movement as described in the column of "movement of a person" shown in FIG. The person detection unit 132 detects the position of the person included in the captured image, and further detects the movement of the person who has detected the position. The human detection unit 132 detects the movement of a person included in the captured image, for example, by specifying changes in the positions of the joints of the person and the direction of the line of sight of the person included in the captured image. The person detection unit 132 outputs the person detection information indicating the movement of the detected person to the estimation unit 136.

人検出部132は、人の属性をさらに検出してもよい。人検出部132は、例えば従業員が着用している作業服又は制服の模様又は色に基づいて従業員であるか否かを判定することにより人の属性を検出する。人検出部132は、記憶部12に記憶されている従業員の顔の輪郭及び形状等の従業員の特徴と、撮像画像に含まれる人の特徴とを比較した結果に基づいて従業員であるか否かを判定することにより人の属性を検出してもよい。 The person detection unit 132 may further detect a person's attributes. The person detection unit 132 detects a person's attributes by, for example, determining whether or not the employee is an employee based on the pattern or color of the work clothes or uniform worn by the employee. The person detection unit 132 is an employee based on the result of comparing the employee characteristics such as the contour and shape of the employee's face stored in the storage unit 12 with the characteristics of the person included in the captured image. A person's attribute may be detected by determining whether or not it is.

被写体検出部133は、撮像画像に含まれる被写体の種別を検出する。被写体検出部133は、撮像画像に含まれる被写体の位置を検出し、位置を検出した被写体の種別をさらに検出する。被写体検出部133は、例えば記憶部12に記憶されている設定情報に含まれている被写体の形状に基づいて撮像画像に含まれる被写体を検出し、被写体の形状に関連付けられた被写体の種別に基づいて撮像画像に含まれる被写体の種別を検出する。被写体検出部133は、検出した被写体の位置と当該被写体の種別とを示す被写体検出情報を推定部136に出力する。 The subject detection unit 133 detects the type of subject included in the captured image. The subject detection unit 133 detects the position of the subject included in the captured image, and further detects the type of the subject for which the position has been detected. The subject detection unit 133 detects a subject included in the captured image based on the shape of the subject included in the setting information stored in the storage unit 12, for example, and is based on the type of the subject associated with the shape of the subject. Detects the type of subject included in the captured image. The subject detection unit 133 outputs subject detection information indicating the position of the detected subject and the type of the subject to the estimation unit 136.

被写体検出部133は、撮像画像に含まれる複数の被写体を検出してもよい。被写体検出部133は、撮像画像に含まれる第1被写体及び第2被写体を検出してもよい。第1被写体及び第2被写体は、例えば、図5に示す「被写体1」及び「被写体2」の欄に記載された種別の物品である。被写体検出部133が複数の被写体を検出した場合、推定部136は、検出した複数の被写体のうち一以上の被写体の種別に基づいて人の行動内容を推定する。 The subject detection unit 133 may detect a plurality of subjects included in the captured image. The subject detection unit 133 may detect the first subject and the second subject included in the captured image. The first subject and the second subject are, for example, articles of the type described in the columns of "subject 1" and "subject 2" shown in FIG. When the subject detection unit 133 detects a plurality of subjects, the estimation unit 136 estimates a person's behavior content based on the type of one or more of the detected plurality of subjects.

設定受付部134は、撮像画像に含まれる被写体の属性の設定を受け付ける。設定受付部134は、例えば、情報端末2が送信した被写体の属性情報と被写体の種別情報とを含む設定情報を受信することで、撮像画像に含まれる被写体の属性の設定を受け付ける。設定受付部134は、受け付けた被写体の属性の設定を含む設定情報を記憶部12に記憶させてもよいし、被写体検出部133に出力してもよい。 The setting receiving unit 134 receives the setting of the attribute of the subject included in the captured image. For example, the setting receiving unit 134 receives the setting information including the subject attribute information and the subject type information transmitted by the information terminal 2, and receives the setting of the subject attribute included in the captured image. The setting reception unit 134 may store the setting information including the setting of the attribute of the received subject in the storage unit 12, or may output it to the subject detection unit 133.

関係特定部135は、人の動きに伴う人と被写体との関係である相対関係を特定する。関係特定部135は、人検出部132が出力した人検出情報と被写体検出部133が出力した被写体検出情報とに基づいて相対関係を特定する。関係特定部135は、例えば、人検出部132が検出した人の動きに対応する部位と被写体との相対関係を特定する。関係特定部135は、例えば人検出部132が検出した人の動きが「注視する」である場合、人の目と被写体との関係を特定し、「取る」である場合、人の手と被写体との関係を特定する。関係特定部135は、特定した相対関係を推定部136に通知する。相対関係は、推定部136が人の行動内容を特定するために用いられる。関係特定部135は、例えば、人と被写体との距離を相対関係として特定する。関係特定部135は、例えば人検出情報に含まれる人の関節の位置と被写体検出情報に含まれる被写体の位置との差に基づいて人と被写体との距離を特定する。 The relationship specifying unit 135 identifies the relative relationship between the person and the subject that accompanies the movement of the person. The relationship specifying unit 135 specifies the relative relationship based on the person detection information output by the person detection unit 132 and the subject detection information output by the subject detection unit 133. The relationship specifying unit 135 specifies, for example, the relative relationship between the portion corresponding to the movement of the person detected by the person detecting unit 132 and the subject. The relationship specifying unit 135 identifies the relationship between the human eye and the subject when, for example, the movement of the person detected by the person detecting unit 132 is "gaze", and when it is "take", the human hand and the subject. Identify the relationship with. The relationship specifying unit 135 notifies the estimation unit 136 of the specified relative relationship. The relative relationship is used by the estimation unit 136 to identify the behavior content of a person. The relationship specifying unit 135 specifies, for example, the distance between a person and a subject as a relative relationship. The relationship specifying unit 135 specifies the distance between the person and the subject based on, for example, the difference between the position of the joint of the person included in the person detection information and the position of the subject included in the subject detection information.

関係特定部135は、人の目線の方向と被写体の位置との関係を、相対関係として特定してもよい。関係特定部135は、例えば人の動きが「注視する」又は「見る」等の人の目の動きである場合、人検出情報に含まれる人の目線の方向と被写体検出情報に含まれる被写体の位置との関係を、相対関係として特定する。関係特定部135は、例えば人が被写体を直視した場合の目線の方向と人検出情報に含まれる目線の方向との差を相対関係として特定する。 The relationship specifying unit 135 may specify the relationship between the direction of the person's line of sight and the position of the subject as a relative relationship. When the movement of the person is, for example, the movement of the human eye such as "gaze" or "see", the relationship specifying unit 135 indicates the direction of the person's line of sight included in the person detection information and the subject included in the subject detection information. The relationship with the position is specified as a relative relationship. The relationship specifying unit 135 specifies, for example, the difference between the direction of the line of sight when a person directly looks at the subject and the direction of the line of sight included in the person detection information as a relative relationship.

関係特定部135は、人の身体の向きと被写体の位置との関係を、相対関係として特定してもよい。関係特定部135は、例えば人の動きが「会話する」である場合、人検出情報に含まれる人の関節の位置に基づいて特定した人の身体の向きと被写体検出情報に含まれる被写体の位置との関係を、相対関係として特定する。関係特定部135は、例えば人が被写体の正面を向いた場合の身体の向きと人の関節の位置に基づいて特定した身体の向きとの差を相対関係として特定する。 The relationship specifying unit 135 may specify the relationship between the orientation of the human body and the position of the subject as a relative relationship. For example, when the movement of a person is "conversation", the relationship specifying unit 135 indicates the orientation of the body of the person specified based on the position of the joint of the person included in the person detection information and the position of the subject included in the subject detection information. The relationship with is specified as a relative relationship. The relationship specifying unit 135 specifies, for example, the difference between the orientation of the body when the person faces the front of the subject and the orientation of the body specified based on the positions of the joints of the person as a relative relationship.

関係特定部135は、特定した複数の相対関係に基づいて、相対関係の変化を特定してもよい。関係特定部135は、例えば時系列に作成された複数の撮像画像に基づいて検出された人の複数の動きと被写体とに基づいて、複数の相対関係を特定し、特定した複数の相対関係それぞれに基づいて相対関係の変化を特定する。 The relationship specifying unit 135 may specify a change in the relative relationship based on the specified plurality of relative relationships. The relationship specifying unit 135 identifies a plurality of relative relationships based on, for example, a plurality of movements of a person detected based on a plurality of captured images created in time series and a subject, and each of the specified plurality of relative relationships is specified. Identify changes in relative relationships based on.

例えば、時刻Tにおいて、関係特定部135が相対関係を「人と被写体との距離は10cm」と特定し、時刻T+1において、関係特定部135が相対関係を「人と被写体との距離は50cm」と特定した場合、時刻T及び時刻T+1に特定した相対関係に基づいて、関係特定部135は「人が被写体から遠ざかる方向に移動している」と特定する。このように、相対関係の変化を特定することで、関係特定部135は、精度の高い相対関係を特定できる。 For example, at time T, the relationship specifying unit 135 specifies the relative relationship as "the distance between the person and the subject is 10 cm", and at time T + 1, the relationship specifying unit 135 specifies the relative relationship as "the distance between the person and the subject is 50 cm". In the case of specifying, the relationship specifying unit 135 specifies that "a person is moving in a direction away from the subject" based on the relative relationship specified at time T and time T + 1. By specifying the change in the relative relationship in this way, the relationship specifying unit 135 can specify the relative relationship with high accuracy.

関係特定部135は、行動を推定する人と複数の被写体とが撮像画像に含まれている場合、複数の相対関係を特定してもよい。関係特定部135は、例えば人の動きに伴う人と第1被写体との関係である第1相対関係、人の動きに伴う人と第2被写体との関係である第2相対関係、及び人の動きに伴う第1被写体と第2被写体との関係である第3相対関係を特定してもよい。第1相対関係は、例えば人と図5に示す被写体1との相対関係であり、第2相対関係は、人と図5に示す被写体2との相対関係であり、第3相対関係は、被写体1と被写体2との相対関係である。 When the captured image includes a person who estimates the behavior and a plurality of subjects, the relationship specifying unit 135 may specify a plurality of relative relationships. The relationship specifying unit 135 is, for example, a first relative relationship, which is a relationship between a person and a first subject due to the movement of a person, a second relative relationship, which is a relationship between a person and a second subject due to the movement of a person, and a person. The third relative relationship, which is the relationship between the first subject and the second subject due to the movement, may be specified. The first relative relationship is, for example, the relative relationship between a person and the subject 1 shown in FIG. 5, the second relative relationship is the relative relationship between the person and the subject 2 shown in FIG. 5, and the third relative relationship is the subject. It is a relative relationship between 1 and subject 2.

例えば店舗の売場に滞在する購買客が商品をバッグの中に入れた場合、行動を推定する人である購買客は、第1被写体である商品と第2被写体であるバッグとを用いて行動している。そこで、関係特定部135は、購買客と商品との関係である第1相対関係、購買客とバッグとの関係である第2相対関係、及び商品とバッグとの関係である第3相対関係を特定する。関係特定部135がこのような複数の相対関係を推定部136に通知することで、推定部136は、人の行動内容の特定精度を向上させることができる。 For example, when a purchaser staying in a store's sales floor puts a product in a bag, the purchaser who estimates the behavior acts using the product as the first subject and the bag as the second subject. ing. Therefore, the relationship specifying unit 135 determines the first relative relationship, which is the relationship between the purchaser and the product, the second relative relationship, which is the relationship between the purchaser and the bag, and the third relative relationship, which is the relationship between the product and the bag. Identify. When the relationship specifying unit 135 notifies the estimation unit 136 of such a plurality of relative relationships, the estimation unit 136 can improve the accuracy of specifying the human behavior content.

関係特定部135は、撮像画像に含まれている複数の被写体のうち、属性が設定されている被写体と他の被写体との位置関係を特定してもよい。関係特定部135は、例えば被写体検出部133が検出した被写体と設定受付部134が属性の設定を受け付けた被写体との位置関係をさらに特定する。 The relationship specifying unit 135 may specify the positional relationship between the subject for which the attribute is set and another subject among the plurality of subjects included in the captured image. The relationship specifying unit 135 further specifies, for example, the positional relationship between the subject detected by the subject detecting unit 133 and the subject for which the setting receiving unit 134 has received the attribute setting.

例えば店舗の売場を撮像した撮像画像は、固定的に設置された商品棚の画像と商品棚に置かれた商品の画像とを含んでいる。万引きを検出するという目的の場合、商品棚の位置と商品の位置との関係が、人が万引きしていると推定する際に有効である。そこで、関係特定部135は、被写体検出部133が検出した被写体である商品の位置と設定受付部134が属性の設定を受け付けた被写体である商品棚の位置との距離の変化を特定する。 For example, a captured image of a store's sales floor includes an image of a fixedly installed product shelf and an image of a product placed on the product shelf. For the purpose of detecting shoplifting, the relationship between the position of the product shelf and the position of the product is effective in presuming that a person is shoplifting. Therefore, the relationship specifying unit 135 specifies a change in the distance between the position of the product that is the subject detected by the subject detecting unit 133 and the position of the product shelf that is the subject that the setting receiving unit 134 has received the setting of the attribute.

推定部136は、人の行動内容を推定する。推定部136は、被写体の種別と、相対関係との組み合わせに基づいて、人の行動内容を推定する。推定部136は、例えば被写体の種別と相対関係との組み合わせが、記憶部12が記憶している行動内容データベースに含まれているか否かを検索する。推定部136は、行動内容データベースに類似又は一致する組み合わせが含まれている場合、類似又は一致する組み合わせに関連付けられた行動内容を、人の行動内容と推定する。 The estimation unit 136 estimates the behavior content of a person. The estimation unit 136 estimates the human behavior content based on the combination of the type of the subject and the relative relationship. The estimation unit 136 searches, for example, whether or not the combination of the subject type and the relative relationship is included in the action content database stored in the storage unit 12. When the behavior content database contains similar or matching combinations, the estimation unit 136 estimates the behavior content associated with the similar or matching combination as the human behavior content.

例えば店舗の売場に滞在する人が商品を入れ物に入れた場合、被写体検出部133は、第1被写体である商品と第2被写体である入れ物とを検出する。関係特定部135は、人の手と第1被写体との距離、及び第1被写体と第2被写体との距離に基づいて相対関係を特定する。関係特定部135は、相対関係を「人の手と第1被写体との距離、及び第1被写体と第2被写体との距離のそれぞれが所定の距離(例えば図5に示す距離D1及び距離D2)未満」であると特定する。 For example, when a person staying in a store's sales floor puts a product in a container, the subject detection unit 133 detects the product as the first subject and the container as the second subject. The relationship specifying unit 135 specifies the relative relationship based on the distance between the human hand and the first subject and the distance between the first subject and the second subject. The relationship specifying unit 135 describes the relative relationship as "the distance between the human hand and the first subject and the distance between the first subject and the second subject are predetermined distances (for example, the distance D1 and the distance D2 shown in FIG. 5). Identify as "less than".

推定部136は、第2被写体の種別が「バッグ」である場合、人の行動内容を万引きと推定し、第2被写体の種別が「商品カゴ」である場合、人の行動内容を買い物と推定する。このように、推定部136は、人の行動が類似する場合であっても、被写体の種別を用いて人の行動内容を推定することで、人の行動を高い精度で推定することができる。 When the type of the second subject is "bag", the estimation unit 136 estimates the human behavior content as shoplifting, and when the second subject type is "product basket", the estimation unit 136 estimates the human behavior content as shopping. do. As described above, the estimation unit 136 can estimate the human behavior with high accuracy by estimating the human behavior content using the type of the subject even when the human behavior is similar.

さらに、推定部136は、関係特定部135が相対関係の変化を「第1被写体と第2被写体との距離が短くなる」と特定したことにさらに基づいて、人の行動内容を推定してもよい。このように動作することで、推定部136は、人の行動をさらに高い精度で推定することができる。 Further, the estimation unit 136 may estimate the human behavior content based on the fact that the relationship specifying unit 135 further identifies the change in the relative relationship as "the distance between the first subject and the second subject becomes shorter". good. By operating in this way, the estimation unit 136 can estimate the human behavior with higher accuracy.

推定部136は、関係特定部135が人と被写体との距離を相対関係として特定した場合、被写体検出部133が検出した被写体の種別に関連付けられた基準距離と、関係特定部135が特定した人と被写体との距離と、を比較した結果に基づいて行動内容を推定してもよい。基準距離は、例えば人の行動内容の特徴に対応する距離であり、図5に示す「距離A1未満」、「距離B1未満」等である。基準距離は、被写体の種別により異なる距離であってもよい。 When the relationship specifying unit 135 specifies the distance between the person and the subject as a relative relationship, the estimation unit 136 sets the reference distance associated with the type of the subject detected by the subject detecting unit 133 and the person specified by the relationship specifying unit 135. The action content may be estimated based on the result of comparing the distance between the subject and the subject. The reference distance is, for example, a distance corresponding to the characteristics of a person's behavior, such as “distance A1 or less” and “distance B1 or less” shown in FIG. The reference distance may be different depending on the type of subject.

例えば、店舗に滞在する人が被写体である商品を注視している場合において、関係特定部135は、人と被写体との相対関係を「人と被写体との距離は距離Y1」と特定する。その場合、推定部136は、図5に示す基準距離である「距離A1未満」と関係特定部135が特定した距離Y1とを比較する。距離Y1が距離A1未満である場合、推定部136は、行動内容である「商品を眺める」に関連付けられた相対関係の1つである「人と被写体1との距離は距離A1未満」と一致するので、人が商品を眺めている可能性があると判定する。 For example, when a person staying in a store is gazing at a product that is a subject, the relationship specifying unit 135 specifies the relative relationship between the person and the subject as "the distance between the person and the subject is the distance Y1". In that case, the estimation unit 136 compares the reference distance “less than the distance A1” shown in FIG. 5 with the distance Y1 specified by the relationship specifying unit 135. When the distance Y1 is less than the distance A1, the estimation unit 136 coincides with "the distance between the person and the subject 1 is less than the distance A1" which is one of the relative relationships associated with the action content "looking at the product". Therefore, it is determined that a person may be looking at the product.

推定部136は、関係特定部135が人の目線の方向と被写体の位置との関係を相対関係として特定した場合、被写体検出部133が検出した被写体の種別に関連付けられた目線の方向と被写体の位置との関係である基準目線関係と、関係特定部135が特定した人の目線の方向と被写体の位置との関係と、を比較した結果に基づいて行動内容を推定してもよい。目線の方向と被写体の位置との関係は、人の目線の方向と人が被写体を直視する場合の目線の方向との差により表される。基準目線関係は、行動内容の特徴に対応する方向差であり、例えば図5に示す「方向差A2未満」である。 When the relationship specifying unit 135 specifies the relationship between the direction of the human line of sight and the position of the subject as a relative relationship, the estimation unit 136 indicates the direction of the line of sight and the subject associated with the type of subject detected by the subject detection unit 133. The action content may be estimated based on the result of comparing the reference line-of-sight relationship, which is the relationship with the position, and the relationship between the direction of the line of sight of the person specified by the relationship specifying unit 135 and the position of the subject. The relationship between the direction of the line of sight and the position of the subject is expressed by the difference between the direction of the line of sight of the person and the direction of the line of sight when the person directly looks at the subject. The reference line-of-sight relationship is a direction difference corresponding to the characteristics of the action content, for example, “direction difference less than A2” shown in FIG.

例えば、店舗に滞在する人が被写体である商品を眺めている場合において、関係特定部135は、人と被写体との相対関係を「人の目線の方向と被写体の位置との関係は方向差Y2」と特定する。その場合、推定部136は、図5に示す基準目線関係である「方向差A2未満」と関係特定部135が特定した方向差Y2とを比較する。方向差Y2が方向差A2よりも被写体に近い方向である場合、推定部136は、行動内容である「商品を眺める」に関連付けられた相対関係の1つである「人の目線と被写体1との方向差は方向差A2未満」と一致するので、人が商品を眺めている可能性があると判定する。 For example, when a person staying in a store is looking at a product that is a subject, the relationship specifying unit 135 describes the relative relationship between the person and the subject as "the relationship between the direction of the person's line of sight and the position of the subject is a direction difference Y2. To specify. In that case, the estimation unit 136 compares the “direction difference A2 or less”, which is the reference line-of-sight relationship shown in FIG. 5, with the direction difference Y2 specified by the relationship specifying unit 135. When the direction difference Y2 is closer to the subject than the direction difference A2, the estimation unit 136 has the "human eye and subject 1" which is one of the relative relationships associated with the action content "looking at the product". Since the direction difference of is less than the direction difference A2, it is determined that there is a possibility that a person is looking at the product.

推定部136は、人と被写体との距離、及び人の目線の方向と被写体の位置との方向差の両方が基準を満たしている場合に、人の行動が「商品を眺める」であると推定してもよい。推定部136が複数の相対関係に基づいて人の行動内容を推定することで、行動内容の推定精度がさらに向上する。 The estimation unit 136 estimates that a person's behavior is "looking at a product" when both the distance between the person and the subject and the direction difference between the direction of the person's line of sight and the position of the subject satisfy the criteria. You may. By estimating the behavior content of a person based on a plurality of relative relationships, the estimation unit 136 further improves the estimation accuracy of the behavior content.

推定部136は、関係特定部135が人の身体の向きと被写体の位置との関係を相対関係として特定した場合、被写体検出部133が検出した被写体の種別に関連付けられた身体の向きと被写体の位置との関係である基準身体向き関係と、関係特定部135が特定した人の目線の方向と被写体の位置との関係と、を比較した結果に基づいて行動内容を推定してもよい。身体の向きと被写体の位置との関係は、身体の向きと人が被写体の方向を向いた場合の身体の向きとの差により表される。基準身体向き関係は、行動内容の特徴に対応する向きの差であり、例えば図5に示す向き「角度差B2未満」である。 When the relationship specifying unit 135 specifies the relationship between the orientation of the human body and the position of the subject as a relative relationship, the estimation unit 136 indicates the orientation of the body and the subject associated with the type of the subject detected by the subject detection unit 133. The action content may be estimated based on the result of comparing the reference body orientation relationship, which is the relationship with the position, and the relationship between the direction of the line of sight of the person specified by the relationship specifying unit 135 and the position of the subject. The relationship between the orientation of the body and the position of the subject is expressed by the difference between the orientation of the body and the orientation of the body when the person faces the direction of the subject. The reference body orientation relationship is a difference in orientation corresponding to the characteristics of the behavioral content, for example, the orientation “less than the angle difference B2” shown in FIG.

例えば、店舗に滞在する人(購買客)が被写体である従業員と話している場合において、関係特定部135は、人と被写体との相対関係を「人の身体の向きと被写体の位置との関係は角度差X1」と特定する。その場合、推定部136は、図5に示す基準身体向き関係である「角度差B2未満」と関係特定部135が特定した角度差X1とを比較する。角度差X1が角度差B2よりも被写体に近い方向を向いている場合、推定部136は、行動内容である「従業員と話す」に関連付けられた相対関係の1つである「人の身体の向きと被写体1との角度差は角度差B2未満」と一致するので、人が従業員と話している可能性があると判定する。 For example, when a person (purchaser) staying in a store is talking to an employee who is the subject, the relationship specifying unit 135 describes the relative relationship between the person and the subject as "the orientation of the person's body and the position of the subject". The relationship is specified as "angle difference X1". In that case, the estimation unit 136 compares the “angle difference B2 or less”, which is the reference body orientation relationship shown in FIG. 5, with the angle difference X1 specified by the relationship specifying unit 135. When the angle difference X1 points in a direction closer to the subject than the angle difference B2, the estimation unit 136 is the "human body" which is one of the relative relationships associated with the action content "talking to the employee". Since the angle difference between the orientation and the subject 1 is less than the angle difference B2, it is determined that a person may be talking to the employee.

推定部136は、人と被写体との距離、及び人の身体の向きと被写体の位置との角度差の両方が基準を満たしている場合に、人の行動が「従業員と話す」であると推定してもよい。推定部136が複数の相対関係に基づいて人の行動内容を推定することで、行動内容の推定精度がさらに向上する。 The estimation unit 136 determines that a person's behavior is "speaking with an employee" when both the distance between the person and the subject and the angle difference between the orientation of the person's body and the position of the subject meet the criteria. You may estimate. By estimating the behavior content of a person based on a plurality of relative relationships, the estimation unit 136 further improves the estimation accuracy of the behavior content.

推定部136は、関係特定部135が複数の相対関係を用いて相対関係の変化を特定した場合、被写体の種別と、相対関係の変化との組み合わせに基づいて、人の行動内容を推定してもよい。例えば、店舗に滞在している人が手に取った商品をバッグに入れる場合、関係特定部135は、複数の時刻それぞれにおいて第1被写体である商品と第2被写体であるバッグとの距離を相対関係として特定する。関係特定部135は、相対関係の変化を「第1被写体と第2被写体との距離が短くなる」と特定する。 When the relationship specifying unit 135 identifies a change in the relative relationship using a plurality of relative relationships, the estimation unit 136 estimates the human behavior content based on the combination of the type of subject and the change in the relative relationship. May be good. For example, when a product picked up by a person staying in a store is put in a bag, the relationship identification unit 135 relatives the distance between the product as the first subject and the bag as the second subject at each of a plurality of times. Identify as a relationship. The relationship specifying unit 135 identifies the change in the relative relationship as "the distance between the first subject and the second subject becomes shorter".

推定部136は、関係特定部135が特定した相対関係の変化と被写体の種別である商品及びバッグとの組み合わせに基づいて、人が商品をバッグに入れる動作であると判定し、人の行動内容を「万引き」と推定する。このように、相対関係の変化を用いることで、推定部136は、人の行動内容の推定精度を向上させることができる。 The estimation unit 136 determines that it is an action of a person to put a product in a bag based on the combination of the change in the relative relationship specified by the relationship identification unit 135 and the product and the bag which are the types of the subject, and the behavior content of the person. Is estimated to be "shoplifting". In this way, by using the change in the relative relationship, the estimation unit 136 can improve the estimation accuracy of the human behavior content.

推定部136は、被写体の種別と相対関係の変化との組み合わせに基づいて人の行動内容を推定する場合、複数の撮像画像データのいずれかに、人検出部132が人を検出する前に被写体が含まれていたか否かを判定した結果にさらに基づいて、行動内容を推定してもよい。 When the estimation unit 136 estimates the behavior content of a person based on the combination of the type of the subject and the change in the relative relationship, the estimation unit 136 detects the subject before the person detection unit 132 detects the person in any of the plurality of captured image data. The action content may be estimated based on the result of determining whether or not is included.

例えば、店舗の売場に滞在している人が棚に置かれた物体を取った場合、物体の種別が商品であるか否かを判別する必要がある。この場合、推定部136は、例えば店舗が開店する前の時刻に作成された撮像画像データが示す撮像画像に写った物体と、人検出部132が棚に置かれた物体を取った人を検出した時刻に作成された撮像画像データが示す撮像画像に写った物体とが一致するか否かを判定する。一致すると判定した場合、推定部136は、物体の種別が商品であると特定する。推定部136は、人が物体をバッグに入れ、かつ物体が商品であるという場合に、人の行動内容が「万引き」であると推定する。 For example, when a person staying in a store's sales floor picks up an object placed on a shelf, it is necessary to determine whether or not the type of the object is a product. In this case, the estimation unit 136 detects, for example, an object reflected in the captured image shown by the captured image data created at the time before the store opens, and a person who picks up the object placed on the shelf by the person detection unit 132. It is determined whether or not the object reflected in the captured image indicated by the captured image data created at the same time matches. If it is determined that they match, the estimation unit 136 specifies that the type of the object is a product. The estimation unit 136 estimates that the behavior of a person is "shoplifting" when the person puts the object in a bag and the object is a product.

このように推定部136が動作することで、例えば来店した購買客が店舗の棚に私物を置き忘れて移動し、一定の時間が経過した後に置き忘れた私物を取りに戻った場合、推定部136は、開店前の撮像画像に基づいて購買客が棚から取った私物と商品とを区別することができる。その結果、推定部136は、万引きではない行動の内容を誤って「万引き」と推定することを抑制できる。 By operating the estimation unit 136 in this way, for example, when a customer who visits the store misplaces his / her personal belongings on the shelf of the store and moves, and after a certain period of time, he / she returns to pick up the misplaced personal belongings, the estimation unit 136 operates. , It is possible to distinguish between personal items and products taken from the shelves by the purchaser based on the captured image before the store opens. As a result, the estimation unit 136 can suppress the mistaken estimation of the content of an action other than shoplifting as "shoplifting".

推定部136は、撮像画像に基づいて関係特定部135が複数の相対関係を特定した場合、複数の相対関係それぞれと被写体の種別との組み合わせに基づいて、人の行動内容を推定してもよい。 When the relationship specifying unit 135 specifies a plurality of relative relationships based on the captured image, the estimation unit 136 may estimate the human behavior content based on the combination of each of the plurality of relative relationships and the type of the subject. ..

例えば、店舗の売場に滞在している人が棚に置かれた商品をバッグに入れた場合、関係特定部135は、第1相対関係の一例である人と棚との距離、及び第2相対関係の一例である人と商品との距離を特定する。推定部136は、第1相対関係が示す距離と第2相対関係が示す距離とが、それぞれ基準距離未満である場合、第1相対関係と第2相対関係と被写体の種別である商品及びバッグとの組み合わせに基づいて人の行動内容を万引きと推定する。 For example, when a person staying in the sales floor of a store puts a product placed on a shelf in a bag, the relationship specifying unit 135 is an example of the first relative relationship, that is, the distance between the person and the shelf and the second relative. Identify the distance between a person and a product, which is an example of a relationship. When the distance indicated by the first relative relationship and the distance indicated by the second relative relationship are less than the reference distance, the estimation unit 136 includes the first relative relationship, the second relative relationship, and the product and bag which are the types of the subject. It is estimated that the behavior of a person is shoplifting based on the combination of.

さらに、関係特定部135が複数の時刻に特定した複数の第2相対関係に基づいて、第2相対関係の変化を特定した場合、推定部136は、第1相対関係と第2相対関係の変化と被写体の種別との組み合わせに基づいて人の行動内容を推定してもよい。推定部136は、例えば第1相対関係である「人と棚との距離が基準距離未満」と第2相対関係の変化である「人と商品との距離が短くなる」と被写体の種別である棚及び商品との組み合わせに基づいて人の行動内容を万引きと推定してもよい。 Further, when the relationship specifying unit 135 identifies a change in the second relative relationship based on a plurality of second relative relationships specified at a plurality of times, the estimation unit 136 determines the change in the first relative relationship and the second relative relationship. The content of human behavior may be estimated based on the combination of the subject and the type of the subject. The estimation unit 136 is, for example, a type of subject such as "the distance between the person and the shelf is less than the reference distance" which is the first relative relationship and "the distance between the person and the product becomes shorter" which is the change of the second relative relationship. A person's behavior may be presumed to be shoplifting based on the combination of shelves and goods.

推定部136は、関係特定部135が人と複数の被写体とに基づいて複数の相対関係を特定した場合、複数の相対関係の組み合わせに基づいて人の行動内容を推定してもよい。推定部136は、例えば被写体の種別と、第1相対関係、第2相対関係又は第3相対関係の少なくとも2つの相対関係と、の組み合わせに基づいて、人の行動内容を推定してもよい。 When the relationship specifying unit 135 specifies a plurality of relative relationships based on a person and a plurality of subjects, the estimation unit 136 may estimate the behavior content of the person based on the combination of the plurality of relative relationships. The estimation unit 136 may estimate the behavior content of a person based on, for example, a combination of a type of subject and at least two relative relationships of a first relative relationship, a second relative relationship, or a third relative relationship.

例えば、店舗の売場で人が商品をバッグに入れた場合、被写体検出部133は、商品とバッグとを被写体として検出する。関係特定部135は、人と商品との関係を第1相対関係として特定し、人とバッグとの関係を第2相対関係として特定し、商品とバッグとの関係を第3相対関係として特定する。推定部136は、被写体の種別がバッグ及び商品であることと、人の手とバッグとが距離D1未満であることと、バッグと商品とが距離D2未満であることとに基づいて、人の行動内容を「万引き」と推定する。 For example, when a person puts a product in a bag at a store sales floor, the subject detection unit 133 detects the product and the bag as subjects. The relationship specifying unit 135 specifies the relationship between the person and the product as the first relative relationship, the relationship between the person and the bag as the second relative relationship, and the relationship between the product and the bag as the third relative relationship. .. The estimation unit 136 is based on the fact that the type of subject is a bag and a product, the distance between the human hand and the bag is less than D1, and the distance between the bag and the product is less than D2. Estimate the action content as "shoplifting".

なお、ここでは、推定部136が第2相対関係及び第3相対関係を用いて人の行動内容を「万引き」と推定する場合を例示したが、推定部136は、第1相対関係である「人が商品を把持している」をさらに用いて人の行動内容を推定してもよい。 Here, the case where the estimation unit 136 estimates the human behavior content as "shoplifting" by using the second relative relationship and the third relative relationship is illustrated, but the estimation unit 136 is the first relative relationship ". The content of a person's behavior may be estimated by further using "a person is holding a product".

推定部136は、人検出部132が検出した人の属性にさらに基づいて、行動内容を推定してもよい。例えば、店舗の売場で人が商品をバッグに入れた場合、人の属性が購買客であれば、推定部136は人の行動内容を「万引き」と推定し、人の属性が従業員であれば、推定部136は人の行動内容を「商品整理」と推定する。このように推定部136が動作することで、推定部136は、例えば商品を手に取る行動である「万引き」と「商品整理」のように、人の動きが類似している場合であっても、行動内容を正しく推定することができる。 The estimation unit 136 may estimate the behavior content based on the attributes of the person detected by the person detection unit 132. For example, when a person puts a product in a bag at the sales floor of a store, if the attribute of the person is a purchaser, the estimation unit 136 estimates that the behavior of the person is "manipulation", and the attribute of the person is an employee. For example, the estimation unit 136 estimates the content of a person's behavior as "product arrangement". By operating the estimation unit 136 in this way, the estimation unit 136 is a case where the movements of people are similar, for example, "shoplifting" and "product arrangement", which are actions of picking up a product. However, the behavior content can be estimated correctly.

推定部136は、設定受付部134が受け付けた被写体の属性にさらに基づいて行動内容を推定してもよい。被写体の属性は、例えば被写体の所有者、被写体の機能といった被写体の特徴を示す情報である。例えば、店舗の倉庫等に設置された棚に置かれた物体の属性が「店舗の所有物」であることを設定受付部134が受け付けた場合、推定部136は、物体を取る動きをしている従業員の行動内容を「商品又は備品の整理」と推定する。一方、設定受付部134が物体の属性が「店舗の所有物」でない場合、推定部136は、物体を取る従業員の行動内容を、例えば「私物を動かしている」と推定する。 The estimation unit 136 may further estimate the action content based on the attributes of the subject received by the setting reception unit 134. The subject attribute is information indicating the characteristics of the subject such as the owner of the subject and the function of the subject. For example, when the setting reception unit 134 accepts that the attribute of the object placed on the shelf installed in the warehouse of the store is "the property of the store", the estimation unit 136 moves to pick up the object. It is presumed that the behavior of the employee is "organization of goods or equipment". On the other hand, when the setting reception unit 134 does not have the attribute of the object "property of the store", the estimation unit 136 estimates that the behavior content of the employee who picks up the object is, for example, "moving personal belongings".

さらに、関係特定部135が、被写体検出部133が検出した被写体と設定受付部134が属性の設定を受け付けた被写体との位置関係を特定した場合、推定部136は、関係特定部135が特定した位置関係と、設定受付部134が設定を受け付けた被写体の属性とにさらに基づいて行動内容を推定してもよい。例えば、関係特定部135が特定した被写体が商品棚であり、設定受付部134が設定を受け付けた被写体が商品棚に置かれた物体である場合、推定部136は、関係特定部135が特定した位置関係に基づいて、従業員以外の人が商品棚に置かれた物体をカバンに入れる動きをしていると判定する。続いて、推定部136は、物体の属性が「店舗の所有物」である場合に、従業員以外の人の行動内容を万引きと推定する。 Further, when the relationship specifying unit 135 specifies the positional relationship between the subject detected by the subject detecting unit 133 and the subject for which the setting receiving unit 134 has received the attribute setting, the estimation unit 136 specifies the relationship specifying unit 135. The action content may be estimated based on the positional relationship and the attributes of the subject for which the setting receiving unit 134 has received the setting. For example, when the subject specified by the relationship specifying unit 135 is a product shelf and the subject for which the setting receiving unit 134 has received the setting is an object placed on the product shelf, the estimation unit 136 is specified by the relationship specifying unit 135. Based on the positional relationship, it is determined that a person other than the employee is moving to put the object placed on the product shelf into the bag. Subsequently, the estimation unit 136 estimates that the behavior content of a person other than the employee is shoplifting when the attribute of the object is "property of the store".

推定部136は、このように被写体の属性に基づいて行動内容を推定することで、複数の商品と複数の商品とは異なる物体(例えば私物)とが同じ場所に置かれている場合であっても、商品と商品とは異なる物体とを区別して人の行動内容を推定することができる。 By estimating the action content based on the attributes of the subject in this way, the estimation unit 136 is a case where a plurality of products and an object (for example, a personal property) different from the plurality of products are placed in the same place. However, it is possible to estimate the behavior of a person by distinguishing between a product and an object different from the product.

場所特定部137は、撮像画像に写っている場所を特定する。場所特定部137は、例えば撮像画像に写っている被写体に基づいて撮像画像に写っている場所を特定する。場所特定部137は、例えばGPS(Global Positioning System)信号に基づいて撮像画像に写っている場所を特定してもよい。場所特定部137は、特定した場所を示す情報を出力部138に通知する。 The place specifying unit 137 identifies the place shown in the captured image. The location specifying unit 137 identifies a location in the captured image based on, for example, the subject in the captured image. The location specifying unit 137 may specify a location shown in the captured image based on, for example, a GPS (Global Positioning System) signal. The location specifying unit 137 notifies the output unit 138 of information indicating the specified location.

出力部138は、推定部136が推定した行動内容を示す行動内容情報を情報端末2に送信する送信部として機能する。出力部138は、推定部136が推定した行動内容と、場所特定部137が特定した場所とが所定の条件を満たす場合に通知情報を出力してもよい。所定の条件は、情報端末2のユーザが通知情報を受けて何かしらの対応をすべきことである。情報端末2のユーザは、例えば撮像装置が店舗に設置されている場合、店舗の従業員又は警備員である。 The output unit 138 functions as a transmission unit that transmits the action content information indicating the action content estimated by the estimation unit 136 to the information terminal 2. The output unit 138 may output the notification information when the action content estimated by the estimation unit 136 and the location specified by the location identification unit 137 satisfy a predetermined condition. The predetermined condition is that the user of the information terminal 2 should receive the notification information and take some action. The user of the information terminal 2 is, for example, an employee or a security guard of the store when the image pickup device is installed in the store.

具体的には、推定部136が推定した行動内容が「万引き」であり、場所特定部137が特定した場所が「店舗」である場合、店舗の従業員又は警備員は、万引きをした人を確保する必要がある。したがって、出力部138は、所定の条件を満たすと判定し通知情報を出力する。 Specifically, when the action content estimated by the estimation unit 136 is "shoplifting" and the place specified by the location identification unit 137 is a "store", the employee or security guard of the store selects the person who shoplifted. It is necessary to secure it. Therefore, the output unit 138 determines that the predetermined condition is satisfied and outputs the notification information.

一方、推定部136が推定した行動内容が「商品整理」であり、場所特定部137が特定した場所が「店舗」である場合、推定した行動内容は従業員の通常の行動であるため、出力部138は、所定の条件を満たさないと判定し通知情報を出力しない。このように動作することで、出力部138は、情報端末2のユーザが必要とする情報を出力することができる。 On the other hand, when the action content estimated by the estimation unit 136 is "product arrangement" and the place specified by the location identification unit 137 is "store", the estimated action content is the normal behavior of the employee, so it is output. Unit 138 determines that the predetermined condition is not satisfied and does not output the notification information. By operating in this way, the output unit 138 can output the information required by the user of the information terminal 2.

出力部138は、場所特定部137が特定した場所と行動内容との組み合わせに対応する種別の通知情報を出力してもよい。例えば、場所特定部137が特定した場所が「店舗の売場」であり、推定部136が推定した人の行動内容が「万引き」である場合、出力部138は、店舗の売場で万引きが行われたことを示す通知情報を出力する。 The output unit 138 may output the notification information of the type corresponding to the combination of the place specified by the place specifying unit 137 and the action content. For example, if the place specified by the location specifying unit 137 is the "store sales floor" and the behavior content of the person estimated by the estimation unit 136 is "shoplifting", the output unit 138 is shoplifted at the store sales floor. Output notification information indicating that.

[行動推定装置10のフローチャート]
図6は、行動推定装置10が人の行動内容を推定する動作の一例を示すフローチャートである。図6においては、行動推定装置10が、時刻T1における相対関係と時刻T2における相対関係とに基づいて相対関係の変化を特定し、特定した相対関係の変化を用いて人の行動内容を推定する動作を説明する。
[Flowchart of behavior estimation device 10]
FIG. 6 is a flowchart showing an example of an operation in which the behavior estimation device 10 estimates the behavior content of a person. In FIG. 6, the behavior estimation device 10 identifies the change in the relative relationship based on the relative relationship at the time T1 and the relative relationship at the time T2, and estimates the human behavior content using the change in the specified relative relationship. The operation will be explained.

画像取得部131は、撮像装置1が時刻T1において生成した第1撮像画像データを取得する(S11)。場所特定部137は、画像取得部131が取得した第1撮像画像データが示す撮像画像に写っている場所を特定する。また、人検出部132は、第1撮像画像データが示す撮像画像に含まれる人の位置を検出する(S12)。被写体検出部133は、第1撮像画像データが示す撮像画像に写っている被写体の位置と被写体の種別とを検出する(S13)。関係特定部135は、時刻T1における人の位置と被写体の位置と被写体の種別との関係である相対関係を特定する(S14)。 The image acquisition unit 131 acquires the first image capture image data generated by the image pickup apparatus 1 at time T1 (S11). The location specifying unit 137 specifies a location in the captured image indicated by the first captured image data acquired by the image acquisition unit 131. Further, the person detection unit 132 detects the position of a person included in the captured image indicated by the first captured image data (S12). The subject detection unit 133 detects the position of the subject and the type of the subject in the captured image indicated by the first captured image data (S13). The relationship specifying unit 135 specifies the relative relationship between the position of the person, the position of the subject, and the type of the subject at the time T1 (S14).

画像取得部131は、撮像装置1が時刻T2において生成した第2撮像画像データを取得する(S15)。人検出部132は、第2撮像画像データが示す撮像画像に含まれる人の位置を検出する(S16)。被写体検出部133は、第2撮像画像データが示す撮像画像に写っている被写体の位置と被写体の種別とを検出する(S17)。関係特定部135は、時刻T2における人の位置と被写体の位置と被写体の種別との関係である相対関係を特定する(S18)。 The image acquisition unit 131 acquires the second captured image data generated by the imaging device 1 at time T2 (S15). The human detection unit 132 detects the position of a person included in the captured image indicated by the second captured image data (S16). The subject detection unit 133 detects the position of the subject and the type of the subject in the captured image indicated by the second captured image data (S17). The relationship specifying unit 135 specifies the relative relationship between the position of the person, the position of the subject, and the type of the subject at the time T2 (S18).

関係特定部135は、S14において特定した時刻T1での相対関係と、S18において特定した時刻T2での相対関係とに基づいて、相対関係の変化を特定する(S19)。推定部136は、関係特定部135が特定した相対関係の変化と被写体検出部133が検出した被写体の種別との組み合わせに基づいて人の行動内容を推定する(S20)。 The relationship specifying unit 135 specifies a change in the relative relationship based on the relative relationship at the time T1 specified in S14 and the relative relationship at the time T2 specified in S18 (S19). The estimation unit 136 estimates the human behavior content based on the combination of the change in the relative relationship specified by the relationship specifying unit 135 and the type of the subject detected by the subject detecting unit 133 (S20).

行動推定装置10は、人の行動内容を推定する処理を終了する操作が行われていない場合(S21のNO)、S11からS19までの処理を繰り返す。人の行動内容を推定する処理を終了する操作が行われた場合(S21のYES)、行動推定装置10は、処理を終了する。 When the operation for terminating the process of estimating the human behavior content is not performed (NO in S21), the behavior estimation device 10 repeats the processes from S11 to S19. When the operation for terminating the process of estimating the human behavior content is performed (YES in S21), the behavior estimation device 10 ends the process.

[他の応用例]
以上の説明においては、店舗内での購買客又は従業員の行動内容を推定する場合を例示したが、行動推定装置10は、他の場所の撮像画像に基づいて人の各種の行動内容を推定してもよい。
[Other application examples]
In the above description, the case of estimating the behavior content of the purchaser or the employee in the store is illustrated, but the behavior estimation device 10 estimates various behavior content of the person based on the captured image of another place. You may.

(色に基づく推定)
図7は、人又は被写体の色の変化に基づいて人の行動内容を推定する行動推定装置10の構成を示す図である。図7に示す行動推定装置10は、色特定部139を有する点で図4に示す行動推定装置10と異なり、他の点において同じである。色特定部139は、人の色の変化又は被写体の色の変化の少なくともいずれかを特定する。色特定部139は、人検出部132が検出した人の位置又は被写体検出部133が検出した被写体の位置に基づいて、画像取得部131が取得した撮像画像に含まれる人又は被写体の色の変化を特定する。
(Estimation based on color)
FIG. 7 is a diagram showing a configuration of a behavior estimation device 10 that estimates a person's behavior content based on a change in the color of the person or the subject. The behavior estimation device 10 shown in FIG. 7 is different from the behavior estimation device 10 shown in FIG. 4 in that it has a color specifying unit 139, and is the same in other respects. The color specifying unit 139 specifies at least one of a change in the color of a person and a change in the color of a subject. The color identification unit 139 changes the color of the person or subject included in the captured image acquired by the image acquisition unit 131 based on the position of the person detected by the person detection unit 132 or the position of the subject detected by the subject detection unit 133. To identify.

推定部136は、色特定部139が特定した人の色の変化又は被写体の色の変化の少なくともいずれかにさらに基づいて、行動内容を推定してもよい。例えば、人がナイフを使用している場合、被写体検出部133は、被写体の種別であるナイフを検出する。関係特定部135は、人と被写体であるナイフとの関係である相対関係を「人と被写体との距離は基準距離未満である」と特定する。色特定部139は人の位置とナイフの位置とに基づいて、人の手及びナイフが赤色に変化したことを特定する。推定部136は、人の手及びナイフが赤色に変化したことに基づいて、人が怪我をしていることを推定する。 The estimation unit 136 may estimate the action content based on at least one of the change in the color of the person specified by the color identification unit 139 or the change in the color of the subject. For example, when a person is using a knife, the subject detection unit 133 detects a knife, which is a type of subject. The relationship specifying unit 135 specifies the relative relationship between the person and the knife, which is the subject, as "the distance between the person and the subject is less than the reference distance". The color identification unit 139 identifies that the human hand and the knife have turned red based on the position of the person and the position of the knife. The estimation unit 136 estimates that the person is injured based on the fact that the person's hand and knife turn red.

また、ナイフを使用している人の周囲に他の人が滞在している場合、関係特定部135が被写体であるナイフと他の人との相対関係の変化を「ナイフと他の人との距離が時刻ごとに大きく変化している」と特定したことにより、推定部136は、人の行動内容を危険行動と推定する。そして、色特定部139が、ナイフ又は他の人の色が赤色に変化したことを特定することにより、推定部136は、他の人が怪我をしていることを推定する。 In addition, when another person is staying around the person using the knife, the relationship identification unit 135 describes the change in the relative relationship between the knife, which is the subject, and the other person. By specifying that the distance changes greatly with each time, the estimation unit 136 estimates the human behavior as dangerous behavior. Then, the color identification unit 139 identifies that the color of the knife or another person has changed to red, and the estimation unit 136 estimates that the other person is injured.

このように色特定部139が人又は被写体の色の変化を特定し、推定部136が色の変化に基づいて人の行動を特定することで、行動推定装置10は、流血等の緊急に対応すべき行動内容を推定することができる。さらに、行動推定装置10は、例えば赤色と異なる色に変化したことを検出することにより、例えばペンキをこぼす等の行動内容を推定することができる。 In this way, the color specifying unit 139 identifies the change in the color of the person or the subject, and the estimation unit 136 identifies the behavior of the person based on the color change, so that the behavior estimation device 10 responds urgently to bloodshed or the like. It is possible to estimate the content of actions to be taken. Further, the behavior estimation device 10 can estimate the behavior content such as spilling paint by detecting that the color has changed from red, for example.

(危険行為の検出)
行動推定装置10は、例えば屋外に設置された監視カメラの画像に基づいて、屋外で発生した危険行為を検出してもよい。危険行為は、例えば公園に設置されたベンチ等の器物を破壊する行為である。監視カメラの画像に基づいて、空手の動きをする人とベンチとを検出した場合、関係特定部135は、人と被写体であるベンチとの相対関係を特定する。
(Detection of dangerous acts)
The behavior estimation device 10 may detect a dangerous behavior that has occurred outdoors, for example, based on an image of a surveillance camera installed outdoors. A dangerous act is an act of destroying an object such as a bench installed in a park. When a person who moves karate and the bench are detected based on the image of the surveillance camera, the relationship specifying unit 135 identifies the relative relationship between the person and the bench which is the subject.

関係特定部135が相対関係を「人と被写体との距離は閾値以上」と特定した場合、推定部136は、人の行動内容を「空手の練習」と特定する。閾値は、例えば人が空手等の格技の練習で動く範囲を示す距離である。一方、関係特定部135が相対関係を「人と被写体との距離は閾値未満」と特定した場合、推定部136は、人の行動内容を「ベンチを破壊する」と推定する。このように動作することで、行動推定装置10は、屋外に設置された器物と当該器物の周囲の人の行動とを監視することができる。 When the relationship specifying unit 135 specifies the relative relationship as "the distance between the person and the subject is equal to or greater than the threshold value", the estimation unit 136 specifies the human behavior content as "karate practice". The threshold value is a distance indicating a range in which a person moves in practice of a martial art such as karate. On the other hand, when the relationship specifying unit 135 specifies the relative relationship as "the distance between the person and the subject is less than the threshold value", the estimation unit 136 estimates that the behavior content of the person "destroys the bench". By operating in this way, the behavior estimation device 10 can monitor the behavior of the device installed outdoors and the behavior of the person around the device.

(禁止領域への侵入の検出)
行動推定装置10は、監視カメラの画像に基づいて、人が進入禁止の領域に立ち入る行動を推定してもよい。例えば進入禁止の領域の境界に柵が設置されている場合、被写体検出部133は、被写体である柵を検出する。人が柵を乗り越えて侵入した場合、人検出部132は、人が柵を乗り越える動きを検出する。関係特定部135は、相対関係を「人が被写体を乗り越えている」と特定する。推定部136は、被写体の種別である柵と相対関係との組み合わせに基づいて、人の行動内容を「柵の乗り越え」と推定する。
(Detection of intrusion into prohibited area)
The behavior estimation device 10 may estimate the behavior of a person entering the restricted area based on the image of the surveillance camera. For example, when a fence is installed at the boundary of the restricted area, the subject detection unit 133 detects the fence that is the subject. When a person climbs over the fence and invades, the person detection unit 132 detects the movement of the person over the fence. The relationship specifying unit 135 specifies the relative relationship as "a person is overcoming the subject". The estimation unit 136 estimates that the human behavior content is "overcoming the fence" based on the combination of the fence, which is the type of the subject, and the relative relationship.

進入禁止の領域に柵が設置されていない場合、被写体検出部133は、進入禁止の領域を被写体の種別として検出してもよい。進入禁止の領域に人が立ち入った場合、人検出部132は、人が移動していることを検出する。関係特定部135は、被写体である進入禁止の領域を示す位置情報と人が移動した位置とに基づいて、相対関係を「人が被写体の内部を移動している」と特定する。推定部136は、人の行動内容を「進入禁止の領域に侵入」と推定する。 When the fence is not installed in the no-entry area, the subject detection unit 133 may detect the no-entry area as the type of the subject. When a person enters the restricted area, the person detection unit 132 detects that the person is moving. The relationship specifying unit 135 specifies the relative relationship as "a person is moving inside the subject" based on the position information indicating the area where the subject is prohibited from entering and the position where the person has moved. The estimation unit 136 estimates that the content of a person's behavior is "invading an area where entry is prohibited".

このように動作することで、行動推定装置10は、進入禁止の領域に人が立ち入ることを検出することができる。進入禁止の領域の管理者は、行動推定装置10が進入禁止の領域に人が侵入したことを情報端末2に通知することで、人が侵入したことを知るとともに、人に警告を発することができる。 By operating in this way, the behavior estimation device 10 can detect that a person enters the restricted area. The manager of the no-entry area can notify the information terminal 2 that the behavior estimation device 10 has invaded the no-entry area, thereby knowing that the person has invaded and issuing a warning to the person. can.

[行動推定装置10の効果]
以上説明したように、行動推定装置10は、撮像画像に含まれる人の動きを検出する人検出部132と、撮像画像に含まれる被写体の種別を検出する被写体検出部133と、人の動きに伴う人と被写体との関係である相対関係を特定する関係特定部135とを有する。そして、推定部136は、被写体検出部133が検出した被写体の種別と関係特定部135が特定した相対関係とに基づいて人の行動内容を推定する。
[Effect of behavior estimation device 10]
As described above, the behavior estimation device 10 includes a human detection unit 132 that detects the movement of a person included in the captured image, a subject detection unit 133 that detects the type of the subject included in the captured image, and a human movement. It has a relationship specifying unit 135 that specifies a relative relationship that is a relationship between an accompanying person and a subject. Then, the estimation unit 136 estimates the human behavior content based on the type of the subject detected by the subject detection unit 133 and the relative relationship specified by the relationship specifying unit 135.

行動推定装置10は、このように被写体の種別と、人と被写体との相対関係とを用いて人の行動内容を推定することで、動きが類似する行動であっても、精度よく人の行動内容を推定することができる。また、行動推定システムSによれば、行動推定装置10が推定した人の行動内容を示す行動内容情報を情報端末2が受信することで、例えば情報端末2のユーザである店舗の従業員は、人の異常行動を精度よく知ることができる。その結果、情報端末2のユーザは、人の行動に正確に対応することができる。 The behavior estimation device 10 estimates the content of a person's behavior using the type of subject and the relative relationship between the person and the subject in this way, so that even if the movements are similar, the behavior of the person is accurate. The content can be estimated. Further, according to the behavior estimation system S, the information terminal 2 receives the behavior content information indicating the behavior content of the person estimated by the behavior estimation device 10, so that, for example, the employee of the store who is the user of the information terminal 2 can receive the behavior content information. It is possible to accurately know the abnormal behavior of a person. As a result, the user of the information terminal 2 can accurately respond to human behavior.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist. be. For example, all or part of the device can be functionally or physically distributed / integrated in any unit. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination has the effect of the original embodiment together.

1 撮像装置
2 情報端末
10 行動推定装置
11 通信部
12 記憶部
13 制御部
21 通信部
22 記憶部
23 制御部
24 表示部
25 操作部
131 画像取得部
132 人検出部
133 被写体検出部
134 設定受付部
135 関係特定部
136 推定部
137 場所特定部
138 出力部
139 色特定部
231 情報送信部
232 情報受信部
1 Image pickup device 2 Information terminal 10 Behavior estimation device 11 Communication unit 12 Storage unit 13 Control unit 21 Communication unit 22 Storage unit 23 Control unit 24 Display unit 25 Operation unit 131 Image acquisition unit 132 Person detection unit 133 Subject detection unit 134 Setting reception unit 135 Relationship identification unit 136 Estimating unit 137 Location identification unit 138 Output unit 139 Color specification unit 231 Information transmission unit 232 Information reception unit

Claims (17)

撮像画像を示す撮像画像データを取得する画像取得部と、
前記撮像画像に含まれる人の動きを検出する人検出部と、
前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、
前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定する推定部と、
を有する行動推定装置。
An image acquisition unit that acquires captured image data indicating an captured image,
A person detection unit that detects the movement of a person included in the captured image,
A subject detection unit that detects the type of subject included in the captured image, and
A relationship specifying unit that specifies the relative relationship between the person and the subject due to the movement of the person, and
An estimation unit that estimates the behavior of the person based on the combination of the type of the subject and the relative relationship.
Behavior estimation device with.
前記関係特定部は、前記人と前記被写体との距離を前記相対関係として特定し、
前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた基準距離と、前記関係特定部が特定した前記人と前記被写体との距離と、を比較した結果に基づいて前記行動内容を推定する、
請求項1に記載の行動推定装置。
The relationship specifying unit specifies the distance between the person and the subject as the relative relationship.
The estimation unit performs the action based on the result of comparing the reference distance associated with the type of the subject detected by the subject detection unit and the distance between the person and the subject specified by the relationship identification unit. Estimate the content,
The behavior estimation device according to claim 1.
前記関係特定部は、前記人の目線の方向と前記被写体の位置との関係を、前記相対関係として特定し、
前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた目線の方向と被写体の位置との関係である基準目線関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定する、
請求項1又は2に記載の行動推定装置。
The relationship specifying unit specifies the relationship between the direction of the person's line of sight and the position of the subject as the relative relationship.
The estimation unit has a reference line-of-sight relationship, which is a relationship between the direction of the line of sight associated with the type of the subject detected by the subject detection unit and the position of the subject, and the direction of the person's line of sight specified by the relationship specifying unit. The behavior content is estimated based on the result of comparing the relationship between the subject and the position of the subject.
The behavior estimation device according to claim 1 or 2.
前記関係特定部は、前記人の身体の向きと前記被写体の位置との関係を、前記相対関係として特定し、
前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた身体の向きと被写体の位置との関係である基準身体向き関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定する、
請求項1から3のいずれか一項に記載の行動推定装置。
The relationship specifying unit specifies the relationship between the orientation of the person's body and the position of the subject as the relative relationship.
The estimation unit is a reference body orientation relationship, which is a relationship between the body orientation and the position of the subject associated with the type of the subject detected by the subject detection unit, and the line of sight of the person specified by the relationship identification unit. The action content is estimated based on the result of comparing the relationship between the direction and the position of the subject.
The behavior estimation device according to any one of claims 1 to 3.
前記画像取得部は、時系列に作成された複数の前記撮像画像データを取得し、
前記関係特定部は、前記相対関係の変化を特定し、
前記推定部は、前記被写体の種別と、前記相対関係の変化との組み合わせに基づいて、前記人の行動内容を推定する、
請求項1から4のいずれか一項に記載の行動推定装置。
The image acquisition unit acquires a plurality of the captured image data created in time series, and obtains the plurality of captured image data.
The relationship specifying unit identifies the change in the relative relationship and
The estimation unit estimates the behavior content of the person based on the combination of the type of the subject and the change in the relative relationship.
The behavior estimation device according to any one of claims 1 to 4.
前記推定部は、前記複数の撮像画像データのいずれかに、前記人検出部が前記人を検出する前に前記被写体が含まれていたか否かを判定した結果にさらに基づいて、前記行動内容を推定する、
請求項5に記載の行動推定装置。
The estimation unit further determines the action content based on the result of determining whether or not the subject was included in any of the plurality of captured image data before the person detection unit detects the person. presume,
The behavior estimation device according to claim 5.
前記人検出部は、前記人の属性をさらに検出し、
前記推定部は、前記人検出部が検出した前記人の属性にさらに基づいて、前記行動内容を推定する、
請求項1から6のいずれか一項に記載の行動推定装置。
The person detection unit further detects the attribute of the person and
The estimation unit estimates the behavior content based on the attributes of the person detected by the person detection unit.
The behavior estimation device according to any one of claims 1 to 6.
前記被写体検出部は、前記撮像画像に含まれる第1被写体及び第2被写体を検出し、
前記関係特定部は、前記人の動きに伴う前記人と前記第1被写体との関係である第1相対関係、前記人の動きに伴う前記人と前記第2被写体との関係である第2相対関係、及び前記人の動きに伴う前記第1被写体と前記第2被写体との関係である第3相対関係を特定し、
前記推定部は、前記被写体の種別と、前記第1相対関係、前記第2相対関係又は前記第3相対関係の少なくとも2つの相対関係と、の組み合わせに基づいて、前記人の行動内容を推定する、
請求項1から7のいずれか一項に記載の行動推定装置。
The subject detection unit detects the first subject and the second subject included in the captured image, and detects the first subject and the second subject.
The relationship specifying unit is a first relative relationship, which is a relationship between the person and the first subject due to the movement of the person, and a second relative relationship, which is a relationship between the person and the second subject due to the movement of the person. The relationship and the third relative relationship, which is the relationship between the first subject and the second subject due to the movement of the person, are specified.
The estimation unit estimates the behavior content of the person based on the combination of the type of the subject and at least two relative relationships of the first relative relationship, the second relative relationship, or the third relative relationship. ,
The behavior estimation device according to any one of claims 1 to 7.
前記撮像画像に含まれる前記被写体の属性の設定を受け付ける設定受付部をさらに有し、
前記推定部は、前記被写体の属性にさらに基づいて前記行動内容を推定する、
請求項1から8のいずれか一項に記載の行動推定装置。
It further has a setting reception unit that accepts the setting of the attribute of the subject included in the captured image.
The estimation unit estimates the action content based on the attributes of the subject.
The behavior estimation device according to any one of claims 1 to 8.
前記関係特定部は、前記被写体検出部が検出した被写体と前記設定受付部が属性の設定を受け付けた被写体との位置関係をさらに特定し、
前記推定部は、前記関係特定部が特定した前記位置関係と、前記設定受付部が設定を受け付けた被写体の属性とにさらに基づいて前記行動内容を推定する、
請求項9に記載の行動推定装置。
The relationship specifying unit further specifies the positional relationship between the subject detected by the subject detecting unit and the subject for which the setting receiving unit has received the attribute setting.
The estimation unit estimates the action content based on the positional relationship specified by the relationship specifying unit and the attributes of the subject for which the setting receiving unit has accepted the setting.
The behavior estimation device according to claim 9.
前記撮像画像に写っている場所を特定する場所特定部と、
前記推定部が推定した前記行動内容と、前記場所特定部が特定した場所とが所定の条件を満たす場合に通知情報を出力する出力部と、
をさらに有する、
請求項1から10のいずれか一項に記載の行動推定装置。
A place specifying part that specifies the place shown in the captured image, and
An output unit that outputs notification information when the action content estimated by the estimation unit and the location specified by the location identification unit satisfy a predetermined condition.
Have more,
The behavior estimation device according to any one of claims 1 to 10.
前記出力部は、前記場所特定部が特定した場所と前記行動内容との組み合わせに対応する種別の前記通知情報を出力する、
請求項11に記載の行動推定装置。
The output unit outputs the notification information of the type corresponding to the combination of the location specified by the location specifying unit and the action content.
The behavior estimation device according to claim 11.
前記人の色の変化又は前記被写体の色の変化の少なくともいずれかを特定する色特定部をさらに有し、
前記推定部は、前記色特定部が特定した前記人の色の変化又は前記被写体の色の変化の少なくともいずれかにさらに基づいて、前記行動内容を推定する、
請求項1から12のいずれか一項に記載の行動推定装置。
Further having a color specifying unit for specifying at least one of the change in the color of the person or the change in the color of the subject.
The estimation unit estimates the action content based on at least one of the change in the color of the person specified by the color identification unit and the change in the color of the subject.
The behavior estimation device according to any one of claims 1 to 12.
前記画像取得部は、複数の前記撮像画像データを取得し、
前記関係特定部は、複数の前記相対関係を特定し、
前記推定部は、複数の前記相対関係それぞれと前記被写体の種別との組み合わせに基づいて、前記人の行動内容を推定する、
請求項1から13のいずれか一項に記載の行動推定装置。
The image acquisition unit acquires a plurality of the captured image data, and obtains the plurality of captured image data.
The relationship specifying unit identifies a plurality of the relative relationships and
The estimation unit estimates the behavior content of the person based on the combination of each of the plurality of relative relationships and the type of the subject.
The behavior estimation device according to any one of claims 1 to 13.
コンピュータが実行する、
撮像画像を示す撮像画像データを取得するステップと、
前記撮像画像に含まれる人の動きを検出するステップと、
前記撮像画像に含まれる被写体の種別を検出するステップと、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、
前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定するステップと、
を有する行動推定方法。
Computer runs,
Steps to acquire captured image data showing captured images,
The step of detecting the movement of a person included in the captured image and
The step of detecting the type of the subject included in the captured image and
A step of specifying a relative relationship between the person and the subject due to the movement of the person, and
A step of estimating the behavior content of the person based on the combination of the type of the subject and the relative relationship,
Behavior estimation method with.
コンピュータに、
撮像画像を示す撮像画像データを取得するステップと、
前記撮像画像に含まれる人の動きを検出するステップと、
前記撮像画像に含まれる被写体の種別を検出するステップと、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、
前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定するステップと、
を実行させるためのプログラム。
On the computer
Steps to acquire captured image data showing captured images,
The step of detecting the movement of a person included in the captured image and
The step of detecting the type of the subject included in the captured image and
A step of specifying a relative relationship between the person and the subject due to the movement of the person, and
A step of estimating the behavior content of the person based on the combination of the type of the subject and the relative relationship,
A program to execute.
撮像装置が生成した撮像画像に基づいて人の行動内容を推定する行動推定装置と、前記行動推定装置が推定した前記人の行動内容を表示する情報端末と、を備え、
前記行動推定装置は、
前記撮像画像を示す撮像画像データを取得する画像取得部と、
前記撮像画像に含まれる人の動きを検出する人検出部と、
前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、
前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の前記行動内容を推定する推定部と、
前記推定部が推定した前記行動内容を示す行動内容情報を前記情報端末に送信する送信部と、
を有し、
前記情報端末は、
前記行動内容情報を受信する情報受信部と、
前記情報受信部が受信した前記行動内容情報に基づいて前記行動内容を表示する表示部と、
を有する行動推定システム。
It is equipped with a behavior estimation device that estimates a person's behavior content based on an image captured by the image pickup device, and an information terminal that displays the behavior content of the person estimated by the behavior estimation device.
The behavior estimation device is
An image acquisition unit that acquires captured image data indicating the captured image, and an image acquisition unit.
A person detection unit that detects the movement of a person included in the captured image,
A subject detection unit that detects the type of subject included in the captured image, and
A relationship specifying unit that specifies the relative relationship between the person and the subject due to the movement of the person, and
An estimation unit that estimates the behavior of the person based on the combination of the type of the subject and the relative relationship.
A transmission unit that transmits behavior content information indicating the behavior content estimated by the estimation unit to the information terminal, and a transmission unit.
Have,
The information terminal is
An information receiving unit that receives the action content information, and
A display unit that displays the action content based on the action content information received by the information receiving unit, and a display unit that displays the action content.
Behavior estimation system with.
JP2021042085A 2020-10-30 2021-03-16 Behavior estimation device, behavior estimation method, program and behavior estimation system Pending JP2022073882A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021042085A JP2022073882A (en) 2020-10-30 2021-03-16 Behavior estimation device, behavior estimation method, program and behavior estimation system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020182477A JP6854959B1 (en) 2020-10-30 2020-10-30 Behavior estimation device, behavior estimation method, program and behavior estimation system
JP2021042085A JP2022073882A (en) 2020-10-30 2021-03-16 Behavior estimation device, behavior estimation method, program and behavior estimation system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020182477A Division JP6854959B1 (en) 2020-10-30 2020-10-30 Behavior estimation device, behavior estimation method, program and behavior estimation system

Publications (2)

Publication Number Publication Date
JP2022073882A true JP2022073882A (en) 2022-05-17
JP2022073882A5 JP2022073882A5 (en) 2023-11-24

Family

ID=75267983

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020182477A Active JP6854959B1 (en) 2020-10-30 2020-10-30 Behavior estimation device, behavior estimation method, program and behavior estimation system
JP2021042085A Pending JP2022073882A (en) 2020-10-30 2021-03-16 Behavior estimation device, behavior estimation method, program and behavior estimation system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020182477A Active JP6854959B1 (en) 2020-10-30 2020-10-30 Behavior estimation device, behavior estimation method, program and behavior estimation system

Country Status (2)

Country Link
JP (2) JP6854959B1 (en)
WO (1) WO2022092032A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023275968A1 (en) * 2021-06-29 2023-01-05 日本電信電話株式会社 Abnormality determination device, abnormality determination method, and abnormality determination program
WO2024004209A1 (en) * 2022-07-01 2024-01-04 日本電信電話株式会社 Estimation device, learning device, method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6249021B2 (en) * 2013-09-06 2017-12-20 日本電気株式会社 Security system, security method, and security program
JP2016201105A (en) * 2015-04-07 2016-12-01 三菱電機株式会社 Information processor and information processing method
JP2017033401A (en) * 2015-08-04 2017-02-09 株式会社 impactTV Customer information collection device, customer information collection system and customer information collection method
JP6992874B2 (en) * 2018-03-09 2022-01-13 日本電気株式会社 Self-registration system, purchased product management method and purchased product management program
US10535146B1 (en) * 2018-07-16 2020-01-14 Accel Robotics Corporation Projected image item tracking system

Also Published As

Publication number Publication date
JP6854959B1 (en) 2021-04-07
WO2022092032A1 (en) 2022-05-05
JP2022072825A (en) 2022-05-17

Similar Documents

Publication Publication Date Title
US10636267B2 (en) RFID tag tracking systems and methods in identifying suspicious activities
US11816897B2 (en) Information processing apparatus, information processing method, and information processing program
US10402634B2 (en) Information processing device, information processing method, and computer program product
US9558398B2 (en) Person behavior analysis device, person behavior analysis system, person behavior analysis method, and monitoring device for detecting a part of interest of a person
WO2022092032A1 (en) Activity estimating device, activity estimating method, program, and activity estimating system
JP6707940B2 (en) Information processing device and program
US20140225734A1 (en) Inhibiting alarming of an electronic article surviellance system
US20230394942A1 (en) Monitoring device, suspicious object detecting method, and recording medium
JP5654110B2 (en) Surveillance method and camera
JP6206627B1 (en) Information processing apparatus, control method, and program
KR20210064886A (en) Server, method and computer program for recognizing motion of person
WO2023138445A1 (en) Detection methods and devices for detecting if person has fallen and pick-up or put-back behavior of person
CN111583521A (en) Safety protection method and device
US10679086B2 (en) Imaging discernment of intersecting individuals
EP3474184A1 (en) Device for detecting the interaction of users with products arranged on a stand or display rack of a store
WO2019077559A1 (en) System for tracking products and users in a store
JP2022011666A (en) Image processing device, image processing method, and program
US11380187B2 (en) Information processing apparatus, control method, and program
JP2004355453A (en) Marketing information acquisition system
WO2023053243A1 (en) Reporting system, method, and recording medium
US20230196824A1 (en) Person-of-interest (poi) detection
CN115457697A (en) Anti-theft method and device for unmanned retail container, equipment and storage medium
JP2022011704A (en) Image processing device, image processing method, and program
JP2022117096A (en) Image processing apparatus, image processing method, and program
WO2023172810A1 (en) Vision system for classiying persons based on visual appearance and dwell locations

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231026

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20231027