JP2022073882A - Behavior estimation device, behavior estimation method, program and behavior estimation system - Google Patents
Behavior estimation device, behavior estimation method, program and behavior estimation system Download PDFInfo
- Publication number
- JP2022073882A JP2022073882A JP2021042085A JP2021042085A JP2022073882A JP 2022073882 A JP2022073882 A JP 2022073882A JP 2021042085 A JP2021042085 A JP 2021042085A JP 2021042085 A JP2021042085 A JP 2021042085A JP 2022073882 A JP2022073882 A JP 2022073882A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- person
- unit
- relationship
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 8
- 238000001514 detection method Methods 0.000 claims description 76
- 230000009471 action Effects 0.000 claims description 66
- 230000008859 change Effects 0.000 claims description 38
- 230000005540 biological transmission Effects 0.000 claims description 9
- 230000006399 behavior Effects 0.000 description 186
- 238000004891 communication Methods 0.000 description 13
- 235000013361 beverage Nutrition 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 235000005156 Brassica carinata Nutrition 0.000 description 3
- 244000257790 Brassica carinata Species 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、人の行動を推定するための行動推定装置、行動推定方法、プログラム及び行動推定システムに関する。 The present invention relates to a behavior estimation device, a behavior estimation method, a program, and a behavior estimation system for estimating a person's behavior.
時系列画像に写った人の関節を検出し、検出した関節の位置の変化に基づいて被写体の行動を推定する行動推定装置が知られている(例えば、特許文献1を参照)。 A behavior estimation device that detects a human joint in a time-series image and estimates the behavior of the subject based on the change in the position of the detected joint is known (see, for example, Patent Document 1).
従来の行動推定装置は被写体の動きのみに基づいて行動を推定するため、動きが類似する行動を判別することが困難であるという問題が生じていた。 Since the conventional behavior estimation device estimates the behavior based only on the movement of the subject, there is a problem that it is difficult to discriminate the behavior having similar movements.
そこで、本発明はこれらの点に鑑みてなされたものであり、人の行動を推定する精度を向上させることを目的とする。 Therefore, the present invention has been made in view of these points, and an object thereof is to improve the accuracy of estimating human behavior.
本発明の第1の態様に係る行動推定装置は、撮像画像を示す撮像画像データを取得する画像取得部と、前記撮像画像に含まれる人の動きを検出する人検出部と、前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定する推定部と、を有する。 The behavior estimation device according to the first aspect of the present invention includes an image acquisition unit that acquires captured image data showing an captured image, a human detection unit that detects the movement of a person included in the captured image, and the captured image. The subject detection unit that detects the type of the included subject, the relationship specifying unit that specifies the relative relationship between the person and the subject due to the movement of the person, the type of the subject, and the relative relationship. It has an estimation unit that estimates the behavior content of the person based on the combination.
前記関係特定部は、前記人と前記被写体との距離を前記相対関係として特定し、前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた基準距離と、前記関係特定部が特定した前記人と前記被写体との距離と、を比較した結果に基づいて前記行動内容を推定してもよい。 The relationship specifying unit specifies the distance between the person and the subject as the relative relationship, and the estimation unit uses the reference distance associated with the type of the subject detected by the subject detecting unit and the relationship specifying unit. The action content may be estimated based on the result of comparing the distance between the person and the subject specified by.
前記関係特定部は、前記人の目線の方向と前記被写体の位置との関係を、前記相対関係として特定し、前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた目線の方向と被写体の位置との関係である基準目線関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定してもよい。 The relationship specifying unit specifies the relationship between the direction of the person's line of sight and the position of the subject as the relative relationship, and the estimation unit is the line of sight associated with the type of the subject detected by the subject detecting unit. The action content is based on the result of comparing the reference line-of-sight relationship, which is the relationship between the direction of the subject and the position of the subject, and the relationship between the direction of the line of sight of the person specified by the relationship specifying unit and the position of the subject. You may estimate.
前記関係特定部は、前記人の身体の向きと前記被写体の位置との関係を、前記相対関係として特定し、前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた身体の向きと被写体の位置との関係である基準身体向き関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定してもよい。 The relationship specifying unit specifies the relationship between the orientation of the person's body and the position of the subject as the relative relationship, and the estimation unit is the body associated with the type of the subject detected by the subject detecting unit. The action content based on the result of comparing the reference body orientation relationship, which is the relationship between the orientation of the subject and the position of the subject, and the relationship between the direction of the line of sight of the person specified by the relationship specifying unit and the position of the subject. May be estimated.
前記画像取得部は、時系列に作成された複数の前記撮像画像データを取得し、前記関係特定部は、前記相対関係の変化を特定し、前記推定部は、前記被写体の種別と、前記相対関係の変化との組み合わせに基づいて、前記人の行動内容を推定してもよい。 The image acquisition unit acquires a plurality of the captured image data created in time series, the relationship specifying unit identifies a change in the relative relationship, and the estimation unit determines the type of the subject and the relative. The behavioral content of the person may be estimated based on the combination with the change of the relationship.
前記推定部は、前記複数の撮像画像データのいずれかに、前記人検出部が前記人を検出する前に前記被写体が含まれていたか否かを判定した結果にさらに基づいて、前記行動内容を推定してもよい。 The estimation unit further determines the action content based on the result of determining whether or not the subject was included in any of the plurality of captured image data before the person detection unit detects the person. You may estimate.
前記人検出部は、前記人の属性をさらに検出し、前記推定部は、前記人検出部が検出した前記人の属性にさらに基づいて、前記行動内容を推定してもよい。 The person detection unit may further detect the attribute of the person, and the estimation unit may estimate the behavior content based on the attribute of the person detected by the person detection unit.
前記被写体検出部は、前記撮像画像に含まれる第1被写体及び第2被写体を検出し、前記関係特定部は、前記人の動きに伴う前記人と前記第1被写体との関係である第1相対関係、前記人の動きに伴う前記人と前記第2被写体との関係である第2相対関係、及び前記人の動きに伴う前記第1被写体と前記第2被写体との関係である第3相対関係を特定し、前記推定部は、前記被写体の種別と、前記第1相対関係、前記第2相対関係又は前記第3相対関係の少なくとも2つの相対関係と、の組み合わせに基づいて、前記人の行動内容を推定してもよい。 The subject detection unit detects the first subject and the second subject included in the captured image, and the relationship specifying unit is the first relative, which is the relationship between the person and the first subject due to the movement of the person. The relationship, the second relative relationship between the person and the second subject due to the movement of the person, and the third relative relationship between the first subject and the second subject due to the movement of the person. The estimation unit identifies the behavior of the person based on the combination of the type of the subject and at least two relative relationships of the first relative relationship, the second relative relationship, or the third relative relationship. The content may be estimated.
前記撮像画像に含まれる前記被写体の属性の設定を受け付ける設定受付部をさらに有し、前記推定部は、前記被写体の属性にさらに基づいて前記行動内容を推定してもよい。 The setting reception unit that accepts the setting of the attribute of the subject included in the captured image may be further provided, and the estimation unit may estimate the action content based on the attribute of the subject.
前記関係特定部は、前記被写体検出部が検出した被写体と前記設定受付部が属性の設定を受け付けた被写体との位置関係をさらに特定し、前記推定部は、前記関係特定部が特定した前記位置関係と、前記設定受付部が設定を受け付けた被写体の属性とにさらに基づいて前記行動内容を推定してもよい。 The relationship specifying unit further specifies the positional relationship between the subject detected by the subject detecting unit and the subject for which the setting receiving unit has received the attribute setting, and the estimation unit further identifies the positional relationship specified by the relationship specifying unit. The action content may be estimated based on the relationship and the attribute of the subject for which the setting receiving unit has received the setting.
前記撮像画像に写っている場所を特定する場所特定部と、前記推定部が推定した前記行動内容と、前記場所特定部が特定した場所とが所定の条件を満たす場合に通知情報を出力する出力部と、をさらに有してもよい。 Output that outputs notification information when a place specifying unit that specifies a place reflected in the captured image, the action content estimated by the estimation unit, and a place specified by the place specifying unit satisfy predetermined conditions. And may further have.
前記出力部は、前記場所特定部が特定した場所と前記行動内容との組み合わせに対応する種別の前記通知情報を出力してもよい。 The output unit may output the notification information of the type corresponding to the combination of the location specified by the location specifying unit and the action content.
前記人の色の変化又は前記被写体の色の変化の少なくともいずれかを特定する色特定部をさらに有し、前記推定部は、前記色特定部が特定した前記人の色の変化又は前記被写体の色の変化の少なくともいずれかにさらに基づいて、前記行動内容を推定してもよい。 Further having a color specifying unit that specifies at least one of the change in the color of the person or the color of the subject, the estimation unit is the change in the color of the person specified by the color specifying unit or the change in the subject. The behavior may be estimated based further on at least one of the color changes.
前記画像取得部は、複数の前記撮像画像データを取得し、前記関係特定部は、複数の前記相対関係を特定し、前記推定部は、複数の前記相対関係それぞれと前記被写体の種別との組み合わせに基づいて、前記人の行動内容を推定してもよい。 The image acquisition unit acquires a plurality of the captured image data, the relationship specifying unit identifies a plurality of the relative relationships, and the estimation unit combines each of the plurality of the relative relationships with the type of the subject. The behavior content of the person may be estimated based on the above.
本発明の第2の態様に係る行動推定方法は、コンピュータが実行する、撮像画像を示す撮像画像データを取得するステップと、前記撮像画像に含まれる人の動きを検出するステップと、前記撮像画像に含まれる被写体の種別を検出するステップと、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定するステップと、を有する。 The behavior estimation method according to the second aspect of the present invention includes a step of acquiring captured image data showing a captured image, a step of detecting a movement of a person included in the captured image, and the captured image, which are executed by a computer. Based on the step of detecting the type of the subject included in the above, the step of specifying the relative relationship between the person and the subject due to the movement of the person, and the combination of the type of the subject and the relative relationship. It has a step of estimating the behavior content of the person.
本発明の第3の態様に係るプログラムは、コンピュータに、撮像画像を示す撮像画像データを取得するステップと、前記撮像画像に含まれる人の動きを検出するステップと、前記撮像画像に含まれる被写体の種別を検出するステップと、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定するステップと、を実行させる。 The program according to the third aspect of the present invention includes a step of acquiring captured image data showing a captured image, a step of detecting a movement of a person included in the captured image, and a subject included in the captured image in a computer. Based on the combination of the step of detecting the type of the subject, the step of specifying the relative relationship between the person and the subject due to the movement of the person, and the type of the subject and the relative relationship, the person. To execute the step of estimating the action content of.
本発明の第4の態様に係る行動推定システムは、撮像装置が生成した撮像画像に基づいて人の行動内容を推定する行動推定装置と、前記行動推定装置が推定した前記人の行動内容を表示する情報端末と、を備え、前記行動推定装置は、前記撮像画像を示す撮像画像データを取得する画像取得部と、前記撮像画像に含まれる人の動きを検出する人検出部と、前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の前記行動内容を推定する推定部と、前記推定部が推定した前記行動内容を示す行動内容情報を前記情報端末に送信する送信部と、を有し、前記情報端末は、前記行動内容情報を受信する情報受信部と、前記情報受信部が受信した前記行動内容情報に基づいて前記行動内容を表示する表示部と、を有する。 The behavior estimation system according to the fourth aspect of the present invention displays a behavior estimation device that estimates a person's behavior content based on an image captured by the image pickup device, and the behavior content of the person estimated by the behavior estimation device. The behavior estimation device includes an image acquisition unit that acquires captured image data indicating the captured image, a person detection unit that detects the movement of a person included in the captured image, and the captured image. A subject detection unit that detects the type of subject included in the above, a relationship specifying unit that specifies a relative relationship between the person and the subject due to the movement of the person, a type of the subject, and the relative relationship. It has an estimation unit that estimates the behavior content of the person based on the combination of the above, and a transmission unit that transmits the behavior content information indicating the behavior content estimated by the estimation unit to the information terminal. The terminal has an information receiving unit that receives the action content information, and a display unit that displays the action content based on the action content information received by the information receiving unit.
本発明によれば、人の行動を推定する精度を向上させるという効果を奏する。 According to the present invention, there is an effect of improving the accuracy of estimating human behavior.
[行動推定システムSの概要]
図1は、本実施形態に係る行動推定システムSの概要を説明するための図である。図2は、行動推定システムSの構成を示す図である。行動推定システムSは、撮像装置1と、情報端末2と、行動推定装置10と、を備える。図2に示すように、撮像装置1と情報端末2と行動推定装置10とは、ネットワークNを介して接続されている。ネットワークNは、例えばイントラネット又はインターネットである。ネットワークNは、無線ネットワークを含んでもよい。
[Overview of behavior estimation system S]
FIG. 1 is a diagram for explaining an outline of the behavior estimation system S according to the present embodiment. FIG. 2 is a diagram showing a configuration of the behavior estimation system S. The behavior estimation system S includes an image pickup device 1, an information terminal 2, and a
図1(a)は、空間Rを上から見た図であり、図1(b)は、空間Rを横から見た図である。空間Rは、例えば店舗の売場、店舗の倉庫、工場の倉庫、又は施設の備品置き場のように物体が置かれた空間である。図1に示すように、空間Rには複数の棚T(T1~T4)が設置されている。図1(b)に示すように、複数の棚T(T1~T3)には、複数の物体P(P1~P3)がそれぞれ置かれている。図1に示すように、空間Rには、人Mが滞在している。人Mは、物体Pを入れることが可能なバッグBを所持している。 FIG. 1 (a) is a view of the space R as viewed from above, and FIG. 1 (b) is a view of the space R as viewed from the side. The space R is a space in which an object is placed, such as a store sales floor, a store warehouse, a factory warehouse, or a facility storage space. As shown in FIG. 1, a plurality of shelves T (T1 to T4) are installed in the space R. As shown in FIG. 1 (b), a plurality of objects P (P1 to P3) are respectively placed on the plurality of shelves T (T1 to T3). As shown in FIG. 1, a person M is staying in the space R. The person M has a bag B in which the object P can be put.
図1においては、行動推定システムSは、空間Rに設置された一以上の撮像装置1が生成した撮像画像に基づいて人Mの行動内容を推定する行動推定装置10を備える。撮像装置1は、例えば監視カメラであり、人の行動内容を推定する領域を撮像する。撮像装置1は、撮像して生成した撮像画像データを行動推定装置10に送信する。撮像装置1は、撮像画像データとして動画像データを生成してもよい。動画像データは、例えばH.264又はH.265等の圧縮規格により符号化されたデータである。
In FIG. 1, the behavior estimation system S includes a
行動推定装置10は、撮像装置1が生成した撮像画像に基づいて人Mの行動内容を推定し、推定した行動内容を示す行動内容情報を情報端末2に送信する。行動推定装置10は、撮像画像に含まれる人Mと被写体との相対関係に基づいて人Mの行動内容を推定する情報処理装置であり、例えばコンピュータである。被写体は、例えば複数の棚T、複数の物体P、バッグB又は他の人である。行動推定装置10は、単一の情報処理装置でもよいし、例えばクラウド型サーバのように複数の情報処理装置で構成されてもよい。
The
行動推定装置10は、人Mと被写体との関係である相対関係を特定し、特定した相対関係と被写体の種別との組み合わせに基づいて人Mの行動内容を推定する。相対関係は、例えば人Mと物体Pとの距離、人Mの目線の方向と物体Pの位置との関係、又は人Mの身体の向きと物体Pの位置との関係である。被写体の種別は、例えば缶飲料、ナイフ、商品カゴのように、形状又は色の少なくともいずれかに基づいて被写体を特定できる情報により表される。本実施形態においては、説明を簡単にするために、被写体の種別を商品名で表す場合がある。なお、被写体は、物体又は人である。
The
人Mが物体P2を手に取った後に物体P2をバッグBに入れた場合、行動推定装置10は、人Mの手と被写体との距離に基づいて「物体P2と接触している人Mの手がバッグBと近接している」と相対関係を特定する。続いて、検出した物体P2の種別が「缶飲料」であり、検出したバッグBの種別が「ハンドバッグ」である場合、行動推定システムSは、特定した相対関係と、被写体の種別である缶飲料及びハンドバッグとの組み合わせに基づいて「人Mが缶飲料をハンドバッグに入れた」と特定することにより、人Mの行動内容が万引きであると推定する。
When the object P2 is put into the bag B after the person M picks up the object P2, the
一方、特定した相対関係が同じであっても、検出した物体P2の種別が「缶飲料」であり、検出したバッグBの種別が「商品カゴ」である場合、行動推定装置10は、相対関係と、被写体の種別である缶飲料及び商品カゴとの組み合わせに基づいて「人Mが缶飲料を商品カゴに入れた」と特定することにより、人Mの行動内容が買い物であると推定する。
On the other hand, even if the specified relative relationship is the same, if the type of the detected object P2 is "canned beverage" and the type of the detected bag B is "commodity basket", the
行動推定装置10は、推定した結果を情報端末2に送信する。情報端末2は、例えばスマートフォン、タブレット又はパーソナルコンピュータである。情報端末2は、例えば店舗の売場を監視する店員又は工場の倉庫を管理する社員(以下、「管理者」という)が使用する端末である。
The
情報端末2は、行動推定装置10が推定した人の行動内容をディスプレイに表示する。情報端末2は、例えば行動推定装置10が推定した人の行動内容と当該人が写っている撮像画像とを含む行動内容情報を取得し、行動内容情報に含まれる撮像画像と当該撮像画像に含まれる人の行動内容とを関連付けて表示してもよい。
The information terminal 2 displays the behavior content of the person estimated by the
このように、行動推定装置10は、人Mと被写体との相対関係と被写体の種別との組み合わせに基づいて人Mの行動内容を推定することで、動きが類似する行動を高い精度で判別することができる。そして、行動推定装置10は、予め設定された行動(例えば万引き行為)を検出したことを情報端末2に通知することで、情報端末2を使用する管理者が、予め設定された行動が行われたことを高い精度で把握することができる。
In this way, the
なお、情報端末2の管理者は、行動推定装置10が人の行動内容を推定するために使用する各種の情報を設定することができる。情報端末2は、管理者の操作に応じて、人の行動内容を推定するために用いる情報である設定情報を行動推定装置10に送信する。
The administrator of the information terminal 2 can set various information used by the
設定情報は、例えば被写体の属性情報又は被写体の種別情報のうち少なくとも1つを含む。被写体の属性情報は、被写体の位置又は形状と被写体の属性とが関連付けられた情報である。被写体の属性は、例えば被写体の所有者、被写体の機能といった被写体の特徴を示す情報である。例えば、図1に示す棚T1の属性情報は、棚T1の位置又は形状と棚T1の属性を示す「店舗」とが関連付けられた情報である。 The setting information includes, for example, at least one of subject attribute information or subject type information. The subject attribute information is information in which the position or shape of the subject is associated with the subject attribute. The subject attribute is information indicating the characteristics of the subject such as the owner of the subject and the function of the subject. For example, the attribute information of the shelf T1 shown in FIG. 1 is information in which the position or shape of the shelf T1 is associated with the "store" indicating the attribute of the shelf T1.
被写体の種別情報は、被写体の形状と被写体の種別とが関連付けられた情報である。例えば被写体が缶飲料の場合、被写体の種別情報は、被写体の種別を示す「缶飲料」と当該缶飲料の形状とが関連付けられた情報である。 The subject type information is information in which the shape of the subject and the type of the subject are associated with each other. For example, when the subject is a canned beverage, the subject type information is information in which the "canned beverage" indicating the type of the subject is associated with the shape of the canned beverage.
[情報端末2の構成]
図3は、情報端末2の構成を説明するための図である。情報端末2は、通信部21と、記憶部22と、制御部23と、表示部24と、操作部25と、を有する。制御部23は、情報送信部231と、情報受信部232とを有する。
[Configuration of information terminal 2]
FIG. 3 is a diagram for explaining the configuration of the information terminal 2. The information terminal 2 has a
通信部21は、ネットワークNを介して情報を送受信するための通信デバイスを含む。通信デバイスは、例えばLAN(Local Area Network)コントローラ又は無線LANコントローラである。
The
記憶部22は、ROM(Read Only Memory)、RAM(Random Access Memory)及びSSD(Solid State Drive)等の記憶媒体を有する。記憶部22は、制御部23が実行するプログラムを記憶している。
The
制御部23は、例えばCPU(Central Processing Unit)である。制御部23は、記憶部22に記憶されているプログラムを実行することにより、情報送信部231及び情報受信部232として機能する。情報送信部231は、情報端末2を使用する管理者が作成した行動推定装置10の設定情報を、通信部21を介して行動推定装置10に送信する。情報受信部232は、行動推定装置10が送信した行動内容情報を、通信部21を介して受信する。
The
表示部24は、例えば、液晶ディスプレイ又は有機EL(Electro Luminescence)等の表示デバイスを有する。表示部24は、情報受信部232が受信した行動内容情報に基づいて行動内容を表示する。表示部24は、例えば、情報受信部232が受信した行動内容情報に含まれる人の行動内容と当該人が写っている撮像画像とを抽出する。表示部24は、抽出した撮像画像をディスプレイに表示するとともに、当該撮像画像に写っている人の行動内容を当該撮像画像と関連付けて表示する。
The
操作部25は、情報端末2を使用する管理者の操作を受け付けるデバイスであり、キーボード、マウス又はタッチパネルである。操作部25は、管理者の操作内容を示す情報を情報送信部231に通知する。
The
[行動推定装置10の構成]
図4は、行動推定装置10の構成を説明するための図である。行動推定装置10は、通信部11と、記憶部12と、制御部13とを有する。制御部13は、画像取得部131と、人検出部132と、被写体検出部133と、設定受付部134と、関係特定部135と、推定部136と、場所特定部137と、出力部138とを有する。
[Structure of behavior estimation device 10]
FIG. 4 is a diagram for explaining the configuration of the
通信部11は、ネットワークNを介して情報を送受信するための通信デバイスを含む。通信デバイスは、例えばLANコントローラ又は無線LANコントローラである。記憶部12は、ROM、RAM及びSSD等の記憶媒体を有する。記憶部12は、制御部13が実行するプログラムを記憶している。記憶部12は、情報端末2から取得した設定情報を記憶する。
The communication unit 11 includes a communication device for transmitting and receiving information via the network N. The communication device is, for example, a LAN controller or a wireless LAN controller. The
記憶部12は、推定部136が人の行動内容を推定するために用いられる各種の情報をデータベースに記憶している。記憶部12は、例えば、人の行動内容と、人の動きと、被写体の種別と、人と被写体との相対関係とが関連付けられた行動内容データベースを記憶している。被写体は、物体又は人である。
The
図5は、行動内容データベースの一例を示す図である。図5においては、人の行動内容のカテゴリと、行動内容と、行動内容を特定するための複数の要件とが関連付けられている。複数の要件は、行動を推定する人の属性、人の動き、複数の被写体の種別(図5に示す「被写体1」「被写体2」)、及び人と被写体との相対関係である。人の属性は、例えば購買客又は従業員のように、人の行動を推定する空間における人の立場又は役割等を示す。 FIG. 5 is a diagram showing an example of an action content database. In FIG. 5, the category of human behavior content, the behavior content, and a plurality of requirements for specifying the behavior content are associated with each other. The plurality of requirements are the attributes of the person who estimates the behavior, the movement of the person, the types of the plurality of subjects (“subject 1” and “subject 2” shown in FIG. 5), and the relative relationship between the person and the subject. The attribute of a person indicates the position or role of the person in the space for estimating the behavior of the person, for example, a purchaser or an employee.
例えば、行動内容「眺める」は、人の属性が「購買客」、人の動きが「注視する」、被写体1が「商品」、相対関係が「人と被写体1との距離は距離A1未満」及び「人の目線と被写体1との方向差は方向差A2未満」という要件に関連付けられている。距離A1は、例えば人が被写体と接触することが可能と考えられる距離の最大値である。方向差A2は、例えば人が被写体を注視していると考えられる目線の方向のうち最も被写体から離れている方向である。詳細については後述するが、推定部136は、行動内容データベースに含まれている要件の組み合わせに対応する行動内容を特定することにより、撮像画像に含まれている被写体の行動内容を特定する。
For example, in the action content "view", the attribute of the person is "purchaser", the movement of the person is "watching", the subject 1 is "product", and the relative relationship is "the distance between the person and the subject 1 is less than the distance A1". And "the direction difference between the person's line of sight and the subject 1 is less than the direction difference A2". The distance A1 is, for example, the maximum value of the distance at which a person can come into contact with the subject. The direction difference A2 is, for example, the direction farthest from the subject among the directions of the line of sight where the person is considered to be gazing at the subject. Although the details will be described later, the
図4に戻って、制御部13は、例えばCPUである。制御部13は、記憶部12に記憶されているプログラムを実行することにより、画像取得部131、人検出部132、被写体検出部133、設定受付部134、関係特定部135、推定部136、場所特定部137及び出力部138として機能する。
Returning to FIG. 4, the control unit 13 is, for example, a CPU. By executing the program stored in the
画像取得部131は、撮像画像を示す撮像画像データを取得する。画像取得部131は、撮像装置1が撮像して生成した撮像画像データを、通信部11を介して取得する。画像取得部131は、時系列に作成された複数の撮像画像データを取得してもよい。
The
人検出部132は、撮像画像に含まれる人の動きを検出する。人の動きは、例えば図5に示す「人の動き」の欄に記載されたような動きである。人検出部132は、撮像画像に含まれる人の位置を検出し、位置を検出した人の動きをさらに検出する。人検出部132は、例えば撮像画像に含まれる人の関節の位置及び人の目線の向きの変化を特定することにより、撮像画像に含まれる人の動きを検出する。人検出部132は、検出した人の動きを示す人検出情報を推定部136に出力する。
The
人検出部132は、人の属性をさらに検出してもよい。人検出部132は、例えば従業員が着用している作業服又は制服の模様又は色に基づいて従業員であるか否かを判定することにより人の属性を検出する。人検出部132は、記憶部12に記憶されている従業員の顔の輪郭及び形状等の従業員の特徴と、撮像画像に含まれる人の特徴とを比較した結果に基づいて従業員であるか否かを判定することにより人の属性を検出してもよい。
The
被写体検出部133は、撮像画像に含まれる被写体の種別を検出する。被写体検出部133は、撮像画像に含まれる被写体の位置を検出し、位置を検出した被写体の種別をさらに検出する。被写体検出部133は、例えば記憶部12に記憶されている設定情報に含まれている被写体の形状に基づいて撮像画像に含まれる被写体を検出し、被写体の形状に関連付けられた被写体の種別に基づいて撮像画像に含まれる被写体の種別を検出する。被写体検出部133は、検出した被写体の位置と当該被写体の種別とを示す被写体検出情報を推定部136に出力する。
The
被写体検出部133は、撮像画像に含まれる複数の被写体を検出してもよい。被写体検出部133は、撮像画像に含まれる第1被写体及び第2被写体を検出してもよい。第1被写体及び第2被写体は、例えば、図5に示す「被写体1」及び「被写体2」の欄に記載された種別の物品である。被写体検出部133が複数の被写体を検出した場合、推定部136は、検出した複数の被写体のうち一以上の被写体の種別に基づいて人の行動内容を推定する。
The
設定受付部134は、撮像画像に含まれる被写体の属性の設定を受け付ける。設定受付部134は、例えば、情報端末2が送信した被写体の属性情報と被写体の種別情報とを含む設定情報を受信することで、撮像画像に含まれる被写体の属性の設定を受け付ける。設定受付部134は、受け付けた被写体の属性の設定を含む設定情報を記憶部12に記憶させてもよいし、被写体検出部133に出力してもよい。
The
関係特定部135は、人の動きに伴う人と被写体との関係である相対関係を特定する。関係特定部135は、人検出部132が出力した人検出情報と被写体検出部133が出力した被写体検出情報とに基づいて相対関係を特定する。関係特定部135は、例えば、人検出部132が検出した人の動きに対応する部位と被写体との相対関係を特定する。関係特定部135は、例えば人検出部132が検出した人の動きが「注視する」である場合、人の目と被写体との関係を特定し、「取る」である場合、人の手と被写体との関係を特定する。関係特定部135は、特定した相対関係を推定部136に通知する。相対関係は、推定部136が人の行動内容を特定するために用いられる。関係特定部135は、例えば、人と被写体との距離を相対関係として特定する。関係特定部135は、例えば人検出情報に含まれる人の関節の位置と被写体検出情報に含まれる被写体の位置との差に基づいて人と被写体との距離を特定する。
The
関係特定部135は、人の目線の方向と被写体の位置との関係を、相対関係として特定してもよい。関係特定部135は、例えば人の動きが「注視する」又は「見る」等の人の目の動きである場合、人検出情報に含まれる人の目線の方向と被写体検出情報に含まれる被写体の位置との関係を、相対関係として特定する。関係特定部135は、例えば人が被写体を直視した場合の目線の方向と人検出情報に含まれる目線の方向との差を相対関係として特定する。
The
関係特定部135は、人の身体の向きと被写体の位置との関係を、相対関係として特定してもよい。関係特定部135は、例えば人の動きが「会話する」である場合、人検出情報に含まれる人の関節の位置に基づいて特定した人の身体の向きと被写体検出情報に含まれる被写体の位置との関係を、相対関係として特定する。関係特定部135は、例えば人が被写体の正面を向いた場合の身体の向きと人の関節の位置に基づいて特定した身体の向きとの差を相対関係として特定する。
The
関係特定部135は、特定した複数の相対関係に基づいて、相対関係の変化を特定してもよい。関係特定部135は、例えば時系列に作成された複数の撮像画像に基づいて検出された人の複数の動きと被写体とに基づいて、複数の相対関係を特定し、特定した複数の相対関係それぞれに基づいて相対関係の変化を特定する。
The
例えば、時刻Tにおいて、関係特定部135が相対関係を「人と被写体との距離は10cm」と特定し、時刻T+1において、関係特定部135が相対関係を「人と被写体との距離は50cm」と特定した場合、時刻T及び時刻T+1に特定した相対関係に基づいて、関係特定部135は「人が被写体から遠ざかる方向に移動している」と特定する。このように、相対関係の変化を特定することで、関係特定部135は、精度の高い相対関係を特定できる。
For example, at time T, the
関係特定部135は、行動を推定する人と複数の被写体とが撮像画像に含まれている場合、複数の相対関係を特定してもよい。関係特定部135は、例えば人の動きに伴う人と第1被写体との関係である第1相対関係、人の動きに伴う人と第2被写体との関係である第2相対関係、及び人の動きに伴う第1被写体と第2被写体との関係である第3相対関係を特定してもよい。第1相対関係は、例えば人と図5に示す被写体1との相対関係であり、第2相対関係は、人と図5に示す被写体2との相対関係であり、第3相対関係は、被写体1と被写体2との相対関係である。
When the captured image includes a person who estimates the behavior and a plurality of subjects, the
例えば店舗の売場に滞在する購買客が商品をバッグの中に入れた場合、行動を推定する人である購買客は、第1被写体である商品と第2被写体であるバッグとを用いて行動している。そこで、関係特定部135は、購買客と商品との関係である第1相対関係、購買客とバッグとの関係である第2相対関係、及び商品とバッグとの関係である第3相対関係を特定する。関係特定部135がこのような複数の相対関係を推定部136に通知することで、推定部136は、人の行動内容の特定精度を向上させることができる。
For example, when a purchaser staying in a store's sales floor puts a product in a bag, the purchaser who estimates the behavior acts using the product as the first subject and the bag as the second subject. ing. Therefore, the
関係特定部135は、撮像画像に含まれている複数の被写体のうち、属性が設定されている被写体と他の被写体との位置関係を特定してもよい。関係特定部135は、例えば被写体検出部133が検出した被写体と設定受付部134が属性の設定を受け付けた被写体との位置関係をさらに特定する。
The
例えば店舗の売場を撮像した撮像画像は、固定的に設置された商品棚の画像と商品棚に置かれた商品の画像とを含んでいる。万引きを検出するという目的の場合、商品棚の位置と商品の位置との関係が、人が万引きしていると推定する際に有効である。そこで、関係特定部135は、被写体検出部133が検出した被写体である商品の位置と設定受付部134が属性の設定を受け付けた被写体である商品棚の位置との距離の変化を特定する。
For example, a captured image of a store's sales floor includes an image of a fixedly installed product shelf and an image of a product placed on the product shelf. For the purpose of detecting shoplifting, the relationship between the position of the product shelf and the position of the product is effective in presuming that a person is shoplifting. Therefore, the
推定部136は、人の行動内容を推定する。推定部136は、被写体の種別と、相対関係との組み合わせに基づいて、人の行動内容を推定する。推定部136は、例えば被写体の種別と相対関係との組み合わせが、記憶部12が記憶している行動内容データベースに含まれているか否かを検索する。推定部136は、行動内容データベースに類似又は一致する組み合わせが含まれている場合、類似又は一致する組み合わせに関連付けられた行動内容を、人の行動内容と推定する。
The
例えば店舗の売場に滞在する人が商品を入れ物に入れた場合、被写体検出部133は、第1被写体である商品と第2被写体である入れ物とを検出する。関係特定部135は、人の手と第1被写体との距離、及び第1被写体と第2被写体との距離に基づいて相対関係を特定する。関係特定部135は、相対関係を「人の手と第1被写体との距離、及び第1被写体と第2被写体との距離のそれぞれが所定の距離(例えば図5に示す距離D1及び距離D2)未満」であると特定する。
For example, when a person staying in a store's sales floor puts a product in a container, the
推定部136は、第2被写体の種別が「バッグ」である場合、人の行動内容を万引きと推定し、第2被写体の種別が「商品カゴ」である場合、人の行動内容を買い物と推定する。このように、推定部136は、人の行動が類似する場合であっても、被写体の種別を用いて人の行動内容を推定することで、人の行動を高い精度で推定することができる。
When the type of the second subject is "bag", the
さらに、推定部136は、関係特定部135が相対関係の変化を「第1被写体と第2被写体との距離が短くなる」と特定したことにさらに基づいて、人の行動内容を推定してもよい。このように動作することで、推定部136は、人の行動をさらに高い精度で推定することができる。
Further, the
推定部136は、関係特定部135が人と被写体との距離を相対関係として特定した場合、被写体検出部133が検出した被写体の種別に関連付けられた基準距離と、関係特定部135が特定した人と被写体との距離と、を比較した結果に基づいて行動内容を推定してもよい。基準距離は、例えば人の行動内容の特徴に対応する距離であり、図5に示す「距離A1未満」、「距離B1未満」等である。基準距離は、被写体の種別により異なる距離であってもよい。
When the
例えば、店舗に滞在する人が被写体である商品を注視している場合において、関係特定部135は、人と被写体との相対関係を「人と被写体との距離は距離Y1」と特定する。その場合、推定部136は、図5に示す基準距離である「距離A1未満」と関係特定部135が特定した距離Y1とを比較する。距離Y1が距離A1未満である場合、推定部136は、行動内容である「商品を眺める」に関連付けられた相対関係の1つである「人と被写体1との距離は距離A1未満」と一致するので、人が商品を眺めている可能性があると判定する。
For example, when a person staying in a store is gazing at a product that is a subject, the
推定部136は、関係特定部135が人の目線の方向と被写体の位置との関係を相対関係として特定した場合、被写体検出部133が検出した被写体の種別に関連付けられた目線の方向と被写体の位置との関係である基準目線関係と、関係特定部135が特定した人の目線の方向と被写体の位置との関係と、を比較した結果に基づいて行動内容を推定してもよい。目線の方向と被写体の位置との関係は、人の目線の方向と人が被写体を直視する場合の目線の方向との差により表される。基準目線関係は、行動内容の特徴に対応する方向差であり、例えば図5に示す「方向差A2未満」である。
When the
例えば、店舗に滞在する人が被写体である商品を眺めている場合において、関係特定部135は、人と被写体との相対関係を「人の目線の方向と被写体の位置との関係は方向差Y2」と特定する。その場合、推定部136は、図5に示す基準目線関係である「方向差A2未満」と関係特定部135が特定した方向差Y2とを比較する。方向差Y2が方向差A2よりも被写体に近い方向である場合、推定部136は、行動内容である「商品を眺める」に関連付けられた相対関係の1つである「人の目線と被写体1との方向差は方向差A2未満」と一致するので、人が商品を眺めている可能性があると判定する。
For example, when a person staying in a store is looking at a product that is a subject, the
推定部136は、人と被写体との距離、及び人の目線の方向と被写体の位置との方向差の両方が基準を満たしている場合に、人の行動が「商品を眺める」であると推定してもよい。推定部136が複数の相対関係に基づいて人の行動内容を推定することで、行動内容の推定精度がさらに向上する。
The
推定部136は、関係特定部135が人の身体の向きと被写体の位置との関係を相対関係として特定した場合、被写体検出部133が検出した被写体の種別に関連付けられた身体の向きと被写体の位置との関係である基準身体向き関係と、関係特定部135が特定した人の目線の方向と被写体の位置との関係と、を比較した結果に基づいて行動内容を推定してもよい。身体の向きと被写体の位置との関係は、身体の向きと人が被写体の方向を向いた場合の身体の向きとの差により表される。基準身体向き関係は、行動内容の特徴に対応する向きの差であり、例えば図5に示す向き「角度差B2未満」である。
When the
例えば、店舗に滞在する人(購買客)が被写体である従業員と話している場合において、関係特定部135は、人と被写体との相対関係を「人の身体の向きと被写体の位置との関係は角度差X1」と特定する。その場合、推定部136は、図5に示す基準身体向き関係である「角度差B2未満」と関係特定部135が特定した角度差X1とを比較する。角度差X1が角度差B2よりも被写体に近い方向を向いている場合、推定部136は、行動内容である「従業員と話す」に関連付けられた相対関係の1つである「人の身体の向きと被写体1との角度差は角度差B2未満」と一致するので、人が従業員と話している可能性があると判定する。
For example, when a person (purchaser) staying in a store is talking to an employee who is the subject, the
推定部136は、人と被写体との距離、及び人の身体の向きと被写体の位置との角度差の両方が基準を満たしている場合に、人の行動が「従業員と話す」であると推定してもよい。推定部136が複数の相対関係に基づいて人の行動内容を推定することで、行動内容の推定精度がさらに向上する。
The
推定部136は、関係特定部135が複数の相対関係を用いて相対関係の変化を特定した場合、被写体の種別と、相対関係の変化との組み合わせに基づいて、人の行動内容を推定してもよい。例えば、店舗に滞在している人が手に取った商品をバッグに入れる場合、関係特定部135は、複数の時刻それぞれにおいて第1被写体である商品と第2被写体であるバッグとの距離を相対関係として特定する。関係特定部135は、相対関係の変化を「第1被写体と第2被写体との距離が短くなる」と特定する。
When the
推定部136は、関係特定部135が特定した相対関係の変化と被写体の種別である商品及びバッグとの組み合わせに基づいて、人が商品をバッグに入れる動作であると判定し、人の行動内容を「万引き」と推定する。このように、相対関係の変化を用いることで、推定部136は、人の行動内容の推定精度を向上させることができる。
The
推定部136は、被写体の種別と相対関係の変化との組み合わせに基づいて人の行動内容を推定する場合、複数の撮像画像データのいずれかに、人検出部132が人を検出する前に被写体が含まれていたか否かを判定した結果にさらに基づいて、行動内容を推定してもよい。
When the
例えば、店舗の売場に滞在している人が棚に置かれた物体を取った場合、物体の種別が商品であるか否かを判別する必要がある。この場合、推定部136は、例えば店舗が開店する前の時刻に作成された撮像画像データが示す撮像画像に写った物体と、人検出部132が棚に置かれた物体を取った人を検出した時刻に作成された撮像画像データが示す撮像画像に写った物体とが一致するか否かを判定する。一致すると判定した場合、推定部136は、物体の種別が商品であると特定する。推定部136は、人が物体をバッグに入れ、かつ物体が商品であるという場合に、人の行動内容が「万引き」であると推定する。
For example, when a person staying in a store's sales floor picks up an object placed on a shelf, it is necessary to determine whether or not the type of the object is a product. In this case, the
このように推定部136が動作することで、例えば来店した購買客が店舗の棚に私物を置き忘れて移動し、一定の時間が経過した後に置き忘れた私物を取りに戻った場合、推定部136は、開店前の撮像画像に基づいて購買客が棚から取った私物と商品とを区別することができる。その結果、推定部136は、万引きではない行動の内容を誤って「万引き」と推定することを抑制できる。
By operating the
推定部136は、撮像画像に基づいて関係特定部135が複数の相対関係を特定した場合、複数の相対関係それぞれと被写体の種別との組み合わせに基づいて、人の行動内容を推定してもよい。
When the
例えば、店舗の売場に滞在している人が棚に置かれた商品をバッグに入れた場合、関係特定部135は、第1相対関係の一例である人と棚との距離、及び第2相対関係の一例である人と商品との距離を特定する。推定部136は、第1相対関係が示す距離と第2相対関係が示す距離とが、それぞれ基準距離未満である場合、第1相対関係と第2相対関係と被写体の種別である商品及びバッグとの組み合わせに基づいて人の行動内容を万引きと推定する。
For example, when a person staying in the sales floor of a store puts a product placed on a shelf in a bag, the
さらに、関係特定部135が複数の時刻に特定した複数の第2相対関係に基づいて、第2相対関係の変化を特定した場合、推定部136は、第1相対関係と第2相対関係の変化と被写体の種別との組み合わせに基づいて人の行動内容を推定してもよい。推定部136は、例えば第1相対関係である「人と棚との距離が基準距離未満」と第2相対関係の変化である「人と商品との距離が短くなる」と被写体の種別である棚及び商品との組み合わせに基づいて人の行動内容を万引きと推定してもよい。
Further, when the
推定部136は、関係特定部135が人と複数の被写体とに基づいて複数の相対関係を特定した場合、複数の相対関係の組み合わせに基づいて人の行動内容を推定してもよい。推定部136は、例えば被写体の種別と、第1相対関係、第2相対関係又は第3相対関係の少なくとも2つの相対関係と、の組み合わせに基づいて、人の行動内容を推定してもよい。
When the
例えば、店舗の売場で人が商品をバッグに入れた場合、被写体検出部133は、商品とバッグとを被写体として検出する。関係特定部135は、人と商品との関係を第1相対関係として特定し、人とバッグとの関係を第2相対関係として特定し、商品とバッグとの関係を第3相対関係として特定する。推定部136は、被写体の種別がバッグ及び商品であることと、人の手とバッグとが距離D1未満であることと、バッグと商品とが距離D2未満であることとに基づいて、人の行動内容を「万引き」と推定する。
For example, when a person puts a product in a bag at a store sales floor, the
なお、ここでは、推定部136が第2相対関係及び第3相対関係を用いて人の行動内容を「万引き」と推定する場合を例示したが、推定部136は、第1相対関係である「人が商品を把持している」をさらに用いて人の行動内容を推定してもよい。
Here, the case where the
推定部136は、人検出部132が検出した人の属性にさらに基づいて、行動内容を推定してもよい。例えば、店舗の売場で人が商品をバッグに入れた場合、人の属性が購買客であれば、推定部136は人の行動内容を「万引き」と推定し、人の属性が従業員であれば、推定部136は人の行動内容を「商品整理」と推定する。このように推定部136が動作することで、推定部136は、例えば商品を手に取る行動である「万引き」と「商品整理」のように、人の動きが類似している場合であっても、行動内容を正しく推定することができる。
The
推定部136は、設定受付部134が受け付けた被写体の属性にさらに基づいて行動内容を推定してもよい。被写体の属性は、例えば被写体の所有者、被写体の機能といった被写体の特徴を示す情報である。例えば、店舗の倉庫等に設置された棚に置かれた物体の属性が「店舗の所有物」であることを設定受付部134が受け付けた場合、推定部136は、物体を取る動きをしている従業員の行動内容を「商品又は備品の整理」と推定する。一方、設定受付部134が物体の属性が「店舗の所有物」でない場合、推定部136は、物体を取る従業員の行動内容を、例えば「私物を動かしている」と推定する。
The
さらに、関係特定部135が、被写体検出部133が検出した被写体と設定受付部134が属性の設定を受け付けた被写体との位置関係を特定した場合、推定部136は、関係特定部135が特定した位置関係と、設定受付部134が設定を受け付けた被写体の属性とにさらに基づいて行動内容を推定してもよい。例えば、関係特定部135が特定した被写体が商品棚であり、設定受付部134が設定を受け付けた被写体が商品棚に置かれた物体である場合、推定部136は、関係特定部135が特定した位置関係に基づいて、従業員以外の人が商品棚に置かれた物体をカバンに入れる動きをしていると判定する。続いて、推定部136は、物体の属性が「店舗の所有物」である場合に、従業員以外の人の行動内容を万引きと推定する。
Further, when the
推定部136は、このように被写体の属性に基づいて行動内容を推定することで、複数の商品と複数の商品とは異なる物体(例えば私物)とが同じ場所に置かれている場合であっても、商品と商品とは異なる物体とを区別して人の行動内容を推定することができる。
By estimating the action content based on the attributes of the subject in this way, the
場所特定部137は、撮像画像に写っている場所を特定する。場所特定部137は、例えば撮像画像に写っている被写体に基づいて撮像画像に写っている場所を特定する。場所特定部137は、例えばGPS(Global Positioning System)信号に基づいて撮像画像に写っている場所を特定してもよい。場所特定部137は、特定した場所を示す情報を出力部138に通知する。
The
出力部138は、推定部136が推定した行動内容を示す行動内容情報を情報端末2に送信する送信部として機能する。出力部138は、推定部136が推定した行動内容と、場所特定部137が特定した場所とが所定の条件を満たす場合に通知情報を出力してもよい。所定の条件は、情報端末2のユーザが通知情報を受けて何かしらの対応をすべきことである。情報端末2のユーザは、例えば撮像装置が店舗に設置されている場合、店舗の従業員又は警備員である。
The
具体的には、推定部136が推定した行動内容が「万引き」であり、場所特定部137が特定した場所が「店舗」である場合、店舗の従業員又は警備員は、万引きをした人を確保する必要がある。したがって、出力部138は、所定の条件を満たすと判定し通知情報を出力する。
Specifically, when the action content estimated by the
一方、推定部136が推定した行動内容が「商品整理」であり、場所特定部137が特定した場所が「店舗」である場合、推定した行動内容は従業員の通常の行動であるため、出力部138は、所定の条件を満たさないと判定し通知情報を出力しない。このように動作することで、出力部138は、情報端末2のユーザが必要とする情報を出力することができる。
On the other hand, when the action content estimated by the
出力部138は、場所特定部137が特定した場所と行動内容との組み合わせに対応する種別の通知情報を出力してもよい。例えば、場所特定部137が特定した場所が「店舗の売場」であり、推定部136が推定した人の行動内容が「万引き」である場合、出力部138は、店舗の売場で万引きが行われたことを示す通知情報を出力する。
The
[行動推定装置10のフローチャート]
図6は、行動推定装置10が人の行動内容を推定する動作の一例を示すフローチャートである。図6においては、行動推定装置10が、時刻T1における相対関係と時刻T2における相対関係とに基づいて相対関係の変化を特定し、特定した相対関係の変化を用いて人の行動内容を推定する動作を説明する。
[Flowchart of behavior estimation device 10]
FIG. 6 is a flowchart showing an example of an operation in which the
画像取得部131は、撮像装置1が時刻T1において生成した第1撮像画像データを取得する(S11)。場所特定部137は、画像取得部131が取得した第1撮像画像データが示す撮像画像に写っている場所を特定する。また、人検出部132は、第1撮像画像データが示す撮像画像に含まれる人の位置を検出する(S12)。被写体検出部133は、第1撮像画像データが示す撮像画像に写っている被写体の位置と被写体の種別とを検出する(S13)。関係特定部135は、時刻T1における人の位置と被写体の位置と被写体の種別との関係である相対関係を特定する(S14)。
The
画像取得部131は、撮像装置1が時刻T2において生成した第2撮像画像データを取得する(S15)。人検出部132は、第2撮像画像データが示す撮像画像に含まれる人の位置を検出する(S16)。被写体検出部133は、第2撮像画像データが示す撮像画像に写っている被写体の位置と被写体の種別とを検出する(S17)。関係特定部135は、時刻T2における人の位置と被写体の位置と被写体の種別との関係である相対関係を特定する(S18)。
The
関係特定部135は、S14において特定した時刻T1での相対関係と、S18において特定した時刻T2での相対関係とに基づいて、相対関係の変化を特定する(S19)。推定部136は、関係特定部135が特定した相対関係の変化と被写体検出部133が検出した被写体の種別との組み合わせに基づいて人の行動内容を推定する(S20)。
The
行動推定装置10は、人の行動内容を推定する処理を終了する操作が行われていない場合(S21のNO)、S11からS19までの処理を繰り返す。人の行動内容を推定する処理を終了する操作が行われた場合(S21のYES)、行動推定装置10は、処理を終了する。
When the operation for terminating the process of estimating the human behavior content is not performed (NO in S21), the
[他の応用例]
以上の説明においては、店舗内での購買客又は従業員の行動内容を推定する場合を例示したが、行動推定装置10は、他の場所の撮像画像に基づいて人の各種の行動内容を推定してもよい。
[Other application examples]
In the above description, the case of estimating the behavior content of the purchaser or the employee in the store is illustrated, but the
(色に基づく推定)
図7は、人又は被写体の色の変化に基づいて人の行動内容を推定する行動推定装置10の構成を示す図である。図7に示す行動推定装置10は、色特定部139を有する点で図4に示す行動推定装置10と異なり、他の点において同じである。色特定部139は、人の色の変化又は被写体の色の変化の少なくともいずれかを特定する。色特定部139は、人検出部132が検出した人の位置又は被写体検出部133が検出した被写体の位置に基づいて、画像取得部131が取得した撮像画像に含まれる人又は被写体の色の変化を特定する。
(Estimation based on color)
FIG. 7 is a diagram showing a configuration of a
推定部136は、色特定部139が特定した人の色の変化又は被写体の色の変化の少なくともいずれかにさらに基づいて、行動内容を推定してもよい。例えば、人がナイフを使用している場合、被写体検出部133は、被写体の種別であるナイフを検出する。関係特定部135は、人と被写体であるナイフとの関係である相対関係を「人と被写体との距離は基準距離未満である」と特定する。色特定部139は人の位置とナイフの位置とに基づいて、人の手及びナイフが赤色に変化したことを特定する。推定部136は、人の手及びナイフが赤色に変化したことに基づいて、人が怪我をしていることを推定する。
The
また、ナイフを使用している人の周囲に他の人が滞在している場合、関係特定部135が被写体であるナイフと他の人との相対関係の変化を「ナイフと他の人との距離が時刻ごとに大きく変化している」と特定したことにより、推定部136は、人の行動内容を危険行動と推定する。そして、色特定部139が、ナイフ又は他の人の色が赤色に変化したことを特定することにより、推定部136は、他の人が怪我をしていることを推定する。
In addition, when another person is staying around the person using the knife, the
このように色特定部139が人又は被写体の色の変化を特定し、推定部136が色の変化に基づいて人の行動を特定することで、行動推定装置10は、流血等の緊急に対応すべき行動内容を推定することができる。さらに、行動推定装置10は、例えば赤色と異なる色に変化したことを検出することにより、例えばペンキをこぼす等の行動内容を推定することができる。
In this way, the
(危険行為の検出)
行動推定装置10は、例えば屋外に設置された監視カメラの画像に基づいて、屋外で発生した危険行為を検出してもよい。危険行為は、例えば公園に設置されたベンチ等の器物を破壊する行為である。監視カメラの画像に基づいて、空手の動きをする人とベンチとを検出した場合、関係特定部135は、人と被写体であるベンチとの相対関係を特定する。
(Detection of dangerous acts)
The
関係特定部135が相対関係を「人と被写体との距離は閾値以上」と特定した場合、推定部136は、人の行動内容を「空手の練習」と特定する。閾値は、例えば人が空手等の格技の練習で動く範囲を示す距離である。一方、関係特定部135が相対関係を「人と被写体との距離は閾値未満」と特定した場合、推定部136は、人の行動内容を「ベンチを破壊する」と推定する。このように動作することで、行動推定装置10は、屋外に設置された器物と当該器物の周囲の人の行動とを監視することができる。
When the
(禁止領域への侵入の検出)
行動推定装置10は、監視カメラの画像に基づいて、人が進入禁止の領域に立ち入る行動を推定してもよい。例えば進入禁止の領域の境界に柵が設置されている場合、被写体検出部133は、被写体である柵を検出する。人が柵を乗り越えて侵入した場合、人検出部132は、人が柵を乗り越える動きを検出する。関係特定部135は、相対関係を「人が被写体を乗り越えている」と特定する。推定部136は、被写体の種別である柵と相対関係との組み合わせに基づいて、人の行動内容を「柵の乗り越え」と推定する。
(Detection of intrusion into prohibited area)
The
進入禁止の領域に柵が設置されていない場合、被写体検出部133は、進入禁止の領域を被写体の種別として検出してもよい。進入禁止の領域に人が立ち入った場合、人検出部132は、人が移動していることを検出する。関係特定部135は、被写体である進入禁止の領域を示す位置情報と人が移動した位置とに基づいて、相対関係を「人が被写体の内部を移動している」と特定する。推定部136は、人の行動内容を「進入禁止の領域に侵入」と推定する。
When the fence is not installed in the no-entry area, the
このように動作することで、行動推定装置10は、進入禁止の領域に人が立ち入ることを検出することができる。進入禁止の領域の管理者は、行動推定装置10が進入禁止の領域に人が侵入したことを情報端末2に通知することで、人が侵入したことを知るとともに、人に警告を発することができる。
By operating in this way, the
[行動推定装置10の効果]
以上説明したように、行動推定装置10は、撮像画像に含まれる人の動きを検出する人検出部132と、撮像画像に含まれる被写体の種別を検出する被写体検出部133と、人の動きに伴う人と被写体との関係である相対関係を特定する関係特定部135とを有する。そして、推定部136は、被写体検出部133が検出した被写体の種別と関係特定部135が特定した相対関係とに基づいて人の行動内容を推定する。
[Effect of behavior estimation device 10]
As described above, the
行動推定装置10は、このように被写体の種別と、人と被写体との相対関係とを用いて人の行動内容を推定することで、動きが類似する行動であっても、精度よく人の行動内容を推定することができる。また、行動推定システムSによれば、行動推定装置10が推定した人の行動内容を示す行動内容情報を情報端末2が受信することで、例えば情報端末2のユーザである店舗の従業員は、人の異常行動を精度よく知ることができる。その結果、情報端末2のユーザは、人の行動に正確に対応することができる。
The
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist. be. For example, all or part of the device can be functionally or physically distributed / integrated in any unit. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination has the effect of the original embodiment together.
1 撮像装置
2 情報端末
10 行動推定装置
11 通信部
12 記憶部
13 制御部
21 通信部
22 記憶部
23 制御部
24 表示部
25 操作部
131 画像取得部
132 人検出部
133 被写体検出部
134 設定受付部
135 関係特定部
136 推定部
137 場所特定部
138 出力部
139 色特定部
231 情報送信部
232 情報受信部
1 Image pickup device 2
Claims (17)
前記撮像画像に含まれる人の動きを検出する人検出部と、
前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、
前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定する推定部と、
を有する行動推定装置。 An image acquisition unit that acquires captured image data indicating an captured image,
A person detection unit that detects the movement of a person included in the captured image,
A subject detection unit that detects the type of subject included in the captured image, and
A relationship specifying unit that specifies the relative relationship between the person and the subject due to the movement of the person, and
An estimation unit that estimates the behavior of the person based on the combination of the type of the subject and the relative relationship.
Behavior estimation device with.
前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた基準距離と、前記関係特定部が特定した前記人と前記被写体との距離と、を比較した結果に基づいて前記行動内容を推定する、
請求項1に記載の行動推定装置。 The relationship specifying unit specifies the distance between the person and the subject as the relative relationship.
The estimation unit performs the action based on the result of comparing the reference distance associated with the type of the subject detected by the subject detection unit and the distance between the person and the subject specified by the relationship identification unit. Estimate the content,
The behavior estimation device according to claim 1.
前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた目線の方向と被写体の位置との関係である基準目線関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定する、
請求項1又は2に記載の行動推定装置。 The relationship specifying unit specifies the relationship between the direction of the person's line of sight and the position of the subject as the relative relationship.
The estimation unit has a reference line-of-sight relationship, which is a relationship between the direction of the line of sight associated with the type of the subject detected by the subject detection unit and the position of the subject, and the direction of the person's line of sight specified by the relationship specifying unit. The behavior content is estimated based on the result of comparing the relationship between the subject and the position of the subject.
The behavior estimation device according to claim 1 or 2.
前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた身体の向きと被写体の位置との関係である基準身体向き関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定する、
請求項1から3のいずれか一項に記載の行動推定装置。 The relationship specifying unit specifies the relationship between the orientation of the person's body and the position of the subject as the relative relationship.
The estimation unit is a reference body orientation relationship, which is a relationship between the body orientation and the position of the subject associated with the type of the subject detected by the subject detection unit, and the line of sight of the person specified by the relationship identification unit. The action content is estimated based on the result of comparing the relationship between the direction and the position of the subject.
The behavior estimation device according to any one of claims 1 to 3.
前記関係特定部は、前記相対関係の変化を特定し、
前記推定部は、前記被写体の種別と、前記相対関係の変化との組み合わせに基づいて、前記人の行動内容を推定する、
請求項1から4のいずれか一項に記載の行動推定装置。 The image acquisition unit acquires a plurality of the captured image data created in time series, and obtains the plurality of captured image data.
The relationship specifying unit identifies the change in the relative relationship and
The estimation unit estimates the behavior content of the person based on the combination of the type of the subject and the change in the relative relationship.
The behavior estimation device according to any one of claims 1 to 4.
請求項5に記載の行動推定装置。 The estimation unit further determines the action content based on the result of determining whether or not the subject was included in any of the plurality of captured image data before the person detection unit detects the person. presume,
The behavior estimation device according to claim 5.
前記推定部は、前記人検出部が検出した前記人の属性にさらに基づいて、前記行動内容を推定する、
請求項1から6のいずれか一項に記載の行動推定装置。 The person detection unit further detects the attribute of the person and
The estimation unit estimates the behavior content based on the attributes of the person detected by the person detection unit.
The behavior estimation device according to any one of claims 1 to 6.
前記関係特定部は、前記人の動きに伴う前記人と前記第1被写体との関係である第1相対関係、前記人の動きに伴う前記人と前記第2被写体との関係である第2相対関係、及び前記人の動きに伴う前記第1被写体と前記第2被写体との関係である第3相対関係を特定し、
前記推定部は、前記被写体の種別と、前記第1相対関係、前記第2相対関係又は前記第3相対関係の少なくとも2つの相対関係と、の組み合わせに基づいて、前記人の行動内容を推定する、
請求項1から7のいずれか一項に記載の行動推定装置。 The subject detection unit detects the first subject and the second subject included in the captured image, and detects the first subject and the second subject.
The relationship specifying unit is a first relative relationship, which is a relationship between the person and the first subject due to the movement of the person, and a second relative relationship, which is a relationship between the person and the second subject due to the movement of the person. The relationship and the third relative relationship, which is the relationship between the first subject and the second subject due to the movement of the person, are specified.
The estimation unit estimates the behavior content of the person based on the combination of the type of the subject and at least two relative relationships of the first relative relationship, the second relative relationship, or the third relative relationship. ,
The behavior estimation device according to any one of claims 1 to 7.
前記推定部は、前記被写体の属性にさらに基づいて前記行動内容を推定する、
請求項1から8のいずれか一項に記載の行動推定装置。 It further has a setting reception unit that accepts the setting of the attribute of the subject included in the captured image.
The estimation unit estimates the action content based on the attributes of the subject.
The behavior estimation device according to any one of claims 1 to 8.
前記推定部は、前記関係特定部が特定した前記位置関係と、前記設定受付部が設定を受け付けた被写体の属性とにさらに基づいて前記行動内容を推定する、
請求項9に記載の行動推定装置。 The relationship specifying unit further specifies the positional relationship between the subject detected by the subject detecting unit and the subject for which the setting receiving unit has received the attribute setting.
The estimation unit estimates the action content based on the positional relationship specified by the relationship specifying unit and the attributes of the subject for which the setting receiving unit has accepted the setting.
The behavior estimation device according to claim 9.
前記推定部が推定した前記行動内容と、前記場所特定部が特定した場所とが所定の条件を満たす場合に通知情報を出力する出力部と、
をさらに有する、
請求項1から10のいずれか一項に記載の行動推定装置。 A place specifying part that specifies the place shown in the captured image, and
An output unit that outputs notification information when the action content estimated by the estimation unit and the location specified by the location identification unit satisfy a predetermined condition.
Have more,
The behavior estimation device according to any one of claims 1 to 10.
請求項11に記載の行動推定装置。 The output unit outputs the notification information of the type corresponding to the combination of the location specified by the location specifying unit and the action content.
The behavior estimation device according to claim 11.
前記推定部は、前記色特定部が特定した前記人の色の変化又は前記被写体の色の変化の少なくともいずれかにさらに基づいて、前記行動内容を推定する、
請求項1から12のいずれか一項に記載の行動推定装置。 Further having a color specifying unit for specifying at least one of the change in the color of the person or the change in the color of the subject.
The estimation unit estimates the action content based on at least one of the change in the color of the person specified by the color identification unit and the change in the color of the subject.
The behavior estimation device according to any one of claims 1 to 12.
前記関係特定部は、複数の前記相対関係を特定し、
前記推定部は、複数の前記相対関係それぞれと前記被写体の種別との組み合わせに基づいて、前記人の行動内容を推定する、
請求項1から13のいずれか一項に記載の行動推定装置。 The image acquisition unit acquires a plurality of the captured image data, and obtains the plurality of captured image data.
The relationship specifying unit identifies a plurality of the relative relationships and
The estimation unit estimates the behavior content of the person based on the combination of each of the plurality of relative relationships and the type of the subject.
The behavior estimation device according to any one of claims 1 to 13.
撮像画像を示す撮像画像データを取得するステップと、
前記撮像画像に含まれる人の動きを検出するステップと、
前記撮像画像に含まれる被写体の種別を検出するステップと、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、
前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定するステップと、
を有する行動推定方法。 Computer runs,
Steps to acquire captured image data showing captured images,
The step of detecting the movement of a person included in the captured image and
The step of detecting the type of the subject included in the captured image and
A step of specifying a relative relationship between the person and the subject due to the movement of the person, and
A step of estimating the behavior content of the person based on the combination of the type of the subject and the relative relationship,
Behavior estimation method with.
撮像画像を示す撮像画像データを取得するステップと、
前記撮像画像に含まれる人の動きを検出するステップと、
前記撮像画像に含まれる被写体の種別を検出するステップと、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、
前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定するステップと、
を実行させるためのプログラム。 On the computer
Steps to acquire captured image data showing captured images,
The step of detecting the movement of a person included in the captured image and
The step of detecting the type of the subject included in the captured image and
A step of specifying a relative relationship between the person and the subject due to the movement of the person, and
A step of estimating the behavior content of the person based on the combination of the type of the subject and the relative relationship,
A program to execute.
前記行動推定装置は、
前記撮像画像を示す撮像画像データを取得する画像取得部と、
前記撮像画像に含まれる人の動きを検出する人検出部と、
前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、
前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の前記行動内容を推定する推定部と、
前記推定部が推定した前記行動内容を示す行動内容情報を前記情報端末に送信する送信部と、
を有し、
前記情報端末は、
前記行動内容情報を受信する情報受信部と、
前記情報受信部が受信した前記行動内容情報に基づいて前記行動内容を表示する表示部と、
を有する行動推定システム。 It is equipped with a behavior estimation device that estimates a person's behavior content based on an image captured by the image pickup device, and an information terminal that displays the behavior content of the person estimated by the behavior estimation device.
The behavior estimation device is
An image acquisition unit that acquires captured image data indicating the captured image, and an image acquisition unit.
A person detection unit that detects the movement of a person included in the captured image,
A subject detection unit that detects the type of subject included in the captured image, and
A relationship specifying unit that specifies the relative relationship between the person and the subject due to the movement of the person, and
An estimation unit that estimates the behavior of the person based on the combination of the type of the subject and the relative relationship.
A transmission unit that transmits behavior content information indicating the behavior content estimated by the estimation unit to the information terminal, and a transmission unit.
Have,
The information terminal is
An information receiving unit that receives the action content information, and
A display unit that displays the action content based on the action content information received by the information receiving unit, and a display unit that displays the action content.
Behavior estimation system with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021042085A JP2022073882A (en) | 2020-10-30 | 2021-03-16 | Behavior estimation device, behavior estimation method, program and behavior estimation system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020182477A JP6854959B1 (en) | 2020-10-30 | 2020-10-30 | Behavior estimation device, behavior estimation method, program and behavior estimation system |
JP2021042085A JP2022073882A (en) | 2020-10-30 | 2021-03-16 | Behavior estimation device, behavior estimation method, program and behavior estimation system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020182477A Division JP6854959B1 (en) | 2020-10-30 | 2020-10-30 | Behavior estimation device, behavior estimation method, program and behavior estimation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022073882A true JP2022073882A (en) | 2022-05-17 |
JP2022073882A5 JP2022073882A5 (en) | 2023-11-24 |
Family
ID=75267983
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020182477A Active JP6854959B1 (en) | 2020-10-30 | 2020-10-30 | Behavior estimation device, behavior estimation method, program and behavior estimation system |
JP2021042085A Pending JP2022073882A (en) | 2020-10-30 | 2021-03-16 | Behavior estimation device, behavior estimation method, program and behavior estimation system |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020182477A Active JP6854959B1 (en) | 2020-10-30 | 2020-10-30 | Behavior estimation device, behavior estimation method, program and behavior estimation system |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP6854959B1 (en) |
WO (1) | WO2022092032A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023275968A1 (en) * | 2021-06-29 | 2023-01-05 | 日本電信電話株式会社 | Abnormality determination device, abnormality determination method, and abnormality determination program |
WO2024004209A1 (en) * | 2022-07-01 | 2024-01-04 | 日本電信電話株式会社 | Estimation device, learning device, method, and program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6249021B2 (en) * | 2013-09-06 | 2017-12-20 | 日本電気株式会社 | Security system, security method, and security program |
JP2016201105A (en) * | 2015-04-07 | 2016-12-01 | 三菱電機株式会社 | Information processor and information processing method |
JP2017033401A (en) * | 2015-08-04 | 2017-02-09 | 株式会社 impactTV | Customer information collection device, customer information collection system and customer information collection method |
JP6992874B2 (en) * | 2018-03-09 | 2022-01-13 | 日本電気株式会社 | Self-registration system, purchased product management method and purchased product management program |
US10535146B1 (en) * | 2018-07-16 | 2020-01-14 | Accel Robotics Corporation | Projected image item tracking system |
-
2020
- 2020-10-30 JP JP2020182477A patent/JP6854959B1/en active Active
-
2021
- 2021-03-16 JP JP2021042085A patent/JP2022073882A/en active Pending
- 2021-10-25 WO PCT/JP2021/039325 patent/WO2022092032A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP6854959B1 (en) | 2021-04-07 |
WO2022092032A1 (en) | 2022-05-05 |
JP2022072825A (en) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10636267B2 (en) | RFID tag tracking systems and methods in identifying suspicious activities | |
US11816897B2 (en) | Information processing apparatus, information processing method, and information processing program | |
US10402634B2 (en) | Information processing device, information processing method, and computer program product | |
US9558398B2 (en) | Person behavior analysis device, person behavior analysis system, person behavior analysis method, and monitoring device for detecting a part of interest of a person | |
WO2022092032A1 (en) | Activity estimating device, activity estimating method, program, and activity estimating system | |
JP6707940B2 (en) | Information processing device and program | |
US20140225734A1 (en) | Inhibiting alarming of an electronic article surviellance system | |
US20230394942A1 (en) | Monitoring device, suspicious object detecting method, and recording medium | |
JP5654110B2 (en) | Surveillance method and camera | |
JP6206627B1 (en) | Information processing apparatus, control method, and program | |
KR20210064886A (en) | Server, method and computer program for recognizing motion of person | |
WO2023138445A1 (en) | Detection methods and devices for detecting if person has fallen and pick-up or put-back behavior of person | |
CN111583521A (en) | Safety protection method and device | |
US10679086B2 (en) | Imaging discernment of intersecting individuals | |
EP3474184A1 (en) | Device for detecting the interaction of users with products arranged on a stand or display rack of a store | |
WO2019077559A1 (en) | System for tracking products and users in a store | |
JP2022011666A (en) | Image processing device, image processing method, and program | |
US11380187B2 (en) | Information processing apparatus, control method, and program | |
JP2004355453A (en) | Marketing information acquisition system | |
WO2023053243A1 (en) | Reporting system, method, and recording medium | |
US20230196824A1 (en) | Person-of-interest (poi) detection | |
CN115457697A (en) | Anti-theft method and device for unmanned retail container, equipment and storage medium | |
JP2022011704A (en) | Image processing device, image processing method, and program | |
JP2022117096A (en) | Image processing apparatus, image processing method, and program | |
WO2023172810A1 (en) | Vision system for classiying persons based on visual appearance and dwell locations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231026 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231026 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20231026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20231027 |