JP6854959B1 - 行動推定装置、行動推定方法、プログラム及び行動推定システム - Google Patents

行動推定装置、行動推定方法、プログラム及び行動推定システム Download PDF

Info

Publication number
JP6854959B1
JP6854959B1 JP2020182477A JP2020182477A JP6854959B1 JP 6854959 B1 JP6854959 B1 JP 6854959B1 JP 2020182477 A JP2020182477 A JP 2020182477A JP 2020182477 A JP2020182477 A JP 2020182477A JP 6854959 B1 JP6854959 B1 JP 6854959B1
Authority
JP
Japan
Prior art keywords
subject
person
unit
relationship
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020182477A
Other languages
English (en)
Other versions
JP2022072825A (ja
Inventor
遼 田中
遼 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VAAK INC.
Original Assignee
VAAK INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VAAK INC. filed Critical VAAK INC.
Priority to JP2020182477A priority Critical patent/JP6854959B1/ja
Priority to JP2021042085A priority patent/JP2022073882A/ja
Application granted granted Critical
Publication of JP6854959B1 publication Critical patent/JP6854959B1/ja
Priority to PCT/JP2021/039325 priority patent/WO2022092032A1/ja
Publication of JP2022072825A publication Critical patent/JP2022072825A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人の行動を推定する精度を向上させる。【解決手段】行動推定装置10は、撮像画像を示す撮像画像データを取得する画像取得部131と、撮像画像に含まれる人の動きを検出する人検出部132と、撮像画像に含まれる被写体の種別を検出する被写体検出部133と、人の動きに伴う人と被写体との関係である相対関係を特定する関係特定部135と、被写体の種別と、相対関係との組み合わせに基づいて、人の行動内容を推定する推定部136と、を有する。【選択図】図4

Description

本発明は、人の行動を推定するための行動推定装置、行動推定方法、プログラム及び行動推定システムに関する。
時系列画像に写った人の関節を検出し、検出した関節の位置の変化に基づいて被写体の行動を推定する行動推定装置が知られている(例えば、特許文献1を参照)。
特許第6525181号公報
従来の行動推定装置は被写体の動きのみに基づいて行動を推定するため、動きが類似する行動を判別することが困難であるという問題が生じていた。
そこで、本発明はこれらの点に鑑みてなされたものであり、人の行動を推定する精度を向上させることを目的とする。
本発明の第1の態様に係る行動推定装置は、撮像画像を示す撮像画像データを取得する画像取得部と、前記撮像画像に含まれる人の動きを検出する人検出部と、前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定する推定部と、を有する。
前記関係特定部は、前記人と前記被写体との距離を前記相対関係として特定し、前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた基準距離と、前記関係特定部が特定した前記人と前記被写体との距離と、を比較した結果に基づいて前記行動内容を推定してもよい。
前記関係特定部は、前記人の目線の方向と前記被写体の位置との関係を、前記相対関係として特定し、前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた目線の方向と被写体の位置との関係である基準目線関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定してもよい。
前記関係特定部は、前記人の身体の向きと前記被写体の位置との関係を、前記相対関係として特定し、前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた身体の向きと被写体の位置との関係である基準身体向き関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定してもよい。
前記画像取得部は、時系列に作成された複数の前記撮像画像データを取得し、前記関係特定部は、前記相対関係の変化を特定し、前記推定部は、前記被写体の種別と、前記相対関係の変化との組み合わせに基づいて、前記人の行動内容を推定してもよい。
前記推定部は、前記複数の撮像画像データのいずれかに、前記人検出部が前記人を検出する前に前記被写体が含まれていたか否かを判定した結果にさらに基づいて、前記行動内容を推定してもよい。
前記人検出部は、前記人の属性をさらに検出し、前記推定部は、前記人検出部が検出した前記人の属性にさらに基づいて、前記行動内容を推定してもよい。
前記被写体検出部は、前記撮像画像に含まれる第1被写体及び第2被写体を検出し、前記関係特定部は、前記人の動きに伴う前記人と前記第1被写体との関係である第1相対関係、前記人の動きに伴う前記人と前記第2被写体との関係である第2相対関係、及び前記人の動きに伴う前記第1被写体と前記第2被写体との関係である第3相対関係を特定し、前記推定部は、前記被写体の種別と、前記第1相対関係、前記第2相対関係又は前記第3相対関係の少なくとも2つの相対関係と、の組み合わせに基づいて、前記人の行動内容を推定してもよい。
前記撮像画像に含まれる前記被写体の属性の設定を受け付ける設定受付部をさらに有し、前記推定部は、前記被写体の属性にさらに基づいて前記行動内容を推定してもよい。
前記関係特定部は、前記被写体検出部が検出した被写体と前記設定受付部が属性の設定を受け付けた被写体との位置関係をさらに特定し、前記推定部は、前記関係特定部が特定した前記位置関係と、前記設定受付部が設定を受け付けた被写体の属性とにさらに基づいて前記行動内容を推定してもよい。
前記撮像画像に写っている場所を特定する場所特定部と、前記推定部が推定した前記行動内容と、前記場所特定部が特定した場所とが所定の条件を満たす場合に通知情報を出力する出力部と、をさらに有してもよい。
前記出力部は、前記場所特定部が特定した場所と前記行動内容との組み合わせに対応する種別の前記通知情報を出力してもよい。
前記人の色の変化又は前記被写体の色の変化の少なくともいずれかを特定する色特定部をさらに有し、前記推定部は、前記色特定部が特定した前記人の色の変化又は前記被写体の色の変化の少なくともいずれかにさらに基づいて、前記行動内容を推定してもよい。
前記画像取得部は、複数の前記撮像画像データを取得し、前記関係特定部は、複数の前記相対関係を特定し、前記推定部は、複数の前記相対関係それぞれと前記被写体の種別との組み合わせに基づいて、前記人の行動内容を推定してもよい。
本発明の第2の態様に係る行動推定方法は、コンピュータが実行する、撮像画像を示す撮像画像データを取得するステップと、前記撮像画像に含まれる人の動きを検出するステップと、前記撮像画像に含まれる被写体の種別を検出するステップと、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定するステップと、を有する。
本発明の第3の態様に係るプログラムは、コンピュータに、撮像画像を示す撮像画像データを取得するステップと、前記撮像画像に含まれる人の動きを検出するステップと、前記撮像画像に含まれる被写体の種別を検出するステップと、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定するステップと、を実行させる。
本発明の第4の態様に係る行動推定システムは、撮像装置が生成した撮像画像に基づいて人の行動内容を推定する行動推定装置と、前記行動推定装置が推定した前記人の行動内容を表示する情報端末と、を備え、前記行動推定装置は、前記撮像画像を示す撮像画像データを取得する画像取得部と、前記撮像画像に含まれる人の動きを検出する人検出部と、前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の前記行動内容を推定する推定部と、前記推定部が推定した前記行動内容を示す行動内容情報を前記情報端末に送信する送信部と、を有し、前記情報端末は、前記行動内容情報を受信する情報受信部と、前記情報受信部が受信した前記行動内容情報に基づいて前記行動内容を表示する表示部と、を有する。
本発明によれば、人の行動を推定する精度を向上させるという効果を奏する。
本実施形態に係る行動推定システムSの概要を説明するための図である。 行動推定システムSの構成を説明するための図である。 情報端末2の構成を説明するための図である。 行動推定装置10の構成を説明するための図である。 行動内容データベースの一例を示す図である。 行動推定装置10が人の行動内容を推定する動作の一例を示すフローチャートである。 人又は被写体の色の変化に基づいて人の行動内容を推定する行動推定装置10の構成を示す図である。
[行動推定システムSの概要]
図1は、本実施形態に係る行動推定システムSの概要を説明するための図である。図2は、行動推定システムSの構成を示す図である。行動推定システムSは、撮像装置1と、情報端末2と、行動推定装置10と、を備える。図2に示すように、撮像装置1と情報端末2と行動推定装置10とは、ネットワークNを介して接続されている。ネットワークNは、例えばイントラネット又はインターネットである。ネットワークNは、無線ネットワークを含んでもよい。
図1(a)は、空間Rを上から見た図であり、図1(b)は、空間Rを横から見た図である。空間Rは、例えば店舗の売場、店舗の倉庫、工場の倉庫、又は施設の備品置き場のように物体が置かれた空間である。図1に示すように、空間Rには複数の棚T(T1〜T4)が設置されている。図1(b)に示すように、複数の棚T(T1〜T3)には、複数の物体P(P1〜P3)がそれぞれ置かれている。図1に示すように、空間Rには、人Mが滞在している。人Mは、物体Pを入れることが可能なバッグBを所持している。
図1においては、行動推定システムSは、空間Rに設置された一以上の撮像装置1が生成した撮像画像に基づいて人Mの行動内容を推定する行動推定装置10を備える。撮像装置1は、例えば監視カメラであり、人の行動内容を推定する領域を撮像する。撮像装置1は、撮像して生成した撮像画像データを行動推定装置10に送信する。撮像装置1は、撮像画像データとして動画像データを生成してもよい。動画像データは、例えばH.264又はH.265等の圧縮規格により符号化されたデータである。
行動推定装置10は、撮像装置1が生成した撮像画像に基づいて人Mの行動内容を推定し、推定した行動内容を示す行動内容情報を情報端末2に送信する。行動推定装置10は、撮像画像に含まれる人Mと被写体との相対関係に基づいて人Mの行動内容を推定する情報処理装置であり、例えばコンピュータである。被写体は、例えば複数の棚T、複数の物体P、バッグB又は他の人である。行動推定装置10は、単一の情報処理装置でもよいし、例えばクラウド型サーバのように複数の情報処理装置で構成されてもよい。
行動推定装置10は、人Mと被写体との関係である相対関係を特定し、特定した相対関係と被写体の種別との組み合わせに基づいて人Mの行動内容を推定する。相対関係は、例えば人Mと物体Pとの距離、人Mの目線の方向と物体Pの位置との関係、又は人Mの身体の向きと物体Pの位置との関係である。被写体の種別は、例えば缶飲料、ナイフ、商品カゴのように、形状又は色の少なくともいずれかに基づいて被写体を特定できる情報により表される。本実施形態においては、説明を簡単にするために、被写体の種別を商品名で表す場合がある。なお、被写体は、物体又は人である。
人Mが物体P2を手に取った後に物体P2をバッグBに入れた場合、行動推定装置10は、人Mの手と被写体との距離に基づいて「物体P2と接触している人Mの手がバッグBと近接している」と相対関係を特定する。続いて、検出した物体P2の種別が「缶飲料」であり、検出したバッグBの種別が「ハンドバッグ」である場合、行動推定システムSは、特定した相対関係と、被写体の種別である缶飲料及びハンドバッグとの組み合わせに基づいて「人Mが缶飲料をハンドバッグに入れた」と特定することにより、人Mの行動内容が万引きであると推定する。
一方、特定した相対関係が同じであっても、検出した物体P2の種別が「缶飲料」であり、検出したバッグBの種別が「商品カゴ」である場合、行動推定装置10は、相対関係と、被写体の種別である缶飲料及び商品カゴとの組み合わせに基づいて「人Mが缶飲料を商品カゴに入れた」と特定することにより、人Mの行動内容が買い物であると推定する。
行動推定装置10は、推定した結果を情報端末2に送信する。情報端末2は、例えばスマートフォン、タブレット又はパーソナルコンピュータである。情報端末2は、例えば店舗の売場を監視する店員又は工場の倉庫を管理する社員(以下、「管理者」という)が使用する端末である。
情報端末2は、行動推定装置10が推定した人の行動内容をディスプレイに表示する。情報端末2は、例えば行動推定装置10が推定した人の行動内容と当該人が写っている撮像画像とを含む行動内容情報を取得し、行動内容情報に含まれる撮像画像と当該撮像画像に含まれる人の行動内容とを関連付けて表示してもよい。
このように、行動推定装置10は、人Mと被写体との相対関係と被写体の種別との組み合わせに基づいて人Mの行動内容を推定することで、動きが類似する行動を高い精度で判別することができる。そして、行動推定装置10は、予め設定された行動(例えば万引き行為)を検出したことを情報端末2に通知することで、情報端末2を使用する管理者が、予め設定された行動が行われたことを高い精度で把握することができる。
なお、情報端末2の管理者は、行動推定装置10が人の行動内容を推定するために使用する各種の情報を設定することができる。情報端末2は、管理者の操作に応じて、人の行動内容を推定するために用いる情報である設定情報を行動推定装置10に送信する。
設定情報は、例えば被写体の属性情報又は被写体の種別情報のうち少なくとも1つを含む。被写体の属性情報は、被写体の位置又は形状と被写体の属性とが関連付けられた情報である。被写体の属性は、例えば被写体の所有者、被写体の機能といった被写体の特徴を示す情報である。例えば、図1に示す棚T1の属性情報は、棚T1の位置又は形状と棚T1の属性を示す「店舗」とが関連付けられた情報である。
被写体の種別情報は、被写体の形状と被写体の種別とが関連付けられた情報である。例えば被写体が缶飲料の場合、被写体の種別情報は、被写体の種別を示す「缶飲料」と当該缶飲料の形状とが関連付けられた情報である。
[情報端末2の構成]
図3は、情報端末2の構成を説明するための図である。情報端末2は、通信部21と、記憶部22と、制御部23と、表示部24と、操作部25と、を有する。制御部23は、情報送信部231と、情報受信部232とを有する。
通信部21は、ネットワークNを介して情報を送受信するための通信デバイスを含む。通信デバイスは、例えばLAN(Local Area Network)コントローラ又は無線LANコントローラである。
記憶部22は、ROM(Read Only Memory)、RAM(Random Access Memory)及びSSD(Solid State Drive)等の記憶媒体を有する。記憶部22は、制御部23が実行するプログラムを記憶している。
制御部23は、例えばCPU(Central Processing Unit)である。制御部23は、記憶部22に記憶されているプログラムを実行することにより、情報送信部231及び情報受信部232として機能する。情報送信部231は、情報端末2を使用する管理者が作成した行動推定装置10の設定情報を、通信部21を介して行動推定装置10に送信する。情報受信部232は、行動推定装置10が送信した行動内容情報を、通信部21を介して受信する。
表示部24は、例えば、液晶ディスプレイ又は有機EL(Electro Luminescence)等の表示デバイスを有する。表示部24は、情報受信部232が受信した行動内容情報に基づいて行動内容を表示する。表示部24は、例えば、情報受信部232が受信した行動内容情報に含まれる人の行動内容と当該人が写っている撮像画像とを抽出する。表示部24は、抽出した撮像画像をディスプレイに表示するとともに、当該撮像画像に写っている人の行動内容を当該撮像画像と関連付けて表示する。
操作部25は、情報端末2を使用する管理者の操作を受け付けるデバイスであり、キーボード、マウス又はタッチパネルである。操作部25は、管理者の操作内容を示す情報を情報送信部231に通知する。
[行動推定装置10の構成]
図4は、行動推定装置10の構成を説明するための図である。行動推定装置10は、通信部11と、記憶部12と、制御部13とを有する。制御部13は、画像取得部131と、人検出部132と、被写体検出部133と、設定受付部134と、関係特定部135と、推定部136と、場所特定部137と、出力部138とを有する。
通信部11は、ネットワークNを介して情報を送受信するための通信デバイスを含む。通信デバイスは、例えばLANコントローラ又は無線LANコントローラである。記憶部12は、ROM、RAM及びSSD等の記憶媒体を有する。記憶部12は、制御部13が実行するプログラムを記憶している。記憶部12は、情報端末2から取得した設定情報を記憶する。
記憶部12は、推定部136が人の行動内容を推定するために用いられる各種の情報をデータベースに記憶している。記憶部12は、例えば、人の行動内容と、人の動きと、被写体の種別と、人と被写体との相対関係とが関連付けられた行動内容データベースを記憶している。被写体は、物体又は人である。
図5は、行動内容データベースの一例を示す図である。図5においては、人の行動内容のカテゴリと、行動内容と、行動内容を特定するための複数の要件とが関連付けられている。複数の要件は、行動を推定する人の属性、人の動き、複数の被写体の種別(図5に示す「被写体1」「被写体2」)、及び人と被写体との相対関係である。人の属性は、例えば購買客又は従業員のように、人の行動を推定する空間における人の立場又は役割等を示す。
例えば、行動内容「眺める」は、人の属性が「購買客」、人の動きが「注視する」、被写体1が「商品」、相対関係が「人と被写体1との距離は距離A1未満」及び「人の目線と被写体1との方向差は方向差A2未満」という要件に関連付けられている。距離A1は、例えば人が被写体と接触することが可能と考えられる距離の最大値である。方向差A2は、例えば人が被写体を注視していると考えられる目線の方向のうち最も被写体から離れている方向である。詳細については後述するが、推定部136は、行動内容データベースに含まれている要件の組み合わせに対応する行動内容を特定することにより、撮像画像に含まれている被写体の行動内容を特定する。
図4に戻って、制御部13は、例えばCPUである。制御部13は、記憶部12に記憶されているプログラムを実行することにより、画像取得部131、人検出部132、被写体検出部133、設定受付部134、関係特定部135、推定部136、場所特定部137及び出力部138として機能する。
画像取得部131は、撮像画像を示す撮像画像データを取得する。画像取得部131は、撮像装置1が撮像して生成した撮像画像データを、通信部11を介して取得する。画像取得部131は、時系列に作成された複数の撮像画像データを取得してもよい。
人検出部132は、撮像画像に含まれる人の動きを検出する。人の動きは、例えば図5に示す「人の動き」の欄に記載されたような動きである。人検出部132は、撮像画像に含まれる人の位置を検出し、位置を検出した人の動きをさらに検出する。人検出部132は、例えば撮像画像に含まれる人の関節の位置及び人の目線の向きの変化を特定することにより、撮像画像に含まれる人の動きを検出する。人検出部132は、検出した人の動きを示す人検出情報を推定部136に出力する。
人検出部132は、人の属性をさらに検出してもよい。人検出部132は、例えば従業員が着用している作業服又は制服の模様又は色に基づいて従業員であるか否かを判定することにより人の属性を検出する。人検出部132は、記憶部12に記憶されている従業員の顔の輪郭及び形状等の従業員の特徴と、撮像画像に含まれる人の特徴とを比較した結果に基づいて従業員であるか否かを判定することにより人の属性を検出してもよい。
被写体検出部133は、撮像画像に含まれる被写体の種別を検出する。被写体検出部133は、撮像画像に含まれる被写体の位置を検出し、位置を検出した被写体の種別をさらに検出する。被写体検出部133は、例えば記憶部12に記憶されている設定情報に含まれている被写体の形状に基づいて撮像画像に含まれる被写体を検出し、被写体の形状に関連付けられた被写体の種別に基づいて撮像画像に含まれる被写体の種別を検出する。被写体検出部133は、検出した被写体の位置と当該被写体の種別とを示す被写体検出情報を推定部136に出力する。
被写体検出部133は、撮像画像に含まれる複数の被写体を検出してもよい。被写体検出部133は、撮像画像に含まれる第1被写体及び第2被写体を検出してもよい。第1被写体及び第2被写体は、例えば、図5に示す「被写体1」及び「被写体2」の欄に記載された種別の物品である。被写体検出部133が複数の被写体を検出した場合、推定部136は、検出した複数の被写体のうち一以上の被写体の種別に基づいて人の行動内容を推定する。
設定受付部134は、撮像画像に含まれる被写体の属性の設定を受け付ける。設定受付部134は、例えば、情報端末2が送信した被写体の属性情報と被写体の種別情報とを含む設定情報を受信することで、撮像画像に含まれる被写体の属性の設定を受け付ける。設定受付部134は、受け付けた被写体の属性の設定を含む設定情報を記憶部12に記憶させてもよいし、被写体検出部133に出力してもよい。
関係特定部135は、人の動きに伴う人と被写体との関係である相対関係を特定する。関係特定部135は、人検出部132が出力した人検出情報と被写体検出部133が出力した被写体検出情報とに基づいて相対関係を特定する。関係特定部135は、例えば、人検出部132が検出した人の動きに対応する部位と被写体との相対関係を特定する。関係特定部135は、例えば人検出部132が検出した人の動きが「注視する」である場合、人の目と被写体との関係を特定し、「取る」である場合、人の手と被写体との関係を特定する。関係特定部135は、特定した相対関係を推定部136に通知する。相対関係は、推定部136が人の行動内容を特定するために用いられる。関係特定部135は、例えば、人と被写体との距離を相対関係として特定する。関係特定部135は、例えば人検出情報に含まれる人の関節の位置と被写体検出情報に含まれる被写体の位置との差に基づいて人と被写体との距離を特定する。
関係特定部135は、人の目線の方向と被写体の位置との関係を、相対関係として特定してもよい。関係特定部135は、例えば人の動きが「注視する」又は「見る」等の人の目の動きである場合、人検出情報に含まれる人の目線の方向と被写体検出情報に含まれる被写体の位置との関係を、相対関係として特定する。関係特定部135は、例えば人が被写体を直視した場合の目線の方向と人検出情報に含まれる目線の方向との差を相対関係として特定する。
関係特定部135は、人の身体の向きと被写体の位置との関係を、相対関係として特定してもよい。関係特定部135は、例えば人の動きが「会話する」である場合、人検出情報に含まれる人の関節の位置に基づいて特定した人の身体の向きと被写体検出情報に含まれる被写体の位置との関係を、相対関係として特定する。関係特定部135は、例えば人が被写体の正面を向いた場合の身体の向きと人の関節の位置に基づいて特定した身体の向きとの差を相対関係として特定する。
関係特定部135は、特定した複数の相対関係に基づいて、相対関係の変化を特定してもよい。関係特定部135は、例えば時系列に作成された複数の撮像画像に基づいて検出された人の複数の動きと被写体とに基づいて、複数の相対関係を特定し、特定した複数の相対関係それぞれに基づいて相対関係の変化を特定する。
例えば、時刻Tにおいて、関係特定部135が相対関係を「人と被写体との距離は10cm」と特定し、時刻T+1において、関係特定部135が相対関係を「人と被写体との距離は50cm」と特定した場合、時刻T及び時刻T+1に特定した相対関係に基づいて、関係特定部135は「人が被写体から遠ざかる方向に移動している」と特定する。このように、相対関係の変化を特定することで、関係特定部135は、精度の高い相対関係を特定できる。
関係特定部135は、行動を推定する人と複数の被写体とが撮像画像に含まれている場合、複数の相対関係を特定してもよい。関係特定部135は、例えば人の動きに伴う人と第1被写体との関係である第1相対関係、人の動きに伴う人と第2被写体との関係である第2相対関係、及び人の動きに伴う第1被写体と第2被写体との関係である第3相対関係を特定してもよい。第1相対関係は、例えば人と図5に示す被写体1との相対関係であり、第2相対関係は、人と図5に示す被写体2との相対関係であり、第3相対関係は、被写体1と被写体2との相対関係である。
例えば店舗の売場に滞在する購買客が商品をバッグの中に入れた場合、行動を推定する人である購買客は、第1被写体である商品と第2被写体であるバッグとを用いて行動している。そこで、関係特定部135は、購買客と商品との関係である第1相対関係、購買客とバッグとの関係である第2相対関係、及び商品とバッグとの関係である第3相対関係を特定する。関係特定部135がこのような複数の相対関係を推定部136に通知することで、推定部136は、人の行動内容の特定精度を向上させることができる。
関係特定部135は、撮像画像に含まれている複数の被写体のうち、属性が設定されている被写体と他の被写体との位置関係を特定してもよい。関係特定部135は、例えば被写体検出部133が検出した被写体と設定受付部134が属性の設定を受け付けた被写体との位置関係をさらに特定する。
例えば店舗の売場を撮像した撮像画像は、固定的に設置された商品棚の画像と商品棚に置かれた商品の画像とを含んでいる。万引きを検出するという目的の場合、商品棚の位置と商品の位置との関係が、人が万引きしていると推定する際に有効である。そこで、関係特定部135は、被写体検出部133が検出した被写体である商品の位置と設定受付部134が属性の設定を受け付けた被写体である商品棚の位置との距離の変化を特定する。
推定部136は、人の行動内容を推定する。推定部136は、被写体の種別と、相対関係との組み合わせに基づいて、人の行動内容を推定する。推定部136は、例えば被写体の種別と相対関係との組み合わせが、記憶部12が記憶している行動内容データベースに含まれているか否かを検索する。推定部136は、行動内容データベースに類似又は一致する組み合わせが含まれている場合、類似又は一致する組み合わせに関連付けられた行動内容を、人の行動内容と推定する。
例えば店舗の売場に滞在する人が商品を入れ物に入れた場合、被写体検出部133は、第1被写体である商品と第2被写体である入れ物とを検出する。関係特定部135は、人の手と第1被写体との距離、及び第1被写体と第2被写体との距離に基づいて相対関係を特定する。関係特定部135は、相対関係を「人の手と第1被写体との距離、及び第1被写体と第2被写体との距離のそれぞれが所定の距離(例えば図5に示す距離D1及び距離D2)未満」であると特定する。
推定部136は、第2被写体の種別が「バッグ」である場合、人の行動内容を万引きと推定し、第2被写体の種別が「商品カゴ」である場合、人の行動内容を買い物と推定する。このように、推定部136は、人の行動が類似する場合であっても、被写体の種別を用いて人の行動内容を推定することで、人の行動を高い精度で推定することができる。
さらに、推定部136は、関係特定部135が相対関係の変化を「第1被写体と第2被写体との距離が短くなる」と特定したことにさらに基づいて、人の行動内容を推定してもよい。このように動作することで、推定部136は、人の行動をさらに高い精度で推定することができる。
推定部136は、関係特定部135が人と被写体との距離を相対関係として特定した場合、被写体検出部133が検出した被写体の種別に関連付けられた基準距離と、関係特定部135が特定した人と被写体との距離と、を比較した結果に基づいて行動内容を推定してもよい。基準距離は、例えば人の行動内容の特徴に対応する距離であり、図5に示す「距離A1未満」、「距離B1未満」等である。基準距離は、被写体の種別により異なる距離であってもよい。
例えば、店舗に滞在する人が被写体である商品を注視している場合において、関係特定部135は、人と被写体との相対関係を「人と被写体との距離は距離Y1」と特定する。その場合、推定部136は、図5に示す基準距離である「距離A1未満」と関係特定部135が特定した距離Y1とを比較する。距離Y1が距離A1未満である場合、推定部136は、行動内容である「商品を眺める」に関連付けられた相対関係の1つである「人と被写体1との距離は距離A1未満」と一致するので、人が商品を眺めている可能性があると判定する。
推定部136は、関係特定部135が人の目線の方向と被写体の位置との関係を相対関係として特定した場合、被写体検出部133が検出した被写体の種別に関連付けられた目線の方向と被写体の位置との関係である基準目線関係と、関係特定部135が特定した人の目線の方向と被写体の位置との関係と、を比較した結果に基づいて行動内容を推定してもよい。目線の方向と被写体の位置との関係は、人の目線の方向と人が被写体を直視する場合の目線の方向との差により表される。基準目線関係は、行動内容の特徴に対応する方向差であり、例えば図5に示す「方向差A2未満」である。
例えば、店舗に滞在する人が被写体である商品を眺めている場合において、関係特定部135は、人と被写体との相対関係を「人の目線の方向と被写体の位置との関係は方向差Y2」と特定する。その場合、推定部136は、図5に示す基準目線関係である「方向差A2未満」と関係特定部135が特定した方向差Y2とを比較する。方向差Y2が方向差A2よりも被写体に近い方向である場合、推定部136は、行動内容である「商品を眺める」に関連付けられた相対関係の1つである「人の目線と被写体1との方向差は方向差A2未満」と一致するので、人が商品を眺めている可能性があると判定する。
推定部136は、人と被写体との距離、及び人の目線の方向と被写体の位置との方向差の両方が基準を満たしている場合に、人の行動が「商品を眺める」であると推定してもよい。推定部136が複数の相対関係に基づいて人の行動内容を推定することで、行動内容の推定精度がさらに向上する。
推定部136は、関係特定部135が人の身体の向きと被写体の位置との関係を相対関係として特定した場合、被写体検出部133が検出した被写体の種別に関連付けられた身体の向きと被写体の位置との関係である基準身体向き関係と、関係特定部135が特定した人の目線の方向と被写体の位置との関係と、を比較した結果に基づいて行動内容を推定してもよい。身体の向きと被写体の位置との関係は、身体の向きと人が被写体の方向を向いた場合の身体の向きとの差により表される。基準身体向き関係は、行動内容の特徴に対応する向きの差であり、例えば図5に示す向き「角度差B2未満」である。
例えば、店舗に滞在する人(購買客)が被写体である従業員と話している場合において、関係特定部135は、人と被写体との相対関係を「人の身体の向きと被写体の位置との関係は角度差X1」と特定する。その場合、推定部136は、図5に示す基準身体向き関係である「角度差B2未満」と関係特定部135が特定した角度差X1とを比較する。角度差X1が角度差B2よりも被写体に近い方向を向いている場合、推定部136は、行動内容である「従業員と話す」に関連付けられた相対関係の1つである「人の身体の向きと被写体1との角度差は角度差B2未満」と一致するので、人が従業員と話している可能性があると判定する。
推定部136は、人と被写体との距離、及び人の身体の向きと被写体の位置との角度差の両方が基準を満たしている場合に、人の行動が「従業員と話す」であると推定してもよい。推定部136が複数の相対関係に基づいて人の行動内容を推定することで、行動内容の推定精度がさらに向上する。
推定部136は、関係特定部135が複数の相対関係を用いて相対関係の変化を特定した場合、被写体の種別と、相対関係の変化との組み合わせに基づいて、人の行動内容を推定してもよい。例えば、店舗に滞在している人が手に取った商品をバッグに入れる場合、関係特定部135は、複数の時刻それぞれにおいて第1被写体である商品と第2被写体であるバッグとの距離を相対関係として特定する。関係特定部135は、相対関係の変化を「第1被写体と第2被写体との距離が短くなる」と特定する。
推定部136は、関係特定部135が特定した相対関係の変化と被写体の種別である商品及びバッグとの組み合わせに基づいて、人が商品をバッグに入れる動作であると判定し、人の行動内容を「万引き」と推定する。このように、相対関係の変化を用いることで、推定部136は、人の行動内容の推定精度を向上させることができる。
推定部136は、被写体の種別と相対関係の変化との組み合わせに基づいて人の行動内容を推定する場合、複数の撮像画像データのいずれかに、人検出部132が人を検出する前に被写体が含まれていたか否かを判定した結果にさらに基づいて、行動内容を推定してもよい。
例えば、店舗の売場に滞在している人が棚に置かれた物体を取った場合、物体の種別が商品であるか否かを判別する必要がある。この場合、推定部136は、例えば店舗が開店する前の時刻に作成された撮像画像データが示す撮像画像に写った物体と、人検出部132が棚に置かれた物体を取った人を検出した時刻に作成された撮像画像データが示す撮像画像に写った物体とが一致するか否かを判定する。一致すると判定した場合、推定部136は、物体の種別が商品であると特定する。推定部136は、人が物体をバッグに入れ、かつ物体が商品であるという場合に、人の行動内容が「万引き」であると推定する。
このように推定部136が動作することで、例えば来店した購買客が店舗の棚に私物を置き忘れて移動し、一定の時間が経過した後に置き忘れた私物を取りに戻った場合、推定部136は、開店前の撮像画像に基づいて購買客が棚から取った私物と商品とを区別することができる。その結果、推定部136は、万引きではない行動の内容を誤って「万引き」と推定することを抑制できる。
推定部136は、撮像画像に基づいて関係特定部135が複数の相対関係を特定した場合、複数の相対関係それぞれと被写体の種別との組み合わせに基づいて、人の行動内容を推定してもよい。
例えば、店舗の売場に滞在している人が棚に置かれた商品をバッグに入れた場合、関係特定部135は、第1相対関係の一例である人と棚との距離、及び第2相対関係の一例である人と商品との距離を特定する。推定部136は、第1相対関係が示す距離と第2相対関係が示す距離とが、それぞれ基準距離未満である場合、第1相対関係と第2相対関係と被写体の種別である商品及びバッグとの組み合わせに基づいて人の行動内容を万引きと推定する。
さらに、関係特定部135が複数の時刻に特定した複数の第2相対関係に基づいて、第2相対関係の変化を特定した場合、推定部136は、第1相対関係と第2相対関係の変化と被写体の種別との組み合わせに基づいて人の行動内容を推定してもよい。推定部136は、例えば第1相対関係である「人と棚との距離が基準距離未満」と第2相対関係の変化である「人と商品との距離が短くなる」と被写体の種別である棚及び商品との組み合わせに基づいて人の行動内容を万引きと推定してもよい。
推定部136は、関係特定部135が人と複数の被写体とに基づいて複数の相対関係を特定した場合、複数の相対関係の組み合わせに基づいて人の行動内容を推定してもよい。推定部136は、例えば被写体の種別と、第1相対関係、第2相対関係又は第3相対関係の少なくとも2つの相対関係と、の組み合わせに基づいて、人の行動内容を推定してもよい。
例えば、店舗の売場で人が商品をバッグに入れた場合、被写体検出部133は、商品とバッグとを被写体として検出する。関係特定部135は、人と商品との関係を第1相対関係として特定し、人とバッグとの関係を第2相対関係として特定し、商品とバッグとの関係を第3相対関係として特定する。推定部136は、被写体の種別がバッグ及び商品であることと、人の手とバッグとが距離D1未満であることと、バッグと商品とが距離D2未満であることとに基づいて、人の行動内容を「万引き」と推定する。
なお、ここでは、推定部136が第2相対関係及び第3相対関係を用いて人の行動内容を「万引き」と推定する場合を例示したが、推定部136は、第1相対関係である「人が商品を把持している」をさらに用いて人の行動内容を推定してもよい。
推定部136は、人検出部132が検出した人の属性にさらに基づいて、行動内容を推定してもよい。例えば、店舗の売場で人が商品をバッグに入れた場合、人の属性が購買客であれば、推定部136は人の行動内容を「万引き」と推定し、人の属性が従業員であれば、推定部136は人の行動内容を「商品整理」と推定する。このように推定部136が動作することで、推定部136は、例えば商品を手に取る行動である「万引き」と「商品整理」のように、人の動きが類似している場合であっても、行動内容を正しく推定することができる。
推定部136は、設定受付部134が受け付けた被写体の属性にさらに基づいて行動内容を推定してもよい。被写体の属性は、例えば被写体の所有者、被写体の機能といった被写体の特徴を示す情報である。例えば、店舗の倉庫等に設置された棚に置かれた物体の属性が「店舗の所有物」であることを設定受付部134が受け付けた場合、推定部136は、物体を取る動きをしている従業員の行動内容を「商品又は備品の整理」と推定する。一方、設定受付部134が物体の属性が「店舗の所有物」でない場合、推定部136は、物体を取る従業員の行動内容を、例えば「私物を動かしている」と推定する。
さらに、関係特定部135が、被写体検出部133が検出した被写体と設定受付部134が属性の設定を受け付けた被写体との位置関係を特定した場合、推定部136は、関係特定部135が特定した位置関係と、設定受付部134が設定を受け付けた被写体の属性とにさらに基づいて行動内容を推定してもよい。例えば、関係特定部135が特定した被写体が商品棚であり、設定受付部134が設定を受け付けた被写体が商品棚に置かれた物体である場合、推定部136は、関係特定部135が特定した位置関係に基づいて、従業員以外の人が商品棚に置かれた物体をカバンに入れる動きをしていると判定する。続いて、推定部136は、物体の属性が「店舗の所有物」である場合に、従業員以外の人の行動内容を万引きと推定する。
推定部136は、このように被写体の属性に基づいて行動内容を推定することで、複数の商品と複数の商品とは異なる物体(例えば私物)とが同じ場所に置かれている場合であっても、商品と商品とは異なる物体とを区別して人の行動内容を推定することができる。
場所特定部137は、撮像画像に写っている場所を特定する。場所特定部137は、例えば撮像画像に写っている被写体に基づいて撮像画像に写っている場所を特定する。場所特定部137は、例えばGPS(Global Positioning System)信号に基づいて撮像画像に写っている場所を特定してもよい。場所特定部137は、特定した場所を示す情報を出力部138に通知する。
出力部138は、推定部136が推定した行動内容を示す行動内容情報を情報端末2に送信する送信部として機能する。出力部138は、推定部136が推定した行動内容と、場所特定部137が特定した場所とが所定の条件を満たす場合に通知情報を出力してもよい。所定の条件は、情報端末2のユーザが通知情報を受けて何かしらの対応をすべきことである。情報端末2のユーザは、例えば撮像装置が店舗に設置されている場合、店舗の従業員又は警備員である。
具体的には、推定部136が推定した行動内容が「万引き」であり、場所特定部137が特定した場所が「店舗」である場合、店舗の従業員又は警備員は、万引きをした人を確保する必要がある。したがって、出力部138は、所定の条件を満たすと判定し通知情報を出力する。
一方、推定部136が推定した行動内容が「商品整理」であり、場所特定部137が特定した場所が「店舗」である場合、推定した行動内容は従業員の通常の行動であるため、出力部138は、所定の条件を満たさないと判定し通知情報を出力しない。このように動作することで、出力部138は、情報端末2のユーザが必要とする情報を出力することができる。
出力部138は、場所特定部137が特定した場所と行動内容との組み合わせに対応する種別の通知情報を出力してもよい。例えば、場所特定部137が特定した場所が「店舗の売場」であり、推定部136が推定した人の行動内容が「万引き」である場合、出力部138は、店舗の売場で万引きが行われたことを示す通知情報を出力する。
[行動推定装置10のフローチャート]
図6は、行動推定装置10が人の行動内容を推定する動作の一例を示すフローチャートである。図6においては、行動推定装置10が、時刻T1における相対関係と時刻T2における相対関係とに基づいて相対関係の変化を特定し、特定した相対関係の変化を用いて人の行動内容を推定する動作を説明する。
画像取得部131は、撮像装置1が時刻T1において生成した第1撮像画像データを取得する(S11)。場所特定部137は、画像取得部131が取得した第1撮像画像データが示す撮像画像に写っている場所を特定する。また、人検出部132は、第1撮像画像データが示す撮像画像に含まれる人の位置を検出する(S12)。被写体検出部133は、第1撮像画像データが示す撮像画像に写っている被写体の位置と被写体の種別とを検出する(S13)。関係特定部135は、時刻T1における人の位置と被写体の位置と被写体の種別との関係である相対関係を特定する(S14)。
画像取得部131は、撮像装置1が時刻T2において生成した第2撮像画像データを取得する(S15)。人検出部132は、第2撮像画像データが示す撮像画像に含まれる人の位置を検出する(S16)。被写体検出部133は、第2撮像画像データが示す撮像画像に写っている被写体の位置と被写体の種別とを検出する(S17)。関係特定部135は、時刻T2における人の位置と被写体の位置と被写体の種別との関係である相対関係を特定する(S18)。
関係特定部135は、S14において特定した時刻T1での相対関係と、S18において特定した時刻T2での相対関係とに基づいて、相対関係の変化を特定する(S19)。推定部136は、関係特定部135が特定した相対関係の変化と被写体検出部133が検出した被写体の種別との組み合わせに基づいて人の行動内容を推定する(S20)。
行動推定装置10は、人の行動内容を推定する処理を終了する操作が行われていない場合(S21のNO)、S11からS19までの処理を繰り返す。人の行動内容を推定する処理を終了する操作が行われた場合(S21のYES)、行動推定装置10は、処理を終了する。
[他の応用例]
以上の説明においては、店舗内での購買客又は従業員の行動内容を推定する場合を例示したが、行動推定装置10は、他の場所の撮像画像に基づいて人の各種の行動内容を推定してもよい。
(色に基づく推定)
図7は、人又は被写体の色の変化に基づいて人の行動内容を推定する行動推定装置10の構成を示す図である。図7に示す行動推定装置10は、色特定部139を有する点で図4に示す行動推定装置10と異なり、他の点において同じである。色特定部139は、人の色の変化又は被写体の色の変化の少なくともいずれかを特定する。色特定部139は、人検出部132が検出した人の位置又は被写体検出部133が検出した被写体の位置に基づいて、画像取得部131が取得した撮像画像に含まれる人又は被写体の色の変化を特定する。
推定部136は、色特定部139が特定した人の色の変化又は被写体の色の変化の少なくともいずれかにさらに基づいて、行動内容を推定してもよい。例えば、人がナイフを使用している場合、被写体検出部133は、被写体の種別であるナイフを検出する。関係特定部135は、人と被写体であるナイフとの関係である相対関係を「人と被写体との距離は基準距離未満である」と特定する。色特定部139は人の位置とナイフの位置とに基づいて、人の手及びナイフが赤色に変化したことを特定する。推定部136は、人の手及びナイフが赤色に変化したことに基づいて、人が怪我をしていることを推定する。
また、ナイフを使用している人の周囲に他の人が滞在している場合、関係特定部135が被写体であるナイフと他の人との相対関係の変化を「ナイフと他の人との距離が時刻ごとに大きく変化している」と特定したことにより、推定部136は、人の行動内容を危険行動と推定する。そして、色特定部139が、ナイフ又は他の人の色が赤色に変化したことを特定することにより、推定部136は、他の人が怪我をしていることを推定する。
このように色特定部139が人又は被写体の色の変化を特定し、推定部136が色の変化に基づいて人の行動を特定することで、行動推定装置10は、流血等の緊急に対応すべき行動内容を推定することができる。さらに、行動推定装置10は、例えば赤色と異なる色に変化したことを検出することにより、例えばペンキをこぼす等の行動内容を推定することができる。
(危険行為の検出)
行動推定装置10は、例えば屋外に設置された監視カメラの画像に基づいて、屋外で発生した危険行為を検出してもよい。危険行為は、例えば公園に設置されたベンチ等の器物を破壊する行為である。監視カメラの画像に基づいて、空手の動きをする人とベンチとを検出した場合、関係特定部135は、人と被写体であるベンチとの相対関係を特定する。
関係特定部135が相対関係を「人と被写体との距離は閾値以上」と特定した場合、推定部136は、人の行動内容を「空手の練習」と特定する。閾値は、例えば人が空手等の格技の練習で動く範囲を示す距離である。一方、関係特定部135が相対関係を「人と被写体との距離は閾値未満」と特定した場合、推定部136は、人の行動内容を「ベンチを破壊する」と推定する。このように動作することで、行動推定装置10は、屋外に設置された器物と当該器物の周囲の人の行動とを監視することができる。
(禁止領域への侵入の検出)
行動推定装置10は、監視カメラの画像に基づいて、人が進入禁止の領域に立ち入る行動を推定してもよい。例えば進入禁止の領域の境界に柵が設置されている場合、被写体検出部133は、被写体である柵を検出する。人が柵を乗り越えて侵入した場合、人検出部132は、人が柵を乗り越える動きを検出する。関係特定部135は、相対関係を「人が被写体を乗り越えている」と特定する。推定部136は、被写体の種別である柵と相対関係との組み合わせに基づいて、人の行動内容を「柵の乗り越え」と推定する。
進入禁止の領域に柵が設置されていない場合、被写体検出部133は、進入禁止の領域を被写体の種別として検出してもよい。進入禁止の領域に人が立ち入った場合、人検出部132は、人が移動していることを検出する。関係特定部135は、被写体である進入禁止の領域を示す位置情報と人が移動した位置とに基づいて、相対関係を「人が被写体の内部を移動している」と特定する。推定部136は、人の行動内容を「進入禁止の領域に侵入」と推定する。
このように動作することで、行動推定装置10は、進入禁止の領域に人が立ち入ることを検出することができる。進入禁止の領域の管理者は、行動推定装置10が進入禁止の領域に人が侵入したことを情報端末2に通知することで、人が侵入したことを知るとともに、人に警告を発することができる。
[行動推定装置10の効果]
以上説明したように、行動推定装置10は、撮像画像に含まれる人の動きを検出する人検出部132と、撮像画像に含まれる被写体の種別を検出する被写体検出部133と、人の動きに伴う人と被写体との関係である相対関係を特定する関係特定部135とを有する。そして、推定部136は、被写体検出部133が検出した被写体の種別と関係特定部135が特定した相対関係とに基づいて人の行動内容を推定する。
行動推定装置10は、このように被写体の種別と、人と被写体との相対関係とを用いて人の行動内容を推定することで、動きが類似する行動であっても、精度よく人の行動内容を推定することができる。また、行動推定システムSによれば、行動推定装置10が推定した人の行動内容を示す行動内容情報を情報端末2が受信することで、例えば情報端末2のユーザである店舗の従業員は、人の異常行動を精度よく知ることができる。その結果、情報端末2のユーザは、人の行動に正確に対応することができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。
1 撮像装置
2 情報端末
10 行動推定装置
11 通信部
12 記憶部
13 制御部
21 通信部
22 記憶部
23 制御部
24 表示部
25 操作部
131 画像取得部
132 人検出部
133 被写体検出部
134 設定受付部
135 関係特定部
136 推定部
137 場所特定部
138 出力部
139 色特定部
231 情報送信部
232 情報受信部

Claims (17)

  1. 基準人以外の一以上の基準被写体と、前記基準被写体と前記基準人との基準相対関係と、前記基準人の基準行動内容と、が関連付けられたデータベースを記憶する記憶部と、
    撮像画像を示す撮像画像データを取得する画像取得部と、
    前記撮像画像に含まれる人の動きを検出する人検出部と、
    前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、
    前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、
    前記データベースにおいて、前記被写体の種別に対応する前記基準被写体と、前記相対関係に対応する前記基準相対関係と、に関連付けられた前記基準行動内容を特定することにより、前記人検出部が検出した前記人の行動内容を推定する推定部と、
    を有する行動推定装置。
  2. 前記関係特定部は、前記人と前記被写体との距離を前記相対関係として特定し、
    前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた基準距離と、前記関係特定部が特定した前記人と前記被写体との距離と、を比較した結果に基づいて前記行動内容を推定する、
    請求項1に記載の行動推定装置。
  3. 前記関係特定部は、前記人の目線の方向と前記被写体の位置との関係を、前記相対関係として特定し、
    前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた目線の方向と被写体の位置との関係である基準目線関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定する、
    請求項1又は2に記載の行動推定装置。
  4. 前記関係特定部は、前記人の身体の向きと前記被写体の位置との関係を、前記相対関係として特定し、
    前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた身体の向きと被写体の位置との関係である基準身体向き関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定する、
    請求項1から3のいずれか一項に記載の行動推定装置。
  5. 前記画像取得部は、時系列に作成された複数の前記撮像画像データを取得し、
    前記関係特定部は、前記相対関係の変化を特定し、
    前記推定部は、前記被写体の種別と、前記相対関係の変化との組み合わせに基づいて、前記人の行動内容を推定する、
    請求項1から4のいずれか一項に記載の行動推定装置。
  6. 前記推定部は、前記複数の撮像画像データのいずれかに、前記人検出部が前記人を検出する前に前記被写体が含まれていたか否かを判定した結果にさらに基づいて、前記行動内容を推定する、
    請求項5に記載の行動推定装置。
  7. 前記人検出部は、前記人の属性をさらに検出し、
    前記推定部は、前記人検出部が検出した前記人の属性にさらに基づいて、前記行動内容を推定する、
    請求項1から6のいずれか一項に記載の行動推定装置。
  8. 前記被写体検出部は、前記撮像画像に含まれる第1被写体及び第2被写体を検出し、
    前記関係特定部は、前記人の動きに伴う前記人と前記第1被写体との関係である第1相対関係、前記人の動きに伴う前記人と前記第2被写体との関係である第2相対関係、及び前記人の動きに伴う前記第1被写体と前記第2被写体との関係である第3相対関係を特定し、
    前記推定部は、前記被写体の種別と、前記第1相対関係、前記第2相対関係又は前記第3相対関係の少なくとも2つの相対関係と、の組み合わせに基づいて、前記人の行動内容を推定する、
    請求項1から7のいずれか一項に記載の行動推定装置。
  9. 前記撮像画像に含まれる前記被写体の属性の設定を受け付ける設定受付部をさらに有し、
    前記推定部は、前記被写体の属性にさらに基づいて前記行動内容を推定する、
    請求項1から8のいずれか一項に記載の行動推定装置。
  10. 前記関係特定部は、前記被写体検出部が検出した被写体と前記設定受付部が属性の設定を受け付けた被写体との位置関係をさらに特定し、
    前記推定部は、前記関係特定部が特定した前記位置関係と、前記設定受付部が設定を受け付けた被写体の属性とにさらに基づいて前記行動内容を推定する、
    請求項9に記載の行動推定装置。
  11. 前記撮像画像に写っている場所を特定する場所特定部と、
    前記推定部が推定した前記行動内容と、前記場所特定部が特定した場所とが所定の条件を満たす場合に通知情報を出力する出力部と、
    をさらに有する、
    請求項1から10のいずれか一項に記載の行動推定装置。
  12. 前記出力部は、前記場所特定部が特定した場所と前記行動内容との組み合わせに対応する種別の前記通知情報を出力する、
    請求項11に記載の行動推定装置。
  13. 前記人の色の変化又は前記被写体の色の変化の少なくともいずれかを特定する色特定部をさらに有し、
    前記推定部は、前記色特定部が特定した前記人の色の変化又は前記被写体の色の変化の少なくともいずれかにさらに基づいて、前記行動内容を推定する、
    請求項1から12のいずれか一項に記載の行動推定装置。
  14. 前記画像取得部は、複数の前記撮像画像データを取得し、
    前記関係特定部は、複数の前記相対関係を特定し、
    前記推定部は、複数の前記相対関係それぞれと前記被写体の種別との組み合わせに基づいて、前記人の行動内容を推定する、
    請求項1から13のいずれか一項に記載の行動推定装置。
  15. コンピュータが実行する、
    撮像画像を示す撮像画像データを取得するステップと、
    前記撮像画像に含まれる人の動きを検出するステップと、
    前記撮像画像に含まれる被写体の種別を検出するステップと、
    前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、
    基準人以外の一以上の基準被写体と、前記基準被写体と前記基準人との基準相対関係と、前記基準人の基準行動内容と、が関連付けられたデータベースにおいて、前記被写体の種別に対応する前記基準被写体と、前記相対関係に対応する前記基準相対関係と、に関連付けられた前記基準行動内容を特定することにより、検出した前記人の行動内容を推定するステップと、
    を有する行動推定方法。
  16. コンピュータに、
    撮像画像を示す撮像画像データを取得するステップと、
    前記撮像画像に含まれる人の動きを検出するステップと、
    前記撮像画像に含まれる被写体の種別を検出するステップと、
    前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、
    基準人以外の一以上の基準被写体と、前記基準被写体と前記基準人との基準相対関係と、前記基準人の基準行動内容と、が関連付けられたデータベースにおいて、前記被写体の種別に対応する前記基準被写体と、前記相対関係に対応する前記基準相対関係と、に関連付けられた前記基準行動内容を特定することにより、検出した前記人の行動内容を推定するステップと、
    を実行させるためのプログラム。
  17. 撮像装置が生成した撮像画像に基づいて人の行動内容を推定する行動推定装置と、前記行動推定装置が推定した前記人の行動内容を表示する情報端末と、を備え、
    前記行動推定装置は、
    基準人以外の一以上の基準被写体と、前記基準被写体と前記基準人との基準相対関係と、前記基準人の基準行動内容と、が関連付けられたデータベースを記憶する記憶部と、
    前記撮像画像を示す撮像画像データを取得する画像取得部と、
    前記撮像画像に含まれる人の動きを検出する人検出部と、
    前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、
    前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、
    前記データベースにおいて、前記被写体の種別に対応する前記基準被写体と、前記相対関係に対応する前記基準相対関係と、に関連付けられた前記基準行動内容を特定することにより、前記人検出部が検出した前記人の行動内容を推定する推定部と、
    前記推定部が推定した前記行動内容を示す行動内容情報を前記情報端末に送信する送信部と、
    を有し、
    前記情報端末は、
    前記行動内容情報を受信する情報受信部と、
    前記情報受信部が受信した前記行動内容情報に基づいて前記行動内容を表示する表示部と、
    を有する行動推定システム。
JP2020182477A 2020-10-30 2020-10-30 行動推定装置、行動推定方法、プログラム及び行動推定システム Active JP6854959B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020182477A JP6854959B1 (ja) 2020-10-30 2020-10-30 行動推定装置、行動推定方法、プログラム及び行動推定システム
JP2021042085A JP2022073882A (ja) 2020-10-30 2021-03-16 行動推定装置、行動推定方法、プログラム及び行動推定システム
PCT/JP2021/039325 WO2022092032A1 (ja) 2020-10-30 2021-10-25 行動推定装置、行動推定方法、プログラム及び行動推定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020182477A JP6854959B1 (ja) 2020-10-30 2020-10-30 行動推定装置、行動推定方法、プログラム及び行動推定システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021042085A Division JP2022073882A (ja) 2020-10-30 2021-03-16 行動推定装置、行動推定方法、プログラム及び行動推定システム

Publications (2)

Publication Number Publication Date
JP6854959B1 true JP6854959B1 (ja) 2021-04-07
JP2022072825A JP2022072825A (ja) 2022-05-17

Family

ID=75267983

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020182477A Active JP6854959B1 (ja) 2020-10-30 2020-10-30 行動推定装置、行動推定方法、プログラム及び行動推定システム
JP2021042085A Pending JP2022073882A (ja) 2020-10-30 2021-03-16 行動推定装置、行動推定方法、プログラム及び行動推定システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021042085A Pending JP2022073882A (ja) 2020-10-30 2021-03-16 行動推定装置、行動推定方法、プログラム及び行動推定システム

Country Status (2)

Country Link
JP (2) JP6854959B1 (ja)
WO (1) WO2022092032A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023275968A1 (ja) * 2021-06-29 2023-01-05 日本電信電話株式会社 異常判定装置、異常判定方法、及び異常判定プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004209A1 (ja) * 2022-07-01 2024-01-04 日本電信電話株式会社 推定装置、学習装置、方法およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6249021B2 (ja) * 2013-09-06 2017-12-20 日本電気株式会社 セキュリティシステム、セキュリティ方法及びセキュリティプログラム
JP2016201105A (ja) * 2015-04-07 2016-12-01 三菱電機株式会社 情報処理装置及び情報処理方法
JP2017033401A (ja) * 2015-08-04 2017-02-09 株式会社 impactTV 顧客情報収集装置、顧客情報収集システムおよび顧客情報収集方法
US11922482B2 (en) * 2018-03-09 2024-03-05 Nec Corporation Self-checkout system, purchased product management method, and purchased product management program
US10535146B1 (en) * 2018-07-16 2020-01-14 Accel Robotics Corporation Projected image item tracking system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023275968A1 (ja) * 2021-06-29 2023-01-05 日本電信電話株式会社 異常判定装置、異常判定方法、及び異常判定プログラム
JP7491472B2 (ja) 2021-06-29 2024-05-28 日本電信電話株式会社 異常判定装置、異常判定方法、及び異常判定プログラム

Also Published As

Publication number Publication date
JP2022072825A (ja) 2022-05-17
JP2022073882A (ja) 2022-05-17
WO2022092032A1 (ja) 2022-05-05

Similar Documents

Publication Publication Date Title
US10636267B2 (en) RFID tag tracking systems and methods in identifying suspicious activities
US20230041775A1 (en) Multiple-factor verification for vision-based systems
US10402634B2 (en) Information processing device, information processing method, and computer program product
WO2022092032A1 (ja) 行動推定装置、行動推定方法、プログラム及び行動推定システム
US10740622B2 (en) Method of theft detection and prevention
US20140225734A1 (en) Inhibiting alarming of an electronic article surviellance system
JP6707940B2 (ja) 情報処理装置及びプログラム
US20080246613A1 (en) System and method for wireless security theft prevention
JP2021182413A (ja) システム、異常判定装置及び方法
US20150302310A1 (en) Methods for data collection and analysis for event detection
US7295106B1 (en) Systems and methods for classifying objects within a monitored zone using multiple surveillance devices
JP6440327B2 (ja) 防犯システム、防犯方法、及びロボット
JP2013238973A (ja) 購買情報管理システム、商品移動検出装置および購買情報管理方法
US10490046B2 (en) Methods and systems for detecting shoplifting at a retail facility
US20130135105A1 (en) Anti-theft rfid system and method thereof
KR20160029674A (ko) 연상 기억 장치에 의해 분류된 프레임을 이용하여 위치에 대한 메트릭스를 얻는 방법 및 장치
JP2012033053A (ja) 画像監視装置
TWI538503B (zh) 監測方法及攝影機
WO2019077559A1 (en) SYSTEM FOR MONITORING PRODUCTS AND USERS IN A STORE
CN111583521A (zh) 一种安全防护方法及装置
JP2022011666A (ja) 画像処理装置、画像処理方法およびプログラム
WO2023053243A1 (ja) 報知システム、方法、及び、記録媒体
US20200184797A1 (en) Information processing apparatus, control method, and program
CN115457697A (zh) 无人零售货柜防盗方法、装置、货柜、设备和存储介质
WO2023122545A1 (en) Person-of-interest (poi) detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201106

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201106

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210316

R150 Certificate of patent or registration of utility model

Ref document number: 6854959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250