JP7229698B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7229698B2
JP7229698B2 JP2018154108A JP2018154108A JP7229698B2 JP 7229698 B2 JP7229698 B2 JP 7229698B2 JP 2018154108 A JP2018154108 A JP 2018154108A JP 2018154108 A JP2018154108 A JP 2018154108A JP 7229698 B2 JP7229698 B2 JP 7229698B2
Authority
JP
Japan
Prior art keywords
degree
attention
factor
caution
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018154108A
Other languages
English (en)
Other versions
JP2020031276A (ja
JP2020031276A5 (ja
Inventor
俊介 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018154108A priority Critical patent/JP7229698B2/ja
Priority to US16/535,973 priority patent/US11210531B2/en
Publication of JP2020031276A publication Critical patent/JP2020031276A/ja
Publication of JP2020031276A5 publication Critical patent/JP2020031276A5/ja
Application granted granted Critical
Publication of JP7229698B2 publication Critical patent/JP7229698B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
近年、監視カメラで長時間撮影される映像について、人間の目で特に注視すべき部分を提示して作業員の負担の軽減、又は見落としの低減を狙う機能が提案されている。
例えば特許文献1では、観測者の視野画像と実空間地図から注目している座標を算出して、注視の頻度と業務知識を用いてエリアの重要度を算出する手法が提案されている。
また、特許文献2では、通行人からの通報を検出して、通報位置と数に応じてカメラごとに注目度を算出する手法が提案されている。
特開2014-182628号公報 特開2015-056697号公報
特許文献1及び特許文献2の手法においては、監視先の状況に基づいて注視すべき場所を提示する。そのため、監視先の知識を得ていたとしても、それを注視すべき場所の情報に反映することができず、そこからのフィードバックを得ることができない。例えば、注視すべきとして得られた場所のうち、既に監視員によって充分に注視を行った場所と、そうでない場所とが同じく注視すべき場所として提示され、それらについて網羅的に注視が行われたかどうかを確認することが難しい。
本発明は、所定の時刻で撮像された画像から検出されたターゲットに対応する要注意度を、該ターゲットが検出された位置を示すマップに表示する表示手段と、前記ターゲットに対する前記要注意度を、少なくとも1つ以上の注視要因に基づいて設定する設定手段と、ユーザによる前記ターゲットに対する情報の入力に基づいて、前記ターゲットに対する前記要注意度を更新する更新手段と、を有し、前記表示手段は、前記更新された前記要注意度に基づいて、前記マップの表示を変更することを特徴とする。
本発明によれば、利用者は情報の付加によるフィードバックを得ることができ、映像への情報の付与及び付与した情報を用いた分析を正確・効率的に行うことができる。
情報処理装置のハードウェア構成の一例を示す図である。 情報処理装置の機能構成の一例を示す図である。 実施形態1のユーザーインターフェース画面の模式図である。 実施形態1の基本の情報処理の一例を示すフローチャートである。 注視要因ウィンドウの表示の一例を示す図である。 要注視度を設定する処理の一例を示すフローチャートである。 実施形態2のユーザーインターフェース画面の模式図である。 実施形態2の基本の情報処理の一例を示すフローチャートである。 実施形態3のユーザーインターフェース画面の模式図である。 実施形態3の基本の情報処理の一例を示すフローチャートである。 時空間立体の表示の一例を示す図である。 実施形態4のユーザーインターフェース画面の模式図である。 実施形態4の基本の情報処理の一例を示すフローチャートである。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
図1は、情報処理装置100のハードウェア構成の一例を示す図である。
情報処理装置100は、ハードウェア構成として、CPU(Central Processing Unit)101、表示部102、操作部103、記録部104、通信部105、を含む。
CPU101は、情報処理装置100の全体を制御する。表示部102は、液晶画面等で構成され、ネットワーク等を介して情報処理装置100と接続された複数の監視カメラで撮影された映像等を表示する。監視カメラで撮影された映像は、撮影画像の一例である。操作部103は、スイッチ及びタッチパネル等によって構成され、利用者による操作を感知して操作情報を入力する。タッチパネルの代わりにマウス、トラックボール等の他のポインティングデバイスが用いられてもよい。記録部104は、ハードディスク等の記録メディア等によって構成され、複数の監視カメラで撮影された映像を、撮影時刻及び撮影カメラパラメータ等のメタデータ情報と共に逐次保存する。記録メディアの代わりに、情報処理装置100は、記録部104としてNAS(Network Attached Storage)、又はSAN(Storage Area Network)等のネットワーク上のストレージを用いてもよい。通信部105は、情報処理装置100をネットワーク等に接続し、監視カメラとの通信等を制御する。CPU101が記録部104に記録されたプログラムに基づき処理を実行することによって、後述する図2に示す情報処理装置100の機能構成、及び図4、図6、図8、図10、図13のフローチャートの処理が実現される。他の例としては、情報処理装置100の機能の少なくとも一部は、例えば複数のCPU、記憶部を協働させることにより実現してもよい。また、他の例としては、情報処理装置100の機能の少なくとも一部は、ハードウェア回路を用いて実現してもよい。また、他の例としては、情報処理装置100の機能は、複数の装置が協働して実現してもよい。
図2は、情報処理装置100の機能構成の一例を示す図である。
情報処理装置100は、機能構成として、制御部111、表示情報管理部112、情報入力ターゲット検知部113、注視要因管理部114、要注視度設定部115、を含む。
制御部111は、情報処理装置100の全体を制御する。表示情報管理部112は、表示部102の表示画面を管理して、利用者が操作を行うユーザーインターフェース(UI)画面を作成する。情報入力ターゲット検知部113は、利用者が情報を入力する対象となるターゲットとして情報入力ターゲットを検知する。情報入力ターゲット検知部113は、監視カメラで撮影された映像及び記録部104に記録された情報等を用いて、所定の物体、状態、情報等を情報入力ターゲットとして検知して、実空間上での位置を推定する。注視要因管理部114は、注視すべきであると判断するための要因(注視要因)となる情報を取得し、その要因の程度の大きさとして注視要因の値を決定する。また、注視要因管理部114は、複数の注視要因について、それぞれの重要度を管理する。より具体的な注視要因については後述する。注視要因の値を決定するための情報は、監視カメラで撮影された映像、操作部103で利用者が操作した操作履歴、記録部104に記録された情報、情報入力ターゲット検知部113によって検知された情報入力ターゲット及びその属性等の情報を用いる。また、注視要因管理部114は、情報処理装置100の外部のシステム、又はサービスと通信を行うことによって情報を得て、それらから得られる情報を用いることによっても注視要因の値を決定する。要注視度設定部115は、注視要因管理部114による要注視要因の情報を用いて、実空間上の位置について要注視度を設定する。
次に、図3を用いて、表示部102における表示及び利用者の操作について説明する。
図3は、実施形態1の表示部102に表示され、表示情報管理部112によって制御されるユーザーインターフェース画面の模式図である。利用者の目的は、過去に記録された監視映像に出現した人物について人物ごとに視認して、それが異常であるか否かのラベル情報を付与することである。付与したラベルは後に異常行動の統計モデルを学習したり、監視状況の分析を行って警備計画を見直したりするために用いられる。
まず、表示情報管理部112は、表示部102に監視範囲の平面図画像201を表示する。平面図画像201は要注視度表示の例でもある。要注視度設定部115によって設定された要注視度の情報が、表示情報管理部112によって対応する平面図画像上の位置にマッピングされ、表示される。要注視度の情報は色の濃淡によるヒートマップとして表示され、色が濃いほど要注視度が高いものとして示される。
図3の例では、3か所に監視カメラが設置され、位置と方向とが202、203、204の記号で示されている。
また、情報入力ターゲット表示の例として、情報入力ターゲット検知部113は、監視カメラの映像から人体を検出する。そして、表示情報管理部112は、208、209、210のように人物映像を並べてリスト表示する。また、表示情報管理部112は、平面図画像201上に、マーカー記号205、207、206を表示して位置を示し、合わせてマーカー記号と人物映像とを結んで対応させる線を表示する。
人物映像208、209、210は動画像であり、利用者は動画像の下部にそれぞれ設けられたスライダーを操作することによって、表示される人体映像の時刻を操作することができる。また、スライダーを動かすと、対応する平面図画像上のマーカー記号もその時刻での位置に移動する。
表示情報管理部112は、人物映像208、209、210を、平面図画像201における要注視度の降順で上から順に並べて表示する。これによって、利用者へ要注視度の高い位置に発見された人物映像を優先的に提示することができる。利用者は人物映像の隣に配置されるドロップダウンリスト211、212、213を操作して、人物が異常であるか否かのラベル情報を付与する。例えば、人物映像208は倒れた人物が映った映像であるため、利用者は対応するドロップダウンリスト211を操作して「異常あり」に設定する。また、人物映像209は普通に歩行している人物なので、利用者は対応するドロップダウンリスト212を操作して「異常なし」に設定する。表示情報管理部112は、このようにして付与された情報を記録部104に蓄積する。
平面図画像201に表示される時刻は、タイムライン214を操作することによって利用者が変更できる。タイムライン214は左から右の時間軸に沿って平面図画像のサムネイルが並んで表示され、カーソル215を利用者が左右に動かすことで時刻を選択することができる。時刻が変更されると、平面図画像201の要注視度のヒートマップが更新され、人物映像のリストもその時刻に発見される人体へと更新される。
ラベル情報を付与するごとに、要注視度設定部115は、付与された情報を加えて要注視度を再計算する。表示情報管理部112は、再計算された要注視度に基づき表示を更新する。ここでは、情報を付与した人物は利用者が視認して状態を確認した人物であるから、要注視度設定部115は、「注視済み」であるその人物については要注視度を低減するようにする。したがって、情報を付与するとヒートマップにおいてその人物の周辺の色の濃さが減じるようになる。タイムライン214のサムネイルにおいてもその時刻において情報を付与した人物がいれば、要注視度が再計算され、サムネイルの画像も更新される。
このようにすることで、利用者が要注視度の高い時刻と場所とを選んで、要注視度の高い個所を重点的に注視してラベル情報を付与していくと、映像全体の要注視度が低減していくことになる。利用者はそれによって、ラベル情報を付与するために注視すべき個所を探しやすくなり、また作業の進捗もわかりやすくなる効果がある。
次に、図4を用いて、以上の動作を実現するための処理を説明する。
S301において、制御部111は、操作部103を介した利用者の作業対象としたい環境情報の指定を受け付け、設定する。指定される環境情報には、現場の平面図画像、一つ又は複数の撮影された映像、撮影時間、カメラ位置と高さの情報、注視要因管理部114で管理する注視要因の重みが含まれる。映像は予め監視カメラで撮影された映像で、記録部104に記録されている。この映像は個別の動画ファイルでもよいし、データベース、又はビデオマネジメントシステム(VMS)に蓄積された映像から日時の範囲を指定して取り出すようなものでもよい。また、カメラの映像ストリームを指定して、記録部104に映像を逐次記録しながら利用者が情報を付与するようにしてもよい。
次に、S302において、表示情報管理部112は、初期の表示時刻tを0に設定する。表示情報管理部112は、最初に表示する時刻を映像の先頭とする。表示情報管理部112は、前回の作業中断時の時刻、又は最も要注視度の高い時刻を初期時刻としてtに設定してもよい。
次に、S303において、要注視度設定部115は、指定された環境情報に基づき、対象の場所及び時間の全体について要注視度を設定する。この処理によって、平面図画像の各座標及び時刻について0から1までの範囲の要注視度の値がそれぞれ設定され、要注視度のヒートマップの表示に必要な値が準備される。要注視度を設定する方法については後述する。S303の処理は、複数の要注視度を実空間上の位置と時刻とに応じてマッピングして表示する第1の表示処理の一例である。
次に、S304において、情報入力ターゲット検知部113は、指定された環境情報に基づき、対象の場所及び時間の映像から人物検出及び動体追尾の手法を用いて、人物を検出してそれぞれの位置を推定する。また、情報入力ターゲット検知部113は、異なるカメラの映像、及び異なる時間帯の映像に出現した人物について、人物再同定の手法を用いて同一人物かどうかを判定して、検出した人物に同一人物ごとのID番号を付与する。
情報入力ターゲット検知部113が検出する情報入力ターゲットは人物に限らず、例えば道路を監視するものであれば自動車等の物体を検出するようにしてもよいし、牧場を監視するものであれば牛、又は羊を情報入力ターゲットにしてもよい。また、種類を特定せずに動体をすべて情報入力ターゲットとするようにしてもよい。また、物体に限らず、実空間の領域、又は特定の時刻、また人物の特定の行動、又はカメラ等、装置の特定の状態、又は警報等の発生を情報入力ターゲットとしてもよい。
また、S303及びS304については、記録部104に記録された映像について事前に行って結果を記録しておき、本フローにおいてはその結果を読み込むものとしてもよい。これは要注視度の算出、人体検出に時間がかかる場合に有効である。また、映像ストリームに対する逐次処理を行う場合は、ストリームの入力に対してS303及びS304の処理を並列に行って、逐次、要注視度の算出や人体検出を行うようにする。
次に、S305において、表示情報管理部112は、時刻tにおける要注視度を平面図画像に重畳して表示する。表示情報管理部112は、時刻tの各座標の要注視度を要注視度設定部115から取得して、平面図画像の対応する座標ごとに、例えば赤色の濃淡を加える。より具体的には、座標の色画素値をそれぞれ0から255までの範囲のRGBカラーで表現したときに、表示情報管理部112は、R(赤色)成分に要注視度の255倍の値を加算して、255を超えた場合は255とする。
ヒートマップの表示方法はこれに限らず、青色、緑色、白色等その他の色の強さ、明度、彩度、色相の強さで表示してもよく、モノクロ映像ならばドットパターンの密度で表示してもよい。また、表示情報管理部112は、平面図画像の対応する点から鉛直方向に延びる棒等の長さとして立体画像で表現してもよい。
次に、S306において、表示情報管理部112は、時刻tを中心とするタイムラインの表示画像を作成し、表示部102で表示する。例えば、表示情報管理部112は、時刻(t-10秒)、時刻t、時刻(t+10秒)の要注視度を要注視度設定部115から取得して、それぞれS304と同様の方法でサムネイル画像を作成して、縮小して時系列順に配列する。
サムネイル画像の表示数、表示の範囲はこれに限るものではなく、例えば、表示情報管理部112は、表示部102の画面の横幅に応じて可変的に表示数を定めてもよい。
次に、S307において、表示情報管理部112は、情報入力ターゲット検知部113で検出された人物のうち、時刻tにおいて出現する人物を取得する。
次に、S308において、表示情報管理部112は、時刻tにおいて出現する人物のそれぞれについて、その位置に対応する要注視度を要注視度設定部115から取得して、要注視度の高いほうから順に並べて表示する。S308の処理は、撮影画像から検出された複数のターゲットを、複数のターゲットのそれぞれに対応する要注視度に基づいて表示する第2の表示処理の一例である。
以上のS305からS308までの処理によって、時刻tにおけるUI画面が表示情報管理部112によって構成されて表示部102に表示される。
次に、S309において、表示情報管理部112は、UI画面に対する利用者の操作が操作部103を通じて為されるのを待ち、入力された操作によって分岐する。利用者が操作部103を用いてタイムラインを選択すると、表示情報管理部112は、S321に進む。利用者が操作部103を用いて、ラベル情報を指定するドロップダウンリスト、図3における211等、を操作してラベル情報を変更すると、表示情報管理部112は、S331に進む。利用者が操作部103を用いて、人物映像を指定すると、表示情報管理部112は、S341に進む。S309の処理は、複数のターゲットのうちの少なくとも一つのターゲットに対する情報の入力を受け付ける受付処理の一例である。
S321において、表示情報管理部112は、タイムラインの画面上の、操作部103よって選択された位置を取得して、その位置に対応したタイムラインの時刻を新たにtとして設定する。
S321の次はS305に進んで、表示情報管理部112は、新たなtに基づいて表示画面を更新して、再びS309で入力を待つ。
S331において、表示情報管理部112は、操作部103で操作されたドロップダウンリストの新しい値を、対応する人物のラベル情報として記録部104に記録する。また、表示情報管理部112は、その操作が行われた際にUI画面で表示していた時刻tの情報を合わせて記録部104に記録する。
次に、S332において、要注視度設定部115は、S303と同様に要注視度を算出して更新する。S332の処理は、入力された情報に基づき複数の要注視度のうちの少なくとも一つの要注視度を再設定する処理の一例である。また、S332の処理は、入力された情報に基づき入力された情報に関するターゲットに対応付けられた要注視度を再設定する処理の一例でもある。後述するように、要注視度設定部115は、ラベル情報が入力されたかどうかの情報も用いて要注視度を算出する。その結果としてラベル情報を入力した個所の要注視度が低下する。
S332の次はS305に進んで、表示情報管理部112は、更新された要注視度に基づいて表示画面を更新して、再びS309で入力を待つ。この処理は、再設定された要注視度を前記実空間上の位置と時刻とに応じてマッピングして表示する処理の一例である。
S341においては、表示情報管理部112は、操作部103で指定された人物の時刻tにおける位置での、それぞれの注視要因における要因値を注視要因管理部114から取得して表示する。
注視要因の表示例を図5に示す。人物映像208が選択されると、表示情報管理部112は、注視要因ウィンドウ401を表示する。注視要因ウィンドウ401を表示する処理は、複数の要注視度のうち少なくとも一つの要注視度の設定に用いられた一の注視要因、又は複数の注視要因を表示する第3の表示処理の一例である。また、人物映像208が選択されると、注視要因ウィンドウ401を表示する処理は、入力された情報に関するターゲットに対応付けられた要注視度の設定に用いられた一の注視要因、又は複数の注視要因を表示する処理の一例でもある。
本実施形態においては、注視要因として初出現人物、カメラ映り、人流、警備員巡回、POS(販売地点情報管理)記録、入力操作とする。
要注視度設定部115は、初出現人物の注視要因を、情報入力ターゲット検知部113が検出した人物が新たに出現した人物であるかどうかによって定める。要注視度設定部115は、情報入力ターゲット検知部113が人物ごとに付与するID番号を用いて、初めて新しいID番号が付与された人物映像については100、そうでなければ0を、対応する人物が出現した位置での注視要因の値とする。
要注視度設定部115は、カメラ映りの注視要因を、情報入力ターゲット検知部113が検出した人物を撮影した監視カメラのカメラ画角における、人物映像の大きさと位置とによって定める。より具体的には、要注視度設定部115は、すべての監視カメラについて、人物映像の人物を囲う矩形の面積とカメラ映像全体の面積との比の逆数と、人物映像の中心の方向とカメラ光軸との角度と、の積を計算して総和をとる。要注視度設定部115は、映像が小さく、カメラ画角の中心から遠く、映っているカメラが少ないほど、注視要因の値が高くなるようにする。
要注視度設定部115は、人流の注視要因を、情報入力ターゲット検知部113が検出した人物が通った量に応じて、平面図画像上の位置ごとに定める。要注視度設定部115は、平面図画像上で対象とする位置を中心に例えば半径10mの円を描き、例えば直近の5分間にその円の内部を通過した人物の軌跡の長さの累計を算出し、その逆数をとって100倍する。要注視度設定部115は、直前に近傍を通過した人物の数が少ないほど、注視要因の値が高くなるようにする。
要注視度設定部115は、警備員巡回の注視要因を、外部の警備システムの警備員巡回記録に基づいて、平面図画像上の位置ごとに定める。要注視度設定部115は、平面図画像上で対象とする位置を中心に例えば半径30mの円を描き、例えば直近の60分間に、その円の内部において警備員の巡回が行われたかどうかを判定して、最近の巡回から経過した時間を60分で割る。要注視度設定部115は、警備員が巡回した時間が遠いほど、注視要因の値が高くなるようにする。
要注視度設定部115は、POS情報の注視要因を、外部のPOSの記録に基づいて定める。要注視度設定部115は、所定の商品陳列棚の在庫情報が、POSの販売記録と一致しないという情報がPOSから得られると、その商品陳列棚の周辺において注視要因の値を100とする。
要注視度設定部115は、入力操作の注視要因を、利用者が操作部103を用いて入力した情報に基づいて定める。利用者が時刻tにある人物についてドロップダウンリストへの入力を行うと、要注視度設定部115は、tの周辺の時刻の対応する人物の位置の周辺において、負の注視要因の値、例えば-50を設定する。要注視度設定部115は、入力が行われたことによって、利用者が注視を行ったと推定して、その要注視度を低減するようにする。
注視要因ウィンドウ401には、各注視要因の説明と、選択した人物映像208におけるそれぞれの注視要因の値と、が表示される。また、注視要因ごとにスライドバー402と重み403とが合わせて表示され、利用者は操作部103によってスライドバーを操作することにより、注視要因の重みを修正することができる。要注視度設定部115が、利用者によるスライドバーの操作に基づき、注視要因の重みを修正する処理は、一の注視要因の重要度、又は複数の注視要因のそれぞれの重要度を設定する第2の設定処理の一例である。また、ユーザ操作に基づき一の注視要因の重要度、又は複数の注視要因のそれぞれの重要度を設定する処理の一例でもある。
図5に示した注視要因ウィンドウは注視要因表示の一例であり、例えば、要注視度設定部115は、重みを棒グラフ、又は円グラフで表示してもよい。また、注視要因重要度設定の方法として、利用者は、スライドバーの代わりに重みを直接入力したり、0か100かを選択するトグルスイッチで入力したりしてもよい。
以上のようにして求められる注視要因の値と重さとに基づいて、要注視度設定部115は、要注視度を算出する。
図6を用いて、S303及びS332において要注視度設定部115が要注視度を設定するための処理を説明する。
まず、S501において、要注視度設定部115は、注視要因管理部114において管理されている注視要因を含むリストを作成する。ここでは要注視度の計算に用いる注視要因をリストアップするため、要注視度設定部115は、重みが0に指定されたもの、及び外部条件によって使用できない注視要因は除外する。例えば、外部のPOSに接続できない場合、要注視度設定部115は、POS情報の注視要因を除外する。
次に、S502において、要注視度設定部115は、注視要因リストが空かどうかを判定する。要注視度設定部115は、空でなければS503に進み、空ならばS506に進む。
S503においては、要注視度設定部115は、注視要因リストに含まれる注視要因から1つを選択して、それをeとする。
次に、S504において、要注視度設定部115は、注視要因eの値を計算する。例えば、注視要因eが初出現人物の注視要因であれば、先に図5の説明で述べたようにして、要注視度設定部115は、初めて新しいID番号が付与された人物映像については100、そうでなければ0を、対応する人物が出現した位置での注視要因の値として定める。その他の注視要因についても、要注視度設定部115は先に図5の説明で述べたように求める。
次に、S505において、要注視度設定部115は、注視要因eを注視要因リストから除去し、S502に戻る。
S502において、注視要因リストが空になっている場合、すべての注視要因について値の計算が完了していれば、要注視度設定部115は、S506に進む。
S506においては、要注視度設定部115は、それぞれの時刻及び実空間位置について、以下の式で重み付き平均を算出し、その時刻t及び実空間位置xにおける要注視度A(x、t)とする。
Figure 0007229698000001
ここで、LはS501で作成した注視要因リストである。Ae(x、t)は注視要因eの時刻t及び実空間位置xにおける値である。weは注視要因eの重みである。但し、Lが空の場合はA(x、t)=0とする。
要注視度の計算方法はここに示したものに限らず、例えば対数値の平均をとったり、加算してから上限値でクリップしたり、注視要因eごとに重みと値の積をとってから最大値を選択する等して計算してもよい。
本実施形態の情報処理装置100は、作業対象の映像について要注視度を設定し、要注視度に基づいて表示することによって、利用者は注視すべきものについて優先的に注視してラベル付けの作業を行うことができる。
<実施形態2>
実施形態1では、利用者が手動で注視要因の重みを定め、要注視度の算出において重視する要因を設定する必要があった。しかし、情報処理装置100が利用者の注視している要因を推定し、重みを自動で設定することで利用者の作業を減らすことができる。
本実施形態においては、注視要因の重みweを利用者の操作履歴から推定することを可能とするものである。以下では実施形態1へ追加する部分について説明する。
図7は、実施形態2の表示部102に表示され、表示情報管理部112によって制御されるユーザーインターフェース画面の模式図である。図7のユーザーインターフェース画面では図3のユーザーインターフェース画面に対して、要確認チェックボックス601、602及び603が追加されている。
これらの要確認チェックボックスは、人物映像のそれぞれについて設けられ、利用者が要確認であると判断した場合にチェックを入れる目的で追加されたものである。図7の例では、利用者は人物映像209を見て、それ自体については異常ではないと判断してドロップダウンリスト212は「異常なし」を選択する。しかし同時に、例えば歩き方が怪しい等、後で異常を起こす可能性が高く注意して確認するべきであると判断して、対応する要確認チェックボックス602をチェックする。
このとき、要注視度設定部115は、要確認チェックボックスがチェックされた同一IDの人物が再び出現した時間については、その個所の要注視度が上昇するようにする。要注視度設定部115は、要確認とした人物の出現範囲について注視を促すようにする。
これに加えて、表示情報管理部112は、要確認チェックボックスへの入力を記録部104に記録しておく。注視要因管理部114は、この入力記録に基づいて注視要因の重みを再設定する。
次に、図8を用いて、以上の動作を実現するための処理を説明する。図8のフローチャートは実施形態1における図4のフローチャートに相当する。以下では図4との差分について説明する。
本実施形態では、注視要因の重みは自動で設定されるため、S341の処理は省かれ、人物映像を選択しても注視要因ウィンドウ401は表示されない。
但し、S341の処理を省かずに、自動と手動との両方で注視要因を設定できるようにしてもよい。
S309において、表示情報管理部112は、操作部103による入力として、要確認チェックボックスがチェックされたことを検知すると、S701に進む。
S701においては、表示情報管理部112は、操作部103で操作された要確認チェックボックスの変更後の状態、チェックされたか否かの情報を、対応する人物に紐づけた情報として記録部104に記録する。
次に、S702において、注視要因管理部114は、記録部104に記録された要確認チェックボックスの状態の情報に基づいて、注視要因の重みを決定する。
注視要因管理部114は、注視要因eの重みweを、要確認チェックボックスがチェックされた人物についての要注視度を用いて、以下の式によって算出する。
Figure 0007229698000002
ここで、veは予め設定された注視要因eの重みの初期値、Hは要確認チェックボックスがチェックされた人物の集合、Lは注視要因の集合である。ah(e)は人物hにおける注視要因eの代表値で、以下の式で定義される。Thは人物hの出現する時刻の集合である。
Figure 0007229698000003
eは、予め注視要因ごとの重要度に応じて情報処理装置100の出荷時に定められる。なお、ve注視要因によらず一律で1と定めてもよいし、制御部111が操作部103を介した利用者の設定操作に応じて設定するようにしてもよい。また、S303における要注視度の設定には注視要因eの重みとしてveが用いられる。S702の処理は、ユーザ操作の操作履歴に基づき前記一の注視要因の重要度、又は前記複数の注視要因のそれぞれの重要度を推定し、設定する処理の一例である。
なお、注視要因の重みを定める方法はここに示したものに限らず、例えば、注視要因管理部114は、要確認チェックボックスがチェックされた人物について注視要因ごとにガウス分布等の統計モデルを作成して、それに基づくようにしてもよい。また、注視要因管理部114は、注視要因の値を入力ベクトル、要確認チェックボックスの入力操作のバイナリ値を出力として深層学習(DL)等を用いて最適化したモデルを用いてもよい。
S702の次は、S332に進み、要注視度設定部115は、新しい注視要因の重みに応じて要注視度を再計算する。そして、S305において、表示情報管理部112は、更新された要注視度に基づいて表示画面を更新する。
本実施形態の情報処理装置100は、注視要因の重みを自動で定めることができる。
<実施形態3>
実施形態3では、実施形態1及び実施形態2とは異なる要注視度の利用方法として、要注視度を用いて映像中から所望の人物の出現を検索する方法を説明する。
図9を用いて、本実施形態における表示部の動作及び利用者の操作について説明する。
本実施形態においては、表示情報管理部112は、要注視度を図9(A)のように三次元時空間上の時空間立体として表示する。時空間立体は直方体であり、二辺は平面図画像の縦横であるx軸とy軸とに対応する。これらに垂直なt軸は時間軸であり、この三軸の座標で定まる立体画素が、その場所と時刻とに対応する要注視度に対応した色合いで表示される。
t軸に垂直な平面で切り取ったスライスは、その時刻における要注視度の平面図画像に相当する。t軸に沿って動くカーソル801で切り取ったスライスを平面図画像に重畳した画像がウィンドウ802に表示され、利用者は操作部103を用いてカーソルを動かすと、カーソルの時刻に対応した要注視度の平面図画像をウィンドウ802で確認することができる。また、カーソル801による時空間立体の断面にも、平面図画像が重畳される。
時空間立体においては、人物の出現は803のように要注視度の高い部分がt軸方向に伸びているような形で現れる。本実施形態における利用者の目的は、この時空間立体から人物を探し出すことである。本実施形態においては、注視要因として、人物が存在し、その人物に指定した属性があることによって、要注視度が上昇するように注視要因管理部114で定める。
利用者は注視要因ウィンドウ804を操作して、人物の属性条件を追加する。図9(A)では、黒い服装で短髪の人物が注視要因ウィンドウ804で指定されている。これによって注視要因管理部114は、「黒い服装」と「短髪」とを重みの高い注視要因として指定して、時空間立体上でそのような人物のいる時間と場所の要注視度が上昇する。利用者は、時空間立体上で要注視度の高い個所を平面図画像と映像で確認して、条件に合う所望の人物を探す。
探している人物の条件を新たに加えると、要注視度の高い個所が絞り込まれる。利用者が注視要因ウィンドウを操作して、注視要因ウィンドウ805のように条件を追加すると、図9(B)のように表示が変化する。
また、利用者は得られた情報を時空間立体上に直接反映することができる。例えば、ある時間と場所との範囲において、例えば工事中で人の侵入ができないということが分かっていれば、利用者は806のように時空間立体の範囲を指定して、その範囲の要注視度を下げるように指示する。また、ある時刻において、例えば犯罪が行われて犯人が近くにいる可能性が高いことが分かっていれば、利用者は807のように時刻を指定して、その前後の時刻について要注視度が高くなるように設定する。これらの利用者が時空間立体上に入力した情報は、注視要因の一つとして注視要因管理部114において管理される。
次に、図10を用いて、以上の動作を実現するための処理を説明する。図10のフローチャートは実施形態1における図4のフローチャートに相当する。以下では図4との差分について説明する。
S901において、表示情報管理部112は、要注視度設定部115の設定した要注視度に基づいて、時空間立体を表示する。
時空間立体は、x軸とy軸との方向に広がる長方形の平面図画像を、これらと垂直なt軸方向に積み重ねた直方体である。より具体的には、図11(A)のように、平面図画像の画素と、時間軸方向の最小単位とが成す立方体を立体画素として、それぞれの立方体に着色することによって立体のヒートマップとして表示される。
表示情報管理部112は、t軸の同じ値を持つ立体画素から成る面を取り出したときに、そのt軸の位置に対応する時刻の平面図画像に一致するようにする。時空間立体のt軸方向の長さ(直方体の個数)は表示部102の表示画面の大きさに依存して決まり、その時刻は、対象映像の長さを等分するようにして決定される。対象映像のフレーム数が時空間立体のt軸方向の長さに対して不足する場合は、表示情報管理部112は、隣り合った面から線形補完によって面を補充する。
表示情報管理部112は、時空間立体の立体画素をそれぞれ、内部を視認しやすいように透過して表示するようにする。それぞれの立体画素は不透明度を示すアルファチャンネルを持ち、表示情報管理部112は、色調と同様に要注視度の大きさに応じて定める。表示情報管理部112は、要注視度が大きいほど不透明にして、要注視度が所定の値よりも小さければ透明度を最大にするようにする。こうすることによって、要注視度の高い個所が時空間立体の画面に向かって奥側にあっても、利用者の視認が容易になる。
このようにしても、要注視度が大きい個所同士が重なった場合には、手前側の要注視度が大きい個所によって後ろのものが隠れてしまう。この場合は以下のようにする。
図11(B)及び図11(C)は、要注視度が高い領域をそれぞれ持つ時空間立体である。図11(B)の要注視度が高い領域が、図11(C)の要注視度が高い領域よりも手前側にあるものとする。なお、図11では3色の同心円状のパターンとして図示しているが、実際にはなめらかに色調が変化しているものとする。つまり、点線で示している同心円の枠線は実際に表示されているものではない。
図11(B)と図11(C)の要注視度が高い2つの領域を同時に表示しようとすると、図11(B)の領域の後ろに図11(C)が隠れ、視認できなくなってしまう。このような場合は、表示情報管理部112は、図11(D)のようにして、後ろ側の領域について、要注視度のある高さについての等高線1201を時空間立体の最も手前側に表示し、要注視度の高い領域の奥側に異なる要注視度の高い個所があることが視認できるようにする。このようにして、表示情報管理部112は、等高線の表示の有無を、要注視度の分布によって定める。
S309において、表示情報管理部112は、利用者が操作部103を用いて注視要因ウィンドウを操作したと判定した場合には、S902に進む。
S902において、注視要因管理部114は、注視要因ウィンドウの操作に応じて注視要因の重みを変更する。
S903において、要注視度設定部115は、注視要因の重みの変更に応じて、要注視度を再設定する。
本実施形態におけるS303及びS903では、注視要因を以下のようにして算出する。
要注視度設定部115は、服装色の注視要因を、情報入力ターゲット検知部113が検知した人物映像に基づいて定める。要注視度設定部115は、被服の領域の画素値を平均して、注視要因管理部114で指定された色との距離、例えばL*a*b*色空間等の均等色空間における距離の逆数をとって100倍したものを、対応する人物が出現した位置での注視要因の値とする。即ち、要注視度設定部115は、服装の色合いが指定された色に近いほど注視要因の値が大きくなるように定める。
要注視度設定部115は、髪型の注視要因を、情報入力ターゲット検知部113が検知した人物映像に基づいて定める。要注視度設定部115は、頭部のパターンマッチングを行い、注視要因管理部114で指定された髪型のモデルへの一致度を、対応する人物が出現した位置での注視要因の値とする。髪型のモデルについては、注視要因管理部114で指定可能なものについて予め準備しておく。
要注視度設定部115は、身長の注視要因を、情報入力ターゲット検知部113が検知した人物映像に基づいて定める。要注視度設定部115は、姿勢が最も直立に近い時点の画像をカメラとの距離によって正規化し、頭頂点と足底点の距離を求める。そして、要注視度設定部115は、注視要因管理部114で指定された範囲、例えば160cm以上等と比較して、含まれれば100、そうでなければ0を、対応する人物が出現した位置での注視要因の値とする。
要注視度設定部115は、性別の注視要因を、情報入力ターゲット検知部113が検知した人物映像に基づいて定める。要注視度設定部115は、パターンマッチングを行い、注視要因管理部114で指定された髪型のモデルへの一致度を、対応する人物が出現した位置での注視要因の値とする。
要注視度設定部115は、様子の注視要因を、情報入力ターゲット検知部113が検知した人物映像に基づいて定める。要注視度設定部115は、感情認識の手法を用いて人物の感情を認識して、注視要因管理部114で指定された感情の成分の量に基づいて定め、対応する人物が出現した位置での注視要因の値とする。
要注視度設定部115は、所持品の注視要因を、情報入力ターゲット検知部113が検知した人物映像に基づいて定める。要注視度設定部115は、人物の周辺にあり人物に追従して動く動体を検知して、注視要因管理部114で指定された物体のカテゴリに含まれるかどうかによって定める。要注視度設定部115は、含まれれば100、そうでなければ0を、対応する人物が出現した位置での注視要因の値とする。
本実施形態の情報処理装置100によれば、利用者は時空間立体を用いて人物を探し出すことができる。
<実施形態4>
実施形態4では、実施形態1及び実施形態2とは異なる要注視度の利用方法として、要注視度を市場分析のために用いる方法について説明する。
図12を用いて、本実施形態における表示部の動作及び利用者の操作について説明する。
本実施形態においては、情報処理装置100が要注視度を算出して表示し、利用者が人物を情報入力ターゲットとして情報を付与する点は実施形態1と同様である。要注視度の表示方法としては、表示情報管理部112は、実施形態3と同様に時空間立体を用いて1000のように表示する。
本実施形態における、注視要因管理部114で管理する注視要因は、年代性別、滞留度、購入額、アプローチ形態、お勧め商品である。
利用者は本実施形態における注視要因ウィンドウ1001を操作部103によって操作して、調べたい注視要因の重みを決定する。また、利用者は属性情報、入力情報については、対象としたい項目をドロップダウンリスト1002、テキストボックス1003によって指定する。
ここでは例として、利用者は30代の女性について、購入額と店員の応対の仕方との関係を調査したいとする。まず、利用者は注視要因ウィンドウ1001を操作して、年代性別を「30代」「女性」に設定して、年代性別と購入額との注視要因の重みを100に設定する。そうすると、平面図画像201には情報入力ターゲット検知部113によって検知された、30代女性で購入額が高い人物がいる個所が、時空間立体上に要注視度の高い、色の濃い個所として表示される。
利用者は、店員からアプローチして口紅Xを勧めた際の売れ行きを調査したいとする。利用者は注視要因ウィンドウ1001を操作して、アプローチ形態を「店員から」、お勧め商品を「口紅X」に設定するが、アプローチ形態とお勧め商品との注視要因については情報処理装置100が自動で判定できないため、利用者がラベル情報として入力を行う必要がある。人物映像1011、1012、1013が、要注視度の高い順にソートされて表示される。また、それぞれに対応してアプローチ形態を入力するドロップダウンリスト1021、1022、1023と、お勧め商品を入力するテキストボックス1031、1032、1033とが表示される。利用者はこれらの情報を、要注視度の高い人物に注意して入力する。
入力が進むと、時空間立体1000が変化し、店員からアプローチして口紅Xを勧めた人物が要注視度の高い個所として絞り込まれる。利用者はこの時空間立体を観察することによって、指定した条件での売り上げと売り場の位置及び時間帯との関係を把握したり、また注視要因ウィンドウ1001を操作して条件を変えた際にどのように変化するかを観察したりできる。
次に、図13を用いて、以上の動作を実現するための処理を説明する。図13のフローチャートは実施形態1における図4のフローチャートに相当する。以下では図4との差分について説明する。
S305及びS306の代わりに、表示情報管理部112が時空間立体を表示するため、実施形態3のS901と同様の処理を行う。
S1101において、表示情報管理部112は、情報入力ターゲット検知部113で検出された人物の全体を取得する。本実施形態では時空間立体を用いて人物映像をラベル付けするため、表示情報管理部112は、時刻スライスに限らず対象の映像全体から人物を取得するようにする。
S1102において、表示情報管理部112は、S1101で得られた対象の映像に出現する人物の全体を要注視度でソートして表示する。人物の要注視度としては、以下の式で得られるahを用いる。
Figure 0007229698000004
ここでah(e)は実施形態2で述べた人物hにおける注視要因eの代表値である。Lは注視要因全体の集合である。
本実施形態におけるS303及びS332では注視要因を以下のようにして算出する。
要注視度設定部115は、年代性別の注視要因を、情報入力ターゲット検知部113が検知した人物映像に基づいて定める。要注視度設定部115は、年代性別推定の手法を用いて人物について年齢と性別とを指定し、注視要因管理部114で指定された年齢と性別に対応する人物について100、そうでなければ0を、対応する人物が出現した位置での注視要因の値とする。
要注視度設定部115は、滞留度の注視要因を、情報入力ターゲット検知部113が検出した人物らの対象の位置での速度に応じて定める。例えば、要注視度設定部115は、直近の5分間に、対象の位置を中心とする円の内部を通過した人物を収集して、その円内での速さの時間平均をとって、その逆数の100倍を注視要因の値とする。要注視度設定部115は、直前に近傍を通過した人物の速度が小さいほど、注視要因の値が大きくなるようにする。
要注視度設定部115は、購入額の注視要因を、情報入力ターゲット検知部113が検知した人物映像と、外部のPOSとを組み合わせて定める。要注視度設定部115は、人物がレジの領域に向かった時刻に基づいて、POSからその時刻に購入が行われた記録を取得して、その支払額を所定の上限額、例えば5万円で割って100倍した値を、対応する人物が出現した位置での注視要因の値とする。
要注視度設定部115は、アプローチ形態及びお勧め商品の注視要因を、利用者が操作部103を用いて入力したラベル情報に基づいて定める。要注視度設定部115は、注視要因管理部114で指定されたアプローチ形態と一致するラベル情報が付与された人物について、アプローチ形態の注視要因の値を100とする。また、要注視度設定部115は、注視要因管理部114で指定されたお勧め商品の文字列を部分文字列として含むラベル情報が付与された人物について、お勧め商品の注視要因の値を100とする。
本実施形態の情報処理装置100によれば、利用者は要注視度の情報を市場分析に用いることができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
例えば、上述した実施形態を任意に組み合わせて実施してもよい。
以上、上述した各実施形態の処理によれば、利用者は情報の付加によるフィードバックを得ることができ、映像への情報の付与及び付与した情報を用いた分析を正確・効率的に行うことができる。
100 情報処理装置
101 CPU

Claims (14)

  1. 所定の時刻で撮像された画像から検出されたターゲットに対応する要注意度を、該ターゲットが検出された位置を示すマップに表示する表示手段と、
    前記ターゲットに対する前記要注意度を、少なくとも1つ以上の注視要因に基づいて設定する設定手段と、
    ユーザによる前記ターゲットに対する情報の入力に基づいて、前記ターゲットに対する前記要注意度を更新する更新手段と、を有し、
    前記表示手段は、前記更新された前記要注意度に基づいて、前記マップの表示を変更することを特徴とする情報処理装置。
  2. 前記更新手段は、前記ターゲットが要注意であるか否かを示すラベル情報に基づいて、前記ラベル情報が入力された前記ターゲットに対する前記要注意度を、前記ラベル情報が入力される前の前記ターゲットの前記要注意度よりも小さくするように前記要注意度を更新することを特徴とする請求項1に記載の情報処理装置。
  3. 前記表示手段は、複数の時刻において撮像された画像から算出された前記要注意度を前記マップに表示し、
    前記更新手段は、前記ラベル情報によって要注意であると示されたターゲットが出現した時刻に撮像された画像に基づいて、前記ターゲットが出現した位置の前記要注意度を、前記ターゲットが出現する前より大きくするように更新することを特徴とする請求項2に記載の情報処理装置。
  4. 前記設定手段は、前記要注意度に対する前記注視要因の重み付けを変更するための前記情報を受け付けることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記表示手段は、複数の前記ターゲットに対してそれぞれ前記要注意度を表示し、
    前記設定手段は、前記複数のターゲットに対する前記要注意度のそれぞれについて、前記注視要因の重み付けを設定することを特徴とする請求項に記載の情報処理装置。
  6. 前記表示手段は、前記要注意度に対する前記注視要因の重み付けを設定するための設定画面を表示することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記設定手段は、前記情報が入力された前記ターゲットの前記要注意度と前記注視要因とに基づいて、前記要注意度に対する前記注視要因の重み付けを設定することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  8. 前記設定手段は、ユーザ操作の操作履歴に基づき前記注視要因の重み付けを推定し、設定することを特徴とする請求項に記載の情報処理装置。
  9. 前記表示手段は、三次元時空間を示す前記マップとして表示することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  10. 前記表示手段は、複数の前記ターゲットのうち、対応する前記要注意度が高い順に前記ターゲットが検出された画像を更に表示することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  11. 前記表示手段は、前記要注意度の等高線を、前記マップに表示することを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
  12. 前記表示手段は、前記要注意度の等高線を、前記要注意度の分布に基づいて決定することを特徴とする請求項11に記載の情報処理装置。
  13. 所定の時刻で撮像された画像から検出されたターゲットに対応する要注意度を、該ターゲットが検出された位置を示すマップに表示する表示工程と、
    前記ターゲットに対する前記要注意度を、少なくとも1つ以上の注視要因に基づいて設定する設定工程と、
    ユーザによる前記ターゲットに対する情報の入力に基づいて、前記ターゲットに対する前記要注意度を更新する更新工程と、を有し、
    前記表示工程は、前記更新された前記要注意度に基づいて、前記マップの表示を変更することを特徴とする情報処理方法。
  14. コンピュータを、請求項1乃至12のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2018154108A 2018-08-20 2018-08-20 情報処理装置、情報処理方法及びプログラム Active JP7229698B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018154108A JP7229698B2 (ja) 2018-08-20 2018-08-20 情報処理装置、情報処理方法及びプログラム
US16/535,973 US11210531B2 (en) 2018-08-20 2019-08-08 Information processing apparatus for presenting location to be observed, and method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018154108A JP7229698B2 (ja) 2018-08-20 2018-08-20 情報処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2020031276A JP2020031276A (ja) 2020-02-27
JP2020031276A5 JP2020031276A5 (ja) 2021-09-09
JP7229698B2 true JP7229698B2 (ja) 2023-02-28

Family

ID=69523175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018154108A Active JP7229698B2 (ja) 2018-08-20 2018-08-20 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US11210531B2 (ja)
JP (1) JP7229698B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11575837B2 (en) * 2020-04-27 2023-02-07 Canon Kabushiki Kaisha Method, apparatus and computer program for generating and displaying a heatmap based on video surveillance data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009134688A (ja) 2007-11-28 2009-06-18 Fuji Xerox Co Ltd センサデータ内の活動の地理分布に基づく時間のセグメント化
JP2011113255A (ja) 2009-11-26 2011-06-09 Toyota Home Kk 地域警備システム
WO2017122258A1 (ja) 2016-01-12 2017-07-20 株式会社日立国際電気 混雑状況監視システム

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NZ536913A (en) * 2003-12-03 2006-09-29 Safehouse Internat Inc Displaying graphical output representing the topographical relationship of detectors and their alert status
WO2006105286A2 (en) * 2005-03-30 2006-10-05 Cernium Corporation Intelligent video behavior recognition with multiple masks and configurable logic inference module
US8665333B1 (en) * 2007-01-30 2014-03-04 Videomining Corporation Method and system for optimizing the observation and annotation of complex human behavior from video sources
US8295597B1 (en) * 2007-03-14 2012-10-23 Videomining Corporation Method and system for segmenting people in a physical space based on automatic behavior analysis
IL199763B (en) * 2009-07-08 2018-07-31 Elbit Systems Ltd Automatic contractual system and method for observation
JP5740210B2 (ja) * 2011-06-06 2015-06-24 株式会社東芝 顔画像検索システム、及び顔画像検索方法
US9111147B2 (en) * 2011-11-14 2015-08-18 Massachusetts Institute Of Technology Assisted video surveillance of persons-of-interest
BR112015005258A2 (pt) * 2012-09-13 2017-07-04 Nec Corp sistema de processamento de imagem, método de processamento de imagem e programa
WO2014045843A1 (ja) * 2012-09-19 2014-03-27 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
JPWO2014050432A1 (ja) * 2012-09-27 2016-08-22 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP6171374B2 (ja) * 2013-02-06 2017-08-02 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
US9122708B2 (en) * 2013-02-19 2015-09-01 Digitalglobe Inc. Crowdsourced search and locate platform
JP2014182628A (ja) 2013-03-19 2014-09-29 Nec Corp 空間重要度判定装置、空間重要度判定方法、及びプログラム
US9471849B2 (en) * 2013-05-05 2016-10-18 Qognify Ltd. System and method for suspect search
JP2015056697A (ja) 2013-09-10 2015-03-23 キヤノン株式会社 監視システムおよびその制御方法
JP5906556B1 (ja) * 2014-10-17 2016-04-20 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
JP6286394B2 (ja) * 2015-07-24 2018-02-28 セコム株式会社 画像監視システム
JP6256885B2 (ja) * 2016-03-31 2018-01-10 パナソニックIpマネジメント株式会社 施設内活動分析装置、施設内活動分析システムおよび施設内活動分析方法
US20190156261A1 (en) * 2016-07-11 2019-05-23 Panasonic Intellectual Property Management Co. Ltd. Facility operation support device, user terminal device, and facility operation support method
WO2018056355A1 (ja) * 2016-09-23 2018-03-29 株式会社日立国際電気 監視装置
SG11201901574XA (en) * 2016-09-28 2019-04-29 Hitachi Int Electric Inc Image processing device
WO2018067684A1 (en) * 2016-10-04 2018-04-12 The Johns Hopkins University Measuring patient mobility in the icu using a novel non-invasive sensor
US10586433B2 (en) * 2017-02-13 2020-03-10 Google Llc Automatic detection of zones of interest in a video
JP6914724B2 (ja) * 2017-05-17 2021-08-04 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10887555B2 (en) * 2017-08-23 2021-01-05 Siemens Healthcare Diagnostics Inc. Vision system for laboratory workflows
US20190108561A1 (en) * 2017-10-05 2019-04-11 Mindtree Ltd. Purchase Intent Determination And Real Time In-store Shopper Assistance
EP3487161B1 (en) * 2017-11-15 2019-10-30 Axis AB Splitting of a wide angle view
JP2019096006A (ja) * 2017-11-21 2019-06-20 キヤノン株式会社 情報処理装置、情報処理方法
US10891741B2 (en) * 2017-12-29 2021-01-12 RetailNext, Inc. Human analytics using fusion of image and depth modalities
US10558862B2 (en) * 2018-01-12 2020-02-11 Intel Corporation Emotion heat mapping
CN108399381B (zh) * 2018-02-12 2020-10-30 北京市商汤科技开发有限公司 行人再识别方法、装置、电子设备和存储介质
WO2019171574A1 (ja) * 2018-03-09 2019-09-12 日本電気株式会社 商品分析システム、商品分析方法および商品分析プログラム
FR3081591B1 (fr) * 2018-05-23 2020-07-31 Idemia Identity & Security France Procede de traitement d'un flux d'images video
KR102588413B1 (ko) * 2019-01-31 2023-10-12 한화비전 주식회사 히트맵을 생성하는 장치 및 방법
JP6989572B2 (ja) * 2019-09-03 2022-01-05 パナソニックi−PROセンシングソリューションズ株式会社 捜査支援システム、捜査支援方法およびコンピュータプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009134688A (ja) 2007-11-28 2009-06-18 Fuji Xerox Co Ltd センサデータ内の活動の地理分布に基づく時間のセグメント化
JP2011113255A (ja) 2009-11-26 2011-06-09 Toyota Home Kk 地域警備システム
WO2017122258A1 (ja) 2016-01-12 2017-07-20 株式会社日立国際電気 混雑状況監視システム

Also Published As

Publication number Publication date
JP2020031276A (ja) 2020-02-27
US11210531B2 (en) 2021-12-28
US20200057893A1 (en) 2020-02-20

Similar Documents

Publication Publication Date Title
US10796138B2 (en) Intra-facility activity analysis device, intra-facility activity analysis system, and intra-facility activity analysis method
JP5227911B2 (ja) 監視映像検索装置及び監視システム
Gupta et al. Aligning 3D models to RGB-D images of cluttered scenes
JP4876687B2 (ja) 注目度計測装置及び注目度計測システム
US8861801B2 (en) Facial image search system and facial image search method
JP2020078058A (ja) 画像処理装置、監視システム、画像処理方法、及びプログラム
US20180121739A1 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
US9245247B2 (en) Queue analysis
JP2013003964A (ja) 顔画像検索システム、及び顔画像検索方法
JP5180922B2 (ja) 画像検索システム及び画像検索方法
JP2016224919A (ja) データ閲覧装置、データ閲覧方法、及びプログラム
WO2021020500A1 (ja) 情報処理装置、及び、マーケティング活動支援装置
WO2022160592A1 (zh) 一种信息处理方法、装置、电子设备及存储介质
US9898666B2 (en) Apparatus and method for providing primitive visual knowledge
JP2016015579A (ja) 情報処理装置、情報処理方法及びプログラム
JPWO2019171574A1 (ja) 商品分析システム、商品分析方法および商品分析プログラム
JP7229698B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2010245983A (ja) 映像構造化装置,映像構造化方法および映像構造化プログラム
KR20140040342A (ko) 감시 영상 분석 방법 및 시스템
US20220276705A1 (en) Information processing method, information processing device, and non-transitory computer readable storage medium
Allegra et al. Exploiting egocentric vision on shopping cart for out-of-stock detection in retail environments
JP2019200456A (ja) プログラム、情報処理装置、及び情報処理方法
JP2019029747A (ja) 画像監視システム
WO2022113453A1 (ja) 異常検知装置、異常検知方法
Borges et al. Are you lost? using facial recognition to detect customer emotions in retail stores

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230215

R151 Written notification of patent or utility model registration

Ref document number: 7229698

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151