JP6364743B2 - 情報処理装置、制御方法、プログラム、及び情報システム - Google Patents

情報処理装置、制御方法、プログラム、及び情報システム Download PDF

Info

Publication number
JP6364743B2
JP6364743B2 JP2013227295A JP2013227295A JP6364743B2 JP 6364743 B2 JP6364743 B2 JP 6364743B2 JP 2013227295 A JP2013227295 A JP 2013227295A JP 2013227295 A JP2013227295 A JP 2013227295A JP 6364743 B2 JP6364743 B2 JP 6364743B2
Authority
JP
Japan
Prior art keywords
moving body
data
mark
time
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013227295A
Other languages
English (en)
Other versions
JP2015089019A (ja
Inventor
周 薮内
周 薮内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2013227295A priority Critical patent/JP6364743B2/ja
Priority to US14/520,682 priority patent/US20150117835A1/en
Publication of JP2015089019A publication Critical patent/JP2015089019A/ja
Application granted granted Critical
Publication of JP6364743B2 publication Critical patent/JP6364743B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は情報処理装置、制御方法、プログラム、及び情報システムに関する。
特許文献1には、映像データと、位置情報と、映像データ内における特定の移動体が存在する時刻の範囲と、を用いて監視空間における当該移動体の移動軌跡を表示する技術が開示されている。尚、映像データは、監視空間に設置された複数の撮影装置(カメラ)により撮影されたものである。また、位置情報は、位置検出装置(ICタグリーダライタ)により検出された移動体の位置を示す情報である。
特許文献2には、自動車に搭載されたPND(Portable Navigation Device)により取得されたGPS(Global Positioning System)情報をログデータとして記録し、ログデータを基に当該自動車の停止位置を算出し、走行地図画像上に停止位置をアイコン等で表示する技術が開示されている。
特開2008−306604号公報 特開2010−146173号公報
ここで、店舗等で万引きや置き引き等の不正行為が行われた場合、店舗等に設置された監視カメラで撮影された映像データを再生し、監視者が目視で追尾対象者の動作を追跡することで不正行為の有無を確認する必要があった。特に、不正行為が行われる場合は、特定の位置で追尾対象者が立ち止まっていることや当該位置における動作等を見極める必要があった。そのため、追跡作業の負担が大きく、効率が悪いという問題点があった。
上述した特許文献1では、映像データ内に移動体が映り込んでいるか否かを検出し、マップ内の移動軌跡を表示できるが、具体的な停止位置や停止位置における動作を検出するものではない。また、特許文献2では、停止位置の算出にGPS情報を用いるが、予め位置情報取得端末を搭載しておくことが必要であり、店舗等の不特定多数の来客者には適用できない。
本発明は、上述の課題に鑑みてなされたものであり、映像データ中に含まれる移動体の動作を追跡する作業を効率化し、作業負担を軽減するための情報処理装置、制御方法、プログラム、及び情報システムを提供することを目的とする。
本発明の一態様に係る情報処理装置は、対象空間を撮影した映像データ内の複数の画像間における移動体の第1の部位の差分値が第1の閾値未満か否か及び前記移動体の第2の部位の差分値が第2の閾値未満か否かに基づき、前記対象空間内の前記移動体が所定の領域に滞在している時間を判別し、前記滞在している時間内での前記移動体における特定の部位の動きを検出する検出部と、前記移動体が移動した軌跡を表示させ、前記軌跡上に、前記滞在している時間に応じて第1のマークを拡大させ、かつ前記滞在している時間内での移動体における特定の部位の動きに応じて、第1のマークの種類とは異なる種類の第2のマークを表示させるための表示用データを生成する表示制御部と、を備えるものである。
また、本発明の一態様に係る制御方法は、対象空間を撮影した映像データを表示する情報処理装置の制御方法であって、前記情報処理装置が、前記映像データ内の複数の画像間における移動体の第1の部位の差分値が第1の閾値未満か否か及び前記移動体の第2の部位の差分値が第2の閾値未満か否かに基づき、前記対象空間内の前記移動体が所定の領域に滞在している時間を判別し、前記滞在している時間内での前記移動体における特定の部位の動きを検出し、前記移動体が移動した軌跡を表示させ、前記軌跡上に、前記滞在している時間に応じて第1のマークを拡大させ、かつ前記滞在している時間内での移動体における特定の部位の動きに応じて、第1のマークの種類とは異なる種類の第2のマークを表示部に表示させるための表示用データを生成するものである。
また、本発明の一態様に係るプログラムは、コンピュータに、対象空間を撮影した映像データ内の複数の画像間における移動体の第1の部位の差分値が第1の閾値未満か否か及び前記移動体の第2の部位の差分値が第2の閾値未満か否かに基づき、前記対象空間内の前記移動体が所定の領域に滞在している時間を判別し、前記滞在している時間内での前記移動体における特定の部位の動きを検出する検出処理と、前記移動体が移動した軌跡を表示させ、前記軌跡上に、前記滞在している時間に応じて第1のマークを拡大させ、かつ前記滞在している時間内での移動体における特定の部位の動きに応じて、第1のマークの種類とは異なる種類の第2のマークを表示させるための表示用データを生成する表示制御処理と、を実行させるものである。
また、本発明の一態様に係る情報システムは、撮影装置により対象空間が撮影された映像データを記憶する記憶部と、前記記憶部に記憶された前記映像データ内の複数の画像間における移動体の第1の部位の差分値が第1の閾値未満か否か及び前記移動体の第2の部位の差分値が第2の閾値未満か否かに基づき、前記対象空間内の前記移動体が所定の領域に滞在している時間を判別し、前記滞在している時間内での前記移動体における特定の部位の動きを検出する検出部と、前記移動体が移動した軌跡を表示させ、前記軌跡上に、前記滞在している時間に応じて第1のマークを拡大させ、かつ前記滞在している時間内での移動体における特定の部位の動きに応じて、第1のマークの種類とは異なる種類の第2のマークを表示させるための表示用データを生成する表示制御部と、前記表示制御部により生成された前記表示用データを表示する表示部と、を備えるものである。

本発明によれば、映像データ中に含まれる移動体の動作を追跡する作業を効率化し、作業負担を軽減するための情報処理装置、制御方法、プログラム、及び情報システムを提供することができる。
本発明の実施の形態1にかかる情報システムの全体構成を示すブロック図である。 本発明の実施の形態1にかかる情報処理装置の構成を示すブロック図である。 本発明の実施の形態1にかかる撮影画像の例を示す図である。 本発明の実施の形態1にかかる動体検知処理の概念を示す図である。 本発明の実施の形態1にかかる撮影環境(上部)の例を示す図である。 本発明の実施の形態1にかかる撮影環境(側面)の例を示す図である。 本発明の実施の形態1にかかるマップ上に描画する移動軌跡とマーカの表示例を示す図である。 本発明の実施の形態1にかかるマーカの選択の例を示す図である。 本発明の実施の形態1にかかるシークバーの例を示す図である。 本発明の実施の形態1にかかるイベントマーカの例を示す図である。 本発明の実施の形態1にかかる映像再生処理の流れを示すフローチャートである。 本発明の実施の形態1にかかる移動軌跡及びマーカの表示処理の流れを示すフローチャートである。 本発明の実施の形態1にかかる移動軌跡及びマーカの表示処理の流れを示すフローチャートである。 本発明の実施の形態2にかかる検出部を含む演算装置を中心とした構成を示すブロック図である。 本発明の実施の形態2にかかる表示制御部及び再生部を含む演算装置を中心とした構成を示すブロック図である。
以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略する。
<発明の実施の形態1>
図1は、本発明の実施の形態1にかかる情報システム300の全体構成を示すブロック図である。情報システム300は、カメラ311〜314と、HUB320と、レコーダ330と、監視用PC340とを備える。本発明の実施の形態1では、対象空間を撮影装置により一定時間、撮影した映像データに映り込んでいる人物等の移動体の滞在領域を識別可能にする情報システム又は情報処理装置について説明する。情報システム300は、一例としてカメラ311〜314を用いて、移動体の動きを監視する監視システムが挙げられる。カメラ311〜314は、撮影装置の一例であり、対象空間を一定時間、撮影して映像データを出力する。ここで、対象空間とは、撮影装置の撮影対象となる実空間であり、例えば店舗等である。また、移動体は、典型的には店舗の顧客である。但し、対象空間が店舗以外でもよく、移動体は人物以外の生物、又は、車両やロボット等であってもよい。尚、カメラは、少なくも1台以上であればよい。また、各カメラは対象空間のうち異なる領域を撮影しているか、共通する領域を複数のカメラで異なる角度から撮影していてもよい。カメラ311〜314のそれぞれは、HUB320と接続される。HUB320は、カメラ311〜314のそれぞれとレコーダ330と接続される。レコーダ330は、カメラ311〜314のそれぞれで撮影された映像データを内部の記憶装置(不図示)に保存する。監視用PC340は、レコーダ330と接続され、レコーダ330に保存された映像データを処理するものである。監視用PC340は、本発明の実施の形態1にかかる情報処理装置の一例である。なお、レコーダ330は、カメラ311〜314に内蔵されていても、監視用PC340に内蔵されていてもよい。
<情報処理装置>
図2は、本発明の実施の形態1にかかる情報処理装置1の構成を示すブロック図である。情報処理装置1は、検出部11と、表示制御部12と、記憶部13と、再生部14とを備える。また、情報処理装置1は、入力部及び出力部(不図示)と接続されているものとする。検出部11は、対象空間を撮影した映像データ131に基づいて、対象空間内の移動体が所定時間以上滞在している滞在領域135を検出する。表示制御部12は、対象空間に対応する図面データ136を表示させる際に、図面データ136内の滞在領域135に対応する位置に標識情報137を表示させるための表示用データを生成する。これにより、映像データ中に含まれる移動体の動作を追跡する作業を効率化し、作業負担を軽減することができる。尚、表示制御部12による表示先は、出力部となる。
また、記憶部13は、記憶装置であり、物理的には複数のメモリやハードディスク等に分かれていても良い。記憶部13は、映像データ131と、背景データ132と、動体データ133と、位置情報134と、滞在領域135と、図面データ136と、標識情報137と、指定領域138とを記憶する。映像データ131は、監視カメラ等の撮影装置(不図示)により撮影された撮影時刻に対応した複数のフレーム画像である撮影画像1311の集合である。ここで、図3は、本発明の実施の形態1にかかる撮影画像の例を示す図である。図3に示す撮影画像は、移動体の一例である追尾対象者objが両側に商品棚が並ぶ通路上に位置している状態が撮影されたものである。
背景データ132は、対象空間に移動体が存在しない状態で撮影した場合の背景画像の画像データである。背景データ132は、予め登録されたものでもよい。または、背景データ132は、後述する動体検知部111により生成されたものでもよい。動体データ133は、撮影画像1311と背景データ132との差分の画像データである。尚、以下では、動体データ133を動体部と呼ぶことがある。位置情報134は、後述する図面データ136上の座標を示す情報である。滞在領域135は、対象空間内で移動体が所定時間以上滞在していた領域を示す情報である。図面データ136は、対象空間の図形として表現したデータである。図面データ136は、典型的には地図情報であり、例えば平面データである。標識情報137は、図面データ136上で他の領域と識別可能となる表示データである。標識情報137は、例えば、アイコン等のマーカとなる画像である。指定領域138は、移動体が滞在領域135に滞在していた時間の範囲で映像データ131の再生開始時刻を指定可能な領域である。指定領域138は、例えば、シークバー等である。
ここで、検出部11は、具体的には、動体検知部111と、位置情報算出部112と、停止判定部113と、詳細解析部114とを備える。動体検知部111は、映像データ131内の撮影時刻ごとの各撮影画像1311に対して、背景データ132との差分として動体データ133を抽出する。
<動体検知>
図4は、本発明の実施の形態1にかかる動体検知処理の概念を示す図である。ここでは、動体検知部111が背景データ132も導出するものとする。まず、撮影データ内容F1は、映像データ131の一例であり、フレームF11〜F14は、撮影画像1311の一例である。ここでは、フレームF11が撮影された直後に、追尾対象者objが対象空間内へ移動し、その後撮影されたフレームF12に追尾対象者objが含まれていることを示す。そして、追尾対象者objはしばらく同じ位置に滞在していたため、フレームF13及びF14においても撮影されたことを示す。また、背景データ内容F2に含まれるフレームF21及びF22は、背景データ132の一例である。さらに、動体検知データ内容F3に含まれるフレームF31及びF32は、動体データ133の一例である。
ここで、動体検知部111は、記憶部13から撮影画像1311を読み込み、背景データ132を抽出する。例えば、動体検知部111は、フレームF11に対して背景抽出処理によりフレームF21を背景データ132として記憶部13へ保存する。例えば、背景データ132の初期データとしてフレームF11をそのままフレームF21とする。また、動体検知部111は、背景抽出処理により、フレームF12に対してフレームF22を背景データ132として記憶部13へ保存する。例えば、動体検知部111は、フレームF12の直前に抽出されたフレームF21とフレームF12とを比較して、フレームF22を生成する。以後、同様に、動体検知部111は、フレームF13及びF14に対して背景抽出処理により更新処理及び学習を行い、背景データ132を再生成して記憶部13へ保存する。
続いて、動体検知部111は、フレームF22を用いて、動体部Gを抽出する。例えば、フレームF22を二値化してフレームF31及びF32を生成する。
図2に戻り説明を続ける。
位置情報算出部112は、撮影画像1311と撮影装置であるカメラ311〜314の設定情報とを用いて、図面データ136上の動体データ133に対応する位置を示す位置情報134を算出する。撮影装置の設定情報としては、例えば、カメラの設置位置である画角、解像度、設置高さ及び方向等が挙げられる。ここでは、図3の撮影画像における追尾対象者objの図面データ136上の座標を位置情報134として算出するものとする。図5は、本発明の実施の形態1にかかる撮影環境(上部)の例を示す図である。また、図6は、本発明の実施の形態1にかかる撮影環境(側面)の例を示す図である。ここでは、カメラCの設定情報として、カメラCの高さy、垂直方向のカメラCの角度θh0、垂直画角θV、水平画角θH、垂直解像度pV、水平解像度pHであるものと仮定する。また、カメラCと追尾対象者objとの距離として図5のα及びβを求めることとする。
まず、位置情報算出部112は、追尾対象者objが図3の撮影画像上のピクセル座標(pX、pY)を算出する。ここで、pXは、撮影画像の中心点から追尾対象者objの脚の横の差分値であり、pYは、撮影画像の中心点から追尾対象者objの脚の高さの差分値として算出される。
次に、位置情報算出部112は、上記の値を用いて以下の式(1)及び式(2)により、距離αを算出する。
α=y*tan((90°−θh0)+θh) ・・・(1)
θh=arcsin(pY/(pV/2))*θV/π ・・・(2)
続いて、位置情報算出部112は、以下の式(3)及び式(4)により、距離βを算出する。
β=α*tanθw ・・・(3)
θw=arcsin(pX/(pH/2))*θH/π ・・・(4)
このようにして、位置情報算出部112は、図面データ136上における追尾対象者objの位置情報134を算出できる。
図2に戻り説明を続ける。
停止判定部113は、追尾対象者objが歩行中か停止しているかを判定する。但し、ここでの「停止」は、追尾対象者objの動作の厳密な停止ではなく、動体データ133が所定時間以上継続して所定領域内、例えば、図4の追尾枠に存在していること、つまり、滞在していることを示すものとする。そのため、追尾対象者objが所定領域内であればある程度、動作しているが、歩行するほど移動していない場合を「停止」とする。
具体的には、まず、停止判定部113は、時系列に沿って隣接する撮影画像1311の間における動体データ133の差分を特定する。そして、停止判定部113は、特定した差分が所定の範囲内であるか否かを判定する。さらに、停止判定部113は、「特定した差分が所定の範囲内である」ことが、所定数の画像で時系列に沿って連続するか否かを判定する。そして、停止判定部113は、前記連続することが所定数を超える場合に、動体部が所定時間以上、所定の領域に滞在している、つまり、移動体が停止していると判定する。そして、停止判定部113は、動体データ133を含む領域を滞在領域135として検出する。例えば、各撮影画像の動体データ133の差分のピクセル数をヒストグラム化することにより、ピクセル数が閾値未満であるか否かを判定してもよい。または、移動平均を用いて判定してもよい。尚、動体データ133を体の部位、つまりパーツごとに分解して認識し、パーツごとに閾値を異なるように設定してもよい。例えば、足の差分は閾値を小さくし、腕の差分は閾値を大きくすることなどが考えられる。または、胴体に注目して滞在しているか否かを判定してもよい。
または、停止判定部113は、動体データ133の差分を特定する代わりに、時系列に沿って隣接する撮影画像1311同士の位置情報134の差分、つまり移動距離を特定し、停止を判定してもよい。さらに、停止判定部113は、これらを両方用いても構わない。これにより、停止判定の精度が向上する。
表示制御部12は、図面データ136を表示させる際、位置情報134、動体データ133、及び映像データ131が撮影された時刻情報に基づいて、図面データ136上に追尾対象者objが移動した軌跡である移動軌跡を表示させるための表示用データを生成する。併せて、表示制御部12は、移動軌跡上の滞在領域135に対応する位置に標識情報137を表示させる。
また、検出部11は、対象空間内の移動体が滞在領域135に滞在している時間を計測する。そして、表示制御部12は、検出部11により計測された時間に応じて標識情報137に第1の加工を行った上で表示をさせる。言い換えると、表示制御部12は、計測された時間に応じて標識情報137を変化させて表示用データを生成する。つまり、図面データ136上で、追尾対象者objが滞在した位置については、移動軌跡とは別の表示を行う。これにより、移動体が図面データ136上の複数の位置で滞在していた場合でも、滞在時間の違いを容易に識別でき、監視者の再生箇所を選択する負担を軽減できる。
ここで、第1の加工とは例えば、標識情報137の表示上の大きさを変更することである。そのため、例えば、移動体が滞在領域135に滞在している時間が相対的に長い場合には、マーカのサイズをより大きくして表示することが挙げられる。また、マーカのサイズに限らず、色や形を変えてもよい。
図7は、本発明の実施の形態1にかかるマップ上に描画する移動軌跡とマーカの表示例を示す図である。図7では、棚b1及びb2の間の通路付近をカメラC1が撮影し、棚b3及びb4の間の通路付近をカメラC2が撮影した場合を示す。まず、実移動軌跡Lは、追尾対象者objが実際に移動した軌跡を示すものとする。尚、本発明の実施の形態1では、実際には実移動軌跡Lは表示されてないものとする。移動軌跡L1は、カメラC1により撮影された映像データから導かれた、追尾対象者objの軌跡である。また、滞在位置P1は、カメラC1により撮影された映像データ内で追尾対象者objが所定時間以上滞在した位置を示す。同様に、移動軌跡L2及びL3は、カメラC2により撮影された映像データから導かれた、追尾対象者objの軌跡である。また、滞在位置P2は、カメラC2により撮影された映像データ内で追尾対象者objが所定時間以上滞在した位置を示す。特に、滞在位置P2は、追尾対象者objが滞在位置P1より長い時間滞在していたため、滞在位置P1よりもマーカのサイズが大きく表示されていることを示す。
図2に戻り説明を続ける。
また、表示制御部12は、表示された標識情報137の選択を受け付けた場合、指定領域138を表示させる。再生部14は、標識情報137の選択の受け付けに基づいて移動体が滞在領域135に滞在を開始した時刻から映像データ131を再生する。言い換えると、再生部14は、標識情報137の選択動作が行われた場合、移動体が滞在領域135に滞在していた期間中の映像データ131を再生する。特に、再生部14は、指定領域138に対して再生開始時刻の選択を受け付けた場合に、選択された再生開始時刻から映像データ131を再生する。つまり、表示制御部12は、位置情報134と、動体データ133と、映像データ131が撮影された時刻情報とに基づいて、追尾対象者objの状態と滞在時間を見やすい表示にする。そして、標識情報137がクリックされた場合、滞在時間に限定した再生バーを表示し、滞在していた時間のみ映像データを再生することができる。
図8は、本発明の実施の形態1にかかるマーカの選択の例を示す図である。図8では、例えば、滞在位置P1に対してマウス操作により選択操作SELがされた場合を示す。これにより、表示制御部12は、追尾対象者objが滞在位置P1に滞在していた開始時刻から終了時刻までを範囲として指定領域138であるシークバーを表示させる。図9は、本発明の実施の形態1にかかるシークバーSKBの例を示す図である。再生箇所SKBPは、再生開始時刻の指定を受け付ける箇所である。
図2に戻り説明を続ける。
詳細解析部114は、滞在領域135が検出された後に、移動体が滞在領域135に滞在している期間内における各動体データ133の間を詳細に解析し、移動体に含まれる特定部位の動きを検出する。そして、表示制御部12は、詳細解析部114により検出された特定部位の動きに応じて標識情報137に第2の加工を行った上で表示をさせる。言い換えると、表示制御部12は、検出された特定部位の動きに応じて標識情報137を変化させて表示用データを生成する。これにより、移動体が図面データ136上の複数の位置で滞在していた場合、特に、滞在時間が同じ場合に、不正行為の可能性がより高い動きを容易に識別でき、監視者の再生箇所を選択する負担を軽減できる。
ここで、第2の加工とは例えば、標識情報137の種類を変更することである。そのため、移動体が滞在領域135に滞在している間に、例えば、手元が動いている場合や、カメラを探すように首を動かしている場合等に、マーカの種類をより注意を引く種類のものに変更して表示することが挙げられる。図10は、本発明の実施の形態1にかかるイベントマーカの例を示す図である。例えば、追尾対象者objが滞在位置P21において所定時間滞在すると共に手元を動かしていた場合に、滞在位置P21に示すようなイベントマーカの表示がされることを示す。
さらに、検出部11が人物検知などの技術を利用して人同士のオクルージョン(重なり)を判定できる場合には、表示制御部12は、その旨を標識情報137として表示してもよい。
このように、図面データ136上の滞在領域135に対応する位置に各種の標識情報137を表示し、選択操作を受け付けるようにする事で、監視者が確認したい移動体の不正な動きを早期に発見する事が可能となる。
ここで、本発明の実施の形態1に係る情報システム300の利用形態の一例を説明する。例えば、対象空間は、商品を商品棚に陳列する店舗であるとする。そして、ある商品棚の商品が精算されずになくなっていることがわかったとする。この場合、店舗内の各所に設置されたカメラ311〜314により撮影された映像データを再生することにより、不正行為を行った可能性のある人物を追尾して不正行為があったか否かを確認する必要がある。
このとき、映像データには多数の顧客が映り込んでおり、撮影時間の全てを再生して不正行為を見つけ出すのは、監視者の作業負担が大きく、効率が悪い。ここで、不正行為が行われた場合、不正行為者は、該当の商品棚付近で所定時間以上立ち止まり、物色するなどの行動を取る可能性が高い。そこで、本発明の実施の形態により、映像データから滞在領域を検出し、図面データ上に滞在位置を表示することで、対象の商品棚にマーカ等が表示されていれば、監視者は、そのマーカをクリックすることで効率的に不正行為があったか否かの確認ができる。
別のケースでは、不正行為の常習犯が分かっている場合に、映像データ内でその人物の行動を追尾して再生することが挙げられる。この場合も、映像データを全て再生するのは、煩雑であり監視者の作業負担が大きく、効率が悪い。そこで、本発明の実施の形態により、映像データ内で常習犯が所定時間以上立ち止まっている時間帯に絞り込んで再生することで、同様に、効率的な追尾を実現できる。尚、本発明の実施の形態1に係る情報システム300の利用形態はこれらに限定されない。
図11は、本発明の実施の形態1にかかる映像再生処理の流れを示すフローチャートである。まず、情報処理装置1は、撮影装置であるカメラの設定情報を取得する(S10)。すなわち、情報処理装置1は、カメラ311等の環境設定のための設定情報を取得し、記憶部13に記憶する。尚、各カメラの設定情報は、上述の通りであるため省略する。
次に、情報処理装置1は、フレーム毎に移動軌跡及びマーカの表示処理を行う(S20)。ここで、図12及び図13は、本発明の実施の形態1にかかる移動軌跡及びマーカの表示処理の流れを示すフローチャートである。まず、動体検知部111は、記憶部13から映像データ131を取得する(S201)。次に、動体検知部111は、各撮影画像1311と背景データ132との比較を行う(S202)。そして、動体検知部111は、背景データ132との比較から動体データ133を抽出する(S203)。
その後、検出部11は、追尾対象データを指定したかどうかを判定する(S204)。例えば、表示制御部12により動体データ133を追尾対象データの候補として出力し、いずれかの動体データ133の選択を受け付けた場合、検出部11は、追尾対象データが指定されたと判定する。
ステップS204で追尾対象データが指定されたと判定した場合、検出部11は、対象者データを作成する(S205)。ここで、対象者データとは、追尾対象者(又は追尾対象物)の色情報と形状情報等を示す。色情報は、カラーデータを使用しRGB成分とHSV(色相、彩度、明度)成分の値を使用して作成される。例えば、代表色などを決めてヒストグラムを作成するなどにより可能である。また、形状情報は、輝度勾配から画面内のエッジ情報を抽出して作成される。
一方、ステップS204で追尾対象データが指定されないと判定した場合、検出部11は、対象者データが既にあるかどうかを判定する(S206)。対象者データが未だに作成されていなければ、ステップS201へ戻る。
ステップS206で対象者データが既にあると判定した場合、又は、ステップS205の後、位置情報算出部112は、追尾対象者の距離を測定する(S207)。例えば、上述した位置情報の算出の手法を用いることができる。このとき、ステップS10で取得された設定情報を用いる。
続いて、停止判定部113は、対象者の位置に変化があるか否かを判定する(S208)。つまり、停止判定部113は、直前の時刻の位置情報と現在の位置情報とを比較し、差分が所定範囲内か否かを判定する。位置に変化があると判定した場合、停止判定部113は、位置情報134を記憶部13に記憶する(S209)。そして、表示制御部12は、位置情報134に基づき、移動軌跡を図面データ136上に表示させる(S210)。
また、ステップS208において、位置に変化がないと判定した場合、停止判定部113は、既に停止と判定しているか否かを判定する(S211)。尚、「停止」の定義及び停止の判定の仕方については上述の通りである。
ステップS211において、未だに停止と判定していない場合、停止判定部113は、上記で指定された対象者データを停止しているオブジェクトとして更新する(ステップS212)。
ステップS211において既に停止と判定している場合、及び、ステップS212の後、停止判定部113は、停止時間中のフレーム数を加算して、停止時間(滞在時間)を計測する(S213)。併せて、停止判定部113は、計測した停止時間を記憶部13に記憶する(S214)。
そして、詳細解析部114は、上述した滞在領域内での動体データ133の動きを詳細に解析する(S215)。ここで、詳細解析部114は、手元だけが動いているなど、不正な動作のおそれがあるか否かを判定する(S216)。不正な動作のおそれがあると判定した場合、詳細解析部114は、その旨を不正動作情報として記憶部13に記憶する(S217)。不正な動作のおそれがないと判定した場合、又は、ステップS217の後、詳細解析部114は、ステップS216の判定結果と停止時刻情報に基づき、マーカの大きさ及び種別を変更する(S218)。すなわち、詳細解析部114は、記憶部13を参照し、不正動作情報及び停止時刻情報に応じてマーカの大きさ及び種別を変更する。
その後、表示制御部12は、変更したマーカを、図面データ136上の滞在領域に対応する位置に表示させる(S219)。
図11に戻り説明を続ける。
ステップS20の後、表示制御部12は、図面データ136上の表示が選択されたか否かを判定する(S30)。選択されなければ、ステップS10へ戻る。選択された場合、表示制御部12は、マーカが選択されたつまりクリックされたか否かを判定する(S40)。マーカが選択されていない場合、つまり、移動軌跡が選択された場合、再生部14は、選択された位置情報に対応する映像データを検索する(S50)。一方、ステップS40においてマーカが選択された場合、表示制御部12は、選択されたマーカに対応する停止時間分のシークバーを表示させる(S60)。そして、再生部14は、シークバーに対して指定された再生開始時刻と位置情報に対応する映像データを検索する(S70)。ステップS50又はS70の後、再生部14は、検索された映像データを再生する(S80)。
以上のように、本発明の実施の形態1により次のような効果を奏する。まず、監視者が確認したい追尾対象者の行動を瞬時に選択する事が可能となる。また、停止位置でのシークバーを出すことで、不必要な映像部分を再生する必要が無くなる。さらに、追尾対象者に位置情報取得端末を持たせなくても、位置情報を取得する事が可能である。また、位置情報と停止位置を記憶し、停止時間によってマップ上のマーカを変更することで、見やすくすることができる。さらに、ユーザの行動によってマーカを変更し、ユーザの行動を簡略的に見やすくする事、また、停止位置と停止時間データベースを使用して、特定のエリアに長く滞在したユーザを検索する事ができる。さらに、映像入力から停止状態を判定し、マップ上に停止時間を付加する事で対象者が停滞していた場所を早期発見することができる。
<発明の実施の形態2>
本発明の実施の形態2では、上述した検出部11と、表示制御部12及び再生部14とをそれぞれ別の構成と捉えたものである。図14は、本発明の実施の形態2にかかる検出部を含む演算装置を中心とした構成を示すブロック図である。図14は、入力装置21a及び21bと、演算装置22と、記憶装置23とを含む。尚、物理構成はこれに限定されない。
入力装置21aはカメラD1を備え、カメラD1はカメラ映像取得部といえる。カメラD1は、センサーを利用して、撮影時刻ごとに画像データを取得する。カメラD1は、取得した画像データを後述の画像解析処理部D3へ出力する。
入力装置21bはマウスD2を備え、マウスD2は画面座標指定取得部といえる。マウスD2は、演算装置22に接続された映像表示部(不図示)上をクリックし、その座標データを指定対象者データ抽出部D6へ出力する。
演算装置22は、画像解析処理部D3と、動体検知処理部D4と、停止時間演算処理部D5と、指定対象者データ抽出部D6と、距離演算処理部D7と、不正動作処理部D8と、地図描画処理部D9とを備える。
画像解析処理部D3は、カメラD1から受け付けた映像データをリサイズ又は色変換の処理を行い、処理後の変換映像データを動体検知処理部D4へ出力する。
動体検知処理部D4は、画像解析処理部D3から受け付けた変換映像データから背景データを生成し、記憶装置23へ保存する。また、動体検知処理部D4は、上述した動体検知部111と同様に、動体検知処理を行い、動体データE5を対象者DBD11へ保存する。
停止時間演算処理部D5は、上述した停止判定部113と同様に、動体検知部111からの動体データ及び距離演算処理部D7からの位置情報等に基づいて対象物又は対象者の停止時間を測定する。そして、停止判定部113は、測定した停止時刻データE6を対象者DBD11へ保存する。
指定対象者データ抽出部D6は、マウスD2から受け付けた座標データと、動体検知処理部D4から取得される動体データとオブジェクトマッピング処理を利用し、対象者のデータ(色情報や形状情報)を抽出する。指定対象者データ抽出部D6は、抽出した対象者のデータを対象者DBD11に保存する。
距離演算処理部D7は、指定対象者の位置情報を演算する。距離演算処理部D7は、演算結果である位置情報E2を地図情報DBD10へ保存する。併せて、距離演算処理部D7は、位置情報E2を対象者DBD11へ保存する。
不正動作処理部D8は、対象者DBD11にアクセスし、停止している領域である滞在領域における指定対象者の動きについて詳細な解析を行う。すなわち、不正動作処理部D8は、動体検知処理部D4からの動体データに基づき動きの差分を算出し、特徴的な動きがあるか無いか確認する。不正動作等の判定結果に応じて、不正動作処理部D8は、対象者DBD11に更新を行う。
地図描画処理部D9は、映像データから検出された滞在領域に対応する地図上の位置に、マーカを描画する。地図描画処理部D9は、対象者DBD11からの対象者データE3に基づいて、停止時間及び不正データE1から地図に描画するマーカの色や大きさの指定を地図情報DBD10に書き込む。
記憶装置23は、地図情報DBD10と、対象者DBD11と、背景データD12とを備える。地図情報DBD10は、上述した図面データ136の一例であり、地図描画に必要なデータである。対象者DBD11は、上述した対象者データの一例であり、対象者又は対象物の特徴データである。背景データD12は、上述した背景データ132の一例であり、動体検知に使用する背景データである。
図15は、本発明の実施の形態1にかかる表示制御部及び再生部を含む演算装置を中心とした構成を示すブロック図である。図15は、入力装置24と、演算装置25と、記憶装置26と、出力装置27とを含む。尚、物理構成はこれに限定されない。
入力装置24はマウスD13を備え、マウスD13は画面座標指定取得部といえる。出力装置27に表示された地図データ上をクリックし、その画像座標データE7を再生位置探索処理D14へ出力する。
再生位置探索処理D14は、地図情報DBD15の位置情報と時刻情報と不正データを基に検索時間を割り出し、録画映像DBD16から検索する。これにより、再生位置探索処理D14は、再生位置を割り出す。
記憶装置26は、地図情報DBD15と、録画映像DBD16とを備える。地図情報DBD15は、地図情報DBD10と同等である。録画映像DBD16は、カメラD1により撮影された映像データを記録している。
映像再生処理D17は、再生位置探索処理D14から指定された映像データの位置情報を基に、録画映像DBD16にアクセスして映像データを取得する。映像再生処理D17は、取得した映像データをディスプレイD18へ出力し、表示させる。
出力装置27はディスプレイD18を備え、ディスプレイD18は映像再生処理D17から受け付けた映像データを表示する。
そのため、本発明の実施の形態2にかかる情報システムは次のように表現できる。すなわち、情報システムは記憶部と、検出部と、表示制御部と、表示部とを備える。そして、記憶部は、撮影装置により対象空間が撮影された映像データを記憶する。検出部は、前記記憶部に記憶された前記映像データに基づいて、前記対象空間内の移動体が所定時間以上滞在している滞在領域を検出する。表示制御部は、前記対象空間に対応する図面データを表示させる際に、前記図面データ内の前記滞在領域に対応する位置に標識情報を表示させるための表示用データを生成する。表示部は、表示制御部により生成された前記表示用データを表示する。このように、本発明の実施の形態2の構成によっても実施の形態1と同等の効果を奏することができる。
<その他の発明の実施の形態>
また、上述の撮像装置及び携帯端末装置の任意の処理は、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
また、コンピュータが上述の実施の形態の機能を実現するプログラムを実行することにより、上述の実施の形態の機能が実現される場合だけでなく、このプログラムが、コンピュータ上で稼動しているOS(Operating System)もしくはアプリケーションソフトウェアと共同して、上述の実施の形態の機能を実現する場合も、本発明の実施の形態に含まれる。さらに、このプログラムの処理の全てもしくは一部がコンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットによって行われて、上述の実施の形態の機能が実現される場合も、本発明の実施の形態に含まれる。
尚、上述した発明の実施の形態1又は2は、次のような構成を含むものであってもよい。
(付記1)
前記表示制御部は、
前記表示された前記標識情報の選択動作が行われた場合、前記移動体が前記滞在領域に滞在していた時間の範囲で前記映像データの再生開始時刻を指定可能な指定領域を表示し、
前記再生部は、
前記指定領域に対して前記再生開始時刻の選択動作が行われた場合に、前記選択された再生開始時刻から前記映像データを再生する。
(付記2)
前記検出部は、
前記映像データ内の撮影時刻ごとの各画像に対して、前記対象空間に前記移動体が存在しない状態で撮影した場合の背景画像との差分である動体部を抽出し、
時系列に沿って隣接する画像間における前記動体部の差分が所定範囲内であることが、所定の画像数以上連続する場合に、前記動体部を含む領域を前記滞在領域として検出する。
1 情報処理装置
11 検出部
111 動体検知部
112 位置情報算出部
113 停止判定部
114 詳細解析部
12 表示制御部
13 記憶部
131 映像データ
1311 撮影画像
132 背景データ
133 動体データ
134 位置情報
135 滞在領域
136 図面データ
137 標識情報
138 指定領域
14 再生部

Claims (5)

  1. 対象空間を撮影した映像データ内の複数の画像間における移動体の第1の部位の差分値が第1の閾値未満か否か及び前記移動体の第2の部位の差分値が第2の閾値未満か否かに基づき、前記対象空間内の前記移動体が所定の領域に滞在している時間を判別し、前記滞在している時間内での前記移動体における特定の部位の動きを検出する検出部と、
    前記移動体が移動した軌跡を表示させ、前記軌跡上に、前記滞在している時間に応じて第1のマークを拡大させ、かつ前記滞在している時間内での移動体における特定の部位の動きに応じて、第1のマークの種類とは異なる種類の第2のマークを表示させるための表示用データを生成する表示制御部と、
    を備える情報処理装置。
  2. 前記表示された前記第1のマーク又は前記第2のマークの選択動作が行われた場合、前記移動体が前記所定の領域に滞在していた期間中の前記映像データを再生する再生部を更に備えた、
    請求項1に記載の情報処理装置。
  3. 対象空間を撮影した映像データを表示する情報処理装置の制御方法であって、
    前記情報処理装置が、
    前記映像データ内の複数の画像間における移動体の第1の部位の差分値が第1の閾値未満か否か及び前記移動体の第2の部位の差分値が第2の閾値未満か否かに基づき、前記対象空間内の前記移動体が所定の領域に滞在している時間を判別し、前記滞在している時間内での前記移動体における特定の部位の動きを検出し、
    前記移動体が移動した軌跡を表示させ、前記軌跡上に、前記滞在している時間に応じて第1のマークを拡大させ、かつ前記滞在している時間内での移動体における特定の部位の動きに応じて、第1のマークの種類とは異なる種類の第2のマークを表示部に表示させるための表示用データを生成する
    制御方法。
  4. コンピュータに、
    対象空間を撮影した映像データ内の複数の画像間における移動体の第1の部位の差分値が第1の閾値未満か否か及び前記移動体の第2の部位の差分値が第2の閾値未満か否かに基づき、前記対象空間内の前記移動体が所定の領域に滞在している時間を判別し、前記滞在している時間内での前記移動体における特定の部位の動きを検出する検出処理と、
    前記移動体が移動した軌跡を表示させ、前記軌跡上に、前記滞在している時間に応じて第1のマークを拡大させ、かつ前記滞在している時間内での移動体における特定の部位の動きに応じて、第1のマークの種類とは異なる種類の第2のマークを表示させるための表示用データを生成する表示制御処理と、
    を実行させるプログラム。
  5. 撮影装置により対象空間が撮影された映像データを記憶する記憶部と、
    前記記憶部に記憶された前記映像データ内の複数の画像間における移動体の第1の部位の差分値が第1の閾値未満か否か及び前記移動体の第2の部位の差分値が第2の閾値未満か否かに基づき、前記対象空間内の前記移動体が所定の領域に滞在している時間を判別し、前記滞在している時間内での前記移動体における特定の部位の動きを検出する検出部と、
    前記移動体が移動した軌跡を表示させ、前記軌跡上に、前記滞在している時間に応じて第1のマークを拡大させ、かつ前記滞在している時間内での移動体における特定の部位の動きに応じて、第1のマークの種類とは異なる種類の第2のマークを表示させるための表示用データを生成する表示制御部と、
    前記表示制御部により生成された前記表示用データを表示する表示部と、
    を備える情報システム。
JP2013227295A 2013-10-31 2013-10-31 情報処理装置、制御方法、プログラム、及び情報システム Active JP6364743B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013227295A JP6364743B2 (ja) 2013-10-31 2013-10-31 情報処理装置、制御方法、プログラム、及び情報システム
US14/520,682 US20150117835A1 (en) 2013-10-31 2014-10-22 Information processing apparatus, control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013227295A JP6364743B2 (ja) 2013-10-31 2013-10-31 情報処理装置、制御方法、プログラム、及び情報システム

Publications (2)

Publication Number Publication Date
JP2015089019A JP2015089019A (ja) 2015-05-07
JP6364743B2 true JP6364743B2 (ja) 2018-08-01

Family

ID=52995587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013227295A Active JP6364743B2 (ja) 2013-10-31 2013-10-31 情報処理装置、制御方法、プログラム、及び情報システム

Country Status (2)

Country Link
US (1) US20150117835A1 (ja)
JP (1) JP6364743B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5987306B2 (ja) * 2011-12-06 2016-09-07 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP5999105B2 (ja) * 2012-01-17 2016-09-28 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5597781B1 (ja) * 2014-03-26 2014-10-01 パナソニック株式会社 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法
CN104935888B (zh) * 2015-06-11 2019-01-04 惠州Tcl移动通信有限公司 一种可标记对象的视频监控方法及其视频监控系统
JP6593922B2 (ja) * 2015-11-13 2019-10-23 株式会社日立国際電気 画像監視システム
JP6834372B2 (ja) * 2016-11-08 2021-02-24 株式会社リコー 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP6725061B2 (ja) * 2017-03-31 2020-07-15 日本電気株式会社 映像処理装置、映像解析システム、方法およびプログラム
EP3487151A1 (en) * 2017-11-15 2019-05-22 Canon Kabushiki Kaisha Information processing apparatus, monitoring system, method, and non-transitory computer-readable storage medium
CN109102541A (zh) * 2018-07-13 2018-12-28 宁波盈芯信息科技有限公司 一种集成深度相机的智能手机的距离测量方法及装置
US10991119B2 (en) * 2018-10-30 2021-04-27 Ncr Corporation Mapping multiple views to an identity
JP7299692B2 (ja) * 2018-12-05 2023-06-28 キヤノン株式会社 画像処理装置、画像処理システム、画像処理装置の制御方法、及び、プログラム
JP7195204B2 (ja) * 2019-03-29 2022-12-23 セコム株式会社 画像処理装置及び画像処理プログラム
US10885606B2 (en) * 2019-04-08 2021-01-05 Honeywell International Inc. System and method for anonymizing content to protect privacy
CN111522995B (zh) * 2020-04-26 2023-06-27 重庆紫光华山智安科技有限公司 目标对象分析方法、装置及电子设备
JP7467304B2 (ja) * 2020-09-24 2024-04-15 エヌ・ティ・ティ・コミュニケーションズ株式会社 発熱者追跡装置、方法及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030107650A1 (en) * 2001-12-11 2003-06-12 Koninklijke Philips Electronics N.V. Surveillance system with suspicious behavior detection
JP2004171241A (ja) * 2002-11-20 2004-06-17 Casio Comput Co Ltd 不正監視システムおよびプログラム
JP2004171240A (ja) * 2002-11-20 2004-06-17 Casio Comput Co Ltd 不正監視システムおよびプログラム
US8189926B2 (en) * 2006-12-30 2012-05-29 Videomining Corporation Method and system for automatically analyzing categories in a physical space based on the visual characterization of people
US8310542B2 (en) * 2007-11-28 2012-11-13 Fuji Xerox Co., Ltd. Segmenting time based on the geographic distribution of activity in sensor data
EP2230629A3 (en) * 2008-07-16 2012-11-21 Verint Systems Inc. A system and method for capturing, storing, analyzing and displaying data relating to the movements of objects
JP2011108169A (ja) * 2009-11-20 2011-06-02 Ishida Co Ltd 店舗管理システム

Also Published As

Publication number Publication date
JP2015089019A (ja) 2015-05-07
US20150117835A1 (en) 2015-04-30

Similar Documents

Publication Publication Date Title
JP6364743B2 (ja) 情報処理装置、制御方法、プログラム、及び情報システム
US7787011B2 (en) System and method for analyzing and monitoring 3-D video streams from multiple cameras
US7944454B2 (en) System and method for user monitoring interface of 3-D video streams from multiple cameras
US9412180B2 (en) Information processing apparatus, information processing method, and program
JP7282851B2 (ja) 装置、方法及びプログラム
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
US11308158B2 (en) Information processing system, method for controlling information processing system, and storage medium
KR102167730B1 (ko) 영상 마스킹 장치 및 영상 마스킹 방법
JP5754990B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR101645959B1 (ko) 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법
JP2006254321A (ja) 人物追尾装置及び人物追尾プログラム
JP2019186955A (ja) 情報処理システム、情報処理方法及びプログラム
EP3973446A1 (en) Forensic video exploitation and analysis tools
JP2011076255A (ja) ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
KR20110035662A (ko) 감시 카메라를 이용한 지능형 영상 검색 방법 및 시스템
KR20150026178A (ko) 관심영역 기반의 영상요약 장치와 그를 위한 컴퓨터로 읽을 수 있는 기록 매체
US20120038602A1 (en) Advertisement display system and method
JP2013195725A (ja) 画像表示システム
JP6831396B2 (ja) 映像監視装置
JP6828445B2 (ja) 対象物追跡プログラム、対象物追跡方法及び対象物追跡装置
JP2014067117A (ja) 画像表示システムおよび画像処理装置
JP4449483B2 (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
JP2011043863A (ja) 対象領域判定・追跡装置、方法、プログラム及び対象領域判定装置
KR20150060032A (ko) 움직임 검출 시스템 및 방법
JP7359306B2 (ja) 追跡装置、追跡システム、追跡方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170404

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180618

R150 Certificate of patent or registration of utility model

Ref document number: 6364743

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150