JP7056673B2 - 処理装置、処理方法及びプログラム - Google Patents

処理装置、処理方法及びプログラム Download PDF

Info

Publication number
JP7056673B2
JP7056673B2 JP2019567850A JP2019567850A JP7056673B2 JP 7056673 B2 JP7056673 B2 JP 7056673B2 JP 2019567850 A JP2019567850 A JP 2019567850A JP 2019567850 A JP2019567850 A JP 2019567850A JP 7056673 B2 JP7056673 B2 JP 7056673B2
Authority
JP
Japan
Prior art keywords
person
image
target area
target
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019567850A
Other languages
English (en)
Other versions
JPWO2019146184A1 (ja
Inventor
健全 劉
マギュエル ルカ ティミル ラーノ サンディフォート
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019146184A1 publication Critical patent/JPWO2019146184A1/ja
Application granted granted Critical
Publication of JP7056673B2 publication Critical patent/JP7056673B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Alarm Systems (AREA)

Description

本発明は、処理装置、処理方法及びプログラムに関する。
特許文献1には、画像から人物を検出するとともに、検出した人物の中から画像への出現頻度が所定レベルより高い人物を抽出する技術が開示されている。
非特許文献1乃至5には、画像を解析し、所定の挙動を示す人物を抽出する技術が開示されている。
国際公開第2017/077902号 国際公開第2014/109127号 特開2015-49574号公報
Ke, S. R., Thuc, H. L. U., Lee, Y. J., Hwang, J. N., Yoo, J. H., & Choi, K. H. (2013). A review on video-based human activity recognition. Computers, 2(2), 88-131. Tomas, R. M., Tapia, S. A., Caballero, A. F., Ratte, S., Eras, A. G., & Gonzalez, P. L. (2015, June). Identification of loitering human behaviour in video surveillance environments. In International Work-Conference on the Interplay Between Natural and Artificial Computation (pp. 516-525). Springer, Cham. Bouma, H., Baan, J., Landsmeer, S., Kruszynski, C., van Antwerpen, G., & Dijk, J. (2013). Real-time tracking and fast retrieval of persons in multiple surveillance cameras of a shopping mall. Bellingham, WA: SPIE. Nam, Y. (2015). Loitering detection using an associating pedestrian tracker in crowded scenes. Multimedia Tools and Applications, 74(9), 2939-2961. Xiong, G., Wu, X., Chen, Y. L., & Ou, Y. (2011, June). Abnormal crowd behavior detection based on the energy model. In Information and Automation (ICIA), 2011 IEEE International Conference on (pp. 495-500). IEEE.
特許文献1に記載の技術を用い、所定の場所で撮影した画像への出現頻度が所定レベルより高い人物を抽出することで、その場所を犯罪の下見等でうろついている人物を抽出することができる。しかし、出現頻度のみに基づく抽出の場合、うろついている人物のみならず、例えば単なる待ち合わせ等でその場所に比較的長い時間滞在している人物をも抽出してしまう。非特許文献1乃至5は当該課題を解決する手段を提示するものでない。
本発明は、ある場所をうろついている人物を高精度に抽出する技術を提供することを課題とする。
本発明によれば、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段と、
前記画像を解析し、前記人物毎に、前記対象エリア内での出現位置のばらつきの程度を算出する算出手段と、
前記算出手段による算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段と、
を有する処理装置が提供される。
また、本発明によれば、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段と、
前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出手段と、
前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段と、
を有する処理装置が提供される。
また、本発明によれば、
コンピュータが、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出工程と、
前記画像を解析し、前記人物毎に、前記対象エリア内での出現位置のばらつきの程度を算出する算出工程と、
前記算出工程での算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出工程と、
を実行する処理方法が提供される。
また、本発明によれば、
コンピュータを、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段、
前記画像を解析し、前記人物毎に、前記対象エリア内での出現位置のばらつきの程度を算出する算出手段、
前記算出手段による算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段、
として機能させるプログラムが提供される。
また、本発明によれば、
コンピュータが、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出工程と、
前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出工程と、
前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出工程と、
を実行する処理方法が提供される。
また、本発明によれば、
コンピュータを、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段、
前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出手段、
前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段、
として機能させるプログラムが提供される。
本発明によれば、ある場所をうろついている人物を高精度に抽出する技術が実現される。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
本実施形態の処理装置のハードウエア構成の一例を示す図である。 本実施形態の処理装置の機能ブロック図の一例を示す図である。 対象エリアに設置されたカメラの一例を模式的に示す図である。 人物検出処理で用いるインデックス情報の一例を模式的に示す図である。 算出部による処理の一例を説明するための図である。 処理装置により出力された情報の一例を示す図である。 処理装置の処理の流れの一例を示すフローチャートである。
最初に、特許請求の範囲で表される第1乃至第5の値と、明細書中に名称との対応関係を示す。
第1の値:「各人物の対象エリアにおける存続時間と対象エリア内での出現位置の偏りの程度(Etotal)を統合した値」
第2の値:「検出された各人物が各カメラに撮影された頻度を示す値」
第3の値:「各人物が各カメラで生成された画像の各小エリアに存在する頻度を示す値」
第4の値:「第1の値と各人物が画像にフレームインする頻度を統合した値」
第5の値:「第4の値を補正した値」
次に、本実施形態の処理装置の概要を説明する。本実施形態の処理装置は、対象エリアに設置されたカメラ(例:監視カメラ)で生成された画像を解析し、画像内の人物を検出する。次いで、処理装置は、検出した人物の挙動を、「対象エリアにおける存続時間」、「対象エリア内での出現位置の偏りの程度(分散の程度)」、「画像にフレームインする頻度」等に基づき評価する。そして、処理装置は、評価結果が所定の条件を満たす人物を、「対象エリアをうろついている人物」として抽出する。
このような本実施形態の処理装置によれば、対象エリアをうろついている人物を高精度に抽出することができる。
次に、本実施形態の処理装置の構成を詳細に説明する。まず、処理装置のハードウエア構成の一例について説明する。処理装置が備える各機能部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
図1は、本実施形態の処理装置のハードウエア構成を例示するブロック図である。図1に示すように、処理装置は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。なお、周辺回路4Aを有さなくてもよい。
バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、入力装置(例:キーボード、マウス、マイク等)、外部装置、外部サーバ、外部センサー等から情報を取得するためのインターフェイスや、出力装置(例:ディスプレイ、スピーカ、プリンター、メーラ等)、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
次に、処理装置の機能構成を説明する。図2の機能ブロック図に示すように、処理装置10は、人物検出部11と、算出部12と、対象人物抽出部13とを有する。以下、各機能部を詳細に説明する。
人物検出部11は、対象エリアを撮影するカメラで生成された画像を解析し、画像内の人物を検出する。
対象エリアは、例えば、公園、駅構内、駅前、建物内等であるが、これらに限定されない。対象エリアには、対象エリアの少なくとも一部を撮影する1台又は複数台のカメラ(監視カメラ)が設置される。カメラは連続的に動画像を撮影する。図3に一例を示す。図示する例の場合、1つの対象エリアに4台のカメラ100が設置されている。点線で各カメラ100の撮影エリアが示されている。
人物検出部11は、カメラ100で生成された各フレームの画像を解析し、各フレームの画像から人物を検出する。人物を検出する手段は特段制限されず、あらゆる技術を採用できる。
そして、人物検出部11は、各フレームの画像から検出した人物を、外観(例:顔、服装等)が同一又は類似するものどうしでグループ化する。これにより、複数のフレームの画像に跨って存在する同一人物をひとまとめにする。複数のカメラ100で対象エリアを撮影している場合、複数のカメラ100で生成された複数のフレームの画像から検出された人物を同様の手段でグループ化することで、複数のカメラ100で生成された複数のフレームの画像に跨って存在する同一人物をひとまとめにする。
当該グループ化処理の一例としては、次のようなものが考えられる。例えば、人物検出部11は、複数のフレームの画像各々から人物を検出する。そして、あるフレーム(処理中フレーム)の画像から検出された人物と、それ以前のフレーム(処理済フレーム)の画像から検出された人物との外観が所定レベル以上類似するか判断し、所定レベル以上類似するもの同士をグループ化する。処理済フレームの画像から検出されたすべての人物各々の外観の特徴と、処理中フレームの画像から検出されたすべての人物各々の外観の特徴とのすべてのペアを比較することで、上記判断を行ってもよい。しかし、このような処理の場合、蓄積された人物のデータが増えるほど、比較するペアの数が膨大となり、コンピュータの処理負担が大きくなる。そこで、例えば、次のような方法を採用してもよい。
すなわち、検出された人物を図4のようにインデックス化し、当該インデックスを用いて外観が所定レベル以上類似する人物どうしでグループ化してもよい。当該インデックスの詳細及び生成方法は、特許文献2及び3に開示されているが、以下、簡単に説明する。
図4に示す検出ID:「F○○○-○○○○」は、各フレームの画像から検出された人物各々に付される識別情報である。F○○○がフレーム識別情報であり、ハイフン以下が各フレームの画像から検出された人物各々の識別情報である。同一人物が異なるフレームの画像から検出された場合、各々に異なる検出IDが付されることとなる。
第3層には、それまでに処理されたフレーム(処理済フレーム)から得られた全ての検出ID各々に対応したノードが配置される。そして、第3層に配置された複数のノードは、類似度(外観の特徴量の類似度)が第1のレベル以上のもの同士でまとめてグループ化される。第3層では、同一人物と判断される複数の検出IDどうしでグループ化されている。このような第3層の各グループに対応して、人物識別情報(人物ID(identifier))が付される。
第2層には、第3層の複数のグループ各々から選択された1つのノード(代表)が配置される。第2層の各ノードは、第3層に位置する選択元のグループ(自身が所属するグループ)に紐付けられる。そして、第2層に配置された複数のノードは、類似度が第2のレベル以上のもの同士でまとめてグループ化される。なお、第2のレベルは、上記第1のレベルよりも低い。すなわち、第1のレベルを基準にした場合にはグループ化されないノード同士が、第2のレベルを基準にした場合にはグループ化され得る。
第1層には、第2層の複数のグループ各々から選択された1つのノード(代表)が配置される。第1層の各ノードは、第2層に位置する選択元のグループ(自身が所属するグループ)に紐付けられる。
当該インデックスは、次のようにして更新される。新たなフレーム(処理中フレーム)から新たな検出IDが得られた場合、まず、第1層に位置する複数の検出IDを比較対象とする。すなわち、新たな検出IDと、第1層に位置する複数の検出ID各々とでペアを作成する。そして、ペア毎に類似度(外観の特徴量の類似度)を算出し、算出した類似度が第1の閾値以上(所定レベル以上類似)であるか判定する。
第1層に、類似度が第1の閾値以上である検出IDが存在しない場合、新たな検出IDに対応する人物は、それ以前に検出された人物と同一人物でないと判断する。そして、新たな検出IDを第1層乃至第3層に追加し、それらを互いに紐付ける。第2層及び第3層においては、追加された新たな検出IDにより新たなグループが生成される。また、第3層の新たなグループに対応して新たな人物IDが発行される。そして、その人物IDを、新たな検出IDに対応する人物の人物IDとして特定する。
一方、第1層に、類似度が第1の閾値以上である検出IDが存在する場合、比較対象を第2層に移す。具体的には、「類似度が第1の閾値以上であると判定された第1層の検出ID」に紐付けられた第2層のグループを、比較対象とする。
そして、新たな検出IDと、第2層の処理対象のグループに含まれる複数の検出ID各々とでペアを作成する。次いで、ペア毎に類似度を算出し、算出した類似度が第2の閾値以上であるか判定する。なお、第2の閾値は、第1の閾値よりも高い。
第2層の処理対象のグループに、類似度が第2の閾値以上である検出IDが存在しない場合、新たな検出IDに対応する人物は、それ以前に検出された人物と同一人物でないと判断する。そして、新たな検出IDを第2層及び第3層に追加し、互いに紐付ける。第2層においては、新たな検出IDは処理対象のグループに追加される。第3層においては、追加された新たな検出IDにより新たなグループが生成される。また、第3層の新たなグループに対応して新たな人物IDが発行される。そして、その人物IDを、新たな検出IDに対応する人物の人物IDとして特定する。
一方、第2層の処理対象のグループに、類似度が第2の閾値以上である検出IDが存在する場合、新たな検出IDに対応する人物は、それ以前に検出された人物と同一人物であると判断する。そして、新たな検出IDを、「類似度が第2の閾値以上であると判定された第2層の検出ID」に紐付けられた第3層のグループに属させる。また、第3層のそのグループに対応する人物IDを、新たな検出IDに対応する人物の人物IDとして特定する。
例えば、以上のようにして、新たなフレームの画像から検出された検出ID(人物)を図4のインデックスに追加し、各々に人物IDを対応付けることができる。
図2に戻り、算出部12は、カメラ100で生成された画像を解析し、人物検出部11により検出された人物毎に(以下、単に「人物毎に」という場合がある)、「対象エリアにおける存続時間」、「対象エリア内での出現位置の偏りの程度」、「対象エリアにおける存続時間と対象エリア内での出現位置の偏りの程度を統合した値(第1の値)」、「画像にフレームインする頻度」、「第1の値と画像にフレームインする頻度を統合した値(第4の値)」、「第4の値を補正した値」の中の少なくとも一部を算出する。以下で説明する対象人物抽出部13は、これらの算出結果に基づき、人物検出部11により検出された人物の中から、対象エリアをうろついていると推定される人物を抽出する。以下、各値を詳細に説明する。
「対象エリアにおける存続時間」
対象エリアをうろついている人物は、対象エリアにおける存続時間が大きくなる傾向にある。当該存続時間を用いることで、対象エリアをうろついている人物を高精度に抽出することができる。以下、当該存続時間の算出方法の一例を説明するが、ここでの例示に限定されない。
-存続時間の算出例1-
算出部12は、カメラ100に撮影されたトータル時間を、各人物の対象エリアにおける存続時間として算出してもよい。対象エリアに複数のカメラ100が設置されている場合、算出部12は、複数のカメラ100各々で撮影された時間を足し合わせたトータル時間を、各人物の対象エリアにおける存続時間として算出してもよい。
-存続時間の算出例2-
その他、対象エリアに出入口が存在し、当該出入口を撮影するカメラ100が存在する場合、算出部12は、当該カメラ100の画像を解析し、各人物が「対象エリア内に移動すること」及び「対象エリア外に移動すること」を検出してもよい。そして、各人物が対象エリア内に移動してから対象エリア外に移動するまでの時間を、各人物の対象エリアにおける存続時間として算出してもよい。
「対象エリア内での出現位置の偏りの程度」
対象エリアをうろついている人物は、対象エリア内での出現位置が適度にばらつく(出現位置の偏りが小さい)傾向にある。すなわち、ある位置の出現頻度が他の位置の出現頻度に比べて著しく大きくなる(出現位置がある位置に偏る)可能性は低い。なお、出現位置がある位置に偏る傾向は、例えば「待ち合わせ」等、「うろつき」と異なる動作の主体に見られる。対象エリア内での出現位置の偏りの程度(以下、単に「偏りの程度」という場合がある)を用いることで、対象エリアをうろついている人物を高精度に抽出することができる。以下、偏りの程度を算出する方法の一例を説明するが、ここでの例示に限定されない。
-偏りの程度の算出例1-
算出部12は、検出された人物毎かつカメラ100毎に、検出された各人物が各カメラ100に撮影された頻度を示す値(第2の値)を算出する。また、算出部12は、各カメラ100で生成された画像を複数の小エリアに分割し、検出された人物毎、カメラ100毎かつ小エリア毎に、各人物が各カメラ100で生成された画像の各小エリアに存在する頻度を示す値(第3の値)を算出する。
そして、算出部12は、検出された人物毎に、第2の値と第3の値とに基づき、対象エリア内での出現位置の偏りの程度(Etotal)を算出する。
対象エリアをうろついている人物は、複数のカメラ100にまんべんなく撮影される傾向にある。このため、対象エリアをうろついている人物に対応してカメラ100毎に算出された複数の第2の値のばらつきは小さくなる。一方、例えば待ち合わせ等で対象エリアに存在する人物は、待ち合わせをしている箇所を撮影するカメラ100に撮影される頻度が、他のカメラ100に撮影される頻度よりも高くなる。このため、待ち合わせしている人物に対応してカメラ100毎に算出された複数の第2の値のばらつきは大きくなる。
また、対象エリアをうろついている人物は、各カメラ100で生成された画像内で比較的高頻度に動き回る傾向にある。このため、対象エリアをうろついている人物に対応して小エリア毎に算出された複数の第3の値のばらつきは小さくなる。一方、例えば待ち合わせ等で対象エリアに存在する人物は、カメラ100で生成された画像内であまり動き回らず、所定の箇所に居続ける傾向になる。このため、待ち合わせしている人物に対応して小エリア毎に算出された複数の第3の値のばらつきは大きくなる。
このような第2の値と第3の値とに基づき算出される対象エリア内での出現位置の偏りの程度(Etotal)によれば、各人物の対象エリア内での出現位置の偏りを高精度に表わすことができる。
以下、このようなEtotalを算出する具体例を説明するが、あくまで一例でありこれに限定されない。
複数のカメラ100各々で撮影された頻度は、例えば、複数のカメラ100各々で撮影されたトータル時間(又はトータルフレーム数)とすることができる。算出部12は、例えば下記式(1)に基づき、人物毎かつカメラ100毎にP(第2の値)を算出する。jはカメラIDである。Pは、各人物がjで特定されるカメラ100に撮影されたトータル時間を、各人物の対象エリアにおける存続時間で正規化した値である。
Figure 0007056673000001
また、算出部12は、図5に示すように、各カメラ100で生成された各画像Fを所定のルールに基づき複数の小エリアAに分割する。図示する例の場合、合計49個の小エリアA(縦7×横7)に分割されている。そして、各人物の所定箇所P(例:鼻等)が存在する小エリアAを、各人物が存在する小エリアAとして特定する。算出部12は、複数のフレームの画像に対して同様の処理を行うことで、各人物が存在する小エリアAをフレーム毎に特定する。この特定結果を集計することで、各人物が各カメラ100で生成された画像内の複数の小エリアA各々に存在する頻度(トータル時間、トータルフレーム数等)を算出する。
そして、算出部12は、例えば下記式(2)に基づき、カメラ100毎にhe(第3の値)を算出する。jはカメラIDである。iは小エリアIDである。mは小エリアの数である。
Figure 0007056673000002
は、下記式(3-1)で定義される。下記式(3-1)で定義されるbは、各人物がiで特定される小エリアに存在する回数(トータルフレーム数)を、各人物がjで特定されるカメラ100で生成された画像(フレーム画像)に存在する回数(トータルフレーム数)で正規化した値である。なお、bは、下記式(3-2)で定義されてもよい。下記式(3-2)で定義されるbは、各人物がiで特定される小エリアに存在するトータル時間を、各人物がjで特定されるカメラ100で生成された画像に存在するトータル時間(jで特定されるカメラ100で撮影されたトータル時間)で正規化した値である。下記式(3-1)で定義されるb及び下記式(3-2)で定義されるbは同義である。
Figure 0007056673000003
Figure 0007056673000004
そして、算出部12は、人物毎かつカメラ100毎に、例えば下記式(4)に基づき、Eを算出する。jはカメラIDである。
Figure 0007056673000005
そして、算出部12は、人物毎に、例えば下記式(5)に基づき、対象エリア内での出現位置の偏りの程度を示すEtotalを算出する。jはカメラIDである。nはカメラ100の数である。算出部12は、人物検出部11により検出された人物毎に、偏りの程度を示すEtotalを算出する。
Figure 0007056673000006
当該例の場合、Etotalは、第2の値のばらつきが小さい(偏りが大きい)程大きく、かつ、第3の値のばらつきが小さい(偏りが大きい)程大きくなる。
-偏りの程度の算出例2-
算出部12は、上記第2の値に基づき、偏りの程度を示すEtotalを算出する。例えば、ばらつきの程度の算出例1と同様にして、上記式(1)に基づき人物毎かつカメラ100毎にP(第2の値)を算出してもよい。そして、上記式(4)を「E=P」に変更し、上記式(5)に基づき、人物毎にEtotalを算出してもよい。
当該例の場合、Etotalは、第2の値のばらつきが小さい(偏りが大きい)程大きくなる。
-偏りの程度の算出例3-
算出部12は、上記第3の値に基づき、偏りの程度を示すEtotalを算出する。例えば、ばらつきの程度の算出例1と同様にして、上記式(2)に基づき人物毎かつカメラ100毎にhe(第3の値)を算出してもよい。そして、上記式(4)を「E=he」に変更し、上記式(5)に基づき人物毎にEtotalを算出してもよい。
当該例の場合、Etotalは、第3の値のばらつきが小さい(偏りが大きい)程大きくなる。
「対象エリアにおける存続時間と対象エリア内での出現位置の偏りの程度(Etotal)を統合した値(第1の値)」
対象エリアをうろついている人物は、当該存続時間が大きくなる傾向にある。しかしながら、例えば待ち合わせをしている人物も、当該存続時間が大きくなる場合がある。このため、存続時間の大小のみでは、うろついている人物を高精度に抽出できない。
また、対象エリアをうろついている人物は、対象エリア内での出現位置の偏りが比較的小さくなる傾向にある。しかしながら、単に対象エリアを通過した人物も、当該偏りが小さくなる場合がある。このため、当該偏りの大小のみでは、うろついている人物を高精度に抽出できない。
「存続時間」及び「偏りの程度」という2つの指標を用いることで、対象エリアをうろついている人物を高精度に抽出することができる。うろついている人物、待ち合わせをしている人物、単に通過した人物各々の当該指標の傾向は、以下のようにまとめられる。
うろついている人物:対象エリアにおける存続時間の傾向「大」、対象エリア内での出現位置の偏りの傾向「小」。
待ち合わせをしている人物:対象エリアにおける存続時間の傾向「大」、対象エリア内での出現位置の偏りの傾向「大」。
単に通過した人物:対象エリアにおける存続時間の傾向「小」、対象エリア内での出現位置の偏りの傾向「小」。
算出部12は、例えば、下記式(6)に基づき、人物毎にDS(第1の値)を算出してもよい。「対象エリアにおける存続期間」及びEtotalの算出方法は上記説明の通りである。
Figure 0007056673000007
上記式の場合、DSは、対象エリアにおける存続期間が大きい程大きい値となる。また、DSは、対象エリア内での出現位置の偏りが小さい程大きい値となる。
うろついている人物、待ち合わせをしている人物、単に通過した人物各々の「対象エリアにおける存続時間」、Etotal及びDSの傾向は、以下のようにまとめられる。
うろついている人物:対象エリアにおける存続時間の傾向「大」、Etotalの傾向「大」。
待ち合わせをしている人物:対象エリアにおける存続時間の傾向「大」、Etotalの傾向「小」。
単に通過した人物:対象エリアにおける存続時間の傾向「小」、Etotalの傾向「大」。
すなわち、うろついている人物は、待ち合わせをしている人物や単に通過した人物に比べて、DSが大きくなる傾向である。
「画像にフレームインする頻度」
対象エリアをうろついている人物は、画像へのフレームイン及びフレームアウトを繰り返す。結果、対象エリアをうろついている人物は、画像にフレームインする頻度が大きくなる傾向にある。当該頻度を用いることで、対象エリアをうろついている人物を高精度に抽出することができる。
算出部12は、人物毎かつカメラ100毎に、各カメラ100で生成された画像にフレームインする頻度を算出する。フレームインを検出する方法は特段制限されない。そして、算出部12は、例えば、人物毎に、下記式(7)に基づき画像にフレームインする頻度を示すRASを算出してもよい。jはカメラIDである。nはカメラの数である。
Figure 0007056673000008
CSは、下記式(8)で定義される。jはカメラIDである。caは各カメラで生成された画像にフレームインした回数である。
Figure 0007056673000009
当該例の場合、RASは、画像にフレームインする頻度が大きくなる程大きい値となる。そして、うろついている人物は、RASが大きくなる傾向である。
「第1の値と画像にフレームインする頻度を統合した値(第4の値)」
「第1の値」及び「画像にフレームインする頻度」という2つの指標を用いることで、対象エリアをうろついている人物をさらに高精度に抽出することができる。
算出部12は、例えば、下記式(9)に基づき、人物毎にLS(第4の値)を算出してもよい。RAS及びDSの算出方法は上記説明の通りである。
Figure 0007056673000010
当該例の場合、LS(第4の値)は、DS(第1の値)が大きい程大きくなる。すなわち、LS(第4の値)は、対象エリアにおける存続期間が大きい程大きい値となる。また、LS(第4の値)は、対象エリア内での出現位置の偏りが小さい程大きい値となる。また、LS(第4の値)は、RAS(画像にフレームインする頻度)が大きい程大きくなる。すなわち、うろついている人物は、LSが大きくなる傾向である。
「第4の値を補正した値(第5の値)」
算出部12は、例えば下記式(10)に基づき、人物毎にWLS(第5の値)を算出してもよい。「対象エリア出現回数」は、各人物が対象エリアに出現した回数である。例えば、ある人物が対象エリアに出現した後、対象エリアから去り、その後再び対象エリアに出現した場合、出現回数は2回となる。
Figure 0007056673000011
出現回数の検出方法は特段制限されない。例えば、対象エリアに設置された複数のカメラ100のいずれかで撮影された後、対象エリアに設置された複数のカメラ100のいずれにも撮影されない非撮影時間が基準値を超えた場合、その人物は一度対象エリアから去ったと判断してもよい。そして、その後に再びいずれかのカメラ100で撮影されると、出現回数を1インクリメントしてもよい。
当該例の場合、WLS(第5の値)は、LS(第4の値)が大きい程大きくなる。すなわち、WLS(第5の値)は、対象エリアにおける存続期間が大きい程大きい値となる。また、WLS(第5の値)は、対象エリア内での出現位置の偏りが小さい程大きい値となる。また、WLS(第5の値)は、RAS(画像にフレームインする頻度)が大きい程大きくなる。すなわち、うろついている人物は、WLSが大きくなる傾向である。
図2に戻り、対象人物抽出部13は、算出部12による算出結果が所定の条件を満たす人物である対象人物を抽出する。
対象人物抽出部13は、例えば、第1の値が所定条件を満たす人物を対象人物として抽出してもよい。上述した具体例の場合、DS(第1の値)は、対象エリアにおける存続期間が大きい程大きい値となる。また、DS(第1の値)は、対象エリア内での出現位置の偏りが小さい程大きい値となる。そして、うろついている人物は、DSが大きくなる傾向である。
このような例の場合、対象人物抽出部13は、DS(第1の値)が基準値以上の人物を、対象人物として抽出する。
その他、対象人物抽出部13は、第4の値が所定条件を満たす人物を対象人物として抽出してもよい。上述した具体例の場合、LS(第4の値)は、DS(第1の値)が大きい程大きくなる。すなわち、LS(第4の値)は、対象エリアにおける存続期間が大きい程大きい値となる。また、LS(第4の値)は、対象エリア内での出現位置の偏りが小さい程大きい値となる。また、LS(第4の値)は、RAS(画像にフレームインする頻度)が大きい程大きくなる。そして、うろついている人物は、LS(第4の値)が大きくなる傾向である。
このような例の場合、対象人物抽出部13は、LS(第4の値)が基準値以上の人物を、対象人物として抽出する。
その他、対象人物抽出部13は、第5の値が所定条件を満たす人物を対象人物として抽出してもよい。上述した具体例の場合、WLS(第5の値)は、LS(第4の値)が大きい程大きくなる。すなわち、WLS(第5の値)は、対象エリアにおける存続期間が大きい程大きい値となる。また、WLS(第5の値)は、対象エリア内での出現位置の偏りが小さい程大きい値となる。また、WLS(第5の値)は、RAS(画像にフレームインする頻度)が大きい程大きくなる。そして、うろついている人物は、WLS(第5の値)が大きくなる傾向である。
このような例の場合、対象人物抽出部13は、WLS(第5の値)が基準値以上の人物を、対象人物として抽出する。
その他、対象人物抽出部13は、画像にフレームインする頻度が所定の条件を満たす人物を対象人物として抽出してもよい。上述した具体例の場合、対象人物抽出部13は、RAS(画像にフレームインする頻度)が基準値以上の人物を対象人物として抽出してもよい。その他、対象人物抽出部13は、基準時間以内に画像にフレームインする回数が基準値以上の人物を対象人物として抽出してもよい。
なお、基準値及び基準時間は設計的事項である。
処理装置10は、人物検出部11、算出部12及び対象人物抽出部13による処理結果を出力してもよい。出力は、ディスプレイ、メーラ、投影装置、プリンター等のあらゆる出力装置を介して実現される。
図6に、処理装置10により出力された情報の一例を示す。図示する例では、対象人物抽出部13により抽出された対象人物をスコアに基づきランク付けし、ランク順に一覧表示している。
図中の「Rank」は、スコアに基づくランクである。例えば、スコアの大きい順にランク付けされる。「Face」は、各対象人物の顔画像である。「Score」は、算出部12により算出され、対象人物抽出部13による抽出処理に利用された算出結果である。Scoreは、例えば、DS(第1の値)、LS(第4の値)、WLS(第5の値)、RAS(画像にフレームインする頻度)等である。
「Graph」は、各対象人物が各カメラ100に撮影された状況を示すグラフである。図中の「CameraID」よりも右側の領域においては、グラフで、各対象人物が複数のカメラ(図の場合、カメラID1乃至4)各々に撮影された時間帯を示している。図中のアイコンBで撮影された時間帯の任意の位置を指定すると、図示するように、指定された時点から撮影画像を再生する(画像C)。その他、指定された時点の静止画像を表示してもよい。図中の「CameraID」よりも左側の領域においては、棒グラフで、各対象人物が複数のカメラ(図の場合、カメラID1乃至4)各々に撮影されたトータル時間を示している。
次に、図7のフローチャートを用いて、本実施形態の処理装置10の処理の流れの一例を説明する。
人物検出工程S10では、人物検出部11は、対象エリアを撮影するカメラ100で生成された画像から人物を検出する。
算出工程S20では、算出部12は、画像を解析し、人物毎に所定の値を算出する。例えば、算出部12は、「対象エリアにおける存続時間」、「対象エリア内での出現位置の偏りの程度」、「対象エリアにおける存続時間と対象エリア内での出現位置の偏りの程度を統合した値(第1の値)」、「画像にフレームインする頻度」、「第1の値と画像にフレームインする頻度を統合した値(第4の値)」、「第4の値を補正した値」の中の少なくとも一部を算出する。
抽出工程S30では、対象人物抽出部13は、算出部12による算出結果が所定の条件を満たす人物である対象人物を抽出する。
以上、説明した本実施形態の処理装置10によれば、対象エリアをうろついている人物を高精度に抽出することができる。本実施形態の処理装置10によれば、対象エリアで待ち合わせをしている人物や対象エリアを単に通過する人物等を抽出する不都合を軽減して、対象エリアをうろついている人物を抽出することができる。
以下、参考形態の例を付記する。
1. 対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段と、
前記画像を解析し、前記人物毎に、前記対象エリアにおける存続時間、及び、前記対象エリア内での出現位置の偏りの程度を算出する算出手段と、
前記算出手段による算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段と、
を有する処理装置。
2. 1に記載の処理装置において、
前記算出手段は、前記存続時間及び前記偏りの程度に基づき、前記対象エリアでの挙動を示す第1の値を算出する処理装置。
3. 1又は2に記載の処理装置において、
前記算出手段は、複数の前記カメラ各々で撮影された頻度を示す第2の値に基づき、前記偏りの程度を算出する処理装置。
4. 1から3のいずれかに記載の処理装置において、
前記算出手段は、前記カメラで生成された前記画像内の複数の小エリア各々に存在する頻度を示す第3の値に基づき、前記偏りの程度を算出する処理装置。
5. 4に記載の処理装置において、
前記算出手段は、複数の前記カメラ各々で撮影された頻度を示す第2の値及び前記第3の値の両方に基づき、前記偏りの程度を算出する処理装置。
6. 1から5のいずれかに記載の処理装置において、
前記算出手段は、前記人物毎に、前記画像にフレームインする頻度を算出する処理装置。
7. 6に記載の処理装置において、
前記算出手段は、前記人物毎に、前記存続時間及び前記偏りの程度に基づき算出される前記対象エリアでの挙動を示す第1の値、及び、前記画像にフレームインする頻度の両方に基づき、前記対象エリアでの挙動を示す第4の値を算出する処理装置。
8. 7に記載の処理装置において、
前記算出手段は、前記人物毎に、前記第4の値を、前記対象エリアに出現した回数で補正した第5の値を算出する処理装置。
9. 1から5のいずれかに記載の処理装置において、
前記対象人物抽出手段は、前記存続時間及び前記偏りの程度に基づき算出される前記対象エリアでの挙動を示す第1の値が所定条件を満たす人物を前記対象人物として抽出する処理装置。
10. 7に記載の処理装置において、
前記対象人物抽出手段は、前記第4の値が所定条件を満たす人物を前記対象人物として抽出する処理装置。
11. 8に記載の処理装置において、
前記対象人物抽出手段は、前記第5の値が所定条件を満たす人物を前記対象人物として抽出する処理装置。
12. 対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段と、
前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出手段と、
前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段と、
を有する処理装置。
13. コンピュータが、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出工程と、
前記画像を解析し、前記人物毎に、前記対象エリアにおける存続時間、及び、前記対象エリア内での出現位置の偏りの程度を算出する算出工程と、
前記算出工程での算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出工程と、
を実行する処理方法。
14. コンピュータを、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段、
前記画像を解析し、前記人物毎に、前記対象エリアにおける存続時間、及び、前記対象エリア内での出現位置の偏りの程度を算出する算出手段、
前記算出手段による算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段、
として機能させるプログラム。
15. コンピュータが、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出工程と、
前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出工程と、
前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出工程と、
を実行する処理方法。
16. コンピュータを、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段、
前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出手段、
前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段、
として機能させるプログラム。
この出願は、2018年1月29日に出願された日本出願特願2018-012296号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (16)

  1. 対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段と、
    前記画像を解析し、前記人物毎に、前記対象エリア内での出現位置のばらつきの程度を算出する算出手段と、
    前記算出手段による算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段と、
    を有する処理装置。
  2. 請求項1に記載の処理装置において、
    前記算出手段は、前ばらつきの程度に基づき、前記対象エリアでの挙動を示す第1の値を算出する処理装置。
  3. 請求項1又は2に記載の処理装置において、
    前記算出手段は、複数の前記カメラ各々で撮影された頻度を示す第2の値に基づき、前記ばらつきの程度を算出する処理装置。
  4. 請求項1から3のいずれか1項に記載の処理装置において、
    前記算出手段は、前記カメラで生成された前記画像内の複数の小エリア各々に存在する頻度を示す第3の値に基づき、前記ばらつきの程度を算出する処理装置。
  5. 請求項4に記載の処理装置において、
    前記算出手段は、複数の前記カメラ各々で撮影された頻度を示す第2の値及び前記第3の値の両方に基づき、前記ばらつきの程度を算出する処理装置。
  6. 請求項1から5のいずれか1項に記載の処理装置において、
    前記算出手段は、前記人物毎に、前記画像にフレームインする頻度を算出する処理装置。
  7. 請求項6に記載の処理装置において、
    前記算出手段は、前記人物毎に、前ばらつきの程度に基づき算出される前記対象エリアでの挙動を示す第1の値、及び、前記画像にフレームインする頻度の両方に基づき、前記対象エリアでの挙動を示す第4の値を算出する処理装置。
  8. 請求項7に記載の処理装置において、
    前記算出手段は、前記人物毎に、前記第4の値を、前記対象エリアに出現した回数で補正した第5の値を算出する処理装置。
  9. 請求項1から5のいずれか1項に記載の処理装置において、
    前記対象人物抽出手段は、前ばらつきの程度に基づき算出される前記対象エリアでの挙動を示す第1の値が所定条件を満たす人物を前記対象人物として抽出する処理装置。
  10. 請求項7に記載の処理装置において、
    前記対象人物抽出手段は、前記第4の値が所定条件を満たす人物を前記対象人物として抽出する処理装置。
  11. 請求項8に記載の処理装置において、
    前記対象人物抽出手段は、前記第5の値が所定条件を満たす人物を前記対象人物として抽出する処理装置。
  12. 対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段と、
    前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出手段と、
    前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段と、
    を有する処理装置。
  13. コンピュータが、
    対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出工程と、
    前記画像を解析し、前記人物毎に、前記対象エリア内での出現位置のばらつきの程度を算出する算出工程と、
    前記算出工程での算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出工程と、
    を実行する処理方法。
  14. コンピュータを、
    対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段、
    前記画像を解析し、前記人物毎に、前記対象エリア内での出現位置のばらつきの程度を算出する算出手段、
    前記算出手段による算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段、
    として機能させるプログラム。
  15. コンピュータが、
    対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出工程と、
    前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出工程と、
    前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出工程と、
    を実行する処理方法。
  16. コンピュータを、
    対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段、
    前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出手段、
    前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段、
    として機能させるプログラム。
JP2019567850A 2018-01-29 2018-10-18 処理装置、処理方法及びプログラム Active JP7056673B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018012296 2018-01-29
JP2018012296 2018-01-29
PCT/JP2018/038797 WO2019146184A1 (ja) 2018-01-29 2018-10-18 処理装置、処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019146184A1 JPWO2019146184A1 (ja) 2021-01-28
JP7056673B2 true JP7056673B2 (ja) 2022-04-19

Family

ID=67395288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019567850A Active JP7056673B2 (ja) 2018-01-29 2018-10-18 処理装置、処理方法及びプログラム

Country Status (3)

Country Link
US (1) US11683578B2 (ja)
JP (1) JP7056673B2 (ja)
WO (1) WO2019146184A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014155159A (ja) 2013-02-13 2014-08-25 Nec Corp 情報処理システム、情報処理方法及びプログラム
WO2014171258A1 (ja) 2013-04-16 2014-10-23 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP2015139007A (ja) 2014-01-20 2015-07-30 株式会社竹中工務店 犯罪リスク値導出装置およびプログラム
WO2017169189A1 (ja) 2016-03-30 2017-10-05 日本電気株式会社 解析装置、解析方法及びプログラム
WO2017212568A1 (ja) 2016-06-08 2017-12-14 三菱電機株式会社 監視装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3123587B2 (ja) 1994-03-09 2001-01-15 日本電信電話株式会社 背景差分による動物体領域抽出方法
JP4541316B2 (ja) * 2006-04-06 2010-09-08 三菱電機株式会社 映像監視検索システム
WO2007139658A2 (en) * 2006-05-24 2007-12-06 Objectvideo, Inc. Intelligent imagery-based sensor
JP4318724B2 (ja) * 2007-02-14 2009-08-26 パナソニック株式会社 監視カメラ及び監視カメラ制御方法
JP4858400B2 (ja) * 2007-10-17 2012-01-18 ソニー株式会社 情報提供システム、情報提供装置、情報提供方法
KR101200491B1 (ko) * 2008-12-22 2012-11-16 한국전자통신연구원 사람 검출 장치 및 방법
TW201033908A (en) * 2009-03-12 2010-09-16 Micro Star Int Co Ltd System and method for counting people flow
JP2012054810A (ja) * 2010-09-02 2012-03-15 Olympus Corp 画像処理装置、画像処理方法、撮像装置、および画像処理プログラム
US8643746B2 (en) * 2011-05-18 2014-02-04 Intellectual Ventures Fund 83 Llc Video summary including a particular person
CN103959802B (zh) * 2012-08-10 2018-01-26 松下电器(美国)知识产权公司 影像提供方法、发送装置以及接收装置
US10713229B2 (en) 2013-01-11 2020-07-14 Nec Corporation Index generating device and method, and search device and search method
CN105027172B (zh) * 2013-03-05 2017-05-03 三菱电机株式会社 监视信息处理装置及方法
JP6167767B2 (ja) 2013-08-30 2017-07-26 日本電気株式会社 インデックス生成装置及び検索装置
JP5683663B1 (ja) * 2013-09-27 2015-03-11 パナソニックIpマネジメント株式会社 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法
JP5597762B1 (ja) * 2013-12-27 2014-10-01 パナソニック株式会社 活動マップ分析装置、活動マップ分析システムおよび活動マップ分析方法
JP5906556B1 (ja) * 2014-10-17 2016-04-20 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
US10121062B2 (en) * 2014-11-03 2018-11-06 Koninklijke Philips N.V. Device, system and method for automated detection of orientation and/or location of a person
WO2017035025A1 (en) * 2015-08-21 2017-03-02 T1V, Inc. Engagement analytic system and display system responsive to user's interaction and/or position
WO2017077902A1 (ja) 2015-11-06 2017-05-11 日本電気株式会社 データ処理装置、データ処理方法、及び、プログラム
JP6840492B2 (ja) * 2016-08-30 2021-03-10 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6803749B2 (ja) * 2016-12-28 2020-12-23 パナソニックi−PROセンシングソリューションズ株式会社 人数計測領域設定方法、人数計測領域設定プログラム、動線分析システム、カメラ装置及び人数計測プログラム
JP6649306B2 (ja) * 2017-03-03 2020-02-19 株式会社東芝 情報処理装置、情報処理方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014155159A (ja) 2013-02-13 2014-08-25 Nec Corp 情報処理システム、情報処理方法及びプログラム
WO2014171258A1 (ja) 2013-04-16 2014-10-23 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP2015139007A (ja) 2014-01-20 2015-07-30 株式会社竹中工務店 犯罪リスク値導出装置およびプログラム
WO2017169189A1 (ja) 2016-03-30 2017-10-05 日本電気株式会社 解析装置、解析方法及びプログラム
WO2017212568A1 (ja) 2016-06-08 2017-12-14 三菱電機株式会社 監視装置

Also Published As

Publication number Publication date
WO2019146184A1 (ja) 2019-08-01
US20210127056A1 (en) 2021-04-29
JPWO2019146184A1 (ja) 2021-01-28
US11683578B2 (en) 2023-06-20

Similar Documents

Publication Publication Date Title
Kumar et al. F-DES: Fast and deep event summarization
Zhou et al. Violence detection in surveillance video using low-level features
KR101967086B1 (ko) 비디오 스트림들의 엔티티 기반 시간적 세그먼트화
TWI510064B (zh) 視訊推薦系統及其方法
JP6973533B2 (ja) 解析装置、解析方法及びプログラム
JP2017033547A (ja) 情報処理装置及びその制御方法及びプログラム
KR20160033800A (ko) 카운팅 방법 및 카운팅 장치
Kumar et al. Key frame extraction from consumer videos using sparse representation
CN109447022B (zh) 一种镜头类型识别方法及装置
JP6775343B2 (ja) 情報処理装置及びその制御方法及びプログラム
JP7056673B2 (ja) 処理装置、処理方法及びプログラム
Ahmed et al. Localization of region of interest in surveillance scene
Mizher et al. Action key frames extraction using l1-norm and accumulative optical flow for compact video shot summarisation
Morikuni et al. Expression strength for the emotional scene detection from lifelog videos
JP7056737B2 (ja) 処理装置、処理方法及びプログラム
Aihara et al. Motion dense sampling and component clustering for action recognition
Kamishima et al. Event detection in consumer videos using GMM supervectors and SVMs
Lassoued et al. Human actions recognition: an approach based on stable motion boundary fields
Petrogianni et al. Film Shot Type Classification Based on Camera Movement Styles
Dang et al. Building 3D event logs for video investigation
Henderson et al. Feature correspondence in low quality CCTV videos
JP2016103234A (ja) 映像特徴抽出装置、方法、及びプログラム
Fataliyev et al. Video summarization based on extracted key position of spotted objects
Pandit et al. Evolution of Trajectories: A Novel Representation for Deep Action Recognition
Ahmed et al. (2017). Localization of region of interest in surveillance scene. Multimedia Tools and Applications, 76 (11), 13651-13680.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220321

R151 Written notification of patent or utility model registration

Ref document number: 7056673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151