JP7056673B2 - 処理装置、処理方法及びプログラム - Google Patents
処理装置、処理方法及びプログラム Download PDFInfo
- Publication number
- JP7056673B2 JP7056673B2 JP2019567850A JP2019567850A JP7056673B2 JP 7056673 B2 JP7056673 B2 JP 7056673B2 JP 2019567850 A JP2019567850 A JP 2019567850A JP 2019567850 A JP2019567850 A JP 2019567850A JP 7056673 B2 JP7056673 B2 JP 7056673B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- target area
- target
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V8/00—Prospecting or detecting by optical means
- G01V8/10—Detecting, e.g. by using light barriers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Geophysics (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Geophysics And Detection Of Objects (AREA)
- Alarm Systems (AREA)
Description
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段と、
前記画像を解析し、前記人物毎に、前記対象エリア内での出現位置のばらつきの程度を算出する算出手段と、
前記算出手段による算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段と、
を有する処理装置が提供される。
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段と、
前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出手段と、
前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段と、
を有する処理装置が提供される。
コンピュータが、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出工程と、
前記画像を解析し、前記人物毎に、前記対象エリア内での出現位置のばらつきの程度を算出する算出工程と、
前記算出工程での算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出工程と、
を実行する処理方法が提供される。
コンピュータを、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段、
前記画像を解析し、前記人物毎に、前記対象エリア内での出現位置のばらつきの程度を算出する算出手段、
前記算出手段による算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段、
として機能させるプログラムが提供される。
コンピュータが、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出工程と、
前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出工程と、
前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出工程と、
を実行する処理方法が提供される。
コンピュータを、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段、
前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出手段、
前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段、
として機能させるプログラムが提供される。
第1の値:「各人物の対象エリアにおける存続時間と対象エリア内での出現位置の偏りの程度(Etotal)を統合した値」
第2の値:「検出された各人物が各カメラに撮影された頻度を示す値」
第3の値:「各人物が各カメラで生成された画像の各小エリアに存在する頻度を示す値」
第4の値:「第1の値と各人物が画像にフレームインする頻度を統合した値」
第5の値:「第4の値を補正した値」
対象エリアをうろついている人物は、対象エリアにおける存続時間が大きくなる傾向にある。当該存続時間を用いることで、対象エリアをうろついている人物を高精度に抽出することができる。以下、当該存続時間の算出方法の一例を説明するが、ここでの例示に限定されない。
算出部12は、カメラ100に撮影されたトータル時間を、各人物の対象エリアにおける存続時間として算出してもよい。対象エリアに複数のカメラ100が設置されている場合、算出部12は、複数のカメラ100各々で撮影された時間を足し合わせたトータル時間を、各人物の対象エリアにおける存続時間として算出してもよい。
その他、対象エリアに出入口が存在し、当該出入口を撮影するカメラ100が存在する場合、算出部12は、当該カメラ100の画像を解析し、各人物が「対象エリア内に移動すること」及び「対象エリア外に移動すること」を検出してもよい。そして、各人物が対象エリア内に移動してから対象エリア外に移動するまでの時間を、各人物の対象エリアにおける存続時間として算出してもよい。
対象エリアをうろついている人物は、対象エリア内での出現位置が適度にばらつく(出現位置の偏りが小さい)傾向にある。すなわち、ある位置の出現頻度が他の位置の出現頻度に比べて著しく大きくなる(出現位置がある位置に偏る)可能性は低い。なお、出現位置がある位置に偏る傾向は、例えば「待ち合わせ」等、「うろつき」と異なる動作の主体に見られる。対象エリア内での出現位置の偏りの程度(以下、単に「偏りの程度」という場合がある)を用いることで、対象エリアをうろついている人物を高精度に抽出することができる。以下、偏りの程度を算出する方法の一例を説明するが、ここでの例示に限定されない。
算出部12は、検出された人物毎かつカメラ100毎に、検出された各人物が各カメラ100に撮影された頻度を示す値(第2の値)を算出する。また、算出部12は、各カメラ100で生成された画像を複数の小エリアに分割し、検出された人物毎、カメラ100毎かつ小エリア毎に、各人物が各カメラ100で生成された画像の各小エリアに存在する頻度を示す値(第3の値)を算出する。
算出部12は、上記第2の値に基づき、偏りの程度を示すEtotalを算出する。例えば、ばらつきの程度の算出例1と同様にして、上記式(1)に基づき人物毎かつカメラ100毎にPj(第2の値)を算出してもよい。そして、上記式(4)を「Ej=Pj」に変更し、上記式(5)に基づき、人物毎にEtotalを算出してもよい。
算出部12は、上記第3の値に基づき、偏りの程度を示すEtotalを算出する。例えば、ばらつきの程度の算出例1と同様にして、上記式(2)に基づき人物毎かつカメラ100毎にhej(第3の値)を算出してもよい。そして、上記式(4)を「Ej=hej」に変更し、上記式(5)に基づき人物毎にEtotalを算出してもよい。
待ち合わせをしている人物:対象エリアにおける存続時間の傾向「大」、対象エリア内での出現位置の偏りの傾向「大」。
単に通過した人物:対象エリアにおける存続時間の傾向「小」、対象エリア内での出現位置の偏りの傾向「小」。
待ち合わせをしている人物:対象エリアにおける存続時間の傾向「大」、Etotalの傾向「小」。
単に通過した人物:対象エリアにおける存続時間の傾向「小」、Etotalの傾向「大」。
対象エリアをうろついている人物は、画像へのフレームイン及びフレームアウトを繰り返す。結果、対象エリアをうろついている人物は、画像にフレームインする頻度が大きくなる傾向にある。当該頻度を用いることで、対象エリアをうろついている人物を高精度に抽出することができる。
「第1の値」及び「画像にフレームインする頻度」という2つの指標を用いることで、対象エリアをうろついている人物をさらに高精度に抽出することができる。
算出部12は、例えば下記式(10)に基づき、人物毎にWLS(第5の値)を算出してもよい。「対象エリア出現回数」は、各人物が対象エリアに出現した回数である。例えば、ある人物が対象エリアに出現した後、対象エリアから去り、その後再び対象エリアに出現した場合、出現回数は2回となる。
1. 対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段と、
前記画像を解析し、前記人物毎に、前記対象エリアにおける存続時間、及び、前記対象エリア内での出現位置の偏りの程度を算出する算出手段と、
前記算出手段による算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段と、
を有する処理装置。
2. 1に記載の処理装置において、
前記算出手段は、前記存続時間及び前記偏りの程度に基づき、前記対象エリアでの挙動を示す第1の値を算出する処理装置。
3. 1又は2に記載の処理装置において、
前記算出手段は、複数の前記カメラ各々で撮影された頻度を示す第2の値に基づき、前記偏りの程度を算出する処理装置。
4. 1から3のいずれかに記載の処理装置において、
前記算出手段は、前記カメラで生成された前記画像内の複数の小エリア各々に存在する頻度を示す第3の値に基づき、前記偏りの程度を算出する処理装置。
5. 4に記載の処理装置において、
前記算出手段は、複数の前記カメラ各々で撮影された頻度を示す第2の値及び前記第3の値の両方に基づき、前記偏りの程度を算出する処理装置。
6. 1から5のいずれかに記載の処理装置において、
前記算出手段は、前記人物毎に、前記画像にフレームインする頻度を算出する処理装置。
7. 6に記載の処理装置において、
前記算出手段は、前記人物毎に、前記存続時間及び前記偏りの程度に基づき算出される前記対象エリアでの挙動を示す第1の値、及び、前記画像にフレームインする頻度の両方に基づき、前記対象エリアでの挙動を示す第4の値を算出する処理装置。
8. 7に記載の処理装置において、
前記算出手段は、前記人物毎に、前記第4の値を、前記対象エリアに出現した回数で補正した第5の値を算出する処理装置。
9. 1から5のいずれかに記載の処理装置において、
前記対象人物抽出手段は、前記存続時間及び前記偏りの程度に基づき算出される前記対象エリアでの挙動を示す第1の値が所定条件を満たす人物を前記対象人物として抽出する処理装置。
10. 7に記載の処理装置において、
前記対象人物抽出手段は、前記第4の値が所定条件を満たす人物を前記対象人物として抽出する処理装置。
11. 8に記載の処理装置において、
前記対象人物抽出手段は、前記第5の値が所定条件を満たす人物を前記対象人物として抽出する処理装置。
12. 対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段と、
前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出手段と、
前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段と、
を有する処理装置。
13. コンピュータが、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出工程と、
前記画像を解析し、前記人物毎に、前記対象エリアにおける存続時間、及び、前記対象エリア内での出現位置の偏りの程度を算出する算出工程と、
前記算出工程での算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出工程と、
を実行する処理方法。
14. コンピュータを、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段、
前記画像を解析し、前記人物毎に、前記対象エリアにおける存続時間、及び、前記対象エリア内での出現位置の偏りの程度を算出する算出手段、
前記算出手段による算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段、
として機能させるプログラム。
15. コンピュータが、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出工程と、
前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出工程と、
前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出工程と、
を実行する処理方法。
16. コンピュータを、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段、
前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出手段、
前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段、
として機能させるプログラム。
Claims (16)
- 対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段と、
前記画像を解析し、前記人物毎に、前記対象エリア内での出現位置のばらつきの程度を算出する算出手段と、
前記算出手段による算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段と、
を有する処理装置。 - 請求項1に記載の処理装置において、
前記算出手段は、前記ばらつきの程度に基づき、前記対象エリアでの挙動を示す第1の値を算出する処理装置。 - 請求項1又は2に記載の処理装置において、
前記算出手段は、複数の前記カメラ各々で撮影された頻度を示す第2の値に基づき、前記ばらつきの程度を算出する処理装置。 - 請求項1から3のいずれか1項に記載の処理装置において、
前記算出手段は、前記カメラで生成された前記画像内の複数の小エリア各々に存在する頻度を示す第3の値に基づき、前記ばらつきの程度を算出する処理装置。 - 請求項4に記載の処理装置において、
前記算出手段は、複数の前記カメラ各々で撮影された頻度を示す第2の値及び前記第3の値の両方に基づき、前記ばらつきの程度を算出する処理装置。 - 請求項1から5のいずれか1項に記載の処理装置において、
前記算出手段は、前記人物毎に、前記画像にフレームインする頻度を算出する処理装置。 - 請求項6に記載の処理装置において、
前記算出手段は、前記人物毎に、前記ばらつきの程度に基づき算出される前記対象エリアでの挙動を示す第1の値、及び、前記画像にフレームインする頻度の両方に基づき、前記対象エリアでの挙動を示す第4の値を算出する処理装置。 - 請求項7に記載の処理装置において、
前記算出手段は、前記人物毎に、前記第4の値を、前記対象エリアに出現した回数で補正した第5の値を算出する処理装置。 - 請求項1から5のいずれか1項に記載の処理装置において、
前記対象人物抽出手段は、前記ばらつきの程度に基づき算出される前記対象エリアでの挙動を示す第1の値が所定条件を満たす人物を前記対象人物として抽出する処理装置。 - 請求項7に記載の処理装置において、
前記対象人物抽出手段は、前記第4の値が所定条件を満たす人物を前記対象人物として抽出する処理装置。 - 請求項8に記載の処理装置において、
前記対象人物抽出手段は、前記第5の値が所定条件を満たす人物を前記対象人物として抽出する処理装置。 - 対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段と、
前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出手段と、
前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段と、
を有する処理装置。 - コンピュータが、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出工程と、
前記画像を解析し、前記人物毎に、前記対象エリア内での出現位置のばらつきの程度を算出する算出工程と、
前記算出工程での算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出工程と、
を実行する処理方法。 - コンピュータを、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段、
前記画像を解析し、前記人物毎に、前記対象エリア内での出現位置のばらつきの程度を算出する算出手段、
前記算出手段による算出結果が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段、
として機能させるプログラム。 - コンピュータが、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出工程と、
前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出工程と、
前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出工程と、
を実行する処理方法。 - コンピュータを、
対象エリアを撮影するカメラで生成された画像から人物を検出する人物検出手段、
前記画像を解析し、前記人物毎に、前記画像にフレームインする頻度を算出する算出手段、
前記画像にフレームインする頻度が所定の条件を満たす人物である対象人物を抽出する対象人物抽出手段、
として機能させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018012296 | 2018-01-29 | ||
JP2018012296 | 2018-01-29 | ||
PCT/JP2018/038797 WO2019146184A1 (ja) | 2018-01-29 | 2018-10-18 | 処理装置、処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019146184A1 JPWO2019146184A1 (ja) | 2021-01-28 |
JP7056673B2 true JP7056673B2 (ja) | 2022-04-19 |
Family
ID=67395288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019567850A Active JP7056673B2 (ja) | 2018-01-29 | 2018-10-18 | 処理装置、処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11683578B2 (ja) |
JP (1) | JP7056673B2 (ja) |
WO (1) | WO2019146184A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014155159A (ja) | 2013-02-13 | 2014-08-25 | Nec Corp | 情報処理システム、情報処理方法及びプログラム |
WO2014171258A1 (ja) | 2013-04-16 | 2014-10-23 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
JP2015139007A (ja) | 2014-01-20 | 2015-07-30 | 株式会社竹中工務店 | 犯罪リスク値導出装置およびプログラム |
WO2017169189A1 (ja) | 2016-03-30 | 2017-10-05 | 日本電気株式会社 | 解析装置、解析方法及びプログラム |
WO2017212568A1 (ja) | 2016-06-08 | 2017-12-14 | 三菱電機株式会社 | 監視装置 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3123587B2 (ja) | 1994-03-09 | 2001-01-15 | 日本電信電話株式会社 | 背景差分による動物体領域抽出方法 |
JP4541316B2 (ja) * | 2006-04-06 | 2010-09-08 | 三菱電機株式会社 | 映像監視検索システム |
WO2007139658A2 (en) * | 2006-05-24 | 2007-12-06 | Objectvideo, Inc. | Intelligent imagery-based sensor |
JP4318724B2 (ja) * | 2007-02-14 | 2009-08-26 | パナソニック株式会社 | 監視カメラ及び監視カメラ制御方法 |
JP4858400B2 (ja) * | 2007-10-17 | 2012-01-18 | ソニー株式会社 | 情報提供システム、情報提供装置、情報提供方法 |
KR101200491B1 (ko) * | 2008-12-22 | 2012-11-16 | 한국전자통신연구원 | 사람 검출 장치 및 방법 |
TW201033908A (en) * | 2009-03-12 | 2010-09-16 | Micro Star Int Co Ltd | System and method for counting people flow |
JP2012054810A (ja) * | 2010-09-02 | 2012-03-15 | Olympus Corp | 画像処理装置、画像処理方法、撮像装置、および画像処理プログラム |
US8643746B2 (en) * | 2011-05-18 | 2014-02-04 | Intellectual Ventures Fund 83 Llc | Video summary including a particular person |
CN103959802B (zh) * | 2012-08-10 | 2018-01-26 | 松下电器(美国)知识产权公司 | 影像提供方法、发送装置以及接收装置 |
US10713229B2 (en) | 2013-01-11 | 2020-07-14 | Nec Corporation | Index generating device and method, and search device and search method |
CN105027172B (zh) * | 2013-03-05 | 2017-05-03 | 三菱电机株式会社 | 监视信息处理装置及方法 |
JP6167767B2 (ja) | 2013-08-30 | 2017-07-26 | 日本電気株式会社 | インデックス生成装置及び検索装置 |
JP5683663B1 (ja) * | 2013-09-27 | 2015-03-11 | パナソニックIpマネジメント株式会社 | 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法 |
JP5597762B1 (ja) * | 2013-12-27 | 2014-10-01 | パナソニック株式会社 | 活動マップ分析装置、活動マップ分析システムおよび活動マップ分析方法 |
JP5906556B1 (ja) * | 2014-10-17 | 2016-04-20 | パナソニックIpマネジメント株式会社 | モニタリング装置、モニタリングシステムおよびモニタリング方法 |
US10121062B2 (en) * | 2014-11-03 | 2018-11-06 | Koninklijke Philips N.V. | Device, system and method for automated detection of orientation and/or location of a person |
WO2017035025A1 (en) * | 2015-08-21 | 2017-03-02 | T1V, Inc. | Engagement analytic system and display system responsive to user's interaction and/or position |
WO2017077902A1 (ja) | 2015-11-06 | 2017-05-11 | 日本電気株式会社 | データ処理装置、データ処理方法、及び、プログラム |
JP6840492B2 (ja) * | 2016-08-30 | 2021-03-10 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6803749B2 (ja) * | 2016-12-28 | 2020-12-23 | パナソニックi−PROセンシングソリューションズ株式会社 | 人数計測領域設定方法、人数計測領域設定プログラム、動線分析システム、カメラ装置及び人数計測プログラム |
JP6649306B2 (ja) * | 2017-03-03 | 2020-02-19 | 株式会社東芝 | 情報処理装置、情報処理方法及びプログラム |
-
2018
- 2018-10-18 US US16/965,340 patent/US11683578B2/en active Active
- 2018-10-18 WO PCT/JP2018/038797 patent/WO2019146184A1/ja active Application Filing
- 2018-10-18 JP JP2019567850A patent/JP7056673B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014155159A (ja) | 2013-02-13 | 2014-08-25 | Nec Corp | 情報処理システム、情報処理方法及びプログラム |
WO2014171258A1 (ja) | 2013-04-16 | 2014-10-23 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
JP2015139007A (ja) | 2014-01-20 | 2015-07-30 | 株式会社竹中工務店 | 犯罪リスク値導出装置およびプログラム |
WO2017169189A1 (ja) | 2016-03-30 | 2017-10-05 | 日本電気株式会社 | 解析装置、解析方法及びプログラム |
WO2017212568A1 (ja) | 2016-06-08 | 2017-12-14 | 三菱電機株式会社 | 監視装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2019146184A1 (ja) | 2019-08-01 |
US20210127056A1 (en) | 2021-04-29 |
JPWO2019146184A1 (ja) | 2021-01-28 |
US11683578B2 (en) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kumar et al. | F-DES: Fast and deep event summarization | |
Zhou et al. | Violence detection in surveillance video using low-level features | |
KR101967086B1 (ko) | 비디오 스트림들의 엔티티 기반 시간적 세그먼트화 | |
TWI510064B (zh) | 視訊推薦系統及其方法 | |
JP6973533B2 (ja) | 解析装置、解析方法及びプログラム | |
JP2017033547A (ja) | 情報処理装置及びその制御方法及びプログラム | |
KR20160033800A (ko) | 카운팅 방법 및 카운팅 장치 | |
Kumar et al. | Key frame extraction from consumer videos using sparse representation | |
CN109447022B (zh) | 一种镜头类型识别方法及装置 | |
JP6775343B2 (ja) | 情報処理装置及びその制御方法及びプログラム | |
JP7056673B2 (ja) | 処理装置、処理方法及びプログラム | |
Ahmed et al. | Localization of region of interest in surveillance scene | |
Mizher et al. | Action key frames extraction using l1-norm and accumulative optical flow for compact video shot summarisation | |
Morikuni et al. | Expression strength for the emotional scene detection from lifelog videos | |
JP7056737B2 (ja) | 処理装置、処理方法及びプログラム | |
Aihara et al. | Motion dense sampling and component clustering for action recognition | |
Kamishima et al. | Event detection in consumer videos using GMM supervectors and SVMs | |
Lassoued et al. | Human actions recognition: an approach based on stable motion boundary fields | |
Petrogianni et al. | Film Shot Type Classification Based on Camera Movement Styles | |
Dang et al. | Building 3D event logs for video investigation | |
Henderson et al. | Feature correspondence in low quality CCTV videos | |
JP2016103234A (ja) | 映像特徴抽出装置、方法、及びプログラム | |
Fataliyev et al. | Video summarization based on extracted key position of spotted objects | |
Pandit et al. | Evolution of Trajectories: A Novel Representation for Deep Action Recognition | |
Ahmed et al. | (2017). Localization of region of interest in surveillance scene. Multimedia Tools and Applications, 76 (11), 13651-13680. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200702 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220321 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7056673 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |