JP6819689B2 - 画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体 - Google Patents
画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体 Download PDFInfo
- Publication number
- JP6819689B2 JP6819689B2 JP2018545717A JP2018545717A JP6819689B2 JP 6819689 B2 JP6819689 B2 JP 6819689B2 JP 2018545717 A JP2018545717 A JP 2018545717A JP 2018545717 A JP2018545717 A JP 2018545717A JP 6819689 B2 JP6819689 B2 JP 6819689B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- stagnant
- feature
- region
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 118
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000000605 extraction Methods 0.000 claims description 154
- 238000000034 method Methods 0.000 claims description 38
- 239000000470 constituent Substances 0.000 claims description 31
- 239000000284 extract Substances 0.000 claims description 28
- 238000003384 imaging method Methods 0.000 claims description 10
- 230000014759 maintenance of location Effects 0.000 description 47
- 238000010586 diagram Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 13
- 230000010365 information processing Effects 0.000 description 9
- 230000006399 behavior Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000000717 retained effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000000746 body region Anatomy 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Description
(1.1 概要)
以下に本開示の第1の実施の形態を説明する。第1の実施の形態に係る画像処理装置では、入力された映像から滞留物体の領域および移動物体の領域をそれぞれ特定したのち、滞留物体の領域のうち移動物体の領域と重複していない部分を特徴抽出領域として決定する。そして、画像処理装置は、決定した特徴抽出領域から滞留物体の特徴を抽出する。これによれば、画像処理装置は、例えば滞留物体の前を横切る移動物体が存在した場合であっても、該移動物体の影響を受けずに、滞留物体の特徴を抽出することができる。したがって、画像処理装置が抽出する特徴には、移動物体の特徴が含まれないため、該抽出された特徴を用いて滞留物体の照合を行う場合、この滞留物体の照合の精度が向上する。
図1に、本実施の形態に係る画像処理装置100の構成の一例を示す。以下、図1を参照しながら、本実施の形態における画像処理装置100について説明する。図1に示す通り、画像処理装置100は、移動領域特定部110と、滞留領域特定部120と、抽出部130とを備える。
次に、図7を参照して、本実施の形態に係る画像処理装置100の処理について説明する。図7は、本実施の形態に係る画像処理装置100の処理の流れの一例を示すフローチャートである。
以上のように、本実施の形態に係る画像処理装置100は、滞留物体の特徴を、移動物体と重複していない領域の部分画像から抽出するため、移動物体の特徴を滞留物体の特徴として誤って抽出することを防ぐことができる。これにより、画像処理装置100は、滞留物体の特徴を精度よく抽出することができる。したがって、このように抽出された特徴を用いて、映像のある期間において検出される滞留物体と、他の期間において検出される滞留物体との照合を行う場合、照合の精度を高めることができる。
(2.1 概要)
第2の実施の形態に係る画像処理装置は、第1の実施の形態の画像処理装置と同様に、特徴抽出領域を決定し、この特徴抽出領域に含まれる滞留物体の構成部位や面積によって抽出する特徴を判断する。これにより、より安定的に滞留物体の照合を行うことができる特徴を抽出することができる。
図8に、本実施の形態に係る画像処理装置200の構成の一例を示す。以下、図8を参照しながら、本実施の形態に係る画像処理装置200について説明する。なお、本実施の形態において、第1の実施の形態において説明したブロックと同じブロックについては同じ符号を付し、その詳細な説明を省略する。
次に、図10を参照して、本実施の形態に係る画像処理装置200の処理について説明する。図10は、本実施の形態に係る画像処理装置200の処理の流れの一例を示すフローチャートである。
以上のように、本実施の形態に係る画像処理装置200は、部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定する。このように、画像処理装置200は、滞留物体に対する隠蔽等の状況によって、抽出する特徴を切り替えることができる。これにより、画像処理装置200から出力された特徴を用いて照合を行う装置は、例えば、ある画像から抽出した上半身に含まれる特徴と、他の画像から抽出した下半身に含まれる特徴とを照合するのではなく、同じ構成部位(例えば上半身)から抽出した特徴同士を用いて照合を行うことができる。したがって、本実施の形態に係る画像処理装置200は、上述した第1の実施の形態に係る画像処理装置100の効果に加え、より安定的に滞留物体の照合を行うことができる特徴を抽出することができる。
(3.1 概要)
第1および第2の実施の形態に係る画像処理装置は、撮像装置と別個の構成であってもよいし、撮像装置内に内蔵されていてもよい。本実施の形態では、撮像装置の一例であるネットワークカメラに、上述した画像処理装置が内蔵されることについて説明する。このようなネットワークカメラも、上述した画像処理装置と同様に、隠蔽等が発生した場合であっても、追跡対象を追跡可能な情報を抽出することができる。
図11に、本実施の形態に係るネットワークカメラ300の構成の一例を示す。以下、図11を参照しながら、本実施の形態に係るネットワークカメラ300について説明する。なお、本実施の形態において、第1の実施の形態において説明したブロックと同じブロックについては同じ符号を付し、その詳細な説明を省略する。
(4.1 概要)
本実施の形態に係る画像処理装置は、第1および第2の実施の形態に係る画像処理装置の機能に加え、特徴抽出領域を表示装置に他の領域とは異なるように、表示装置に表示させる機能を有する。これにより、本実施の形態に係る画像処理装置は、特徴を抽出する対象となる滞留物体が、画像フレームのどこに含まれるのかを、ユーザに容易に把握させることができる。
図12に、本実施の形態に係る画像処理装置400の構成の一例を示す。以下、図12を参照しながら、本実施の形態に係る画像処理装置400について説明する。なお、本実施の形態において、第1の実施の形態において説明したブロックと同じブロックについては同じ符号を付し、その詳細な説明を省略する。
(5.1 概要)
本実施の形態では、上述した画像処理装置またはネットワークカメラを含む、滞留物体追跡システムについて説明する。本実施の形態に係る滞留物体追跡システムは、画像処理装置の機能に加え、抽出部が抽出した特徴を用いて照合を行う照合部を備える。この照合部が、抽出部によって抽出された特徴を用いて滞留物体の照合を行うため、本実施の形態に係る滞留物体追跡システムは、隠蔽等が発生した場合であっても、追跡対象を追跡することができる。
図14に、本実施の形態に係る滞留物体追跡システム5の構成の一例を示す。以下、図14を参照しながら、本実施の形態に係る滞留物体追跡システム5について説明する。なお、本実施の形態において、上述した各実施の形態において説明したブロックと同じブロックについては同じ符号を付し、その詳細な説明を省略する。
次に、図17を参照して、本実施の形態に係る滞留物体追跡システム5の照合部511の処理について説明する。図17は、本実施の形態に係る滞留物体追跡システム5の照合部511の処理の流れの一例を示すフローチャートである。図17に示す処理は、画像フレーム毎に行われる。
本開示の各実施の形態において、各装置の各構成要素は、機能単位のブロックを示している。各装置の各構成要素の一部又は全部は、例えば図18に示すような情報処理装置900とプログラムとの任意の組み合わせにより実現される。図18は、各装置の各構成要素を実現する情報処理装置900のハードウェア構成の一例を示すブロック図である。情報処理装置900は、一例として、以下のような構成を含む。
・ROM(Read Only Memory)902
・RAM(Random Access Memory)903
・RAM903にロードされるプログラム904
・プログラム904を格納する記憶装置905
・記録媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インタフェース908
・データの入出力を行う入出力インタフェース910
・各構成要素を接続するバス911
各実施の形態における各装置の各構成要素は、これらの機能を実現するプログラム904をCPU901が取得して実行することで実現される。各装置の各構成要素の機能を実現するプログラム904は、例えば、予め記憶装置905やRAM903に格納されており、必要に応じてCPU901が読み出す。なお、プログラム904は、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記録媒体906に格納されており、ドライブ装置907が当該プログラムを読み出してCPU901に供給してもよい。
上記の実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
映像に含まれる移動物体の、該映像に含まれる画像における領域を特定する移動領域特定手段と、
前記映像に含まれる滞留物体の、前記画像における領域を特定する滞留領域特定手段と、
前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する抽出手段と、
を備えることを特徴とする画像処理装置。
前記抽出手段は、前記部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定し、前記部分画像のうち構成部位の部分の画像から前記決定した特徴を抽出する、
ことを特徴とする付記1に記載の画像処理装置。
前記抽出手段は、前記部分画像の領域の面積に応じて、特徴を抽出するか否かを決定し、特徴を抽出しないと決定した場合、特徴の抽出を行っていない旨を示す通知を、前記画像を示す情報に関連付けて出力する、
ことを特徴とする付記1または2に記載の画像処理装置。
前記部分画像の領域を、他の領域と識別可能に表示装置に表示するよう制御する表示制御手段をさらに備える、
ことを特徴とする付記1から3の何れか1つに記載の画像処理装置。
付記1から4の何れか1つに記載の画像処理装置と、
前記映像を撮影する撮像手段と、
前記抽出手段が抽出した特徴を用いて、前記映像に含まれる滞留物体の照合を行う照合手段と、
を備えることを特徴とする滞留物体追跡システム。
前記照合手段は、前記映像のうち、第1の期間に含まれる1または複数の画像から抽出された特徴と、前記第1の期間とは異なる前記第2の期間に含まれる1または複数の画像から抽出された特徴とを用いて、前記滞留物体の照合を行う、
ことを特徴とする付記5に記載の滞留物体追跡システム。
前記抽出手段は、前記部分画像の領域の面積に応じて、特徴を抽出するか否かを決定し、特徴を抽出しないと決定した場合、特徴の抽出を行っていない旨を示す通知を、前記画像を示す情報に関連付けて、前記照合手段に出力し、
前記照合手段は、前記通知に基づいて、前記第2の期間に含まれる画像のうち、前記通知に関連する画像以外の画像から抽出された特徴を用いて、前記滞留物体の照合を行う、
ことを特徴とする付記6に記載の滞留物体追跡システム。
映像に含まれる移動物体の、該映像に含まれる画像における領域を特定し、
前記映像に含まれる滞留物体の、前記画像における領域を特定し、
前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する、
ことを特徴とする画像処理方法。
前記部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定し、前記部分画像のうち構成部位の部分の画像から前記決定した特徴を抽出する、
ことを特徴とする付記8に記載の画像処理方法。
映像を撮影し、
前記映像に含まれる移動物体の、該映像に含まれる画像における領域を特定し、
前記映像に含まれる滞留物体の、前記画像における領域を特定し、
前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出し、
前記抽出手段が抽出した特徴を用いて、前記映像に含まれる滞留物体の照合を行う、
ことを特徴とする滞留物体追跡方法。
前記部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定し、前記部分画像のうち構成部位の部分の画像から前記決定した特徴を抽出する、
ことを特徴とする付記10に記載の滞留物体追跡方法。
映像に含まれる移動物体の、該映像に含まれる画像における領域を特定する処理と、
前記映像に含まれる滞留物体の、前記画像における領域を特定する処理と、
前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する処理と、
をコンピュータに実行させるプログラムを記録する、コンピュータ読み取り可能な非一時的な記録媒体。
前記特徴を抽出する処理は、前記部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定し、前記部分画像のうち構成部位の部分の画像から前記決定した特徴を抽出する、
ことを特徴とする付記12に記載の記録媒体。
100 画像処理装置
110 移動領域特定部
120 滞留領域特定部
130 抽出部
131 特徴抽出領域決定部
132 特徴抽出部
200 画像処理装置
230 抽出部
233 抽出特徴決定部
234 記憶部
300 ネットワークカメラ
340 撮像部
400 画像処理装置
401 表示装置
402 撮像装置
450 表示制御部
501 照合装置
511 照合部
Claims (10)
- 映像に含まれる移動物体の、該映像に含まれる画像における領域を特定する移動領域特定手段と、
前記映像に含まれる滞留物体の、前記画像における領域を特定する滞留領域特定手段と、
前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する抽出手段と、
を備えることを特徴とする画像処理装置。 - 前記抽出手段は、前記部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定し、前記部分画像のうち構成部位の部分の画像から前記決定した特徴を抽出する、
ことを特徴とする請求項1に記載の画像処理装置。 - 前記抽出手段は、前記部分画像の領域の面積に応じて、特徴を抽出するか否かを決定し、特徴を抽出しないと決定した場合、特徴の抽出を行っていない旨を示す通知を、前記画像を示す情報に関連付けて出力する、
ことを特徴とする請求項1または2に記載の画像処理装置。 - 前記部分画像の領域を、他の領域と識別可能に表示装置に表示するよう制御する表示制御手段をさらに備える、
ことを特徴とする請求項1から3の何れか1項に記載の画像処理装置。 - 請求項1から4の何れか1項に記載の画像処理装置と、
前記映像を撮影する撮像手段と、
前記抽出手段が抽出した特徴を用いて、前記映像に含まれる滞留物体の照合を行う照合手段と、
を備えることを特徴とする滞留物体追跡システム。 - 前記照合手段は、前記映像のうち、第1の期間に含まれる1または複数の画像から抽出された特徴と、前記第1の期間とは異なる第2の期間に含まれる1または複数の画像から抽出された特徴とを用いて、前記滞留物体の照合を行う、
ことを特徴とする請求項5に記載の滞留物体追跡システム。 - 前記抽出手段は、前記部分画像の領域の面積に応じて、特徴を抽出するか否かを決定し、特徴を抽出しないと決定した場合、特徴の抽出を行っていない旨を示す通知を、前記画像を示す情報に関連付けて、前記照合手段に出力し、
前記照合手段は、前記通知に基づいて、前記第2の期間に含まれる画像のうち、前記通知に関連する画像以外の画像から抽出された特徴を用いて、前記滞留物体の照合を行う、
ことを特徴とする請求項6に記載の滞留物体追跡システム。 - 映像に含まれる移動物体の、該映像に含まれる画像における領域を特定し、
前記映像に含まれる滞留物体の、前記画像における領域を特定し、
前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する、
ことを特徴とする画像処理方法。 - 前記部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定し、前記部分画像のうち構成部位の部分の画像から前記決定した特徴を抽出する、
ことを特徴とする請求項8に記載の画像処理方法。 - 映像に含まれる移動物体の、該映像に含まれる画像における領域を特定する処理と、
前記映像に含まれる滞留物体の、前記画像における領域を特定する処理と、
前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する処理と、
をコンピュータに実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/004626 WO2018073848A1 (ja) | 2016-10-19 | 2016-10-19 | 画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018073848A1 JPWO2018073848A1 (ja) | 2019-06-27 |
JP6819689B2 true JP6819689B2 (ja) | 2021-01-27 |
Family
ID=62018297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018545717A Active JP6819689B2 (ja) | 2016-10-19 | 2016-10-19 | 画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体 |
Country Status (3)
Country | Link |
---|---|
US (3) | US11049260B2 (ja) |
JP (1) | JP6819689B2 (ja) |
WO (1) | WO2018073848A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860559A (zh) * | 2019-12-31 | 2020-10-30 | 滴图(北京)科技有限公司 | 图像处理方法、装置、电子设备和存储介质 |
CN112183359B (zh) * | 2020-09-29 | 2024-05-14 | 中国科学院深圳先进技术研究院 | 视频中的暴力内容检测方法、装置及设备 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7813528B2 (en) | 2007-04-05 | 2010-10-12 | Mitsubishi Electric Research Laboratories, Inc. | Method for detecting objects left-behind in a scene |
JP4884331B2 (ja) * | 2007-08-20 | 2012-02-29 | セコム株式会社 | 移動物体追跡装置 |
JP2011043863A (ja) * | 2007-11-16 | 2011-03-03 | Nec Corp | 対象領域判定・追跡装置、方法、プログラム及び対象領域判定装置 |
EP2093698A1 (en) * | 2008-02-19 | 2009-08-26 | British Telecommunications Public Limited Company | Crowd congestion analysis |
JP5027741B2 (ja) | 2008-06-18 | 2012-09-19 | セコム株式会社 | 画像監視装置 |
JP5523900B2 (ja) | 2009-03-31 | 2014-06-18 | 綜合警備保障株式会社 | 人物検索装置、人物検索方法、及び人物検索プログラム |
JP2010271876A (ja) * | 2009-05-20 | 2010-12-02 | Seiko Precision Inc | 移動体追跡装置、移動体追跡方法及びプログラム |
JP5870996B2 (ja) | 2011-03-28 | 2016-03-01 | 日本電気株式会社 | 人物追跡装置、人物追跡方法および人物追跡プログラム |
WO2013187047A1 (ja) | 2012-06-13 | 2013-12-19 | パナソニック株式会社 | 物体検出装置 |
JP6276519B2 (ja) * | 2013-05-22 | 2018-02-07 | 株式会社 日立産業制御ソリューションズ | 人数計測装置および人物動線解析装置 |
US10474921B2 (en) | 2013-06-14 | 2019-11-12 | Qualcomm Incorporated | Tracker assisted image capture |
JP5613815B1 (ja) | 2013-10-29 | 2014-10-29 | パナソニック株式会社 | 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法 |
JP6139447B2 (ja) | 2014-03-20 | 2017-05-31 | 株式会社東芝 | 画像処理装置、画像処理方法および画像処理プログラム |
US9245196B2 (en) * | 2014-05-09 | 2016-01-26 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for tracking people in indoor environments using a visible light camera and a low-frame-rate infrared sensor |
US10242447B2 (en) | 2016-09-08 | 2019-03-26 | Sony Corporation | Video processing system and method for deformation and occlusion resistant object tracking in video content |
-
2016
- 2016-10-19 WO PCT/JP2016/004626 patent/WO2018073848A1/ja active Application Filing
- 2016-10-19 JP JP2018545717A patent/JP6819689B2/ja active Active
- 2016-10-19 US US16/339,782 patent/US11049260B2/en active Active
-
2019
- 2019-10-11 US US16/599,245 patent/US11288817B2/en active Active
- 2019-10-11 US US16/599,259 patent/US10885641B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20200043181A1 (en) | 2020-02-06 |
US11049260B2 (en) | 2021-06-29 |
US11288817B2 (en) | 2022-03-29 |
US20200043177A1 (en) | 2020-02-06 |
US10885641B2 (en) | 2021-01-05 |
US20200042778A1 (en) | 2020-02-06 |
WO2018073848A1 (ja) | 2018-04-26 |
JPWO2018073848A1 (ja) | 2019-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11106920B2 (en) | People flow estimation device, display control device, people flow estimation method, and recording medium | |
US10810438B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
KR102189205B1 (ko) | 사람의 활동 개요 생성 시스템 및 방법 | |
JP6696422B2 (ja) | 異常検知装置及び異常検知方法 | |
WO2014155979A1 (ja) | 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法 | |
JP5832910B2 (ja) | 画像監視装置 | |
CN109508576B (zh) | 一种异常驾驶行为检测方法、装置及电子设备 | |
JP5865710B2 (ja) | 画像処理装置 | |
US11288817B2 (en) | Image processing device, stationary object tracking system, image processing method, and recording medium | |
CN115471916A (zh) | 吸烟检测方法、装置、设备及存储介质 | |
US20200084416A1 (en) | Information processing apparatus, control method, and program | |
Borges et al. | Vision-based detection of unusual patient activity | |
KR101496287B1 (ko) | 비디오 시놉시스 시스템 및 이를 이용한 비디오 시놉시스 방법 | |
JP2009301242A (ja) | 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体 | |
US20130279761A1 (en) | Method and arrangement for identifying virtual visual information in images | |
JP6939065B2 (ja) | 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法 | |
JP7048347B2 (ja) | 位置関係決定装置 | |
JP2008146132A (ja) | 画像検出装置、プログラム及び画像検出方法 | |
CN110909579A (zh) | 一种视频图像处理方法、装置、电子设备及存储介质 | |
JP6527729B2 (ja) | 画像処理装置及び画像処理プログラム | |
US10593045B2 (en) | Information processing apparatus and method of controlling the same | |
JP7332047B2 (ja) | 追跡装置、追跡システム、追跡方法、およびプログラム | |
JP7359306B2 (ja) | 追跡装置、追跡システム、追跡方法、およびプログラム | |
JP2016071591A (ja) | 照合装置および照合方法 | |
JP2024063801A (ja) | 行動識別装置、行動識別装置の制御方法、プログラム、及び記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190320 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190320 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6819689 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |