JP7047944B2 - 映像監視システム、映像監視方法、及びプログラム - Google Patents
映像監視システム、映像監視方法、及びプログラム Download PDFInfo
- Publication number
- JP7047944B2 JP7047944B2 JP2021016332A JP2021016332A JP7047944B2 JP 7047944 B2 JP7047944 B2 JP 7047944B2 JP 2021016332 A JP2021016332 A JP 2021016332A JP 2021016332 A JP2021016332 A JP 2021016332A JP 7047944 B2 JP7047944 B2 JP 7047944B2
- Authority
- JP
- Japan
- Prior art keywords
- attribute
- person
- camera
- range
- crowd
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Description
本発明の第2の映像監視システムは、(1)監視カメラが撮像した撮像画像を取得する取得手段と、(2)撮像画像に映る人物の歩行情報に基づき前記人物が歩行困難者であるか否かを判定し、前記人物に対し持ち物に応じて判定される属性とは異なる属性を判定する判定手段と、(3)前記属性の判定結果に基づく統計処理の結果を出力する出力手段と、を備える。
本発明の第2の映像監視方法は、コンピュータが、(1)監視カメラが撮像した撮像画像を取得し、(2)撮像画像に映る人物の歩行情報に基づき前記人物が歩行困難者であるか否かを判定し、前記人物に対し持ち物に応じて判定される属性とは異なる属性を判定し、(3)前記属性の判定結果に基づく統計処理の結果を出力する、ことを含む。
本発明の第2のプログラムは、コンピュータに、(1)監視カメラが撮像した撮像画像を取得する処理、(2)撮像画像に映る人物の歩行情報に基づき前記人物が歩行困難者であるか否かを判定し、前記人物に対し持ち物に応じて判定される属性とは異なる属性を判定する処理、(3)前記属性の判定結果に基づく統計処理の結果を出力する処理、を実行させる。
図1は、実施形態1に係る情報処理装置2000を例示するブロック図である。図1において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
情報処理装置2000は、固定カメラ10によって生成された第1監視画像12を用いて、群衆の流れを算出する。一方で、情報処理装置2000は、移動カメラ20によって生成された第2監視画像22を用いて、群衆に含まれるオブジェクトの属性分布を算出する。そして情報処理装置2000は、第1監視画像12を用いて算出された群衆の流れ、及び第2監視画像22を用いて算出された属性分布に基づいて、移動カメラ20の撮像範囲に含まれない範囲について属性分布を推定する。こうすることで、移動カメラ20では網羅できない広い範囲についても、属性分布を把握することができる。その結果、監視場所におけるオブジェクトの属性の分布を詳細に把握することができる。
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図5は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。第1解析部2020は、第1監視画像12を取得する(S102)。第1解析部2020は、固定カメラ10によって生成された第1監視画像12を用いて、固定カメラ10の撮像範囲における群衆の流れを算出する(S104)。第2解析部2040は、第2監視画像22を取得する(S106)。第2解析部2040は、移動カメラ20によって生成された第2監視画像22を用いて、移動カメラ20の撮像範囲について属性分布を算出する(S108)。推定部2060は、移動カメラ20の撮像範囲における属性分布と、固定カメラ10の撮像範囲における群衆の流れとに基づいて、移動カメラ20の撮像範囲に含まれない推定範囲について属性分布を推定する(S110)。
第1解析部2020は第1監視画像12を取得する(S102)。第1解析部2020が第1監視画像12を取得する方法は任意である。例えば第1解析部2020は、固定カメラ10から送信される第1監視画像12を受信する。また例えば、第1解析部2020は、固定カメラ10にアクセスし、固定カメラ10に記憶されている第1監視画像12を取得する。固定カメラ10は、固定カメラ10の外部に設けられている記憶装置に第1監視画像12を記憶してもよい。この場合、第1解析部2020は、この記憶装置にアクセスして第1監視画像12を取得してもよい。
第2解析部2040は第2監視画像22を取得する(S106)。第2解析部2040が第2監視画像22を取得する方法は、第1解析部2020が第1監視画像12を取得する方法と同様である。
第1解析部2020は、固定カメラ10の撮像範囲における群衆の流れを算出する(S104)。第1解析部2020は、少なくとも、群衆の流れの方向を算出する。例えば第1解析部2020は、1つ又は複数の第1監視画像12を用いて、第1監視画像12に写っている群衆の流れを表すベクトル(以下、流れベクトル)を算出する。そして、第1解析部2020は、このベクトルが示す方向を群衆の流れの方向とする。
第1解析部2020は、時系列で並べられた複数の第1監視画像12それぞれに含まれる画素や特徴点のオプティカルフローを算出する。図6は、第1監視画像12について算出したオプティカルフローを例示する図である。図6に示す各矢印が、第1監視画像12について算出したオプティカルフローを表す。
第1解析部2020は、時系列で並べられた複数の第1監視画像12に共通で写っているオブジェクトを検出し、そのオブジェクトの位置の変化に基づいて流れベクトルを算出する。図7は、オブジェクトの位置の変化を例示する図である。図7において、点線で表されたオブジェクトは t 番目の第1監視画像12に写っており、実線で表されたオブジェクトは t+1 番目の第1監視画像12に写っているとする。矢印は、各オブジェクトの位置の変化を表す。オブジェクトの位置の変化は、例えば同一のオブジェクトを表す複数の領域の重心や接地位置(人物の場合は足元)を結んだベクトルである。
群衆の移動方向が分かればよい場合、第1解析部2020は、第1監視画像12に写っているオブジェクトの向きに基づいて、流れベクトルの方向を算出してもよい。例えばオブジェクトが人や動物である場合、第1解析部2020は、これらの顔や身体の向きを割り出し、顔や身体の正面が向いている方向を流れベクトルの方向とする。またオブジェクトが車、バイク、又は飛行物体などの物である場合、第1解析部2020は、第1監視画像12に写っているオブジェクトの形状や各種部品(バンパーやハンドルなど)の位置などからオブジェクトの進行方向を割り出し、割り出した進行方向を流れベクトルの方向とする。
情報処理装置2000が扱うオブジェクトの属性は様々である。例えばオブジェクトが人である場合、属性は、年齢層、性別、国籍、所属グループ、持ち物の有無、又は歩行困難者であるか否かなどである。ここで、歩行困難者とは、怪我や障害などにより、一般の人よりも歩行速度が遅い人を意味する。オブジェクトは、各属性について、様々な属性値をとりうる。属性値とは、或る属性についてそのオブジェクトが当てはまる値である。
推定部2060は、移動カメラ20の撮像範囲における属性分布を算出する(S106)。まず推定部2060は、第2監視画像22に写っている全部のオブジェクト又は一部のオブジェクトについて属性値を算出する。例えば性別という属性を扱う場合、第2解析部2040は、各オブジェクトが男性と女性のどちらであるかを割り出す。そして第2解析部2040は、算出した各オブジェクトの属性値に基づいて属性分布を算出する。
第2解析部2040がオブジェクトについて属性値を算出する方法は、扱う属性によって異なる。例えば第2解析部2040は、第2監視画像22に写っている人物の顔の特徴などから、その人物の年齢層、性別又は国籍を算出する。ここで、人物の顔の特徴などから年齢層、性別、又は国籍(人種)を算出する技術には、既存の技術を利用できる。
第2解析部2040は、算出された各オブジェクトの属性値に基づいて、移動カメラ20の撮像範囲における属性分布を算出する。第2解析部2040が属性分布を算出する方法は様々である。例えば第2解析部2040は、各属性値を持つオブジェクトの数(属性値とその属性値を持つオブジェクトの数のペアから成る集合)を属性分布とする。
推定部2060は、移動カメラ20の撮像範囲外の範囲である推定範囲について、属性分布を推定する(S108)。そのために、推定部2060は、固定カメラ10の撮像範囲における群衆の流れ、及び移動カメラ20の撮像範囲における属性分布を利用する。以下、推定部2060が属性分布を推定する具体的な方法を例示する。
固定カメラ10の撮像範囲と移動カメラ20の撮像範囲が重なる場合、推定部2060は、移動カメラ20の撮像範囲における群衆の移動速度が、固定カメラ10の撮像範囲における群衆の移動速度と同じ速度であると推定する。例えば固定カメラ10の撮像範囲における群衆の移動速度が「右方向に 10m/sec」である場合、移動カメラ20の撮像範囲における群衆の移動速度も「右方向に 10m/sec」であると推定する。そこで推定部2060は、時点 t から n 秒後(n は正の実数)において、移動カメラ20の撮像範囲から右方向に 10*n [m] 移動した位置を推定範囲とし、その推定範囲の属性分布が、時点 t における移動カメラ20の撮像範囲の属性分布と同じ属性分布になると推定する。
固定カメラ10と移動カメラ20の撮像範囲が重ならない場合、推定部2060は、固定カメラ10における群衆の移動速度から、移動カメラ20の撮像範囲における群衆の移動速度を推定する。その具体的方法には様々な方法がある。
移動カメラ20の撮像範囲に含まれる群衆の移動速度を推定する方法は、上述した、固定カメラ10の撮像範囲に含まれる群衆の移動速度が、移動カメラ20の撮像範囲に含まれる移動速度であると推定する方法に限定されない。例えば推定部2060は、第2監視画像22を用いて、移動カメラ20の撮像範囲に含まれる群衆の移動速度を直接算出してもよい。この場合、推定部2060は、第2監視画像22に写っている群衆の移動速度を算出する。なお、第2監視画像22に写っている群衆の移動速度を算出する方法は、第1監視画像12に写っている群衆の移動速度を算出する方法と同様である。
図9や図10の例では、推定範囲60が、移動カメラ20の撮像範囲と同じ形状及び広さを持つ範囲になっている。しかし、推定範囲60はこのような範囲には限定されない。以下、種々の推定範囲60について例示する。
推定部2060は、推定範囲60を、予め定められた所定の形状及び広さを持つ範囲とする。この所定の形状及び広さは、予め推定部2060に設定されていてもよいし、推定部2060からアクセス可能な記憶装置に記憶されていてもよいし、ユーザによって設定されてもよい。
推定部2060は、推定範囲60を、固定カメラ10の撮像範囲と同じ形状及び広さを持つ範囲とする。図12は、固定カメラ10の撮像範囲と同じ形状及び広さの推定範囲60について属性分布が推定される様子を例示する図である。
推定部2060は、推定範囲を、無限の広さを持つ範囲とする。この場合、例えば推定部2060は、群衆が、ガウス分布などの分布に基づいて時間と共に拡散するとみなして、推定範囲における属性分布を推定する。
固定カメラ10の撮像範囲における群衆の流れが複数存在する場合もある。図14は、群衆の流れが複数存在する様子を例示する図である。図14において、固定カメラ10の撮像範囲には、左方向に移動している群衆と右方向に移動している群衆が存在する。
異なる移動カメラ20を用いてそれぞれ推定された複数の推定範囲60の属性分布が、時間の経過に伴って重なることがある。図15は、複数の移動カメラ20が存在する様子を例示する図である。図15において、移動カメラ20-1の撮像範囲24について算出された属性分布に基づいて属性分布が推定される推定範囲60-1と、移動カメラ20-2の撮像範囲24について算出された属性分布に基づいて属性分布が推定される推定範囲60-2が重なっている。
これまで説明した種々の処理において、固定カメラ10の撮像範囲と移動カメラ20の撮像範囲が利用されている。ここで、これらの撮像範囲を算出する方法を説明する。
前述のように、推定部2060は、移動カメラ20の撮像範囲内の群衆の流れを、固定カメラ10の撮像範囲内の群衆の流れに基づいて推定する。ここで、固定カメラ10が複数ある場合、推定部2060は、或る移動カメラ20の撮像範囲内の群衆の流れを推定するために、いずれか1つ以上の固定カメラ10を利用する。
情報処理装置2000が属性分布の生成に利用する種々のデータ(第1監視画像12や第2監視画像22)の生成時点と、どの時点に関して属性分布を生成するかとの関係は様々である。図16は、データの生成時点と属性分布が生成される時点との関係を例示する図である。図16(a)において、推定部2060は、或る時点に関する属性分布を、その時点以前に生成されたデータを利用して推定している。図16(b)において、推定部2060は、或る時点に関する属性分布を、その時点以降に生成されたデータを利用して推定している。また、図16(c)において、推定部2060は、或る時点に関する属性分布を、その時点以前に生成されたデータとその時点以降に生成されたデータの双方を用いて推定している。
情報処理装置2000によって推定される属性分布は、様々な形で利用することができる。例えば、監視対象の場所における属性分布を把握することで、群衆のサポートを適切に行えるようになる。
情報処理装置2000のユーザに属性分布を把握させる方法は様々である。例えば推定部2060は、算出した属性分布を監視対象の場所の地図に重畳して出力する。例えばこの地図は、ディスプレイ装置に表示される。このディスプレイ装置は、情報処理装置2000に接続されているものであってもよいし、他の装置に接続されているものであってもよい。情報処理装置2000以外の装置に接続されているディスプレイ装置に上記地図を表示させる場合、情報処理装置2000は、ディスプレイ装置が接続されている装置に対して上記地図を表す情報を送信する。
図8や図9を用いて例示したように、情報処理装置2000は、或る時点について算出された群衆の流れ及びオブジェクトの属性分布に基づき、その時点よりも未来の時点について、撮像範囲24に含まれない推定範囲60におけるオブジェクトの属性分布を推定できる。例えば図8では、時点 t について算出された固定カメラ10の撮像範囲14内の群衆の流れ及び移動カメラ20の撮像範囲24内のオブジェクトの属性分布に基づき、時点 t+1 について、推定範囲60-1におけるオブジェクトの属性分布が推定されている。このように、情報処理装置2000によれば、未来についての属性分布を推定することができる。
図20は、実施形態2の情報処理装置2000を例示するブロック図である。下記で説明する点を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様の機能を有する。
実施形態2の情報処理装置2000は、実施形態1と同様に計算機1000を用いて実現される(図4参照)。本実施形態において、前述したストレージ1080に記憶される各プログラムモジュールには、本実施形態で説明した各機能を実現するプログラムがさらに含まれる。
本実施形態によれば、属性に対応付けて定められた移動モデルを用いて群衆の流れが推定される。そのため、群衆の流れをより高い精度で推定することができる。その結果、属性分布をより高い精度で推定することができる。
図22は、実施形態3の情報処理装置2000を例示するブロック図である。下記で説明する点を除き、実施形態3の情報処理装置2000は、実施形態1の情報処理装置2000と同様の機能を有する。
実施形態2の情報処理装置2000は、実施形態1と同様に計算機1000を用いて実現される(図4参照)。本実施形態において、前述したストレージ1080に記憶される各プログラムモジュールには、本実施形態で説明した各機能を実現するプログラムがさらに含まれる。
本実施形態によれば、上述した種々の制御情報が生成される。この制御情報を利用することにより、情報処理装置2000のユーザである警備員などが、群衆誘導などを適切に行うことができるようになる。
1. 位置が固定されたカメラである固定カメラによって生成された第1の監視画像を用いて、前記固定カメラの撮像範囲におけるオブジェクトの集合の流れを算出する第1解析手段と、
位置が固定されていないカメラである移動カメラによって生成された第2の監視画像を用いて、前記移動カメラの撮像範囲におけるオブジェクトの属性の分布を算出する第2解析手段と、
前記移動カメラの撮像範囲におけるオブジェクトの属性の分布と、前記固定カメラの撮像範囲におけるオブジェクトの集合の流れとに基づき、前記移動カメラの撮像範囲に含まれない範囲を含む推定範囲についてオブジェクトの属性の分布を推定する推定手段と、を有する情報処理装置。
2. 前記推定手段は、前記移動カメラの撮像範囲におけるオブジェクトの属性の分布を、前記固定カメラの撮像範囲におけるオブジェクトの集合の流れに基づいて移動させることで、前記推定範囲におけるオブジェクトの属性の分布を推定する、1.に記載の情報処理装置。
3. 前記固定カメラと前記移動カメラの撮像範囲が重なっていない場合、前記推定手段は、前記固定カメラの撮像範囲におけるオブジェクトの集合の流れに基づいて、前記移動カメラの撮像範囲におけるオブジェクトの集合の流れを推定し、前記移動カメラの撮像範囲におけるオブジェクトの属性の分布を、前記推定したオブジェクトの集合の流れに基づいて移動させることで、前記推定範囲におけるオブジェクトの属性の分布を推定する、2.に記載の情報処理装置。
4. オブジェクトの属性値に対応付けてそのオブジェクトの移動の特徴を表す移動モデルを取得する移動モデル取得手段を有し、
前記推定手段は、前記固定カメラの撮像範囲におけるオブジェクトの集合の流れ及び前記移動モデルに基づいて、属性値が互いに異なるオブジェクトの集合ごとの流れを算出し、属性値が互いに異なるオブジェクトの集合ごとの流れに基づいて前記移動カメラの撮像範囲におけるオブジェクトの属性の分布を移動させることで、前記推定範囲におけるオブジェクトの属性の分布を推定する、2.に記載の情報処理装置。
5. 前記第1解析手段は、前記第1の監視画像を用いて、前記固定カメラの撮像範囲におけるオブジェクトの集合の密度を算出し、
前記推定手段は、前記推定範囲におけるオブジェクトの集合の密度を、前記固定カメラの撮像範囲におけるオブジェクトの集合の密度と同じ密度として算出することで、前記推定範囲について、各属性値を持つオブジェクトの数を推定する、1.乃至4.いずれか一つに記載の情報処理装置。
6. 前記推定された属性分布において所定の属性値を持つオブジェクトが多く存在する場所か、又は前記推定された属性分布の信頼度が低い場所を示す制御情報を生成する制御情報生成手段を有する、1.乃至5.いずれか一つに記載の情報処理装置。
7. 前記第1の監視画像に写っているオブジェクトの集合と、前記第2の監視画像に写っているオブジェクトの集合は、少なくとも一部のオブジェクトが共通している、1.乃至6.いずれか一つに記載の情報処理装置。
8. 前記オブジェクトは人であり、
前記オブジェクトの属性は、年齢層、性別、国籍、所属しているグループ、持ち物の有無、又は歩行困難者であるか否かである、1.乃至7.いずれか一つに記載の情報処理装置。
9. 前記固定カメラの撮像範囲は、前記移動カメラの撮像範囲よりも広い、1.乃至8.いずれか一つに記載の情報処理装置。
10. コンピュータによって実行される制御方法であって、
位置が固定されたカメラである固定カメラによって生成された第1の監視画像を用いて、前記固定カメラの撮像範囲におけるオブジェクトの集合の流れを算出する第1解析ステップと、
位置が固定されていないカメラである移動カメラによって生成された第2の監視画像を用いて、前記移動カメラの撮像範囲におけるオブジェクトの属性の分布を算出する第2解析ステップと、
前記移動カメラの撮像範囲におけるオブジェクトの属性の分布と、前記固定カメラの撮像範囲におけるオブジェクトの集合の流れとに基づき、前記移動カメラの撮像範囲に含まれない範囲を含む推定範囲についてオブジェクトの属性の分布を推定する推定ステップと、を有する制御方法。
11. 前記推定ステップは、前記移動カメラの撮像範囲におけるオブジェクトの属性の分布を、前記固定カメラの撮像範囲におけるオブジェクトの集合の流れに基づいて移動させることで、前記推定範囲におけるオブジェクトの属性の分布を推定する、10.に記載の制御方法。
12. 前記固定カメラと前記移動カメラの撮像範囲が重なっていない場合、前記推定ステップは、前記固定カメラの撮像範囲におけるオブジェクトの集合の流れに基づいて、前記移動カメラの撮像範囲におけるオブジェクトの集合の流れを推定し、前記移動カメラの撮像範囲におけるオブジェクトの属性の分布を、前記推定したオブジェクトの集合の流れに基づいて移動させることで、前記推定範囲におけるオブジェクトの属性の分布を推定する、11.に記載の制御方法。
13. オブジェクトの属性値に対応付けてそのオブジェクトの移動の特徴を表す移動モデルを取得する移動モデル取得ステップを有し、
前記推定ステップは、前記固定カメラの撮像範囲におけるオブジェクトの集合の流れ及び前記移動モデルに基づいて、属性値が互いに異なるオブジェクトの集合ごとの流れを算出し、属性値が互いに異なるオブジェクトの集合ごとの流れに基づいて前記移動カメラの撮像範囲におけるオブジェクトの属性の分布を移動させることで、前記推定範囲におけるオブジェクトの属性の分布を推定する、11.に記載の制御方法。
14. 前記第1解析ステップは、前記第1の監視画像を用いて、前記固定カメラの撮像範囲におけるオブジェクトの集合の密度を算出し、
前記推定ステップは、前記推定範囲におけるオブジェクトの集合の密度を、前記固定カメラの撮像範囲におけるオブジェクトの集合の密度と同じ密度として算出することで、前記推定範囲について、各属性値を持つオブジェクトの数を推定する、10.乃至13.いずれか一つに記載の制御方法。
15. 前記第1解析ステップは、複数の前記第1の監視画像それぞれを用いて、複数の時点について前記固定カメラの撮像範囲におけるオブジェクトの集合の流れを算出し、
前記第2解析ステップは、複数の前記第2の監視画像それぞれを用いて、複数の時点について前記移動カメラの撮像範囲におけるオブジェクトの属性の分布を算出し、
前記推定ステップは、複数の時点について算出された、前記移動カメラの撮像範囲におけるオブジェクトの属性の分布と、前記固定カメラの撮像範囲におけるオブジェクトの集合の流れとに基づいて、前記推定範囲におけるオブジェクトの属性の分布を推定する、10.乃至14.いずれか一つに記載の制御方法。
16. 前記推定された属性分布において所定の属性値を持つオブジェクトが多く存在する場所か、又は前記推定された属性分布の信頼度が低い場所を示す制御情報を生成する制御情報生成ステップを有する、10.乃至15.いずれか一つに記載の制御方法。
17. 前記第1の監視画像に写っているオブジェクトの集合と、前記第2の監視画像に写っているオブジェクトの集合は、少なくとも一部のオブジェクトが共通している、10.乃至16.いずれか一つに記載の制御方法。
18. 前記オブジェクトは人であり、
前記オブジェクトの属性は、年齢層、性別、国籍、所属しているグループ、持ち物の有無、又は歩行困難者であるか否かである、10.乃至17.いずれか一つに記載の制御方法。
19. 前記固定カメラの撮像範囲は、前記移動カメラの撮像範囲よりも広い、10.乃至18.いずれか一つに記載の制御方法。
20. 10.乃至19.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。
Claims (12)
- 監視カメラが撮像した撮像画像を取得する取得手段と、
予め持ち物を有する人物または持ち物の特徴を学習した識別器を用いて、前記撮像画像に映る人物が前記持ち物のうち少なくともベビーカー、車いす、又は杖を有するか否かを判定し、前記人物に対し前記持ち物に応じて異なる属性を判定する判定手段と、
前記属性の判定結果に基づく統計処理の結果を出力する出力手段と、
を備える映像監視システム。 - 前記判定手段は、前記人物の歩行情報に基づき前記人物が歩行困難者であるか否かを判定し、前記人物に対し前記持ち物に応じて判定される属性とは異なる属性を判定する、
請求項1に記載の映像監視システム。 - 監視カメラが撮像した撮像画像を取得する取得手段と、
撮像画像に映る人物の歩行情報に基づき前記人物が歩行困難者であるか否かを判定し、前記人物に対し持ち物に応じて判定される属性とは異なる属性を判定する判定手段と、
前記属性の判定結果に基づく統計処理の結果を出力する出力手段と、
を備える映像監視システム。 - 前記出力手段は、前記監視カメラが監視するエリアを示す画像において、前記監視カメラが撮像した人物の属性に応じた枠を重畳表示する、
請求項1から3のいずれか1項に記載の映像監視システム。 - 前記撮像画像から人の流れを算出する算出手段と、
前記人の流れと、前記属性の統計処理に基づき、前記監視カメラの撮像範囲に含まれない範囲の属性分布を推定する推定手段と、を備える、
請求項1から4のいずれか1項に記載の映像監視システム。 - 前記監視カメラは、移動可能な移動カメラであり、
イベント会場とその最寄り駅との間の経路の、壁、柱又は天井に固定で設置された固定カメラが撮像した撮像画像に基づいて、前記人の流れを取得し、
前記統計処理の結果と、前記人の流れに基づいて、前記監視カメラの撮像範囲に含まれない範囲の前記属性の分布を推定する、
請求項5に記載の映像監視システム。 - 群衆移動のシミュレーションを実施して推定した情報を用いて、前記監視カメラの撮像範囲に含まれない範囲の前記属性の分布を推定する、
請求項1から6のいずれか1項に記載の映像監視システム。 - 前記判定結果の統計処理の結果は、現場の警備員が保持する携帯端末に出力される、
請求項1から7のいずれか1項に記載の映像監視システム。 - コンピュータが、
監視カメラが撮像した撮像画像を取得し、
予め持ち物を有する人物または持ち物の特徴を学習した識別器を用いて、前記撮像画像に映る人物が前記持ち物のうち少なくともベビーカー、車いす、又は杖を有するか否かを判定し、前記人物に対し前記持ち物に応じて異なる属性を判定し、
前記属性の判定結果に基づく統計処理の結果を出力する、
映像監視方法。 - コンピュータが、
監視カメラが撮像した撮像画像を取得し、
撮像画像に映る人物の歩行情報に基づき前記人物が歩行困難者であるか否かを判定し、前記人物に対し持ち物に応じて判定される属性とは異なる属性を判定し、
前記属性の判定結果に基づく統計処理の結果を出力する、
映像監視方法。 - コンピュータに、
監視カメラが撮像した撮像画像を取得する処理、
予め持ち物を有する人物または持ち物の特徴を学習した識別器を用いて、前記撮像画像に映る人物が前記持ち物のうち少なくともベビーカー、車いす、又は杖を有するか否かを判定し、前記人物に対し前記持ち物に応じて異なる属性を判定する処理、
前記属性の判定結果に基づく統計処理の結果を出力する処理、
を実行させるためのプログラム。 - コンピュータに、
監視カメラが撮像した撮像画像を取得する処理、
撮像画像に映る人物の歩行情報に基づき前記人物が歩行困難者であるか否かを判定し、前記人物に対し持ち物に応じて判定される属性とは異なる属性を判定する処理、
前記属性の判定結果に基づく統計処理の結果を出力する処理、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022046412A JP2022089834A (ja) | 2016-03-18 | 2022-03-23 | 映像監視システム、映像監視方法、及びプログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016055171 | 2016-03-18 | ||
JP2016055171 | 2016-03-18 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018505311A Division JP6835065B2 (ja) | 2016-03-18 | 2017-01-26 | 情報処理装置、制御方法、及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022046412A Division JP2022089834A (ja) | 2016-03-18 | 2022-03-23 | 映像監視システム、映像監視方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021073618A JP2021073618A (ja) | 2021-05-13 |
JP7047944B2 true JP7047944B2 (ja) | 2022-04-05 |
Family
ID=59851556
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018505311A Active JP6835065B2 (ja) | 2016-03-18 | 2017-01-26 | 情報処理装置、制御方法、及びプログラム |
JP2021016332A Active JP7047944B2 (ja) | 2016-03-18 | 2021-02-04 | 映像監視システム、映像監視方法、及びプログラム |
JP2022046412A Pending JP2022089834A (ja) | 2016-03-18 | 2022-03-23 | 映像監視システム、映像監視方法、及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018505311A Active JP6835065B2 (ja) | 2016-03-18 | 2017-01-26 | 情報処理装置、制御方法、及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022046412A Pending JP2022089834A (ja) | 2016-03-18 | 2022-03-23 | 映像監視システム、映像監視方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (7) | US10699422B2 (ja) |
JP (3) | JP6835065B2 (ja) |
WO (1) | WO2017159060A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11797641B2 (en) | 2015-02-03 | 2023-10-24 | 1Qb Information Technologies Inc. | Method and system for solving the lagrangian dual of a constrained binary quadratic programming problem using a quantum annealer |
US10699422B2 (en) * | 2016-03-18 | 2020-06-30 | Nec Corporation | Information processing apparatus, control method, and program |
KR102012549B1 (ko) * | 2017-01-25 | 2019-08-20 | 엘지전자 주식회사 | 이동 객체를 식별하여 맵을 작성하는 방법 및 이를 구현하는 로봇 |
US10740446B2 (en) * | 2017-08-24 | 2020-08-11 | International Business Machines Corporation | Methods and systems for remote sensing device control based on facial information |
JP7062753B2 (ja) * | 2018-03-20 | 2022-05-06 | 株式会社日立国際電気 | 監視システム及び監視方法 |
JP6999237B2 (ja) * | 2018-04-05 | 2022-01-18 | 矢崎エナジーシステム株式会社 | 案内システム |
JP2019185237A (ja) * | 2018-04-05 | 2019-10-24 | 矢崎エナジーシステム株式会社 | 解析システム |
CN110798653B (zh) * | 2018-08-01 | 2021-09-14 | 华为技术有限公司 | 一种基于多机协作的图像处理方法和视频监控系统 |
EP3742412A1 (en) * | 2019-05-24 | 2020-11-25 | IMEC vzw | A computer-implemented method for estimating movements of a crowd between areas |
CA3126553A1 (en) | 2019-06-19 | 2020-12-24 | 1Qb Information Technologies Inc. | Method and system for mapping a dataset from a hilbert space of a given dimension to a hilbert space of a different dimension |
US11734628B2 (en) * | 2019-06-27 | 2023-08-22 | Cerner Innovation, Inc. | Optimizing resource allocation for an organization |
CN110827316A (zh) * | 2019-10-29 | 2020-02-21 | 贵州民族大学 | 人群恐慌四散检测方法、系统、可读存储介质和电子设备 |
CN110781853B (zh) * | 2019-11-01 | 2022-12-27 | 浙江大华技术股份有限公司 | 人群异常检测方法以及相关装置 |
CN111191525A (zh) * | 2019-12-13 | 2020-05-22 | 上海伯镭智能科技有限公司 | 一种基于多旋翼无人机的开放公共场所人流密度估测方法 |
WO2021176997A1 (ja) * | 2020-03-06 | 2021-09-10 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US20220198539A1 (en) * | 2020-12-23 | 2022-06-23 | Panasonic Intellectual Property Management Co., Ltd. | Checkout system and checkout method |
WO2023286569A1 (ja) * | 2021-07-15 | 2023-01-19 | 株式会社Nttドコモ | 混雑度推定システム |
CN114821961B (zh) * | 2022-06-28 | 2022-11-22 | 合肥的卢深视科技有限公司 | 室内防儿童走失方法、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007274234A (ja) | 2006-03-30 | 2007-10-18 | National Institute Of Advanced Industrial & Technology | ステレオカメラを用いた白杖使用者検出システム |
JP2007272474A (ja) | 2006-03-30 | 2007-10-18 | National Institute Of Advanced Industrial & Technology | ステレオカメラを用いた車椅子使用者検出システム |
JP2009187054A (ja) | 2008-02-01 | 2009-08-20 | Omron Corp | 類型判別ユニット、自動改札機、および保全装置 |
WO2014125882A1 (ja) | 2013-02-15 | 2014-08-21 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
Family Cites Families (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3530090B2 (ja) * | 1999-11-05 | 2004-05-24 | 株式会社東芝 | 交差点横断歩行者監視システム |
US7139409B2 (en) * | 2000-09-06 | 2006-11-21 | Siemens Corporate Research, Inc. | Real-time crowd density estimation from video |
JP2002297757A (ja) * | 2001-04-02 | 2002-10-11 | Nippon Signal Co Ltd:The | イベント警備システム |
JP2003348569A (ja) | 2002-05-28 | 2003-12-05 | Toshiba Lighting & Technology Corp | 監視カメラシステム |
JP4195991B2 (ja) | 2003-06-18 | 2008-12-17 | パナソニック株式会社 | 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ |
JP2006197226A (ja) * | 2005-01-13 | 2006-07-27 | Kanshi Kakumei:Kk | 監視カメラシステム |
JP2007034585A (ja) * | 2005-07-26 | 2007-02-08 | Victor Co Of Japan Ltd | 映像監視システム |
JP2007104091A (ja) * | 2005-09-30 | 2007-04-19 | Fujifilm Corp | 画像選出装置、プログラムおよび方法 |
JP4646933B2 (ja) * | 2007-03-01 | 2011-03-09 | 技研トラステム株式会社 | 混雑レベル判別システム |
JP2009067501A (ja) * | 2007-09-11 | 2009-04-02 | Toshiba Elevator Co Ltd | エレベータシステム |
US8195598B2 (en) | 2007-11-16 | 2012-06-05 | Agilence, Inc. | Method of and system for hierarchical human/crowd behavior detection |
US8295545B2 (en) | 2008-11-17 | 2012-10-23 | International Business Machines Corporation | System and method for model based people counting |
DE112009004861B4 (de) * | 2009-05-29 | 2017-03-02 | Toyota Jidosha Kabushiki Kaisha | Spektrumsmessvorrichtung für einen beweglichen körper |
JP2011008571A (ja) * | 2009-06-26 | 2011-01-13 | Shunkosha:Kk | 通行人流動データ生成装置、コンテンツ配信制御装置、通行人流動データ生成方法及びコンテンツ配信制御方法 |
WO2011013605A1 (ja) | 2009-07-27 | 2011-02-03 | 三洋電機株式会社 | プレゼンテーションシステム |
JP5478520B2 (ja) * | 2010-02-18 | 2014-04-23 | 日本電信電話株式会社 | 人数計測装置、人数計測方法、プログラム |
JP5581174B2 (ja) | 2010-10-25 | 2014-08-27 | パナソニック株式会社 | 障害物検知装置 |
JP2012173761A (ja) * | 2011-02-17 | 2012-09-10 | Nifty Corp | 情報処理装置、情報処理方法及びプログラム |
CN102737383B (zh) * | 2011-03-31 | 2014-12-17 | 富士通株式会社 | 视频中的摄像机运动分析方法及装置 |
KR20160013266A (ko) | 2011-04-11 | 2016-02-03 | 인텔 코포레이션 | 개인화된 광고 선택 시스템 및 방법 |
US8917764B2 (en) * | 2011-08-08 | 2014-12-23 | Ittiam Systems (P) Ltd | System and method for virtualization of ambient environments in live video streaming |
WO2013067247A1 (en) * | 2011-11-02 | 2013-05-10 | ThinkVine Corporation | Agent generation for agent-based modeling systems |
JP5516561B2 (ja) * | 2011-12-08 | 2014-06-11 | 株式会社デンソーアイティーラボラトリ | 車両用運転支援装置 |
US9208386B1 (en) * | 2012-01-09 | 2015-12-08 | The United States Of America As Represented By The Secretary Of The Navy | Crowd state characterization system and method |
JP5810946B2 (ja) * | 2012-01-31 | 2015-11-11 | 富士通株式会社 | 特定通話検出装置、特定通話検出方法及び特定通話検出用コンピュータプログラム |
FI124467B (en) * | 2012-03-01 | 2014-09-15 | Innorange Oy | Procedure, arrangement and arrangement for estimating the number of persons |
US9008359B2 (en) * | 2012-06-28 | 2015-04-14 | International Business Machines Corporation | Detection of static object on thoroughfare crossings |
SG11201500693QA (en) | 2012-07-31 | 2015-04-29 | Nec Corp | Image processing system, image processing method, and program |
JP2014191711A (ja) * | 2013-03-28 | 2014-10-06 | Oki Electric Ind Co Ltd | 映像解析装置、映像解析方法、プログラムおよび映像解析システム |
WO2014182638A2 (en) | 2013-05-04 | 2014-11-13 | Christopher Decharms | Mobile security technology |
KR101448392B1 (ko) | 2013-06-21 | 2014-10-13 | 호서대학교 산학협력단 | 피플 카운팅 방법 |
KR101448391B1 (ko) * | 2013-06-21 | 2014-10-13 | 호서대학교 산학협력단 | 피플 카운팅 시스템 |
US20140379477A1 (en) | 2013-06-25 | 2014-12-25 | Amobee Inc. | System and method for crowd based content delivery |
JP6008045B2 (ja) * | 2013-06-28 | 2016-10-19 | 日本電気株式会社 | 教師データ生成装置、方法、プログラム、および群衆状態認識装置、方法、プログラム |
JP2015026196A (ja) | 2013-07-25 | 2015-02-05 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 移動体からのデータを集約し、フィルタリング処理する方法、並びに、そのコンピュータ及びコンピュータ・プログラム |
JP5892123B2 (ja) * | 2013-08-20 | 2016-03-23 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
EP3067658B1 (en) * | 2013-11-06 | 2019-10-02 | Toppan Printing Co., Ltd. | 3d-shape measurement device, 3d-shape measurement method, and 3d-shape measurement program |
US10956836B2 (en) * | 2013-12-02 | 2021-03-23 | Joshua Christopher Joachim | Methods and systems for managing simultaneous events |
JP2015114726A (ja) * | 2013-12-09 | 2015-06-22 | キヤノン株式会社 | 情報伝達装置及びその制御方法、情報装置、コンピュータプログラム |
US9712980B1 (en) | 2014-02-21 | 2017-07-18 | Alexey Filatoff | Facility mapping and interactive tracking |
JP2015216518A (ja) * | 2014-05-12 | 2015-12-03 | 富士通株式会社 | 情報処理方法、プログラム及び情報処理装置 |
JP6696422B2 (ja) * | 2014-06-27 | 2020-05-20 | 日本電気株式会社 | 異常検知装置及び異常検知方法 |
US11138443B2 (en) | 2014-06-30 | 2021-10-05 | Nec Corporation | Guidance processing apparatus and guidance method |
JP5999394B2 (ja) | 2015-02-20 | 2016-09-28 | パナソニックIpマネジメント株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
US9877012B2 (en) * | 2015-04-01 | 2018-01-23 | Canon Kabushiki Kaisha | Image processing apparatus for estimating three-dimensional position of object and method therefor |
US20160379074A1 (en) | 2015-06-25 | 2016-12-29 | Appropolis Inc. | System and a method for tracking mobile objects using cameras and tag devices |
US20170017846A1 (en) * | 2015-07-15 | 2017-01-19 | Umm Al-Qura University | Crowd and traffic monitoring apparatus and method |
JP6474919B2 (ja) * | 2016-01-12 | 2019-02-27 | 株式会社日立国際電気 | 混雑状況監視システム及び混雑状況監視方法 |
US10699422B2 (en) * | 2016-03-18 | 2020-06-30 | Nec Corporation | Information processing apparatus, control method, and program |
JP7014154B2 (ja) | 2016-04-19 | 2022-02-15 | 日本電気株式会社 | 調査装置 |
US10936882B2 (en) * | 2016-08-04 | 2021-03-02 | Nec Corporation | People flow estimation device, display control device, people flow estimation method, and recording medium |
US20180158011A1 (en) * | 2016-12-01 | 2018-06-07 | Corning Incorporated | Methods and systems for predicting workforce population |
US11595774B2 (en) | 2017-05-12 | 2023-02-28 | Microsoft Technology Licensing, Llc | Spatializing audio data based on analysis of incoming audio data |
KR20190064712A (ko) * | 2017-11-30 | 2019-06-11 | (주)이즈피엠피 | 놀이 리포팅 시스템 및 방법 |
US10810435B2 (en) | 2018-11-07 | 2020-10-20 | Adobe Inc. | Segmenting objects in video sequences |
-
2017
- 2017-01-26 US US16/085,851 patent/US10699422B2/en active Active
- 2017-01-26 WO PCT/JP2017/002711 patent/WO2017159060A1/ja active Application Filing
- 2017-01-26 JP JP2018505311A patent/JP6835065B2/ja active Active
-
2019
- 2019-06-18 US US16/444,417 patent/US11361452B2/en active Active
- 2019-06-18 US US16/444,642 patent/US11205275B2/en active Active
- 2019-06-18 US US16/444,531 patent/US11158068B2/en active Active
-
2021
- 2021-02-04 JP JP2021016332A patent/JP7047944B2/ja active Active
-
2022
- 2022-03-23 JP JP2022046412A patent/JP2022089834A/ja active Pending
- 2022-05-12 US US17/742,607 patent/US11823398B2/en active Active
-
2023
- 2023-08-16 US US18/234,687 patent/US20230394683A1/en active Pending
- 2023-08-16 US US18/234,703 patent/US20230394684A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007274234A (ja) | 2006-03-30 | 2007-10-18 | National Institute Of Advanced Industrial & Technology | ステレオカメラを用いた白杖使用者検出システム |
JP2007272474A (ja) | 2006-03-30 | 2007-10-18 | National Institute Of Advanced Industrial & Technology | ステレオカメラを用いた車椅子使用者検出システム |
JP2009187054A (ja) | 2008-02-01 | 2009-08-20 | Omron Corp | 類型判別ユニット、自動改札機、および保全装置 |
WO2014125882A1 (ja) | 2013-02-15 | 2014-08-21 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20230394684A1 (en) | 2023-12-07 |
US20200065982A1 (en) | 2020-02-27 |
JP2022089834A (ja) | 2022-06-16 |
US11361452B2 (en) | 2022-06-14 |
JP6835065B2 (ja) | 2021-02-24 |
US10699422B2 (en) | 2020-06-30 |
US20190035093A1 (en) | 2019-01-31 |
JP2021073618A (ja) | 2021-05-13 |
US20220343516A1 (en) | 2022-10-27 |
US11158068B2 (en) | 2021-10-26 |
JPWO2017159060A1 (ja) | 2019-01-17 |
US20190333234A1 (en) | 2019-10-31 |
US11205275B2 (en) | 2021-12-21 |
US20230394683A1 (en) | 2023-12-07 |
WO2017159060A1 (ja) | 2017-09-21 |
US11823398B2 (en) | 2023-11-21 |
US20190325589A1 (en) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7047944B2 (ja) | 映像監視システム、映像監視方法、及びプログラム | |
US10776627B2 (en) | Human flow analysis method, human flow analysis apparatus, and human flow analysis system | |
US10607356B2 (en) | Congestion analysis device, congestion analysis method, and congestion analysis program | |
CN104834887B (zh) | 运动行人表示方法、识别方法及其装置 | |
US11854275B2 (en) | Systems and methods for detecting symptoms of occupant illness | |
US11436866B2 (en) | System and method for eye-tracking | |
JP6779410B2 (ja) | 映像解析装置、映像解析方法、及びプログラム | |
TW201944324A (zh) | 導引系統 | |
CN106937532A (zh) | 用于检测真正用户的系统和方法 | |
US11715332B2 (en) | System and method for eye-tracking | |
CN113724454B (zh) | 移动设备的互动方法、移动设备、装置及存储介质 | |
JP2023136194A (ja) | 情報処理装置、移動体、それらの制御方法、プログラム、及び記憶媒体 | |
Ullah et al. | Smartphone-Based Cognitive Assistance of Blind People in Room Recognition and Awareness | |
WO2023170864A1 (ja) | ルート算出装置、ルート算出方法、および記録媒体 | |
JP2022142623A (ja) | 情報処理システム、情報処理方法およびプログラム | |
JP2024032744A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2024013729A2 (en) | A system based on ai and crowd dynamics invented to improve safety and efficiency while traveling in groups or clusters during crowded events like hajj and umrah |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220307 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7047944 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |