JP7130368B2 - 情報処理装置および情報処理システム - Google Patents
情報処理装置および情報処理システム Download PDFInfo
- Publication number
- JP7130368B2 JP7130368B2 JP2017236880A JP2017236880A JP7130368B2 JP 7130368 B2 JP7130368 B2 JP 7130368B2 JP 2017236880 A JP2017236880 A JP 2017236880A JP 2017236880 A JP2017236880 A JP 2017236880A JP 7130368 B2 JP7130368 B2 JP 7130368B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- information processing
- area
- imaging devices
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06M—COUNTING MECHANISMS; COUNTING OF OBJECTS NOT OTHERWISE PROVIDED FOR
- G06M7/00—Counting of objects carried by a conveyor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明の目的は、上記した課題を解決すべく、複数の撮像装置で撮像した画像を用いても、ある領域に存在する対象物体の数を適切に計数することができる人流解析装置およびシステムを提供することである。
図1は本実施形態に係る人流解析装置10のハードウェア構成を示す図である。人流解析装置10は、演算処理装置11、記憶装置12、入力装置13、出力装置14および入力I/F(インタフェイス)15を備える。人流解析装置10の各装置11~15は、バス16により互いに接続されている。本実施形態の人流解析装置10には、複数の撮像装置101~10nが入力I/F15を介して接続されており、人流解析装置10と撮像装置101~10nにより、人流解析システムが構成されている。人流解析装置10は、撮像装置101~10nが撮像した画像から、人物の数を求め、当該画像における人物の混雑度を解析する。人流解析システムの各装置11~14および撮像装置101~10nは、互いに通信可能に構成されている。
記憶装置12は、磁気メモリ、半導体メモリ等からなるストレージデバイスである。記憶装置12は、演算処理装置11の動作に基づき読み込まれたプログラム、長時間記憶しなくてはならないデータ等を記憶する。本実施形態では、演算処理装置11が、記憶装置12に格納されたプログラムの手順に従って処理を行うことによって、人流解析装置10における機能及び後述するフローチャートに係る処理が実現される。記憶装置12は、人流解析装置10が処理対象とする画像および検出結果、解析結果等を記憶する。
出力装置14は、液晶パネル、外部モニタ等からなり、各種の情報を出力する。
入力I/F15は、撮像装置101~10nを人流解析装置10に接続する。入力I/F15は、例えば、USBやIEEE1394等の規格に準拠したシリアルバスインタフェイスである。撮像装置101~10nで撮像した画像は、入力I/F15を介して、人流解析装置10に入力される。
なお、人流解析装置10のハードウェア構成は、上述した構成に限定されない。例えば、人流解析装置10は、各種の装置と通信を行うためのI/O装置を備えてもよい。例えば、I/O装置は、有線、無線等による送受信部である。また、I/O装置は、メモリーカード、USBケーブル等の入出力部を有してもよい。
図2は、撮像装置101~10nに接続された、本実施形態に係る人流解析装置10の機能構成を示す図である。人流解析装置10の処理および機能は、複数の撮像装置101~10nに対応した、複数の画像認識部201~20nと、複数の較正部301~30nと、複数の座標変換部401~40nと、統合計数部500と、表示部600とにより実現される。
撮像装置101~10nは、それぞれ所定の領域を撮像することにより、当該領域の画像を取得し、取得した画像を画像認識部201~20nに出力する。
画像認識部201~20nは、撮像装置101~10nから受け取った画像に画像認識処理を施し、当該画像内の人物位置を取得(検出、推定)する。この人物位置は、画像の座標で示される位置座標である。本実施形態では、画像認識部201~20nは同一の構成を有し、同一の動作(処理)を行う。画像認識部201~20nは、認識した人物位置を座標変換部401~40nに出力する。
座標変換部401~40nは、較正部301~30nから受け取った較正パラメータを用いて、画像認識部201~20nから受け取った人物位置(位置座標)をそれぞれ世界座標に変換する。座標変換部401~40nは、世界座標にした人物位置を、統合計数部500に出力する。なお、座標変換部401~40nのそれぞれは、第1の座標変換部410と第2の座標変換部420を含む(図9)。第1の座標変換部410と第2の座標変換部420については、後述する。
表示部600は、統合計数部500から受け取った解析結果を表示する。
以下、撮像装置101~10nと人流解析装置10とを有する人流解析システムの動作を図3に示すフローチャートに従って説明する。
S10において、撮像装置101~10nは、複数の領域を撮像することにより複数の画像を取得する。取得した画像は、撮像装置101~10nのメモリに格納される。本実施形態では、図4の地図に示すように撮像装置101~10nが設置されているものとする。図中、C1~Cnはそれぞれ撮像装置101~10nの位置を表す。白色の領域Sは街路・歩道等の人物が通行する領域である。撮像装置101~10nが撮像対象とする空間(領域)は互いに重複し合ってもよいし、重複しなくてもよい。撮像装置101~10nは、好ましくは、撮像した画像と共に撮像時刻を記録する。撮像時刻を参照することで後述の統合処理において略同一時刻での計数人数や解析結果を世界座標上に統合することが可能になる。
S20において、人流解析装置10の画像認識部201~20nは、撮像装置101~10nが取得した画像に画像認識処理を施し、画像中の人物位置を取得する。本実施形態では、画像認識部201~20nは同一の構成からなり、同一の動作を行うので、代表として画像認識部201の詳細を以下に説明する。
図5は画像認識部201の構成を示す。図5に示すように、画像認識部201は、変化領域検知部210と、混雑判定部220と、人検出部230と、群衆人数推定部240とを有する。変化領域検知部210、人検出部230、および群衆人数推定部240には、撮像装置101で取得した画像が、入力画像として入力される。
変化領域検知部210は、入力画像から、時間的に変化の大きい領域(変化領域)を検知して、当該領域を変化領域画像として抽出する。本実施形態では背景差分方式を用いて変化領域を検知して変化領域画像を抽出する。人物の写っていない背景のみの画像を複数フレーム分取得し、取得した画像から背景画像を予め作成しておく。背景差分方式では、入力画像と背景画像とを画素毎に比較し、差分が所定量より大きい画素を変化領域画素とし、それ以外の画素と区別する。例えば、変化領域画素を1、それ以外の画素を0とした2値画像を変化領域画像として抽出する。1と0は画素値である。変化領域検知部210は、抽出した変化領域画像を混雑判定部220に出力する。なお、変化領域を検知できない(変化領域画素がない)場合、変化領域検知部210は、当該検知結果を混雑判定部220に出力する。変化領域検知部210は、時間的変化が所定量より大きい領域を入力画像から検知するものである。
このように、混雑判定部220は、変化領域画像(領域)内の人物の位置座標の変化に基づいて、入力画像が混雑画像であるか否かを判定している。
なお、入力画像のサイズが大きい場合、混雑判定部220は、入力画像を所定のサイズのブロックに分割し、それぞれのブロックに対して混雑判定を行う。
図7を用いて画像認識部201の処理の流れを説明する。
撮像装置101から画像認識部201に画像が入力されると、S21において、変化領域検知部210は、入力画像から時間的に変化の大きい領域を検知して、当該領域を変化領域画像として抽出する。
S22において、混雑判定部220は、変化領域検知部210で抽出した変化領域画像から、入力画像の混雑判定を行う。まず、混雑判定部220は、入力画像に人物が写っているかを判定する(S23)。入力画像が人物なしの画像であると判定された場合(S23:N)は、画像認識部201の処理は終了する。この場合、画像認識部201から人物位置の出力はない。入力画像が人物ありの画像と判定された場合(S23:Y)は、S24に進む。
S25において、人検出部230は、混雑判定部220からの判定結果と入力画像とに基づいて、入力画像から人物を検出し、人物位置(対象物体の位置座標)を取得する。
S24において混雑判定部220が入力画像は混雑画像であると判定した場合は、混雑判定部220は、入力画像が混雑画像であるという判定結果を、群衆人数推定部240に出力する。その後、S26に進む。
このように画像認識部は、混雑判定部の判定結果に基づいて、人検出部230を用いるか群衆人数推定部240を用いるかを決定している。
なお、混雑判定部220において入力画像をブロックに分割し、それぞれのブロックに対して混雑判定を行う場合には、ブロック毎にS22~S26の処理を繰り返し行うようにすればよい。
本実施形態では、入力画像のサイズが大きい場合、入力画像を所定のサイズのブロックに分割し、それぞれのブロックに対して混雑判定を行う。そして、ブロック毎に人検出あるいは群衆人数推定の処理を行うか否かを判定するようにしたので、人検出部230および群衆人数推定部240の演算量を削減することができる。
人物が混雑した状況においては人物同士の重なりによる隠れのために人検出部230で人物を精度よく検出することは困難である。一方、人物が散在するような状況においては、人検出部230は群衆人数推定部240よりも精度良く人数を検出できる。したがって、本実施形態では混雑判定部220の判定結果に応じて最適な方法で人数を検出・推定することができる。
以上のような画像認識処理(図3のS20)が終了すると、S30に進む。S30において、座標変換部401~40nは、較正部301~30nで取得した較正パラメータを用いて、画像認識部201~20nで求めた人物位置をそれぞれ世界座標に変換する。
まず、較正部301~30nで行う較正パラメータの取得方法について図8を用いて説明する。図8(A)は較正対象の監視カメラ(撮像装置)で撮像した画像の例であり、P1、P2、P3は画像中に写った人物の頭部中心位置を示す。図8(B)は地図を表し、Cは較正対象の監視カメラの位置を示し、Q1、Q2、Q3はそれぞれ人物P1、P2、P3の位置を示している。
(Xi,Yi,1)T = H(ui,vi,1)T (式1)
ここで、Hは3×3の変換行列であり、Tはベクトルの転置を表す。
なお、上記した例では画像および地図上の人物位置を入力して較正パラメータを求めるようにしたが、本発明はこのような手法に限定されない。例えば、画像に人物が写っていない場合においても画像中に写っている背景物体の特徴的な点と地図上の位置を対応付けて入力するようにしてもよい。このとき、画像中で指定する背景物体の特徴的な点は、人物の頭部中心位置に相当する高さの点を選ぶようにする。
このように、較正部301~30nは、それぞれ撮像装置101~10nの較正パラメータを取得する。
また、座標変換部401~40nのそれぞれは、第1の座標変換部410と第2の座標変換部420とを有する。座標変換部401~40nの構成は同じであるので、図9に座標変換部401の構成を示す。
第1の座標変換部410は、人検出部230が出力する画像中の人物頭部中心の位置座標を、較正部301で取得した較正パラメータを用いて世界座標に変換する。変換は、画像中の人物頭部中心の位置座標を(u,v)とし、較正パラメータをHとすると、以下の式2のように行われる。
(X,Y,1)T = H(u,v,1)T (式2)
ここで、(X,Y)は求める地図上の世界座標を表し、Tはベクトルの転置を表す。
画像中に複数の人物がいる場合は、それぞれの位置座標について前記変換式(式2)に基づいて世界座標を求める。
以上のような座標変換処理(図3のS30)が終了すると、S40に進む。S40において、統合計数部500は、座標変換部401~40nで求めた人物位置の世界座標を統合し、領域毎に人物の数を計数する。統合計数部500の処理の流れを、図10を用いて説明する。
まず、S41において、統合計数部500は、撮像装置101で撮像した画像から求めた人物位置の世界座標(人物位置座標)を、座標変換部401から取得する。
S42において、統合計数部500は、人物位置の世界座標に対応する地図の領域を求め、求めた領域の人数を1だけ加算する。なお、本実施形態では、予め地図を所定の領域にブロック分割して人数計数を行う領域が設定されているとする。また、初期状態において各領域の人数は0に初期化されているとする。
統合計数部500は、上述の計数処理(S41~S43)を人物位置座標分だけ繰り返し実行する。このようにして、撮像装置101についての統合計数部500の処理が行われる。この処理により、撮像装置101が撮像した領域内の対象物体(人物)の数が計数される。
以上のような人数計数処理(図3のS40)が終了すると、S50に進む。S50において、表示部600(出力装置)は、統合計数部500で求めた解析結果を地図上で表示する。図11に解析結果の表示例を示す。
図11において、濃度の濃い領域ほど、人数が多い領域であることを示す。つまり、図11は、色の濃淡(画像情報)によって混雑度(混雑状態)を示している。色の濃淡は混雑度表示と称することができる。色の濃淡ではなく、色の違いや模様などによって混雑度を表してもよい。図4と同様、図11のC1~Cnはそれぞれ撮像装置101~10nの位置を表し、白色の領域Sは人物が通行する領域を表す。また、図11のR1~Rnはそれぞれ撮像装置101~10nで人物の計数が可能な領域(撮像領域)を示した閉領域である。この領域は、監視カメラの監視領域であると言うこともできる。
以上説明したように、本実施形態によれば、複数の撮像装置で撮像した画像を用いても、ある領域に存在する人物の数を適切に計数することができる。より詳しくは、本実施形態では、複数の撮像装置101~10nのそれぞれの画像から人物位置を求め、較正パラメータを用いて人物位置の座標を世界座標に変換した後、統合して人物の数を計数するようにした。よって、複数の撮像装置(監視カメラ)の設置状況(監視カメラの監視領域の大きさ)が異なる場合でも、複数の撮像装置から得られた人物位置を統合することができるし、各撮像装置の撮像領域(監視領域)の混雑度を比較することができる。本実施形態によれば、複数の監視カメラ間の設置状況が異なる場合においても混雑度の比較ができ、1台のカメラではカバーしきれない広域においても全体を俯瞰した混雑状況を把握することができる。
本実施形態の人流解析装置10(または人流解析装置10を含む人流解析システム)を用いると、例えば、公共の空間での混雑の検知および混雑時の人の流れを正確に把握することができる。よって、イベント時などの混雑解消や災害時の避難誘導の際に、本実施形態の人流解析装置10を利用することができる。
上記した実施形態では、カメラで撮像した映像中の人物の位置座標を取得して人物の数を計測する場合について説明したが、さらに人物の移動量を取得することで撮像した領域の滞留状況を把握することができる。以下にその実施形態を説明する。
図12に本実施形態に係る人流解析装置20の機能構成を示す。図中、図2に示した人流解析装置10の構成要素と同記号のものは人流解析装置10中の構成要素と同機能を有するため、説明を省略する。
画像認識部211~21nは、撮像装置101~10nから受け取った画像に画像認識処理を施し、当該画像内の人物位置と共に人物の移動ベクトル(移動量と方向)を取得する。
滞留度算出部711~71nは、画像認識部211~21nで求めた人物の移動ベクトルと、座標変換部401~40nを介して世界座標に変換した人物位置座標とから滞留度を算出する。
統合計数部510は、座標変換部401~40nから受け取った人物位置の世界座標を統合し、領域毎に人物の数を計数すると共に、滞留度算出部711~71nから受け取った滞留度を統合する。
表示部610は、地図上に滞留度を示す画像情報を表示する。
人流解析システムの動作を図13に示すフローチャートに従って説明する。図中、図3に示したフローチャートと同記号のものは同処理のため、説明を省略する。
S80において、人流解析装置20の画像認識部211~21nは、撮像装置101~10nが取得した画像に画像認識処理を施し、画像中の人物位置と共に人物の移動ベクトルを取得する。
S70において、滞留度算出部711~71nは、画像認識部211~21nで求めた人物の移動ベクトルと、座標変換部401~40nを介して世界座標に変換した人物位置座標とから滞留度を算出する。
S90において、統合計数部510は、座標変換部401~40nから受け取った人物位置の世界座標を統合し、領域毎に人物の数を計数すると共に、滞留度算出部711~71nから受け取った滞留度を統合する。
S100において、表示部610は、統合計数部510で求めた解析結果を世界座標上で表示する。
図14は画像認識部211の構成を示す。図中、図5に示した画像認識部201の構成要素と同記号のものは画像認識部201中の構成要素と同機能を有するため、説明を省略する。
画像認識部211は撮像装置101で取得した連続する異なる時刻に撮像された2フレームの画像を入力する。人追尾部250は、人検出部230で検出した人物位置をフレーム間で対応付け、人物の移動ベクトルを求める。
図16を用いて画像認識部211の処理の流れを説明する。図中、図7に示したフローチャートと同記号のものは同処理のため、説明を省略する。
S27において、人追尾部250は、人検出部230で検出した人物位置をフレーム間で対応付け、人物の移動ベクトルを求める。
S28において、群衆人流推定部260は、連続する異なる時刻に撮像された2フレームの画像を入力して人物の密度分布および移動ベクトルの分布を推定し、人数および平均移動ベクトルを求める。
滞留度算出部711~71nは、画像認識部211~21nで求めた人物の移動ベクトルと、座標変換部401~40nを介して世界座標に変換した人物位置座標とから滞留度を算出する。地図上のある領域の滞留度Sは領域中の人数Dおよび移動量Mから以下の式3で求める。
S = w1×D - w2×M (式3)
ここで、w1とw2は滞留度を求めるために事前に調整した重みパラメータであり、正の値をもつ。すなわち、人数が多いほど、あるいは、移動量が小さいほど、式(3)は大きい値を出力する。なお、移動量Mは移動ベクトルの大きさを用いる。
統合計数部510は、座標変換部401~40nから受け取った人物位置の世界座標を統合し、領域毎に人物の数を計数すると共に、滞留度算出部711~71nから受け取った滞留度を統合する。統合計数部510は、地図上の領域毎の滞留度をカメラ毎に取得し、複数カメラで重複する領域では平均値を滞留度として統合する。
表示部610(出力装置)は、統合計数部510で求めた解析結果を世界座標上で表示する。図17に解析結果の表示例を示す。図17の例では、各領域における人物の混雑度を色の濃淡で表し、滞留度が所定の値以上の領域を滞留領域として太枠RSとして示した。図17の地図を見ると滞留場所の隣接領域に中程度の混雑度領域が存在するので混雑度が高くなると予想できる。このように地図上に混雑度と共に滞留場所を表示することで次に混雑しそうな場所を予測することができる。なお、滞留領域を枠で表示する以外に領域を色付けするなど他の画像情報に基づいた表示を行ってもよい。
上記した実施形態では、画像認識部211~21nで求めた人物の移動ベクトルと、座標変換部401~40nを介して世界座標に変換した人物位置座標とから滞留度を算出するようにした。このような構成の他、カメラ毎に求めた人物の移動ベクトルと人物位置座標とを統合計数部で統合した結果から滞留度を算出するようにしてもよい。
上記した実施形態では、画像から人物を検出する場合に本発明を適用する例について説明したが、人物以外の物体を検出対象とした場合にも本発明は適用可能である。
上記した実施形態において、画像認識部201が混雑判定部220の判定結果に基づいて、人検出部230または群衆人数推定部240のいずれかで処理を行うようにしたが、本発明はこれに限定されない。例えば、画像認識部201を人検出部230と群衆人数推定部240で構成し、人検出部230と群衆人数推定部240の処理を相互の処理結果に基づいて切り替えるようにしてもよい。この場合、人検出部230の検出結果に基づいて人物の重なりを判定し、重なりが多くなった場合に人検出部230から群衆人数推定部240に切り替える。あるいは、群衆人数推定部240の推定結果に基づいて、推定した人数が少なくなった場合に群衆人数推定部240から人検出部230に切り替える。
上記した実施形態の画像認識部201~20n、較正部301~30n、座標変換部401~40nおよび統合計数部500の少なくとも一部をハードウェアによって実現してもよい。ハードウェアにより実現する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。また、FPGAと同様にしてGate Array回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASICにより実現するようにしてもよい。FPGAは、Field―Programmable Gate Arrayの略である。ASICは、Application Specific Integrated Circuitの略である。
上記した実施形態では、座標変換部401~40nが、人物の位置座標を世界座標に変換したが、適切な較正パラメータが得られるのであれば、世界座標以外の座標を共通の座標系の座標として用いてもよい。
本発明は、上述した実施形態の1以上の機能を実現するプログラム(コンピュータプログラム)を、ネットワークまたは記録媒体(記憶媒体)を介して、システムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行することによっても実現可能である。この場合、記録媒体から読み出されたプログラム(プログラムコード)自体が実施形態の機能を実現することになる。また、当該プログラムを記録した記録媒体は本発明を構成することができる。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現されてもよい。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明した処理フローに対応するプログラムが格納されることになる。
Claims (20)
- 画像から検出された物体について、所定の座標系における物体の位置を取得する取得手段と、
前記取得された物体の位置に基づいて、複数の撮像装置によって撮像された所定の領域における物体の数を決定する決定手段と、を有する情報処理装置であって、
前記取得手段は、前記画像が混雑画像でない場合は前記画像から検出された物体毎の位置を取得する第1の処理に基づいて、前記画像が混雑画像である場合は前記画像から検出された物体の数と所定の位置とを対応付ける第2の処理に基づいて、物体の位置を取得することを特徴とする情報処理装置。 - 前記決定された物体の数を示す表示を出力する出力手段を更に有することを特徴とする請求項1に記載の情報処理装置。
- 前記複数の撮像装置のそれぞれについて、物体がいない状態で撮像した背景画像に基づいて、前記画像が混雑画像であるか否かを判定する判定手段を更に有することを特徴とする請求項1または2に記載の情報処理装置。
- 前記判定手段は、前記背景画像と、前記画像との画素値に差がある画素の領域が、所定の大きさより大きい場合に混雑画像であると判定し、前記所定の大きさ以下である場合に混雑画像でないと判定することを特徴とする請求項3に記載の情報処理装置。
- 前記第1の処理は、前記画像を撮像した撮像装置の位置に基づいて、前記画像から検出された物体の位置を画像座標系から前記所定の座標系に変換する処理であることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
- 前記第2の処理は、前記画像から検出された物体を含む領域に対応付けられた所定の位置を取得する処理であることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
- 前記決定手段は、前記所定の座標系において、前記複数の撮像装置によって撮像された画像のそれぞれから検出された物体の位置を統合した結果に基づいて、前記物体の数を決定する請求項1乃至6のいずれか1項に記載の情報処理装置。
- 前記取得手段は、前記複数の撮像装置によって撮像された画像のそれぞれにおける画像座標系と前記所定の座標系とを対応付ける較正パラメータを用いて、検出された複数の物体の位置をそれぞれ取得することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
- 前記出力手段は、前記決定された物体の数に基づいて、前記所定の領域の混雑度を出力
する請求項2に記載の情報処理装置。 - 前記出力手段は、前記混雑度に応じた色または模様を出力する請求項9に記載の情報処理装置。
- 前記出力手段は、前記所定の領域を示したマップ上で前記複数の撮像装置のそれぞれの位置を出力する請求項2に記載の情報処理装置。
- 前記出力手段は、前記マップ上で前記複数の撮像装置のそれぞれの撮像領域を出力する請求項11に記載の情報処理装置。
- 前記決定手段は、前記複数の撮像装置の撮像領域の重複に基づいて、前記撮像領域毎に物体の数の正規化を行うことを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
- 前記複数の撮像装置により異なる時刻に撮像された複数の画像のそれぞれから物体の移動量を取得する移動量取得手段を更に有することを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。
- 前記取得された物体の移動量に基づいて、検出された物体の滞留度を算出する滞留度算出手段を更に備えることを特徴とする請求項14に記載の情報処理装置。
- 前記第1の処理は、前記画像から抽出された特徴量に基づいて検出された物体に対する処理であることを特徴とする請求項5に記載の情報処理装置。
- 前記第2の処理は、前記画像の部分領域に認識モデルを用いることによって推定された物体の数を、前記部分領域の中心位置に対応付ける処理であることを特徴とする請求項6に記載の情報処理装置。
- 請求項1乃至17のいずれか1項に記載の情報処理装置と、複数の領域をそれぞれ撮像する複数の撮像装置と、を備える情報処理システム。
- 画像から検出された物体について、所定の座標系における物体の位置を取得する取得工程と、
前記取得された物体の位置に基づいて、複数の撮像装置によって撮像された所定の領域における物体の数を決定する決定工程と、を有する情報処理方法であって、
前記取得工程は、前記画像が混雑画像でない場合は前記画像から検出された物体毎の位置を取得する第1の処理に基づいて、前記画像が混雑画像である場合は前記画像から検出された物体の数と所定の位置とを対応付ける第2の処理に基づいて、物体の位置を取得することを特徴とする情報処理方法。 - コンピュータを請求項1乃至17のいずれか1項に記載の情報処理装置の各手段として機能させるプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017004643 | 2017-01-13 | ||
JP2017004643 | 2017-01-13 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018116692A JP2018116692A (ja) | 2018-07-26 |
JP2018116692A5 JP2018116692A5 (ja) | 2021-01-21 |
JP7130368B2 true JP7130368B2 (ja) | 2022-09-05 |
Family
ID=62839991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017236880A Active JP7130368B2 (ja) | 2017-01-13 | 2017-12-11 | 情報処理装置および情報処理システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11341669B2 (ja) |
JP (1) | JP7130368B2 (ja) |
WO (1) | WO2018131485A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11378387B2 (en) | 2014-11-12 | 2022-07-05 | Helmerich & Payne Technologies, Llc | System and method for locating, measuring, counting, and aiding in the handling of drill pipes |
US10577912B2 (en) | 2014-11-12 | 2020-03-03 | Helmerich & Payne Technologies, Llc | System and method for measuring characteristics of cuttings and fluid front location during drilling operations with computer vision |
US10997412B2 (en) | 2014-11-12 | 2021-05-04 | Helmerich & Payne Technologies, Llc | System and method for estimating rig state using computer vision for time and motion studies |
CA2967771A1 (en) | 2014-11-12 | 2016-05-19 | Covar Applied Technologies, Inc. | System and method for inhibiting or causing automated actions based on person locations estimated from multiple video sources |
JP6344311B2 (ja) * | 2015-05-26 | 2018-06-20 | ソニー株式会社 | 表示装置、情報処理システム及び制御方法 |
US11850631B2 (en) | 2015-08-31 | 2023-12-26 | Helmerich & Payne Technologies, Llc | System and method for estimating damage to a shaker table screen using computer vision |
US10954729B2 (en) | 2015-08-31 | 2021-03-23 | Helmerich & Payne Technologies, Llc | System and method for estimating cutting volumes on shale shakers |
WO2018216648A1 (ja) * | 2017-05-22 | 2018-11-29 | 日本電気株式会社 | 群衆状態認識装置、学習方法および学習プログラム |
CN107820010B (zh) * | 2017-11-17 | 2020-11-06 | 英业达科技有限公司 | 摄影计数装置 |
WO2020086594A1 (en) | 2018-10-22 | 2020-04-30 | Motive Drilling Technologies, Inc. | Systems and methods for oilfield drilling operations using computer vision |
US12014563B2 (en) | 2018-11-21 | 2024-06-18 | Nec Corporation | Information processing apparatus, control method, and non-transitory storage medium |
CN112639895A (zh) * | 2018-12-28 | 2021-04-09 | 深圳市柔宇科技股份有限公司 | 人流量的监测方法、装置及相关设备 |
US11162356B2 (en) | 2019-02-05 | 2021-11-02 | Motive Drilling Technologies, Inc. | Downhole display |
JP7254570B2 (ja) * | 2019-03-14 | 2023-04-10 | 株式会社東芝 | 画像センサシステム、計算装置、センシング方法、およびプログラム |
JP6914983B2 (ja) * | 2019-03-27 | 2021-08-04 | 矢崎エナジーシステム株式会社 | 解析システム |
JP7418966B2 (ja) * | 2019-04-02 | 2024-01-22 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP7200875B2 (ja) * | 2019-07-31 | 2023-01-10 | トヨタ自動車株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
JP7443002B2 (ja) | 2019-09-13 | 2024-03-05 | キヤノン株式会社 | 画像解析装置、画像解析方法、及びプログラム |
US12012809B2 (en) | 2019-10-16 | 2024-06-18 | Magnetic Variation Services LLC | Drill pipe tally system |
JP7238821B2 (ja) * | 2020-02-06 | 2023-03-14 | トヨタ自動車株式会社 | 地図生成システム及び地図生成プログラム |
CN113642362A (zh) * | 2020-05-11 | 2021-11-12 | 广东毓秀科技有限公司 | 用于密集场所智能逃生的人群密度估计方法 |
TWI752493B (zh) * | 2020-05-13 | 2022-01-11 | 國立中興大學 | 禽隻圖像辨識停留時間分析系統和方法 |
KR102631983B1 (ko) * | 2021-05-17 | 2024-01-31 | (주)케이아이오티 | 인공지능을 이용한 군중 계수 장치 및 방법 |
CN113822151A (zh) * | 2021-08-09 | 2021-12-21 | 中标慧安信息技术股份有限公司 | 用于监测市场内部人员聚集密度的方法和系统 |
CN114862127B (zh) * | 2022-04-13 | 2023-05-02 | 深圳市鸿普森科技股份有限公司 | 智慧公园大数据可视化管理系统 |
CN115937791B (zh) * | 2023-01-10 | 2023-05-16 | 华南农业大学 | 一种适用于多种养殖模式的家禽计数方法及其计数装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011248836A (ja) | 2010-05-31 | 2011-12-08 | Nomura Research Institute Ltd | 滞留検出システム及びプログラム |
JP2015133093A (ja) | 2014-01-14 | 2015-07-23 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 表示方法、滞在情報表示システム、及び表示制御装置 |
JP2016149654A (ja) | 2015-02-12 | 2016-08-18 | キヤノン株式会社 | 表示制御装置及び表示制御方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005242646A (ja) | 2004-02-26 | 2005-09-08 | Ntt Data Corp | 人流計測装置、人流計測方法および人流計測プログラム |
US9240051B2 (en) * | 2005-11-23 | 2016-01-19 | Avigilon Fortress Corporation | Object density estimation in video |
JP2007201556A (ja) | 2006-01-23 | 2007-08-09 | Fujifilm Corp | 混雑情報提供システム及び方法 |
US7991193B2 (en) * | 2007-07-30 | 2011-08-02 | International Business Machines Corporation | Automated learning for people counting systems |
JP2009181556A (ja) * | 2008-02-01 | 2009-08-13 | Sony Corp | 混雑判定装置、混雑判定方法 |
US20110228984A1 (en) * | 2010-03-17 | 2011-09-22 | Lighthaus Logic Inc. | Systems, methods and articles for video analysis |
US9092675B2 (en) * | 2012-03-29 | 2015-07-28 | The Nielsen Company (Us), Llc | Methods and apparatus to count people in images |
JP2014006586A (ja) * | 2012-06-21 | 2014-01-16 | Canon Inc | 情報処理装置及びその制御方法、コンピュータプログラム |
US20140278742A1 (en) * | 2013-03-15 | 2014-09-18 | Michael Joseph MacMillan | Store-wide customer behavior analysis system using multiple sensors |
US20150199698A1 (en) * | 2014-01-14 | 2015-07-16 | Panasonic Intellectual Property Corporation Of America | Display method, stay information display system, and display control device |
US10289884B2 (en) * | 2015-08-27 | 2019-05-14 | Kabushiki Kaisha Toshiba | Image analyzer, image analysis method, computer program product, and image analysis system |
WO2017137287A1 (en) * | 2016-02-11 | 2017-08-17 | Philips Lighting Holding B.V. | People sensing system. |
CN105872477B (zh) * | 2016-05-27 | 2018-11-23 | 北京旷视科技有限公司 | 视频监控方法和视频监控系统 |
-
2017
- 2017-12-11 JP JP2017236880A patent/JP7130368B2/ja active Active
- 2017-12-27 WO PCT/JP2017/046921 patent/WO2018131485A1/ja active Application Filing
-
2019
- 2019-07-10 US US16/508,117 patent/US11341669B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011248836A (ja) | 2010-05-31 | 2011-12-08 | Nomura Research Institute Ltd | 滞留検出システム及びプログラム |
JP2015133093A (ja) | 2014-01-14 | 2015-07-23 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 表示方法、滞在情報表示システム、及び表示制御装置 |
JP2016149654A (ja) | 2015-02-12 | 2016-08-18 | キヤノン株式会社 | 表示制御装置及び表示制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US11341669B2 (en) | 2022-05-24 |
WO2018131485A1 (ja) | 2018-07-19 |
US20190333241A1 (en) | 2019-10-31 |
JP2018116692A (ja) | 2018-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7130368B2 (ja) | 情報処理装置および情報処理システム | |
US10872262B2 (en) | Information processing apparatus and information processing method for detecting position of object | |
JP6494253B2 (ja) | 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム | |
TWI686774B (zh) | 人臉活體檢測方法和裝置 | |
CN102375974B (zh) | 信息处理设备和信息处理方法 | |
JP6968645B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US20070291991A1 (en) | Unusual action detector and abnormal action detecting method | |
JP5836095B2 (ja) | 画像処理装置、画像処理方法 | |
US20080123975A1 (en) | Abnormal Action Detector and Abnormal Action Detecting Method | |
JP6590609B2 (ja) | 画像解析装置及び画像解析方法 | |
JP6654789B2 (ja) | 変化点で複数候補を考慮して物体を追跡する装置、プログラム及び方法 | |
US20090141982A1 (en) | Information processing apparatus, information processing method, computer program, and recording medium | |
JP2011130203A (ja) | 映像情報処理方法及びその装置 | |
JP7354767B2 (ja) | 物体追跡装置および物体追跡方法 | |
JP5936561B2 (ja) | 画像における外観及びコンテキストに基づく物体分類 | |
WO2018078857A1 (ja) | 視線推定装置、視線推定方法及びプログラム記録媒体 | |
JP5279517B2 (ja) | 物体検知装置及び物体検知方法 | |
JPWO2014010203A1 (ja) | 転倒検知装置および転倒検知方法、転倒検知カメラ、並びにコンピュータ・プログラム | |
TWI671707B (zh) | 影像分析方法、電子系統以及非暫態電腦可讀取記錄媒體 | |
JP6798609B2 (ja) | 映像解析装置、映像解析方法およびプログラム | |
KR101756352B1 (ko) | 확장성 국부 이진 패턴을 이용한 이미지 내 얼굴의 연령 추정 방법 | |
Tu et al. | An intelligent video framework for homeland protection | |
JP6939065B2 (ja) | 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法 | |
US10140503B2 (en) | Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus | |
CN114842539B (zh) | 基于注意力机制和一维卷积滑窗的微表情发现方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201130 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220824 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7130368 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |