JP7130368B2 - 情報処理装置および情報処理システム - Google Patents

情報処理装置および情報処理システム Download PDF

Info

Publication number
JP7130368B2
JP7130368B2 JP2017236880A JP2017236880A JP7130368B2 JP 7130368 B2 JP7130368 B2 JP 7130368B2 JP 2017236880 A JP2017236880 A JP 2017236880A JP 2017236880 A JP2017236880 A JP 2017236880A JP 7130368 B2 JP7130368 B2 JP 7130368B2
Authority
JP
Japan
Prior art keywords
image
information processing
area
imaging devices
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017236880A
Other languages
English (en)
Other versions
JP2018116692A5 (ja
JP2018116692A (ja
Inventor
光太郎 矢野
康夫 馬塲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2018116692A publication Critical patent/JP2018116692A/ja
Publication of JP2018116692A5 publication Critical patent/JP2018116692A5/ja
Application granted granted Critical
Publication of JP7130368B2 publication Critical patent/JP7130368B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06MCOUNTING MECHANISMS; COUNTING OF OBJECTS NOT OTHERWISE PROVIDED FOR
    • G06M7/00Counting of objects carried by a conveyor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、カメラで撮像した映像中の人物の数を計測するための情報処理装置および情報処理システムに関する。
近年、カメラで所定の領域を撮像して、撮像した映像を解析することによって映像中の人物の数を計測(計数)する方法が提案されている。例えば、入力画像と背景画像とから求めた差分画像の面積から人数を推定する方法が特許文献1に記載されている。また、人物検出手段によって検出した人物の数を計数する方法が特許文献2に記載されている。
特開2005-242646号公報 特開2007-201556号公報
しかしながら、特許文献1および2は、1台のカメラ(撮像装置)で所定の領域を撮像して得た画像中の人数を計数するものなので、1台のカメラではカバーしきれない広域での人数を計数できない。また、特許文献1および2では、広域での混雑状況の俯瞰をすることもできない。複数のカメラを用意して、単純に特許文献1や2の方法をカメラ画像毎に適用した場合、カメラ間の設置状況が異なると混雑度の比較ができない。例えば、1つのカメラで比較的広い領域を撮像し、別のカメラで狭い領域を撮像した場合、2つの映像内に写る人物の数が同じであったとしても2つの領域の混雑状況は異なる。
本発明の目的は、上記した課題を解決すべく、複数の撮像装置で撮像した画像を用いても、ある領域に存在する対象物体の数を適切に計数することができる人流解析装置およびシステムを提供することである。
本発明の目的を達成するために、本発明の1つの態様による情報処理装置は、画像から検出された物体について、所定の座標系における物体の位置を取得する取得手段と、前記取得された物体の位置に基づいて、複数の撮像装置によって撮像された所定の領域における物体の数を決定する決定手段と、を有する情報処理装置であって、前記取得手段は、前記画像が混雑画像でない場合は前記画像から検出された物体毎の位置を取得する第1の方法に基づいて、前記画像が混雑画像である場合は前記画像から検出された物体の数と所定の位置とを対応付ける第2の方法に基づいて、物体の位置を取得することを特徴とする。
本発明によれば、複数の撮像装置で撮像した画像を用いても、ある領域に存在する人物の数を適切に計数することができる。
本発明の実施形態に係る人流解析装置のハードウェア構成を示す図。 本発明の実施形態に係る人流解析装置の機能構成を示す図。 本発明の実施形態に係る人流解析システムの処理の流れを示す図。 地図上での撮像装置の設置位置を示す図。 本発明の実施形態に係る画像認識部の構成を示す図。 変化領域画像の例を示す図。 本発明の実施形態に係る画像認識部の処理の流れを示す図。 較正パラメータの取得方法を説明するための図。 本発明の実施形態に係る座標変換部の構成を示す図。 本発明の実施形態に係る統合計数部の処理の流れを示す図。 人流解析結果の表示例を示す図。 本発明の他の実施形態に係る人流解析装置の機能構成を示す図。 本発明の他の実施形態に係る人流解析システムの処理の流れを示す図。 本発明の他の実施形態に係る画像認識部の構成を示す図。 本発明の他の実施形態に係る群衆人流推定部の機能を説明するための図。 本発明の他の実施形態に係る画像認識部の処理の流れを示す図。 本発明の他の実施形態に係る人流解析結果の表示例を示す図。
以下、添付図面を参照して、本発明を実施するための実施形態を詳細に説明する。以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置やシステムの構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。
(人流解析装置のハードウェア構成)
図1は本実施形態に係る人流解析装置10のハードウェア構成を示す図である。人流解析装置10は、演算処理装置11、記憶装置12、入力装置13、出力装置14および入力I/F(インタフェイス)15を備える。人流解析装置10の各装置11~15は、バス16により互いに接続されている。本実施形態の人流解析装置10には、複数の撮像装置101~10nが入力I/F15を介して接続されており、人流解析装置10と撮像装置101~10nにより、人流解析システムが構成されている。人流解析装置10は、撮像装置101~10nが撮像した画像から、人物の数を求め、当該画像における人物の混雑度を解析する。人流解析システムの各装置11~14および撮像装置101~10nは、互いに通信可能に構成されている。
演算処理装置11は、人流解析装置10の動作をコントロールし、記憶装置12に格納されたプログラムの実行等を行う。演算処理装置11は、CPU(Central Processing Unit)およびGPU(Graphics ProcessingUnit)を含む。
記憶装置12は、磁気メモリ、半導体メモリ等からなるストレージデバイスである。記憶装置12は、演算処理装置11の動作に基づき読み込まれたプログラム、長時間記憶しなくてはならないデータ等を記憶する。本実施形態では、演算処理装置11が、記憶装置12に格納されたプログラムの手順に従って処理を行うことによって、人流解析装置10における機能及び後述するフローチャートに係る処理が実現される。記憶装置12は、人流解析装置10が処理対象とする画像および検出結果、解析結果等を記憶する。
入力装置13は、マウス、キーボード、タッチパネルデバイス、ボタン等を含む。入力ル装置4は、各種の指示、情報、データ等を入力する。
出力装置14は、液晶パネル、外部モニタ等からなり、各種の情報を出力する。
入力I/F15は、撮像装置101~10nを人流解析装置10に接続する。入力I/F15は、例えば、USBやIEEE1394等の規格に準拠したシリアルバスインタフェイスである。撮像装置101~10nで撮像した画像は、入力I/F15を介して、人流解析装置10に入力される。
撮像装置101~10nは、例えば、監視カメラであり、所定の領域を撮像することにより、当該領域の画像(画像データ)を取得する。この所定の領域は、各撮像装置の撮像領域である。撮像装置101~10nは、画像を格納するメモリを有している。撮像装置101~10nは、それぞれ識別番号(カメラID)を有する。
なお、人流解析装置10のハードウェア構成は、上述した構成に限定されない。例えば、人流解析装置10は、各種の装置と通信を行うためのI/O装置を備えてもよい。例えば、I/O装置は、有線、無線等による送受信部である。また、I/O装置は、メモリーカード、USBケーブル等の入出力部を有してもよい。
(人流解析装置10の機能構成)
図2は、撮像装置101~10nに接続された、本実施形態に係る人流解析装置10の機能構成を示す図である。人流解析装置10の処理および機能は、複数の撮像装置101~10nに対応した、複数の画像認識部201~20nと、複数の較正部301~30nと、複数の座標変換部401~40nと、統合計数部500と、表示部600とにより実現される。
撮像装置101~10nは、それぞれ所定の領域を撮像することにより、当該領域の画像を取得し、取得した画像を画像認識部201~20nに出力する。
画像認識部201~20nは、撮像装置101~10nから受け取った画像に画像認識処理を施し、当該画像内の人物位置を取得(検出、推定)する。この人物位置は、画像の座標で示される位置座標である。本実施形態では、画像認識部201~20nは同一の構成を有し、同一の動作(処理)を行う。画像認識部201~20nは、認識した人物位置を座標変換部401~40nに出力する。
較正部301~30nは、撮像装置101~10nが取得した画像の座標と共通の座標系の座標である世界座標(基準座標系)とを対応付ける較正パラメータをそれぞれ取得する。較正部301~30nは、取得した較正パラメータを座標変換部401~40nに出力する。
座標変換部401~40nは、較正部301~30nから受け取った較正パラメータを用いて、画像認識部201~20nから受け取った人物位置(位置座標)をそれぞれ世界座標に変換する。座標変換部401~40nは、世界座標にした人物位置を、統合計数部500に出力する。なお、座標変換部401~40nのそれぞれは、第1の座標変換部410と第2の座標変換部420を含む(図9)。第1の座標変換部410と第2の座標変換部420については、後述する。
統合計数部500は、座標変換部401~40nから受け取った人物位置の世界座標を統合し(位置座標を世界座標上に統合し)、領域毎に人物の数を計数する。また、統合計数部500は、領域毎に計数した人物の数に基づいて、混雑度を表す濃淡部分(混雑度表示)を生成し、地図上に表示する。本実施形態では、地図上に混雑度表示が表示されたものを、解析結果と称する。解析結果については、図11を用いて後述する。統合計数部500は、世界座標を用いて、解析結果を表示部600に出力する。
表示部600は、統合計数部500から受け取った解析結果を表示する。
(人流解析システムの処理)
以下、撮像装置101~10nと人流解析装置10とを有する人流解析システムの動作を図3に示すフローチャートに従って説明する。
S10において、撮像装置101~10nは、複数の領域を撮像することにより複数の画像を取得する。取得した画像は、撮像装置101~10nのメモリに格納される。本実施形態では、図4の地図に示すように撮像装置101~10nが設置されているものとする。図中、C1~Cnはそれぞれ撮像装置101~10nの位置を表す。白色の領域Sは街路・歩道等の人物が通行する領域である。撮像装置101~10nが撮像対象とする空間(領域)は互いに重複し合ってもよいし、重複しなくてもよい。撮像装置101~10nは、好ましくは、撮像した画像と共に撮像時刻を記録する。撮像時刻を参照することで後述の統合処理において略同一時刻での計数人数や解析結果を世界座標上に統合することが可能になる。
S20において、人流解析装置10の画像認識部201~20nは、撮像装置101~10nが取得した画像に画像認識処理を施し、画像中の人物位置を取得する。本実施形態では、画像認識部201~20nは同一の構成からなり、同一の動作を行うので、代表として画像認識部201の詳細を以下に説明する。
(画像認識部の構成)
図5は画像認識部201の構成を示す。図5に示すように、画像認識部201は、変化領域検知部210と、混雑判定部220と、人検出部230と、群衆人数推定部240とを有する。変化領域検知部210、人検出部230、および群衆人数推定部240には、撮像装置101で取得した画像が、入力画像として入力される。
変化領域検知部210は、入力画像から、時間的に変化の大きい領域(変化領域)を検知して、当該領域を変化領域画像として抽出する。本実施形態では背景差分方式を用いて変化領域を検知して変化領域画像を抽出する。人物の写っていない背景のみの画像を複数フレーム分取得し、取得した画像から背景画像を予め作成しておく。背景差分方式では、入力画像と背景画像とを画素毎に比較し、差分が所定量より大きい画素を変化領域画素とし、それ以外の画素と区別する。例えば、変化領域画素を1、それ以外の画素を0とした2値画像を変化領域画像として抽出する。1と0は画素値である。変化領域検知部210は、抽出した変化領域画像を混雑判定部220に出力する。なお、変化領域を検知できない(変化領域画素がない)場合、変化領域検知部210は、当該検知結果を混雑判定部220に出力する。変化領域検知部210は、時間的変化が所定量より大きい領域を入力画像から検知するものである。
混雑判定部220は、変化領域検知部210で抽出した変化領域画像に基づいて、撮像装置101で取得した画像(入力画像)が、人物ありの画像であるのか、人物なしの画像であるのか、混雑画像であるのか、混雑画像ではないのかなどを判定する。変化領域画素がない場合、混雑判定部220は入力画像が人物なしの画像であると判定する。混雑判定部220は、例えば、入力画像が人物ありの画像であると判定した後、入力画像が混雑画像であるか否かを判定する。混雑判定部220は、判定結果を人検出部230と、群衆人数推定部240とに出力する。
図6を参照して、混雑画像と混雑画像でない画像との違いを説明する。図6において、黒の部分が変化領域画像の中の変化領域画素B1~B4を示し、白の部分が変化領域画素でない画素Wを示す。図6(A)は入力画像が混雑画像でない場合の変化領域画像の例である。図6(A)では、変化領域画素B1、B2、B3が散在している。これは、例えば、撮像画像中に人物が散在していることを表す。
図6(B)は入力画像が混雑画像である場合の変化領域画像の例である。図6(B)では、変化領域画素B4が大きな塊になる。これは、例えば、撮像画像中で多くの人物がかたまって存在して混雑していることを表す。混雑判定部220は変化領域画像に対して隣接する同一画素値の画素を一つの塊に統合し、変化領域画素の塊の大きさを求める。求めた変化領域画素の塊の大きさが所定の閾値以上であれば、混雑判定部220は、入力画像が混雑画像であると判定し、それ以外の場合は混雑画像でないと判定する。
このように、混雑判定部220は、変化領域画像(領域)内の人物の位置座標の変化に基づいて、入力画像が混雑画像であるか否かを判定している。
なお、入力画像のサイズが大きい場合、混雑判定部220は、入力画像を所定のサイズのブロックに分割し、それぞれのブロックに対して混雑判定を行う。
人検出部230は、撮像装置101で取得した画像(入力画像)から人物を検出する。画像から人物を検出する方法としては、例えば、文献「Dalal and Triggs. Histograms of Oriented Gradients for Human Detection. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2005」に記載されている方法を用いる。この文献では画像から勾配方向ヒストグラム特徴(Histograms of Oriented Gradients)を抽出し、抽出した勾配方向ヒストグラム特徴量をサポートベクターマシンで学習したモデルを用いて人か否かを識別する。
なお、画像から人物を検出する方法は、この方法に限定されない。例えば、抽出する特徴量は勾配方向ヒストグラム特徴ではなく、Haar-like特徴、LBPH特徴(Local Binary Pattern Histogram)等でもよいし、それらを組み合せてもよい。また、人を識別するモデルはサポートベクターマシンではなく、アダブースト識別器、ランダム分類木(Randomized Tree)等でもよい。人検出部230は、検出結果を、画像中の人物頭部中心の位置座標として出力する(人物位置の出力)。このようにして、人検出部230は、画像中の人物の位置座標を取得している。その後、人検出部230は、検出した人物位置を座標変換部401(図5)へ出力する。
群衆人数推定部240は、撮像装置101で取得した画像中の人物の数(人数)を推定する。画像中の人数を推定する方法としては、例えば、文献「Lempitsky and Zisserman.Learning To Count Objects in Images. Advances in Neural Information Processing Systems (NIPS), 2010」に記載されている方法を用いる。この文献では機械学習によって得た認識モデルを用いて、画像から人口密度を回帰推定によって求める。例えば、入力画像を縦横適切な大きさのブロックに分割し、分割したそれぞれの画像(ブロック)の人口密度、すなわち、ブロック中の人数を推定する。本実施形態では、群衆人数推定部240は、この文献の方法を利用する。群衆人数推定部240は、それぞれのブロックの推定結果から、ブロックの中心位置座標と推定した人数とを対応付けて出力する(人物位置の出力)。このようにして、群衆人数推定部240は、画像中の人物の位置座標を取得している。その後、群衆人数推定部240は、人物位置を座標変換部401(図5)へ出力する。
(画像認識部の処理)
図7を用いて画像認識部201の処理の流れを説明する。
撮像装置101から画像認識部201に画像が入力されると、S21において、変化領域検知部210は、入力画像から時間的に変化の大きい領域を検知して、当該領域を変化領域画像として抽出する。
S22において、混雑判定部220は、変化領域検知部210で抽出した変化領域画像から、入力画像の混雑判定を行う。まず、混雑判定部220は、入力画像に人物が写っているかを判定する(S23)。入力画像が人物なしの画像であると判定された場合(S23:N)は、画像認識部201の処理は終了する。この場合、画像認識部201から人物位置の出力はない。入力画像が人物ありの画像と判定された場合(S23:Y)は、S24に進む。
S24において、混雑判定部220は、入力画像が混雑画像であるかを判定する。入力画像が混雑画像ではないと判定した場合、混雑判定部220は、入力画像が混雑画像でないという判定結果を、人検出部230に出力する。その後、S25に進む。
S25において、人検出部230は、混雑判定部220からの判定結果と入力画像とに基づいて、入力画像から人物を検出し、人物位置(対象物体の位置座標)を取得する。
S24において混雑判定部220が入力画像は混雑画像であると判定した場合は、混雑判定部220は、入力画像が混雑画像であるという判定結果を、群衆人数推定部240に出力する。その後、S26に進む。
S26において、群衆人数推定部240は、混雑判定部220からの判定結果と入力画像とに基づいて、入力画像中の人数を推定し、人物位置を取得する。
このように画像認識部は、混雑判定部の判定結果に基づいて、人検出部230を用いるか群衆人数推定部240を用いるかを決定している。
なお、混雑判定部220において入力画像をブロックに分割し、それぞれのブロックに対して混雑判定を行う場合には、ブロック毎にS22~S26の処理を繰り返し行うようにすればよい。
本実施形態では、入力画像が人物なしの画像であると判定された場合には(S23:N)、人検出の処理(S25)および群衆人数推定の処理(S26)を行わないようにしたので、画像認識部201の演算量を削減することができる。
本実施形態では、入力画像のサイズが大きい場合、入力画像を所定のサイズのブロックに分割し、それぞれのブロックに対して混雑判定を行う。そして、ブロック毎に人検出あるいは群衆人数推定の処理を行うか否かを判定するようにしたので、人検出部230および群衆人数推定部240の演算量を削減することができる。
本実施形態では、入力画像が混雑画像でないと判定された場合は(S24:N)、人検出部230で人物位置を求め(S25)、入力画像が混雑画像であると判定された場合は、群衆人数推定部240で人物位置を求めるようにした(S26)。
人物が混雑した状況においては人物同士の重なりによる隠れのために人検出部230で人物を精度よく検出することは困難である。一方、人物が散在するような状況においては、人検出部230は群衆人数推定部240よりも精度良く人数を検出できる。したがって、本実施形態では混雑判定部220の判定結果に応じて最適な方法で人数を検出・推定することができる。
(座標変換部による座標変換)
以上のような画像認識処理(図3のS20)が終了すると、S30に進む。S30において、座標変換部401~40nは、較正部301~30nで取得した較正パラメータを用いて、画像認識部201~20nで求めた人物位置をそれぞれ世界座標に変換する。
まず、較正部301~30nで行う較正パラメータの取得方法について図8を用いて説明する。図8(A)は較正対象の監視カメラ(撮像装置)で撮像した画像の例であり、P1、P2、P3は画像中に写った人物の頭部中心位置を示す。図8(B)は地図を表し、Cは較正対象の監視カメラの位置を示し、Q1、Q2、Q3はそれぞれ人物P1、P2、P3の位置を示している。
較正パラメータを取得する際、例えば、較正部301~30nは、図8(A)に示した画像および図8(B)に示した地図を出力装置14に表示する。較正を行う操作者は、入力装置13にてP1、P2、P3(画像の座標)およびQ1、Q2、Q3(世界座標)の入力を行う。すなわち、入力装置13を介して画像中の人物の位置(位置座標)と地図上の人物の位置とを指定して、画像中の位置と地図上の世界座標とが対応付けられる。ここで、入力された画像中の人物の位置を(ui,vi)とし、地図上の世界座標を(Xi,Yi)とすると(但し、i=1,2,…,N。Nは入力した人物数)、それらの関係は以下の式1のようになる。
(Xi,Yi,1)T = H(ui,vi,1)T (式1)
ここで、Hは3×3の変換行列であり、Tはベクトルの転置を表す。
較正部301~30nは、画像中の人物の位置および地図上の世界座標との組から式1に基づいて回帰推定によって変換行列Hを求め、較正パラメータとして記憶する。
なお、上記した例では画像および地図上の人物位置を入力して較正パラメータを求めるようにしたが、本発明はこのような手法に限定されない。例えば、画像に人物が写っていない場合においても画像中に写っている背景物体の特徴的な点と地図上の位置を対応付けて入力するようにしてもよい。このとき、画像中で指定する背景物体の特徴的な点は、人物の頭部中心位置に相当する高さの点を選ぶようにする。
このように、較正部301~30nは、それぞれ撮像装置101~10nの較正パラメータを取得する。
また、座標変換部401~40nのそれぞれは、第1の座標変換部410と第2の座標変換部420とを有する。座標変換部401~40nの構成は同じであるので、図9に座標変換部401の構成を示す。
第1の座標変換部410は、画像認識部201が人検出部230によって人物位置を検出した場合に求めた人物位置を世界座標に変換する。第2の座標変換部420は、画像認識部201が群衆人数推定部240によって人物位置を求めた場合に当該人物位置を世界座標に変換する。
第1の座標変換部410は、人検出部230が出力する画像中の人物頭部中心の位置座標を、較正部301で取得した較正パラメータを用いて世界座標に変換する。変換は、画像中の人物頭部中心の位置座標を(u,v)とし、較正パラメータをHとすると、以下の式2のように行われる。
(X,Y,1)T = H(u,v,1)T (式2)
ここで、(X,Y)は求める地図上の世界座標を表し、Tはベクトルの転置を表す。
画像中に複数の人物がいる場合は、それぞれの位置座標について前記変換式(式2)に基づいて世界座標を求める。
第2の座標変換部420は、群衆人数推定部240が出力する画像中の人物が存在するブロックの中心位置座標を、較正部301で取得した較正パラメータを用いて世界座標に変換する。変換は、第1の座標変換部410における変換と同様に行う。すなわち、ブロックの中心位置座標を(u,v)とし、較正パラメータHを用いて、式2に基づいて変換を行う。但し、第1の座標変換部410とは異なり、第2の座標変換部420は、求めた世界座標をブロック内での推定人数分だけ出力するようにする。なお、第2の座標変換部420は、求めた世界座標と推定人数を出力するようにしてもよい。
(統合計数部の処理)
以上のような座標変換処理(図3のS30)が終了すると、S40に進む。S40において、統合計数部500は、座標変換部401~40nで求めた人物位置の世界座標を統合し、領域毎に人物の数を計数する。統合計数部500の処理の流れを、図10を用いて説明する。
まず、S41において、統合計数部500は、撮像装置101で撮像した画像から求めた人物位置の世界座標(人物位置座標)を、座標変換部401から取得する。
S42において、統合計数部500は、人物位置の世界座標に対応する地図の領域を求め、求めた領域の人数を1だけ加算する。なお、本実施形態では、予め地図を所定の領域にブロック分割して人数計数を行う領域が設定されているとする。また、初期状態において各領域の人数は0に初期化されているとする。
S43において、統合計数部500は、画像を取得した撮像装置101の識別番号(カメラID)を記録する。取得した人物位置の世界座標が撮像装置101で撮像した画像から求めた人物位置の世界座標である場合、識別番号IDをID=1とし、求めた領域に記録しておく。
統合計数部500は、上述の計数処理(S41~S43)を人物位置座標分だけ繰り返し実行する。このようにして、撮像装置101についての統合計数部500の処理が行われる。この処理により、撮像装置101が撮像した領域内の対象物体(人物)の数が計数される。
統合計数部500は、同様の処理を撮像装置102~10nについても行う(図10の「カメラ台数分の繰り返し」)。すなわち、統合計数部500は、撮像装置102~10nで撮像した画像から求めた人物位置の世界座標を、それぞれ、座標変換部402~40nから取得する(S41)。それぞれ取得した人物位置の世界座標に対応する地図の領域を求め、求めた領域の人数を1だけ加算する(S42)。このとき、画像を取得した撮像装置の識別番号を、求めた領域(上記地図の領域)に記録しておく(S43)。例えば、ある領域に対応した人物位置が撮像装置101と撮像装置102で撮像した画像の人物位置である場合、ID=1およびID=2がその領域に記録されることになる。統合計数部500は、画像と共に記録した撮像時刻を参照することによって、略同一時刻での人物位置座標を統合することができる。統合計数部500は、上述の計数処理(S41~S43)を人物位置座標分だけ繰り返し実行する。
全撮像装置101~10nに対する人物位置の計数が終了した後、統合計数部500は撮像領域毎に撮像装置101~10nの重複度合いに基づいて計数結果(対象物体の数)の正規化を行う(S44)。ある領域を複数の撮像装置で撮像した場合、同じ人物を重複撮像し、人数に加算してしまうため、これを補正する必要があるためである。正規化には計数を行う地図の各領域について撮像装置の識別番号を用いる。例えば、ある領域に記録された識別番号IDが1と2である場合、その領域は2つの領域で重複して撮像されていることを表すので、計数結果を2で割る。すなわち、重複した撮像装置の数だけ計数結果を除算して補正する。補正後の計数結果に基づいて、統合計数部500は各領域における人物(対象物体)の混雑度を、地図上の当該領域の画像に表示して、解析結果を生成する(S45)。
(表示部による表示)
以上のような人数計数処理(図3のS40)が終了すると、S50に進む。S50において、表示部600(出力装置)は、統合計数部500で求めた解析結果を地図上で表示する。図11に解析結果の表示例を示す。
図11において、濃度の濃い領域ほど、人数が多い領域であることを示す。つまり、図11は、色の濃淡(画像情報)によって混雑度(混雑状態)を示している。色の濃淡は混雑度表示と称することができる。色の濃淡ではなく、色の違いや模様などによって混雑度を表してもよい。図4と同様、図11のC1~Cnはそれぞれ撮像装置101~10nの位置を表し、白色の領域Sは人物が通行する領域を表す。また、図11のR1~Rnはそれぞれ撮像装置101~10nで人物の計数が可能な領域(撮像領域)を示した閉領域である。この領域は、監視カメラの監視領域であると言うこともできる。
広域での監視撮像においては、複数の監視カメラを設置しても全ての領域を撮像できない場合もある。地図上で監視領域R1~Rnが表示されないと、どの撮像装置がどの領域を監視している(撮像している)のかが分からない。また、撮像装置101~10nによって、すべての領域Sが監視されているのか監視されていないのかも分からない。計数結果とともに計数対象の領域(監視領域)R1~Rnを表示部600に明示することで、撮像領域と非撮像領域と区別することができる。
(実施形態1の効果)
以上説明したように、本実施形態によれば、複数の撮像装置で撮像した画像を用いても、ある領域に存在する人物の数を適切に計数することができる。より詳しくは、本実施形態では、複数の撮像装置101~10nのそれぞれの画像から人物位置を求め、較正パラメータを用いて人物位置の座標を世界座標に変換した後、統合して人物の数を計数するようにした。よって、複数の撮像装置(監視カメラ)の設置状況(監視カメラの監視領域の大きさ)が異なる場合でも、複数の撮像装置から得られた人物位置を統合することができるし、各撮像装置の撮像領域(監視領域)の混雑度を比較することができる。本実施形態によれば、複数の監視カメラ間の設置状況が異なる場合においても混雑度の比較ができ、1台のカメラではカバーしきれない広域においても全体を俯瞰した混雑状況を把握することができる。
本実施形態の人流解析装置10(または人流解析装置10を含む人流解析システム)を用いると、例えば、公共の空間での混雑の検知および混雑時の人の流れを正確に把握することができる。よって、イベント時などの混雑解消や災害時の避難誘導の際に、本実施形態の人流解析装置10を利用することができる。
(その他の実施例)
上記した実施形態では、カメラで撮像した映像中の人物の位置座標を取得して人物の数を計測する場合について説明したが、さらに人物の移動量を取得することで撮像した領域の滞留状況を把握することができる。以下にその実施形態を説明する。
(人流解析装置20の機能構成)
図12に本実施形態に係る人流解析装置20の機能構成を示す。図中、図2に示した人流解析装置10の構成要素と同記号のものは人流解析装置10中の構成要素と同機能を有するため、説明を省略する。
画像認識部211~21nは、撮像装置101~10nから受け取った画像に画像認識処理を施し、当該画像内の人物位置と共に人物の移動ベクトル(移動量と方向)を取得する。
滞留度算出部711~71nは、画像認識部211~21nで求めた人物の移動ベクトルと、座標変換部401~40nを介して世界座標に変換した人物位置座標とから滞留度を算出する。
統合計数部510は、座標変換部401~40nから受け取った人物位置の世界座標を統合し、領域毎に人物の数を計数すると共に、滞留度算出部711~71nから受け取った滞留度を統合する。
表示部610は、地図上に滞留度を示す画像情報を表示する。
(人流解析システムの処理)
人流解析システムの動作を図13に示すフローチャートに従って説明する。図中、図3に示したフローチャートと同記号のものは同処理のため、説明を省略する。
S80において、人流解析装置20の画像認識部211~21nは、撮像装置101~10nが取得した画像に画像認識処理を施し、画像中の人物位置と共に人物の移動ベクトルを取得する。
S70において、滞留度算出部711~71nは、画像認識部211~21nで求めた人物の移動ベクトルと、座標変換部401~40nを介して世界座標に変換した人物位置座標とから滞留度を算出する。
S90において、統合計数部510は、座標変換部401~40nから受け取った人物位置の世界座標を統合し、領域毎に人物の数を計数すると共に、滞留度算出部711~71nから受け取った滞留度を統合する。
S100において、表示部610は、統合計数部510で求めた解析結果を世界座標上で表示する。
(画像認識部の構成)
図14は画像認識部211の構成を示す。図中、図5に示した画像認識部201の構成要素と同記号のものは画像認識部201中の構成要素と同機能を有するため、説明を省略する。
画像認識部211は撮像装置101で取得した連続する異なる時刻に撮像された2フレームの画像を入力する。人追尾部250は、人検出部230で検出した人物位置をフレーム間で対応付け、人物の移動ベクトルを求める。
群衆人流推定部260は、連続する異なる時刻に撮像された2フレームの画像を入力して人物の密度分布および移動ベクトルの分布を推定する。ここで入力される画像は撮像装置101で取得した画像をブロックに分割したブロック毎の部分画像である。画像中の人物の密度分布および移動ベクトルの分布を推定する方法としては、例えば、文献「Walach E., Wolf L. (2016) Learning to Count with CNN Boosting. In: Leibe B., Matas J., Sebe N., Welling M. (eds) Computer Vision ― ECCV 2016. ECCV 2016. Lecture Notes in Computer Science, vol 9906. Springer, Cham」に記載されている方法を用いる。この文献では事前に機械学習によって得たニューラルネットワークを用いて、画像から人物の密度分布を求める。本実施形態ではこの方法を応用し、連続する2フレームの画像を入力して画像中の人物の密度分布および移動ベクトルの分布を同時推定するニューラルネットワークを事前に学習し、推定に用いる。図15に群衆人流推定部260の機能を示す。図中、ニューラルネットの出力のうち、人物密度分布は濃淡の濃い部分が人物頭部の位置を表す。移動ベクトルは濃淡の濃い値ほど移動量が大きいことを表す。図15の例では、群衆の横方向への移動のため、横方向の移動ベクトルは大きく、縦方向の移動ベクトルは小さい値を持つ。画像認識部211では、ニューラルネットワークの密度分布を積分してブロック中の人数を求める。また、ニューラルネットワークの移動ベクトルを平均してブロックの平均移動ベクトルを求める。
(画像認識部の処理)
図16を用いて画像認識部211の処理の流れを説明する。図中、図7に示したフローチャートと同記号のものは同処理のため、説明を省略する。
S27において、人追尾部250は、人検出部230で検出した人物位置をフレーム間で対応付け、人物の移動ベクトルを求める。
S28において、群衆人流推定部260は、連続する異なる時刻に撮像された2フレームの画像を入力して人物の密度分布および移動ベクトルの分布を推定し、人数および平均移動ベクトルを求める。
(滞留度算出部の処理)
滞留度算出部711~71nは、画像認識部211~21nで求めた人物の移動ベクトルと、座標変換部401~40nを介して世界座標に変換した人物位置座標とから滞留度を算出する。地図上のある領域の滞留度Sは領域中の人数Dおよび移動量Mから以下の式3で求める。
S = w1×D - w2×M (式3)
ここで、w1とw2は滞留度を求めるために事前に調整した重みパラメータであり、正の値をもつ。すなわち、人数が多いほど、あるいは、移動量が小さいほど、式(3)は大きい値を出力する。なお、移動量Mは移動ベクトルの大きさを用いる。
(統合計数部の処理)
統合計数部510は、座標変換部401~40nから受け取った人物位置の世界座標を統合し、領域毎に人物の数を計数すると共に、滞留度算出部711~71nから受け取った滞留度を統合する。統合計数部510は、地図上の領域毎の滞留度をカメラ毎に取得し、複数カメラで重複する領域では平均値を滞留度として統合する。
(表示部による表示)
表示部610(出力装置)は、統合計数部510で求めた解析結果を世界座標上で表示する。図17に解析結果の表示例を示す。図17の例では、各領域における人物の混雑度を色の濃淡で表し、滞留度が所定の値以上の領域を滞留領域として太枠RSとして示した。図17の地図を見ると滞留場所の隣接領域に中程度の混雑度領域が存在するので混雑度が高くなると予想できる。このように地図上に混雑度と共に滞留場所を表示することで次に混雑しそうな場所を予測することができる。なお、滞留領域を枠で表示する以外に領域を色付けするなど他の画像情報に基づいた表示を行ってもよい。
上記した実施形態では、画像認識部211~21nで求めた人物の移動ベクトルと、座標変換部401~40nを介して世界座標に変換した人物位置座標とから滞留度を算出するようにした。このような構成の他、カメラ毎に求めた人物の移動ベクトルと人物位置座標とを統合計数部で統合した結果から滞留度を算出するようにしてもよい。
(変形例)
上記した実施形態では、画像から人物を検出する場合に本発明を適用する例について説明したが、人物以外の物体を検出対象とした場合にも本発明は適用可能である。
上記した実施形態において、画像認識部201が混雑判定部220の判定結果に基づいて、人検出部230または群衆人数推定部240のいずれかで処理を行うようにしたが、本発明はこれに限定されない。例えば、画像認識部201を人検出部230と群衆人数推定部240で構成し、人検出部230と群衆人数推定部240の処理を相互の処理結果に基づいて切り替えるようにしてもよい。この場合、人検出部230の検出結果に基づいて人物の重なりを判定し、重なりが多くなった場合に人検出部230から群衆人数推定部240に切り替える。あるいは、群衆人数推定部240の推定結果に基づいて、推定した人数が少なくなった場合に群衆人数推定部240から人検出部230に切り替える。
上記した実施形態において、画像認識部201では、人検出部230または群衆人数推定部240のいずれかで処理を行うようにしたが、人検出部230および群衆人数推定部240の両方で処理を行い、それらの結果を統合するようにしてもよい。
上記した実施形態の画像認識部201~20n、較正部301~30n、座標変換部401~40nおよび統合計数部500の少なくとも一部をハードウェアによって実現してもよい。ハードウェアにより実現する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。また、FPGAと同様にしてGate Array回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASICにより実現するようにしてもよい。FPGAは、Field―Programmable Gate Arrayの略である。ASICは、Application Specific Integrated Circuitの略である。
上記した実施形態では、人流解析装置10は入力装置13と出力装置14(表示部600)を含むとしたが、入力装置13と出力装置14の一方または両方を人流解析装置10の外に設け、適切なI/Fを介して人流解析装置10に接続するようにしてもよい。
上記した実施形態では、座標変換部401~40nが、人物の位置座標を世界座標に変換したが、適切な較正パラメータが得られるのであれば、世界座標以外の座標を共通の座標系の座標として用いてもよい。
(その他の実施形態)
本発明は、上述した実施形態の1以上の機能を実現するプログラム(コンピュータプログラム)を、ネットワークまたは記録媒体(記憶媒体)を介して、システムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行することによっても実現可能である。この場合、記録媒体から読み出されたプログラム(プログラムコード)自体が実施形態の機能を実現することになる。また、当該プログラムを記録した記録媒体は本発明を構成することができる。
また、コンピュータが読み出したプログラムを実行することにより、実施形態の機能が実現されるだけでなく、プログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって上記した実施形態の機能が実現されてもよい。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現されてもよい。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明した処理フローに対応するプログラムが格納されることになる。
10…人流解析装置、11…演算処理部、101~10n…撮像装置、201~20n…画像認識部、401~40n…座標変換部、500…統合計数部

Claims (20)

  1. 画像から検出された物体について、所定の座標系における物体の位置を取得する取得手段と、
    前記取得された物体の位置に基づいて、複数の撮像装置によって撮像された所定の領域における物体の数を決定する決定手段と、を有する情報処理装置であって、
    前記取得手段は、前記画像が混雑画像でない場合は前記画像から検出された物体毎の位置を取得する第1の処理に基づいて、前記画像が混雑画像である場合は前記画像から検出された物体の数と所定の位置とを対応付ける第2の処理に基づいて、物体の位置を取得することを特徴とする情報処理装置。
  2. 前記決定された物体の数を示す表示を出力する出力手段を更に有することを特徴とする請求項1に記載の情報処理装置。
  3. 前記複数の撮像装置のそれぞれについて、物体がいない状態で撮像した背景画像に基づいて、前記画像が混雑画像であるか否かを判定する判定手段を更に有することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記判定手段は、前記背景画像と、前記画像との画素値に差がある画素の領域が、所定の大きさより大きい場合に混雑画像であると判定し、前記所定の大きさ以下である場合に混雑画像でないと判定することを特徴とする請求項に記載の情報処理装置。
  5. 前記第1の処理は、前記画像を撮像した撮像装置の位置に基づいて、前記画像から検出された物体の位置を画像座標系から前記所定の座標系に変換する処理であることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  6. 前記第2の処理は、前記画像から検出された物体を含む領域に対応付けられた所定の位置を取得する処理であることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  7. 前記決定手段は、前記所定の座標系において、前記複数の撮像装置によって撮像された画像のそれぞれから検出された物体の位置を統合した結果に基づいて、前記物体の数を決定する請求項1乃至のいずれか1項に記載の情報処理装置。
  8. 前記取得手段は、前記複数の撮像装置によって撮像された画像のそれぞれにおける画像座標系と前記所定の座標系とを対応付ける較正パラメータを用いて、検出された複数の物体の位置をそれぞれ取得することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 前記出力手段は、前記決定された物体の数に基づいて、前記所定の領域の混雑度を出力
    する請求項2に記載の情報処理装置。
  10. 前記出力手段は、前記混雑度に応じた色または模様を出力する請求項に記載の情報処理装置。
  11. 前記出力手段は、前記所定の領域を示したマップ上で前記複数の撮像装置のそれぞれの位置を出力する請求項2に記載の情報処理装置。
  12. 前記出力手段は、前記マップ上で前記複数の撮像装置のそれぞれの撮像領域を出力する請求項11に記載の情報処理装置。
  13. 前記決定手段は、前記複数の撮像装置の撮像領域の重複に基づいて、前記撮像領域毎に物体の数の正規化を行うことを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
  14. 前記複数の撮像装置により異なる時刻に撮像された複数の画像のそれぞれから物体の移動量を取得する移動量取得手段を更に有することを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。
  15. 前記取得された物体の移動量に基づいて、検出された物体の滞留度を算出する滞留度算出手段を更に備えることを特徴とする請求項14に記載の情報処理装置。
  16. 前記第1の処理は、前記画像から抽出された特徴量に基づいて検出された物体に対する処理であることを特徴とする請求項5に記載の情報処理装置。
  17. 前記第2の処理は、前記画像の部分領域に認識モデルを用いることによって推定された物体の数を、前記部分領域の中心位置に対応付ける処理であることを特徴とする請求項6に記載の情報処理装置。
  18. 請求項1乃至17のいずれか1項に記載の情報処理装置と、複数の領域をそれぞれ撮像する複数の撮像装置と、を備える情報処理システム。
  19. 画像から検出された物体について、所定の座標系における物体の位置を取得する取得工程と、
    前記取得された物体の位置に基づいて、複数の撮像装置によって撮像された所定の領域における物体の数を決定する決定工程と、を有する情報処理方法であって、
    前記取得工程は、前記画像が混雑画像でない場合は前記画像から検出された物体毎の位置を取得する第1の処理に基づいて、前記画像が混雑画像である場合は前記画像から検出された物体の数と所定の位置とを対応付ける第2の処理に基づいて、物体の位置を取得することを特徴とする情報処理方法。
  20. コンピュータを請求項1乃至17のいずれか1項に記載の情報処理装置の各手段として機能させるプログラム。
JP2017236880A 2017-01-13 2017-12-11 情報処理装置および情報処理システム Active JP7130368B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017004643 2017-01-13
JP2017004643 2017-01-13

Publications (3)

Publication Number Publication Date
JP2018116692A JP2018116692A (ja) 2018-07-26
JP2018116692A5 JP2018116692A5 (ja) 2021-01-21
JP7130368B2 true JP7130368B2 (ja) 2022-09-05

Family

ID=62839991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017236880A Active JP7130368B2 (ja) 2017-01-13 2017-12-11 情報処理装置および情報処理システム

Country Status (3)

Country Link
US (1) US11341669B2 (ja)
JP (1) JP7130368B2 (ja)
WO (1) WO2018131485A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11378387B2 (en) 2014-11-12 2022-07-05 Helmerich & Payne Technologies, Llc System and method for locating, measuring, counting, and aiding in the handling of drill pipes
US10577912B2 (en) 2014-11-12 2020-03-03 Helmerich & Payne Technologies, Llc System and method for measuring characteristics of cuttings and fluid front location during drilling operations with computer vision
US10997412B2 (en) 2014-11-12 2021-05-04 Helmerich & Payne Technologies, Llc System and method for estimating rig state using computer vision for time and motion studies
CA2967771A1 (en) 2014-11-12 2016-05-19 Covar Applied Technologies, Inc. System and method for inhibiting or causing automated actions based on person locations estimated from multiple video sources
JP6344311B2 (ja) * 2015-05-26 2018-06-20 ソニー株式会社 表示装置、情報処理システム及び制御方法
US11850631B2 (en) 2015-08-31 2023-12-26 Helmerich & Payne Technologies, Llc System and method for estimating damage to a shaker table screen using computer vision
US10954729B2 (en) 2015-08-31 2021-03-23 Helmerich & Payne Technologies, Llc System and method for estimating cutting volumes on shale shakers
WO2018216648A1 (ja) * 2017-05-22 2018-11-29 日本電気株式会社 群衆状態認識装置、学習方法および学習プログラム
CN107820010B (zh) * 2017-11-17 2020-11-06 英业达科技有限公司 摄影计数装置
WO2020086594A1 (en) 2018-10-22 2020-04-30 Motive Drilling Technologies, Inc. Systems and methods for oilfield drilling operations using computer vision
US12014563B2 (en) 2018-11-21 2024-06-18 Nec Corporation Information processing apparatus, control method, and non-transitory storage medium
CN112639895A (zh) * 2018-12-28 2021-04-09 深圳市柔宇科技股份有限公司 人流量的监测方法、装置及相关设备
US11162356B2 (en) 2019-02-05 2021-11-02 Motive Drilling Technologies, Inc. Downhole display
JP7254570B2 (ja) * 2019-03-14 2023-04-10 株式会社東芝 画像センサシステム、計算装置、センシング方法、およびプログラム
JP6914983B2 (ja) * 2019-03-27 2021-08-04 矢崎エナジーシステム株式会社 解析システム
JP7418966B2 (ja) * 2019-04-02 2024-01-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7200875B2 (ja) * 2019-07-31 2023-01-10 トヨタ自動車株式会社 情報処理装置、情報処理方法、及び、プログラム
JP7443002B2 (ja) 2019-09-13 2024-03-05 キヤノン株式会社 画像解析装置、画像解析方法、及びプログラム
US12012809B2 (en) 2019-10-16 2024-06-18 Magnetic Variation Services LLC Drill pipe tally system
JP7238821B2 (ja) * 2020-02-06 2023-03-14 トヨタ自動車株式会社 地図生成システム及び地図生成プログラム
CN113642362A (zh) * 2020-05-11 2021-11-12 广东毓秀科技有限公司 用于密集场所智能逃生的人群密度估计方法
TWI752493B (zh) * 2020-05-13 2022-01-11 國立中興大學 禽隻圖像辨識停留時間分析系統和方法
KR102631983B1 (ko) * 2021-05-17 2024-01-31 (주)케이아이오티 인공지능을 이용한 군중 계수 장치 및 방법
CN113822151A (zh) * 2021-08-09 2021-12-21 中标慧安信息技术股份有限公司 用于监测市场内部人员聚集密度的方法和系统
CN114862127B (zh) * 2022-04-13 2023-05-02 深圳市鸿普森科技股份有限公司 智慧公园大数据可视化管理系统
CN115937791B (zh) * 2023-01-10 2023-05-16 华南农业大学 一种适用于多种养殖模式的家禽计数方法及其计数装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248836A (ja) 2010-05-31 2011-12-08 Nomura Research Institute Ltd 滞留検出システム及びプログラム
JP2015133093A (ja) 2014-01-14 2015-07-23 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 表示方法、滞在情報表示システム、及び表示制御装置
JP2016149654A (ja) 2015-02-12 2016-08-18 キヤノン株式会社 表示制御装置及び表示制御方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242646A (ja) 2004-02-26 2005-09-08 Ntt Data Corp 人流計測装置、人流計測方法および人流計測プログラム
US9240051B2 (en) * 2005-11-23 2016-01-19 Avigilon Fortress Corporation Object density estimation in video
JP2007201556A (ja) 2006-01-23 2007-08-09 Fujifilm Corp 混雑情報提供システム及び方法
US7991193B2 (en) * 2007-07-30 2011-08-02 International Business Machines Corporation Automated learning for people counting systems
JP2009181556A (ja) * 2008-02-01 2009-08-13 Sony Corp 混雑判定装置、混雑判定方法
US20110228984A1 (en) * 2010-03-17 2011-09-22 Lighthaus Logic Inc. Systems, methods and articles for video analysis
US9092675B2 (en) * 2012-03-29 2015-07-28 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
JP2014006586A (ja) * 2012-06-21 2014-01-16 Canon Inc 情報処理装置及びその制御方法、コンピュータプログラム
US20140278742A1 (en) * 2013-03-15 2014-09-18 Michael Joseph MacMillan Store-wide customer behavior analysis system using multiple sensors
US20150199698A1 (en) * 2014-01-14 2015-07-16 Panasonic Intellectual Property Corporation Of America Display method, stay information display system, and display control device
US10289884B2 (en) * 2015-08-27 2019-05-14 Kabushiki Kaisha Toshiba Image analyzer, image analysis method, computer program product, and image analysis system
WO2017137287A1 (en) * 2016-02-11 2017-08-17 Philips Lighting Holding B.V. People sensing system.
CN105872477B (zh) * 2016-05-27 2018-11-23 北京旷视科技有限公司 视频监控方法和视频监控系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248836A (ja) 2010-05-31 2011-12-08 Nomura Research Institute Ltd 滞留検出システム及びプログラム
JP2015133093A (ja) 2014-01-14 2015-07-23 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 表示方法、滞在情報表示システム、及び表示制御装置
JP2016149654A (ja) 2015-02-12 2016-08-18 キヤノン株式会社 表示制御装置及び表示制御方法

Also Published As

Publication number Publication date
US11341669B2 (en) 2022-05-24
WO2018131485A1 (ja) 2018-07-19
US20190333241A1 (en) 2019-10-31
JP2018116692A (ja) 2018-07-26

Similar Documents

Publication Publication Date Title
JP7130368B2 (ja) 情報処理装置および情報処理システム
US10872262B2 (en) Information processing apparatus and information processing method for detecting position of object
JP6494253B2 (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
TWI686774B (zh) 人臉活體檢測方法和裝置
CN102375974B (zh) 信息处理设备和信息处理方法
JP6968645B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20070291991A1 (en) Unusual action detector and abnormal action detecting method
JP5836095B2 (ja) 画像処理装置、画像処理方法
US20080123975A1 (en) Abnormal Action Detector and Abnormal Action Detecting Method
JP6590609B2 (ja) 画像解析装置及び画像解析方法
JP6654789B2 (ja) 変化点で複数候補を考慮して物体を追跡する装置、プログラム及び方法
US20090141982A1 (en) Information processing apparatus, information processing method, computer program, and recording medium
JP2011130203A (ja) 映像情報処理方法及びその装置
JP7354767B2 (ja) 物体追跡装置および物体追跡方法
JP5936561B2 (ja) 画像における外観及びコンテキストに基づく物体分類
WO2018078857A1 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP5279517B2 (ja) 物体検知装置及び物体検知方法
JPWO2014010203A1 (ja) 転倒検知装置および転倒検知方法、転倒検知カメラ、並びにコンピュータ・プログラム
TWI671707B (zh) 影像分析方法、電子系統以及非暫態電腦可讀取記錄媒體
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
KR101756352B1 (ko) 확장성 국부 이진 패턴을 이용한 이미지 내 얼굴의 연령 추정 방법
Tu et al. An intelligent video framework for homeland protection
JP6939065B2 (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
US10140503B2 (en) Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus
CN114842539B (zh) 基于注意力机制和一维卷积滑窗的微表情发现方法及系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220824

R151 Written notification of patent or utility model registration

Ref document number: 7130368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151