JP6914699B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP6914699B2
JP6914699B2 JP2017074335A JP2017074335A JP6914699B2 JP 6914699 B2 JP6914699 B2 JP 6914699B2 JP 2017074335 A JP2017074335 A JP 2017074335A JP 2017074335 A JP2017074335 A JP 2017074335A JP 6914699 B2 JP6914699 B2 JP 6914699B2
Authority
JP
Japan
Prior art keywords
information processing
objects
flow
estimation
regions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017074335A
Other languages
English (en)
Other versions
JP2018180619A (ja
Inventor
矢野 光太郎
光太郎 矢野
康夫 馬塲
康夫 馬塲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017074335A priority Critical patent/JP6914699B2/ja
Priority to US15/942,301 priority patent/US11450114B2/en
Priority to DE102018107823.4A priority patent/DE102018107823A1/de
Publication of JP2018180619A publication Critical patent/JP2018180619A/ja
Application granted granted Critical
Publication of JP6914699B2 publication Critical patent/JP6914699B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
近年、カメラで所定のエリアを撮影して、撮影した映像を解析することによって映像中の人物等のオブジェクトの数を計測、オブジェクトの流れを解析する技術が提案されている。このような技術は、公共の空間での人の混雑の検知、混雑時の人の流れを把握することでイベント時の混雑解消や災害時の避難誘導等への活用が期待されている。
映像中の人物の数を計測する方法としては、機械学習によって得られたニューラルネットワークを用いて画像からオブジェクトの数を推定する方法が知られている(非特許文献1参照)。また、複数カメラの監視映像から得られたオブジェクト数推定結果を利用して広域での混雑度を推定する方法も特許文献1で提案されている。一方、映像中のオブジェクトの流れを解析する方法としては、オプティカルフローの属性を集計して群衆の非定常状態を判定する方法が知られている(特許文献2参照)。
特開2015−103104号公報 特開2012−22370号公報
Wangら. Deep People Counting in Extremely Dense Crowds. Proceedings of the 23rd ACM international conference on Multimedia, 2015 Sepp Hochreiter and Jurgen Schmidhuber. Long short−term memory. Neural computation, 1997
しかしながら、特許文献1、非特許文献1は映像中のオブジェクトの数を計測するものであり、オブジェクトの流れを把握することができない。したがって、その空間における異常等を十分に把握することができない。特許文献2は、オブジェクトの流れを把握することはできるものの、オブジェクト数を同時に把握することができない。したがって、非定常状態を精度よく判定することができない。以上のように従来の技術では、撮影範囲の空間におけるオブジェクトなどの状況を十分に把握することができない。
本発明の目的は、空間におけるオブジェクトの状況をより精度よく推定できるようにすることである。
本発明の情報処理装置は、時系列上で連続する画像毎に、設定された複数の領域夫々に存在するオブジェクトの数の推定を行う第1の推定手段と、前記画像毎に、前記第1の推定手段による前記複数の領域夫々についての推定されたオブジェクトの数を、ニューラルネットワークに入力するための一つの特徴ベクトルとして統合する統合手段と、前記統合手段により統合された前記統合ベクトルに基づいて、前記複数の領域夫々に存在するオブジェクトの流れを推定する第2の推定手段と、を有する。
本発明によれば、空間におけるオブジェクトの状況をより精度よく推定することができる。
情報処理装置のハードウェア構成の一例を示す図である。 情報処理装置の機能構成の一例を示す図である。 情報処理装置の処理の一例を示すフローチャートである。 処理対象の画像の一例を示す図である。 画像の分割の一例を示す図である。 ニューラルネットワークの一例を示す図である。 特徴抽出部の詳細の一例を示す図である。 流れ推定部の詳細の一例を示す図である。 流れ推定部の処理の一例を示すフローチャートである。 オブジェクト数推定結果の一例を示す図である。 流れ推定結果の一例を示す図である。 異常判定結果の一例を示す図である。 流れ推定結果の一例を示す図である。
以下に、本発明の好ましい実施の形態を、図面に基づいて詳細に説明する。
<実施形態1>
図1は、本実施形態に係る情報処理装置100のハードウェア構成の一例を示す図である。情報処理装置100は、演算処理装置110、記憶装置120、入力装置130、出力装置140を含んで構成される。各構成要素は、互いに通信可能に構成され、バス等により接続されている。
演算処理装置110は、情報処理装置100の動作を制御し、記憶装置120に格納されたプログラムの実行等を行う。演算処理装置110は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等で構成される。記憶装置120は、磁気記憶装置、半導体メモリ等のストレージデバイスであり、演算処理装置110の動作に基づいて読み込まれたプログラム、長時間記憶しなくてはならないデータ等を記憶する。本実施形態では、演算処理装置110が、記憶装置120に格納されたプログラムの手順に従って処理を行うことによって、図2で後述する情報処理装置の機能及び図3、9で後述するフローチャートの処理等が実現される。記憶装置120は、また、情報処理装置100が処理対象とする画像、検出結果等を記憶する。
入力装置130は、マウス、キーボード、タッチパネルデバイス、ボタン等であり、各種の指示を入力する。入力装置130は、また、カメラ等の撮像装置を含むこととしてもよい。その場合、演算処理装置110は、入力装置130である撮像装置により撮影された画像を取得することができる。出力装置140は、液晶パネル、外部モニタ等であり、各種の情報を出力する。
なお、情報処理装置100のハードウェア構成は、図1に示す構成に限られるものではない。例えば、情報処理装置100は、外部の情報処理装置やネットワークカメラ等の各種の装置との間で通信を行うためのI/O装置を備えてもよい。例えば、I/O装置は、メモリーカード、USBケーブル等の入出力部、有線、無線等による送受信部である。
図2は、情報処理装置100の機能構成の一例を示す図である。図2に示すように、情報処理装置100は、画像取得部210、分割部220、オブジェクト数推定部230、特徴抽出部240、統合部250、流れ推定部260、判定部270、表示部280を含む。
画像取得部210は、入力装置130に含まれるカメラから、そのカメラにより撮影された画像データを取得する。画像データは、動画やライブ映像のような時系列上で連続する複数の画像を含む時系列画像のデータである。
分割部220は、画像取得部210により取得された時系列画像の夫々のフレーム画像を、複数の局所領域に分割する。以下では、分割部220による分割により分割された局所領域を、分割領域とする。
オブジェクト数推定部230は、時系列画像に含まれるフレーム画像毎に、分割領域夫々の中に存在するオブジェクトの数を推定する。
特徴抽出部240は、画像取得部210により取得された時系列画像のフレーム画像における分割領域夫々から動き特徴を抽出する。
統合部250は、オブジェクト数推定部230により推定された複数の分割領域のオブジェクト数の推定結果と、特徴抽出部240により抽出された動き特徴と、を統合する。
流れ推定部260は、画像取得部210により取得された時系列画像に含まれるフレーム画像毎に、統合部250により統合された結果を順次、入力として受け付け、受け付けた入力に基づいて分割領域夫々におけるオブジェクトの流れを推定する。
判定部270は、流れ推定部260により推定された複数の分割領域におけるオブジェクトの流れの変化に基づいて、異常が発生したか否かを判定する。
表示部280は、オブジェクト数推定部230、流れ推定部260による推定結果や判定部270による判定結果を示す情報を出力装置140等に表示する。
図3は、情報処理装置100の処理の一例を示すフローチャートである。以下、本実施形態の情報処理装置100の処理を、図3を用いて説明する。以下では、入力装置130に含まれる監視カメラにより図4に示すシーンが撮影された画像に対して画像中の群衆の解析処理を行う例について述べる。即ち、本実施形態では、数や流れを推定する対象であるオブジェクトは、人体である。しかし、数や流れを推定する対象であるオブジェクトは、動物、車両、貨物等の人体以外の他のオブジェクトでもよい。
S310において、画像取得部210は、入力装置130に含まれる監視カメラにより撮像された画像データを取得する。画像取得部210は、入力装置130に含まれる監視カメラから、RGB各8ビットの画素からなる二次元データの形式の画像データを時系列に順次取得する。画像取得部210は、入力装置130に含まれる監視カメラから、JPEG形式等の他の形式の画像データを取得することとしてもよい。
S320において、分割部220は、画像取得部210により取得された画像データを複数の分割領域に分割する。分割部220により複数の分割領域に分割された画像の例を図5に示す。分割部220は、図5に示したように画像データを同じ大きさの複数の矩形の分割領域に等分割してもよいし、異なる大きさの分割領域に分割してもよい。また、分割部220は、分割領域同士が重なるように分割してもよいし、三角形や円形等の矩形以外の分割領域に分割してもよい。
S330において、オブジェクト数推定部230は、S320で分割された画像における各分割領域中のオブジェクトの数を推定する。本実施形態では、オブジェクト数推定部230は、分割領域毎に画像中の人物の人数を推定する。オブジェクト数推定部230は、推定方法として、非特許文献1にある深層ニューラルネットワークを用いる。
ニューラルネットワークの例を図6に示す。このニューラルネットワークでは、解像度H×Wの局所領域のRGB画像を入力として、5層構成の畳込み型ニューラルネットワークの演算が行われる。そして、その演算結果に対して、第6層、第7層の全結合ニューラルネットワークによる演算が行われることで、出力が得られる。図6中のf1〜f5は、夫々第1層から第5層の畳込み演算のフィルタサイズを表す。また、d1〜d7は、夫々第1層から第7層の出力チャネル数を表す。最終層は、第7層の出力から人数推定値を取得する。オブジェクト数推定部230は、ニューラルネットワーク以外の方法で領域画像から特徴量を求めて人数を推定するようにしてもよい。オブジェクト数推定部230は、例えば、予め学習された識別器を用いて、各分割領域からオブジェクトを検出し、検出したオブジェクトの数をカウントすることで、各分割領域に存在するオブジェクトの数を推定することとしてもよい。
S340において、特徴抽出部240は、時系列上で連続した2フレーム画像について、S320で分割された分割領域夫々から動き特徴を抽出する。
本実施形態の特徴抽出部240の詳細の一例を図7に示す。図7に示すように、特徴抽出部240は、動きベクトル抽出部710、深層ニューラルネットワーク720を含む。動きベクトル抽出部710は、時系列上で連続した2フレーム画像の分割領域から画素毎の動きベクトルを抽出する。深層ニューラルネットワーク720は、図6に示したニューラルネットワークと同様の構成である。但し、ニューラルネットワークの入力は、解像度H×Wの分割領域の動きベクトルの水平、及び垂直方向成分であり、第7層は、動き特徴を出力する。
オブジェクト数推定部230、及び特徴抽出部240の出力値は、所定の範囲の値を[−1,1]の範囲に正規化した値となる。
S330、及びS340の処理は、S320で分割された夫々の分割領域に対して繰り返し行われる。その結果、複数の分割領域に対してオブジェクト数の推定結果と動き特徴とが得られる。また、S330及びS340の処理はどちらを先に行ってもよい。
S350において、統合部250は、S330で推定された複数の分割領域におけるオブジェクト数推定結果と、S340で抽出された動き特徴と、を統合する。本実施形態では、統合部250は、S330で推定されたオブジェクト数推定結果とともに、オブジェクト数推定部230の深層ニューラルネットワークの第7層の出力結果もS360での流れ推定に用いられる特徴量として統合する。統合部250は、分割領域数分のオブジェクト数推定結果、第7層の出力結果、動き特徴(動き特徴抽出手段400の深層ニューラルネットワークの第7層の出力結果)を結合して一つの特徴ベクトルとする。特徴ベクトルは、複数の分割領域夫々についてのオブジェクトの数の推定の結果が統合された統合情報の一例である。そして、統合部250は、その特徴ベクトルを流れ推定部260に入力する。
しかし、統合部250は、S330で推定された複数の分割領域におけるオブジェクト数推定結果のみを統合し1つの特徴ベクトルとして、流れ推定部260に入力することとしてもよい。
S360において、流れ推定部260は、S310で取得された時系列画像の各フレーム画像についてS350で統合された結果である特徴ベクトルを順次入力として受け付け、受け付けた入力に基づいて、各分割領域の物体の流れを推定する。
本実施形態の流れ推定部260の詳細の一例を図8に示す。図8に示すように、流れ推定部260は、内部状態管理部810、内部状態更新部820、出力値算出部830を含む。内部状態管理部810は、記憶装置120に記憶された、過去の内部状態及び流れ推定部260により出力された過去の出力値を管理する。内部状態更新部820は、S350で統合された特徴ベクトルをS310で取得された時系列画像のフレーム画像毎に順次入力として受け付ける。そして、内部状態更新部820は、内部状態管理部810により管理されている過去の内部状態及び出力値に基づいて、内部状態を更新する。出力値算出部830は、内部状態更新部820により更新された内部状態を変換することで、出力値を算出する。
流れ推定部260は、図8に示すような機能を、非特許文献2で提案されているLong short−term memory(LSTM)を用いて、実現できる。本実施形態では、流れ推定部260は、出力値算出部830により算出された出力値を、S320で分割された分割領域毎の代表動きベクトルとして出力する。流れ推定部260は、出力値を、所定の範囲の値を[−1,1]の範囲に正規化した値とする。
図9は、流れ推定部260の処理の一例を示すフローチャートである。図9を用いて、本実施形態の流れ推定部260の処理の詳細を説明する。
S910において、内部状態更新部820は、統合部250から入力された特徴ベクトルと、内部状態管理部810により管理されている過去の出力値と、に基づいて、新規の内部状態を生成する。内部状態更新部820は、統合部250から入力された時刻tにおける特徴ベクトルをXt、過去の時刻(t−1)における出力値をYt-1とすると、新規内部状態C'を、以下の式1を用いて求める。
Figure 0006914699
S920において、内部状態更新部820は、入力された特徴ベクトルと、内部状態管理部810により管理されている過去の出力値と、に基づいて、内部状態を更新する。内部状態更新部820は、時刻t−1における過去の内部状態をCt-1として、内部状態Ctを、以下の式2、及び式3を用いて、取得する。式2、3におけるftは、過去の内部状態の忘却を制御する係数であり、[0,1]の範囲の値を取る。
Figure 0006914699
Figure 0006914699
S930において、内部状態更新部820は、S350で入力された特徴ベクトルと内部状態管理部810に管理されている過去の出力値とに基づいて、S910で求めた新規内部状態をどの程度記憶すべきかを判定し、内部状態を更新する。内部状態Ctを以下の式4、及び式5によって更新する。ここでitは新規内部状態の記憶を制御する係数であり、[0,1]の範囲の値を取る。
Figure 0006914699
Figure 0006914699
S940において、出力値算出部830は、入力された特徴ベクトルと、内部状態管理部810により管理されている過去の出力値と、に基づいて、内部状態を出力値に変換する。出力値算出部830は、時刻tでの出力値であるYtを、以下の式6、及び式7を用いて求める。式6、式7中のotは、更新された内部状態の出力を制御する係数であり、[0,1]の範囲の値を取る。
Figure 0006914699
Figure 0006914699
なお、式1〜式7において、[、]は特徴ベクトルの結合、φは双曲線正接関数、σはシグモイド関数を表す。また、wC、bC、wf、bf、wi、bi、wo、boは、事前学習により得られたパラメータである。
以上、説明したように、流れ推定部260は、時系列画像の複数の分割領域のオブジェクト数をフレーム画像毎に順次入力として受け付け、オブジェクトの流れを推定するようにした。本実施形態では、流れ推定部260は、分割領域夫々についてのオブジェクト数の推定結果の他に、時系列画像から抽出された分割領域夫々についての動き特徴も用いるようにしたので、より高精度にオブジェクトの流れを推定できる。
また、式5に示すように、内部状態Ctは、特徴ベクトルXtに対応する要素も含む。そこで、出力値算出部830は、内部状態から特徴ベクトルについての要素を取り出して、S330でのオブジェクト数の推定結果を更新してもよい。更新されたオブジェクト数の推定結果は、オブジェクト数推定部230により推定された結果を時系列に統合したものと等価であり、より高精度、かつ、より安定した推定結果となる。
S370において、判定部270は、S360で推定された複数の分割領域の物体の流れの変化に基づいて、異常が発生したか否かを判定する。本実施形態では、人の流れが急に変化した場合に異常が発生したとする。例えば、群衆の中で人が倒れた場合、映像中の特定方向への流れが、人が倒れた領域のみ停滞したり、向きが変わったりする。判定部270は、流れ推定部260が出力する代表動きベクトルの水平及び垂直成分からオブジェクトの流れの向きを求め、向きの変化を分割領域毎に求める。時刻t、及び時刻t−1での領域rでの代表動きベクトルを夫々(Vxr,t,Vyr,t),(Vxr,t-1,Vyr,t-1)とすると求める向きの変化量Δθr,tは、以下の式8のようになる。
Figure 0006914699
式8中のAtanは、逆正接関数を示す。
判定部270は、分割領域毎に式8を用いて、向きの変化量を求めて、求めた変化量が所定の閾値を超えたか否かを判定する。そして、判定部270は、求めた変化量が所定の閾値を超えたと判定した場合、異常が発生したと判定する。また、判定部270は、求めた変化量が所定の閾値を超えていないと判定した場合、異常が発生していないと判定する。
本実施形態では、判定部270は、オブジェクトの流れの向きの変化から異常が発生したか否かを判定するようにした。しかし、判定部270は、オブジェクトの流れの向きの変化と、流れの大きさの変化と、に基づいて、異常が発生したか否かを判定してもよい。また、判定部270は、オブジェクトの流れの向きの変化と、オブジェクト数推定部230から出力されるオブジェクト数やオブジェクト数の変化と、に基づいて、異常が発生したか否かを判定してもよい。また、判定部270は、異常が発生したか否かの判定処理を、所定のルールに従って行うようにしてもよいし、事前学習を行ったニューラルネットやLSTMを用いて行うようにしてもよい。
S380において、表示部280は、S330、S360、S370の処理の結果を出力装置140に表示する。図10、図11、図12は、夫々S330、S360、S370の処理の結果の一例の表示例を示す図である。表示部280は、入力装置130を介して操作に応じて、図10〜12の画面を切り替える。図10において、分割領域の濃度は、濃い程人数が多い領域であることを示す。また、図11の矢印は、各分割領域中の人数、流れの向き、速さを表している。図11の矢印の幅は、広い程、人数が多いことを示す。図11の矢印の方向は、オブジェクトの流れの向きを示す。図11の矢印の長さは、長い程、オブジェクトの流れの速さが速いことを示す。このように、本実施形態では、オブジェクトの数と流れとを矢印の形状で表現しているが、矢印に代えて線分や三角形、矩形など他の図形の形状を用いて表現してもよい。図12の点線の囲み枠は、異常が発生していると判定された分割領域を識別して示すものである。
以上説明したように、本実施形態では、情報処理装置100は、時系列画像の複数の分割領域毎に含まれるオブジェクトの数を推定し、複数の分割領域の推定結果を統合してフレーム画像毎に順次、流れ推定部260に入力して物体の流れを推定した。これにより、情報処理装置100は、時系列画像中のオブジェクトの数と、併せて、その情報を用いてオブジェクトの流れを推定できるため、その空間におけるオブジェクトの状況を精度良く把握することができる。
また、情報処理装置100は、オブジェクトの流れの変化に基づいて、異常が発生したか否かの判定を行うことができる。
なお、本実施形態では、オブジェクト数推定部230及び特徴抽出部240は、ニューラルネットワークで構成されるとしたが、これに限るものではない。例えば、オブジェクト数推定部230は、人物を検出する識別器を用いて検出した人物の数を計測する方法を用いてもよい。特徴抽出部240は、動きベクトルそのものを動き特徴として抽出してもよい。
また、流れ推定部260は、複数の分割領域のオブジェクト数の推定結果を時系列に順次入力して流れを推定する方法であれば他の方法を用いてもよい。本実施形態では、流れ推定部260は、分割領域毎の代表動きベクトルを出力するようにしたが、分割領域毎に推定した流れの方向別の確率を出力するようにしてもよい。例えば、流れ推定部260は、方向を8分割し、夫々の方向について、その方向がオブジェクトの流れの方向である確率を、判定部270に出力することでより詳細な情報を伝えることができる。このとき、表示部280は、図13に示すような表示態様で、流れ推定部260による推定結果を出力装置140に表示する。表示部280は、図10に示したオブジェクト数推定部230による推定結果の画面中のある領域が入力装置130を介して指定された場合に、図13のように流れの方向別の確率を表示するようにしてもよい。図13中、灰色部分で塗られた面積が各方向の推定確率を表す。
本実施形態では、流れ推定部260は、推定結果を、表示部280を介して出力装置140に表示することで、出力することとした。しかし、流れ推定部260は、推定結果をファイル等として記憶装置120に記憶することで、出力してもよい。また、流れ推定部260は、推定結果を、設定された通知先に送信することで、出力してもよい。
以上、画像から人物を検出する場合に本実施形態の処理を適用する例について説明した。しかし、情報処理装置100は、人物以外のオブジェクトについても、分割領域毎に数を推定し、流れを推定できる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、上述した情報処理装置100の機能構成の一部又は全てをハードウェアとして情報処理装置100に実装してもよい。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。上述した各実施形態を任意に組み合わせてもよい。
100 情報処理装置
110 演算処理装置
260 流れ推定部

Claims (12)

  1. 時系列上で連続する画像毎に、設定された複数の領域夫々に存在するオブジェクトの数の推定を行う第1の推定手段と、
    前記画像毎に、前記第1の推定手段による前記複数の領域夫々についての推定されたオブジェクトの数を、ニューラルネットワークに入力するための一つの特徴ベクトルとして統合する統合手段と、
    前記統合手段により統合された前記統合ベクトルに基づいて、前記複数の領域夫々に存在するオブジェクトの流れを推定する第2の推定手段と、
    を有する情報処理装置。
  2. オブジェクトの流れの推定に用いられる内部状態を記憶する記憶手段を更に有し、
    前記第2の推定手段は、前記統合手段により統合された前記統合ベクトルと、前記記憶手段に記憶された前記内部状態と、に基づいて、前記記憶手段に記憶された前記内部状態を更新し、更新した前記内部状態に基づいて、前記複数の領域夫々に存在するオブジェクトの流れを推定する請求項記載の情報処理装置。
  3. 前記第2の推定手段は、更に、更新した前記内部状態に基づいて、前記第1の推定手段により推定されたオブジェクトの数を更新する請求項記載の情報処理装置。
  4. 記統合手段は、前記画像毎に、前記第1の推定手段による前記複数の領域夫々についての推定の結果と、前記ニューラルネットワークに含まれる少なくとも1つの層の出力と、を前記特徴ベクトルとして統合する請求項乃至何れか1項記載の情報処理装置。
  5. 記画像毎に、前記複数の領域夫々について、動き特徴の抽出を行う抽出手段を更に有し、
    前記統合手段は、前記画像毎に、前記第1の推定手段による前記複数の領域夫々について推定されたオブジェクトの数と、前記抽出手段により抽出された動き特徴と、前記特徴ベクトルとして統合する請求項乃至何れか1項記載の情報処理装置。
  6. 前記複数の領域夫々について、前記第1の推定手段により推定されたオブジェクトの数、又は、前記第2の推定手段により推定されたオブジェクトの流れ、を出力する出力手段を更に有する請求項1乃至何れか1項記載の情報処理装置。
  7. 前記出力手段は、前記複数の領域夫々について、前記第1の推定手段により推定されたオブジェクトの数、又は、前記第2の推定手段により推定されたオブジェクトの流れ、を表示部に表示することで、出力する請求項記載の情報処理装置。
  8. 前記出力手段は、前記推定されたオブジェクトの数と流れとを図形の形状で表現する請求項記載の情報処理装置。
  9. 前記第2の推定手段により推定されたオブジェクトの流れに基づいて、異常が発生したか否かを判定する判定手段を更に有する請求項1乃至8何れか1項記載の情報処理装置。
  10. 前記出力手段は、前記複数の領域のうち前記異常が発生した領域を識別して表示する請求項記載の情報処理装置。
  11. 情報処理装置が実行する情報処理方法であって、
    時系列上で連続する画像毎に、設定された複数の領域夫々に存在するオブジェクトの数の推定を行う第1の推定ステップと、
    前記画像毎に、前記複数の領域夫々についての推定されたオブジェクトの数を、ニューラルネットワークに入力するための一つの特徴ベクトルとして統合する統合ステップと、
    前記統合された前記統合ベクトルに基づいて、前記複数の領域夫々に存在するオブジェクトの流れを推定する第2の推定ステップと、
    を含む情報処理方法。
  12. コンピュータを、請求項1乃至10何れか1項記載の情報処理装置の各手段として、機能させるためのプログラム。
JP2017074335A 2017-04-04 2017-04-04 情報処理装置、情報処理方法及びプログラム Active JP6914699B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017074335A JP6914699B2 (ja) 2017-04-04 2017-04-04 情報処理装置、情報処理方法及びプログラム
US15/942,301 US11450114B2 (en) 2017-04-04 2018-03-30 Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects
DE102018107823.4A DE102018107823A1 (de) 2017-04-04 2018-04-03 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und computerlesbares speichermedium zur schätzung eines zustands von objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017074335A JP6914699B2 (ja) 2017-04-04 2017-04-04 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018180619A JP2018180619A (ja) 2018-11-15
JP6914699B2 true JP6914699B2 (ja) 2021-08-04

Family

ID=63524685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017074335A Active JP6914699B2 (ja) 2017-04-04 2017-04-04 情報処理装置、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US11450114B2 (ja)
JP (1) JP6914699B2 (ja)
DE (1) DE102018107823A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108734211B (zh) * 2018-05-17 2019-12-24 腾讯科技(深圳)有限公司 图像处理的方法和装置
JP2020013332A (ja) * 2018-07-18 2020-01-23 トヨタ自動車株式会社 画像認識装置
KR102051032B1 (ko) * 2018-08-01 2019-12-02 경북대학교 산학협력단 객체 탐지 장치 및 제어 방법
CN109241895B (zh) * 2018-08-28 2021-06-04 北京航空航天大学 密集人群计数方法及装置
JP7297463B2 (ja) * 2019-02-22 2023-06-26 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7418966B2 (ja) * 2019-04-02 2024-01-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US20220230330A1 (en) * 2019-05-31 2022-07-21 Nec Corporation Estimation device, estimation method, and non-transitory computer-readable medium
JP7280142B2 (ja) * 2019-08-02 2023-05-23 Fptジャパンホールディングス株式会社 情報処理装置、プログラム、及び撮像システム
JP7118934B2 (ja) * 2019-09-04 2022-08-16 株式会社東芝 物体数推定装置、物体数推定方法、および物体数推定プログラム
JP7443002B2 (ja) 2019-09-13 2024-03-05 キヤノン株式会社 画像解析装置、画像解析方法、及びプログラム
WO2021095094A1 (ja) * 2019-11-11 2021-05-20 日本電気株式会社 人物状態検出装置、人物状態検出方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP7433864B2 (ja) * 2019-11-27 2024-02-20 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7518640B2 (ja) 2020-03-13 2024-07-18 キヤノン株式会社 画像処理装置、画像処理方法
CN111985381B (zh) * 2020-08-13 2022-09-09 杭州电子科技大学 一种基于伸缩卷积神经网络的引导区域密集人群计数方法
CN113536996B (zh) * 2021-06-30 2022-04-15 大连海事大学 一种基于大量真实人群运动视频的人群运动仿真方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005078528A (ja) * 2003-09-02 2005-03-24 Honda Motor Co Ltd 物体検出装置及び方法
DE102006053286A1 (de) * 2006-11-13 2008-05-15 Robert Bosch Gmbh Verfahren zur Detektion von bewegungsauffälligen Bildbereichen, Vorrichtung sowie Computerprogramm zur Durchführung des Verfahrens
JP5400718B2 (ja) * 2010-07-12 2014-01-29 株式会社日立国際電気 監視システムおよび監視方法
JP2014187610A (ja) * 2013-03-25 2014-10-02 Sony Corp 画像処理装置、画像処理方法、プログラムおよび撮像装置
JP6270433B2 (ja) * 2013-11-26 2018-01-31 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム
US9996768B2 (en) * 2014-11-19 2018-06-12 Adobe Systems Incorporated Neural network patch aggregation and statistics
US10325160B2 (en) * 2015-01-14 2019-06-18 Nec Corporation Movement state estimation device, movement state estimation method and program recording medium
JP6655878B2 (ja) * 2015-03-02 2020-03-04 キヤノン株式会社 画像認識方法及び装置、プログラム

Also Published As

Publication number Publication date
JP2018180619A (ja) 2018-11-15
US11450114B2 (en) 2022-09-20
US20180285656A1 (en) 2018-10-04
DE102018107823A1 (de) 2018-10-04

Similar Documents

Publication Publication Date Title
JP6914699B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN108537112B (zh) 图像处理装置、图像处理系统、图像处理方法及存储介质
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
US10872262B2 (en) Information processing apparatus and information processing method for detecting position of object
JP6494253B2 (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
JP6547744B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP6590609B2 (ja) 画像解析装置及び画像解析方法
JP2020078058A (ja) 画像処理装置、監視システム、画像処理方法、及びプログラム
JPWO2018047687A1 (ja) 三次元モデル生成装置及び三次元モデル生成方法
US11915430B2 (en) Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity
JP2020057111A (ja) 表情判定システム、プログラム及び表情判定方法
US20220366574A1 (en) Image-capturing apparatus, image processing system, image processing method, and program
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
JP2007011490A (ja) 道路パラメータ検出装置および道路パラメータ検出方法
JP2009182624A (ja) 目標追尾装置
WO2018179119A1 (ja) 映像解析装置、映像解析方法および記録媒体
JP2014164525A (ja) 物体数推定方法、物体数推定装置、及び物体数推定プログラム
CN114612979B (zh) 一种活体检测方法及装置、电子设备、存储介质
KR20140045834A (ko) 단일객체의 크기를 추정하는 영상 감시장치 및 방법
JP6939065B2 (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
JP6124739B2 (ja) 画像センサ
JP7386630B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP5864231B2 (ja) 移動方向識別装置
JP5419925B2 (ja) 通過物体数計測方法、通過物体数計測装置、及びプログラム
US11257238B2 (en) Unsupervised object sizing method for single camera viewing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210714

R151 Written notification of patent or utility model registration

Ref document number: 6914699

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151