JP7443002B2 - 画像解析装置、画像解析方法、及びプログラム - Google Patents

画像解析装置、画像解析方法、及びプログラム Download PDF

Info

Publication number
JP7443002B2
JP7443002B2 JP2019167189A JP2019167189A JP7443002B2 JP 7443002 B2 JP7443002 B2 JP 7443002B2 JP 2019167189 A JP2019167189 A JP 2019167189A JP 2019167189 A JP2019167189 A JP 2019167189A JP 7443002 B2 JP7443002 B2 JP 7443002B2
Authority
JP
Japan
Prior art keywords
flow rate
image analysis
image
time
detection line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019167189A
Other languages
English (en)
Other versions
JP2021043866A (ja
JP2021043866A5 (ja
Inventor
光太郎 矢野
元 牟田
康夫 馬塲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019167189A priority Critical patent/JP7443002B2/ja
Priority to US17/016,067 priority patent/US11915430B2/en
Publication of JP2021043866A publication Critical patent/JP2021043866A/ja
Publication of JP2021043866A5 publication Critical patent/JP2021043866A5/ja
Application granted granted Critical
Publication of JP7443002B2 publication Critical patent/JP7443002B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Description

本発明は、撮影された画像を解析する技術に関する。
近年、カメラで所定のエリアを撮影し、その撮影で取得された時系列の画像を解析することによって画像中の対象物(例えば人物)の数を計測、および対象物の流れを解析するシステムが提案されている。このようなシステムでは、公共の空間での混雑の検知および混雑時の人の流れを把握することでイベント時の混雑解消や災害時の避難誘導への活用が期待されている。
撮影された画像中の人物の数を計測する方法としては、機械学習によって得たニューラルネットワークを用いて画像から人数を推定する方法(非特許文献1)がある。また、複数カメラの監視画像から得た人数推定結果を利用して広域での混雑度を推定する方法も(特許文献1)で提案されている。一方、画像中の人の流れを解析する方法としては、オプティカルフローの属性を集計して群衆の非定常状態を判定する方法(特許文献2)がある。また連続する異なる時刻に撮像された2フレームの画像を入力して人物の密度分布および移動ベクトルの分布を推定するニューラルネットワークを用いた人流解析システム(特許文献3)もある。
Wangら. Deep People Counting in Extremely Dense Crowds. Proceedings of the 23rd ACM international conference on Multimedia, 2015
特開2015-103104号公報 特開2012-22370号公報 特開2018-116692号公報
しかしながら、非特許文献1や特許文献1に記載の方法は、いずれも画像から人数(対象物の数)を計測するものであり、人の流れを把握することができない。また特許文献2に記載の方法は、人の流れを把握することはできるものの、人数を同時に把握することができない。
一方、特許文献3に記載の方法は、人の流れと共に人数を同時に把握することができるものの、画面内を通過する人数を計測する方向と関連させて把握することはできない。
そこで、本発明は、撮影された画像から通過する対象物の数と流れを計測する方向と関連させて容易に把握可能にすることを目的とする。
本発明の画像解析装置は、撮影された時系列の画像を取得する取得手段と、前記時系列の画像の中で対象物の流量を計測するための検知線の方向、および、前記時系列の画像において前記検知線と交差する方向に前記対象物の流量を計測する方向を設定する設定手段と、前記時系列の画像から取得した複数の画像と前記流量を計測する方向とを入力とするニューラルネットワークに基づいて推定された前記対象物の流量の分布を示す情報と、前記対象物の流量を計測する方向を示す情報とを表示する表示手段と、を有することを特徴とする。
本発明によれば、撮影された画像から通過する対処物の数と流れを計測する方向と関連させて容易に把握可能となる。
実施形態に係る画像解析装置の機能構成を示す図である。 画像解析装置のハードウェア構成例を示す図である。 実施形態に係る画像解析装置の処理の流れを示すフローチャートである。 解析処理を行う画像の例を示す図である。 検知線の例を示す図である。 流量推定部のニューラルネットワークの構成を示す図である。 通過数推定部の処理を説明する図である。 流量推定部のニューラルネットワークの他の構成例を示す図である。 流量推定部のニューラルネットワークの更に他の構成例を示す図である。
本発明の実施形態を、添付の図面に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。
図1は、本発明の実施形態に係る画像解析装置の機能構成を示す図である。
図1に示すように、本実施形態の画像解析装置は、機能構成として、取得部101、設定部102、流量推定部103、通過数推定部104、および、表示部105を有している。図1の機能構成の詳細な説明は後述する。
図2は、本実施形態に係る画像解析装置のハードウェア構成例を示す図である。
図2に示すように、本実施形態の画像解析装置は、ハードウェア構成として、演算処理装置201、記憶装置202、入力装置203、及び出力装置204を含んでいる。なお、各装置は、互いに通信可能に構成され、バス等により接続されている。
演算処理装置201は、図2のハードウェア構成の動作をコントロールするとともに、記憶装置202に格納された本実施形態の画像解析処理に係るプログラム等を実行する。演算処理装置201は、CPU(Central Processing Unit)およびGPU(Graphics Processing Unit)で構成される。記憶装置202は、磁気記憶装置、半導体メモリ等のストレージデバイスであり、演算処理装置201の動作に基づき読み込まれるプログラム、および長時間記憶しなくてはならないデータ等を記憶する。本実施形態では、演算処理装置201が、記憶装置202に格納されたプログラムの手順に従って処理を行うことによって、図1に示した画像解析装置における各機能及び後述するフローチャートに係る処理が実現される。また、記憶装置202は、本実施形態に係る画像解析装置が処理対象とする画像および解析結果等を記憶する。
入力装置203は、マウス、キーボード、タッチパネルデバイス、ボタン等を有し、ユーザからの各種の指示を取得する。また、入力装置203は、カメラ等の撮像装置をも含み、撮像装置によって撮像された画像を取得する。
出力装置204は、液晶パネル、外部モニタ等であり、画像や本実施形態に係る画像解析の結果等を含む各種の情報を表示等することで出力する。
なお、画像解析装置のハードウェア構成は、上述した構成に限られるものではない。例えば、画像解析装置は、各種の装置間で通信を行うためのI/O装置を備えてもよい。I/O装置は、メモリーカード、USBケーブル等の入出力部、有線、無線等による送受信部である。
以下、図1に示した本実施形態の画像解析装置の構成および動作について詳細に説明する。本実施形態の画像解析装置は、カメラで撮影した時系列の画像から、それら画像中の対象物(例えば人)の流れおよび数を解析する機能を有する。
図1に示した画像解析装置において、取得部101は、カメラによって撮像された画像データを取得する。画像データは、時系列の画像データである。
設定部102は、取得部101により取得された時系列画像中の対象物の流量を計測する方向(以下、流量計測方向とする)を設定する。本実施形態の場合、設定部102は、カメラで撮像された時系列画像中に、流量計測方向において対象物の流量を計測するための検知線を設定する検知線設定機能を有する。流量計測方向は、検知線における線の方向に対して交わる方向として設定される。
流量推定部103は、取得部101で取得された時系列画像の中の複数の画像データと設定部102で設定された流量計測方向の情報とを基に、画像中の対象物(人物)の流量の分布を流量マップとして推定する。本実施形態の場合、流量推定部103は、時系列画像から取得した複数の画像と流量計測方向の情報とから、畳込みニューラルネットワークにより、対象物の流量を表す流量マップを推定する。ここで、流量とは、対象とする物体(人物)の移動量、および、その方向と数を表す。
通過数推定部104は、流量推定部103で得た流量の分布から、設定部102で設定した検知線を通過する人数を計測する。
表示部105は、通過数推定部104で求めた通過数の解析結果、および、流量推定部103で推定した流量マップを表示する。
以下、本実施形態に係る画像解析装置の動作を、図3のフローチャートに示す処理の流れに従って説明する。なお、以下の説明では監視カメラによって図4のような所定の監視対象エリアを撮影した画像400について、画像中の群衆の解析処理を行う例について述べる。
最初に、ステップS300の処理として、設定部102は、監視カメラで撮像した画像中に検知線を設定する。例えば図4に示した画像400が図2の出力装置204に表示されている状態で、ユーザが入力装置203のマウス等を介して線分を指定した場合、設定部102は、そのユーザ指定の線分に対応した検知線を画像中に設定する。図5には、図4に示された画像400の中に検知線Lが設定された例を示している。なお、検知線Lの設定はユーザが入力装置203を介して行う方法に限らない。例えば、設定部102は、取得部101が取得した時系列画像からオプティカルフローを検出して、画像中を人物が移動する主方向を決定(推定)し、その主方向を基に検知線を自動的に設定するようにしてもよい。主方向に基づく検知線は、主方向に対して例えば直交する方向に延びる線として設定される。本実施形態の画像解析装置は、この検知線Lを通過した人の数を計測する。
次にステップS300における検知線の設定が完了したら、本実施形態の画像解析装置は、ステップS301以降に処理を進めて画像解析を開始する。
ステップS301に進むと、取得部101は、監視カメラで撮像したフレーム毎の画像データを取得する。このとき取得される画像データは、R(赤),G(緑),B(青)の各色8ビットの画素からなる二次元データである。取得部101は、この画像データを時系列に順次取得する。本実施形態の画像解析装置では、図3のステップS301~ステップS304の処理を、取得したフレーム毎に繰り返し行う。
次にステップS302の処理に進むと、流量推定部103は、取得部101で取得された複数の画像データと設定部102で設定された流量計測方向の情報とから、画像中の人物の流量の分布を推定する。本実施形態の場合、流量推定部103は、連続した2フレームの画像データと、設定部102で設定された流量計測方向(検知線と交わる方向)の情報とを入力とし、流量計測方向における人物の通過流量を流量マップとして推定し、出力する。
通過流量を推定する方法としては、参考文献1に記載されているような深層ニューラルネットワークを応用して用いることができる。参考文献1には、事前に機械学習によって得たニューラルネットワークを用いて、1枚の画像を入力すると、人物の密度分布を出力することが開示されている。密度分布は、他のニューラルネットワークにより得ることもできる。本実施形態ではこの方法を応用し、連続する2フレームの画像と流量計測方向とを入力して、画像中の人物の、流量計測方向における通過流量を推定するニューラルネットワークを事前に学習し、推定に用いる。時刻tと時刻t+1との2フレームの画像の入力により、人の動く速さを、流量計測方向の入力により方向を、学習対象にしている。速さと方向から速度を得ることができる。密度と速度とから、通過流量が推定できるようになる。
参考文献1:Walach E., Wolf L. (2016) Learning to Count with CNN Boosting. In: Leibe B., Matas J., Sebe N., Welling M. (eds) Computer Vision - ECCV 2016. Lecture Notes in Computer Science, vol 9906. Springer, Cham
図6は、ニューラルネットワーク600の構成例を示した図である。
図6の入力層610は、時刻tとその次の時刻t+1の両画像のRGBの各2次元配列データと、流量計測方向を表す単位ベクトルの水平および垂直方向成分を2次元配列に拡張したデータとを連結して8チャネルの入力データを構成する。畳込み層620は、入力層610から入力データを受け取り、2次元畳込み演算、非線形変換、および、プーリング処理を所定回数繰り返す。2次元畳込み演算は、事前学習で得たフィルタ群を用いて行われ、所定チャネル数の特徴マップを得る。非線形変換は、例えばReLU(Rectified Linear Unit)等を用いる。プーリング処理は、2次元畳込み演算で得た特徴マップの隣接する2×2のデータの最大値あるいは平均値を求めて特徴マップのサイズを縦横2分の1に縮小する。逆畳込み層630は、畳込み層620で得た特徴マップを受け取り、2次元逆畳込み演算、および、非線形変換を所定回数繰り返す。2次元逆畳込み演算は、事前学習で得たフィルタ群を用いて行われ、所定チャネル数の特徴マップを得る。このとき得られる特徴マップのサイズは、元の特徴マップの2倍になる。このニューラルネットワークは、流量計測方向に対して予め通過流量が分かっている連続する2フレームの画像を訓練データとして学習したものである。
図6のニューラルネットワーク600の出力である流量マップは、濃淡の濃い丸印(出力値としてはマイナスの値)が検知線に対して画像の奥側から手前側の方向に対象物(人)が通過する流量を表している。例えば、濃い丸印ほど流量が多く、薄い丸印ほど流量が少ない。逆に、白い丸印(出力値としてはプラスの値)は、検知線に対して画像の手前側から奥側の方向に対象物が通過する流量を表している。流量マップでの丸印の位置は、入力データから検出された人の頭部分に対応している。また、1つ1つの丸印は、点ではなく大きさのある円である。
なお、本実施形態では、取得部101で取得した画像データをニューラルネットワーク600に直接入力するようにしたが、画像データのサイズを縮小、あるいは、画像データの画素値を[-1,1]の範囲に正規化して入力するようにしてもよい。あるいは、取得部101で取得した画像データを小領域に分割してニューラルネットワーク600に入力して流量分布を推定し、得られた流量の分布を統合するようにしてもよい。
次にステップS303の処理として、通過数推定部104は、流量推定部103で得た流量の分布から、設定部102で設定された検知線を通過する人数を計測する。
通過数推定部104の処理を、図7を用いて説明する。
通過数推定部104は、まず、検知線Lを囲み且つ検知線に平行な線方向に長い矩形Rを設定する。そして、流量推定部103で得た流量の分布から、矩形R内の値をマイナスの値毎およびプラスの値毎に、絶対値の総和を取る。そして通過数推定部104は、それらマイナスの値毎とプラスの値毎の絶対値の総和に対し、矩形Rの幅に応じた適切な正規化処理を行い、夫々、検知線Lに対して画像の奥から手前に通過する人数、検知線Lに対して画像の手前から奥に通過する人数とする。
次にステップS304の処理として、表示部105は、通過数推定部104で求められた通過人数の解析結果として通過人数の数値(不図示)、および、流量推定部103で推定された流量マップを表示する。ここで、表示する通過人数の解析結果は、フレーム毎の検知線に対して画像の奥から手前に通過する人数、および、検知線に対して画像の手前から奥に通過する人数である。また、表示部105は、画像解析処理を開始した時刻からの累積人数を算出し、算出した累積人数についても表示する。また、表示部105は、図6に示した流量マップを出力装置204に表示する。このように本実施形態の画像解析装置においてはニューラルネットワークで推定した流量マップを表示することにより、ユーザは、検知線に対して人物が群衆の流れの中で逆行する等の行動を容易に把握することができる。
その後、ステップS305において、取得部101は、次の処理対象のフレームが存在するか否か判定する。そして、次のフレームが存在する場合、取得部101は、ステップS301に処理を戻す。これにより、画像解析装置では、以下、前述同様にステップS302からステップS305の処理が、ステップS301で取得されたフレームの画像毎に繰り返されることになる。
以上説明したように、本実施形態の画像解析装置では、時系列画像から取得した複数の画像と検知線に応じた流量計測方向とから、畳込みニューラルネットワークにより対象物の流量を表す流量マップを推定する。これにより、本実施形態の画像解析装置のユーザは、推定された流量マップから画面内を通過する人の流れと人数の情報を得ることができる。人流については、推定した流量マップを表示することで、ユーザは検知線に対する人流を容易に把握することができる。通過人数については、ステップS303で流量マップから人数を求め、ステップS304で人数を表示することで検知線に対する通過人数を把握することができる。
本実施形態においては、流量推定部103は、2フレームの画像と検知線に応じた流量計測方向とを表す2次元配列を入力とするニューラルネットワークで構成した例を挙げたが、その他の構成を取ってもよい。
例えば、検知線に応じた流量計測方向について最適な流量推定を行うフィルタを生成するようニューラルネットワークが構成されてもよい。このようなニューラルネットワークは、参考文献2に開示されているFMN(filter-manifold network)を用いて構成できる。参考文献2では、群衆の人数推定を行うニューラルネットワークにカメラの向き情報に応じたフィルタを生成するようFMNの学習を行って、人数推定が行われている。
参考文献2:Kangら. Incorporating Side Information by Adaptive Convolution. Electronic Proceedings of the Neural Information Processing Systems Conference. Advances in Neural Information Processing Systems 30 (NIPS 2017)
図8は、FMNを用いて流量推定を行うニューラルネットワーク800の構成例を示した図である。図8中、入力層811、畳み込み層821、および逆畳込み層831は、夫々、図6で示したニューラルネットワーク600の入力層610、畳込み層620、および逆畳込み層630と同様の構成、および機能を持つ。
入力層811は、時刻tおよび次の時刻t+1の画像のRGBの各2次元配列データから6チャネルの入力データを構成する。FMN部840は、検知線に応じた流量計測方向を表す単位ベクトルを入力として複数の全結合層により2次元畳込み演算のフィルタの重み係数を生成する。畳込み層821の最終層では、FMN部840で生成したフィルタを用いて2次元畳込み演算を行い、求めた特徴マップを逆畳込み層830に出力する。なお、FMN部840の学習は、流量計測方向毎に通過流量を推定するニューラルネットワークを事前に学習しておき、学習によって得たフィルタを生成するように全結合層の係数を求める。
このような構成を取ることにより、図8のニューラルネットワーク800は、図6に示したニューラルネットワーク600に比べ、入力層のチャネル数を8チャネルから6チャネルに減らせるので畳込み演算の処理量を削減することができる。FMN部の入力である単位ベクトルから畳込み演算のフィルタの重み係数を生成するようにしたので、図6に示したニューラルネットワークよりも、入力層のチャネル数を2チャネル減らせる。図6では、入力層に流量計測方向に関する情報を2チャネル与え、流量計測方向に応じてニューラルネットワークを学習させていた。なお、FMNは、参考文献2に示されているように複数の畳み込み層に適用するようにしてもよい。また、FMNは、逆畳込み層に適用してもよい。
図9は、流量推定部103の他の構成例を示した図である。図9の例では、逆畳込み層を複数設け、流量計測方向に応じて最適な逆畳込み層で流量推定を行うように構成されている。図9中、入力層912と畳み込み層922は、夫々、図6で示したニューラルネットワーク600の入力層610と畳込み層620と同様の構成、および機能を持つ。
入力層912は、時刻tおよび時刻t+1の画像のRGBの各2次元配列データから6チャネルの入力データを構成する。畳込み層922は、2次元畳込み演算を行い、特徴マップを出力する。逆畳み込み層932、933、・・・、および934は、それぞれ逆畳込み層であり、図6で示したニューラルネットワーク600の逆畳込み層630と同様の構成および機能を持つ。逆畳込み層932、933、・・・、および934は、夫々、特定の検知線に応じた流量計測方向について事前学習によって得た2次元逆畳込み演算のフィルタ係数を用いて2次元逆畳込み演算を行う。学習方法の一例は、基準となる流量計測方向(例えば、検知線が水平)の学習データで畳込み層922と逆畳込み層932を学習し、次にそれ以外の方向に対して逆畳込み層933~934を順次学習するものである。CNN選択部950は、流量計測方向に応じて最適な逆畳込み層を選択する。ここで、逆畳込み層の数は有限であるから、CNN選択部950は流量計測方向と逆畳込み層932、933、・・・、および934が学習時に最適化した流量計測方向とが最も近いものを選択するようにする。なお、図9の例では、逆畳込み層を複数設けて流量計測方向に応じて選択するように構成したが、畳込み層を複数設けるようにしてもよい。
また本実施形態では、人物の流量を推定する畳込みニューラルネットワークの入力を連続する2フレームの画像としたが、3フレーム以上の所定枚数の連続する画像を入力するようにしてもよい。前述の流量推定部に用いたニューラルネットワークの構成は一例であり、他の構成のニューラルネットワークを用いてもよい。
また本実施形態では、カメラで撮影した画像から画像中の人の流れを解析する場合を例に挙げて説明した、対象物は人物以外の物体(例えば車両や動物など)であってもよく、本実施形態は様々な対象物の流れの解析に広く適用可能である。
本実施形態の画像解析装置では、検知線を設定して対象物に対する流量計測方向を設定し、時系列画像から取得した複数の画像と流量計測方向とから、畳込みニューラルネットワークにより、対象物の流量を表す流量マップを推定している。これにより、本実施形態の画像解析装置によれば、画面内を通過する物体(人数)を容易に把握可能となる。
前述した実施形態の画像解析処理に係る構成または各フローチャートの処理は、ハードウェア構成により実現されてもよいし、例えばCPUが本実施形態に係るプログラムを実行することによりソフトウェア構成により実現されてもよい。また、一部がハードウェア構成で残りがソフトウェア構成により実現されてもよい。ソフトウェア構成のためのプログラムは、予め用意されている場合だけでなく、不図示の外部メモリ等の記録媒体から取得されたり、不図示のネットワーク等を介して取得されたりしてもよい。
なお、上述した画像解析装置では流量推定部103においてニューラルネットワークによる流量推定を行ったが、他の構成部でも人工知能(AI:artificial intelligence)を適用した処理が行われてもよい。例えば、設定部102、通過数推定部104などで、人工知能(AI)を適用した処理が行われてもよい。例えば、それらの各部の代わりとして、機械学習された学習済みモデルを用いてもよい。その場合には、それら各部への入力データと出力データとの組合せを学習データとして複数個準備し、それらから機械学習によって知識を獲得し、獲得した知識に基づいて入力データに対する出力データを結果として出力する学習済みモデルを生成する。この学習済みモデルは、例えばニューラルネットワークモデルで構成できる。そして、それらの学習済みモデルは、前述の各部と同等の処理をするためのプログラムとして、CPUあるいはGPUなどと協働で動作することにより、前述した各部の処理を行う。また、前述の学習済みモデルは、必要に応じて一定のデータを処理する毎に更新する等も可能である。
本発明に係る制御処理における1以上の機能を実現するプログラムは、ネットワーク又は記憶媒体を介してシステム又は装置に供給可能であり、そのシステム又は装置のコンピュータの1つ以上のプロセッサにより読また出し実行されることで実現可能である。
前述の各実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
101:取得部、102:設定部、103:流量推定部、104:通過数推定部、105:表示部

Claims (12)

  1. 撮影された時系列の画像を取得する取得手段と、
    前記時系列の画像の中で対象物の流量を計測するための検知線の方向、および、前記時系列の画像において前記検知線と交差する方向に前記対象物の流量を計測する方向を設定する設定手段と、
    前記時系列の画像から取得した複数の画像と前記流量を計測する方向とを入力とするニューラルネットワークに基づいて推定された前記対象物の流量の分布を示す情報と、前記対象物の流量を計測する方向を示す情報とを表示する表示手段と、
    を有することを特徴とする画像解析装置。
  2. 前記推定された流量の分布と前記検知線とを基に、前記検知線を通過する前記対象物の数を計測する計測手段を有することを特徴とすることを請求項に記載の画像解析装置。
  3. 前記表示手段は、前記対象物の流量の分布を表すマップを生成することを特徴とする請求項1または2に記載の画像解析装置。
  4. 前記表示手段は、前記流量の分布を表すマップを表示することを特徴とする請求項に記載の画像解析装置。
  5. 前記設定手段は、前記画像に対してユーザによって入力された線分を基に、前記対象物の流量を計測する方向を設定することを特徴とする請求項1からのいずれか1項に記載の画像解析装置。
  6. 前記設定手段は、前記時系列の画像からオプティカルフローを検出して前記対象物が移動する主方向を決定し、前記主方向を基に前記流量を計測する方向を設定することを特徴とする請求項1からのいずれか1項に記載の画像解析装置。
  7. 前記表示手段は、前記時系列の画像から取得した前記画像のサイズを縮小した画像、あるいは正規化した画像を用いて推定された、前記対象物の流量の分布を示す情報を表示することを特徴とする請求項1からのいずれか1項に記載の画像解析装置。
  8. 前記表示手段は、前記時系列の画像から取得した前記画像を小領域に分割して、前記小領域ごとに推定した流量を統合することで推定された、前記対象物の流量の分布を示す情報を表示することを特徴とする請求項1からのいずれか1項に記載の画像解析装置。
  9. 前記ニューラルネットワークは、前記検知線の方向と交差する方向である前記対象物の流量を計測する方向に対して前記対象物の流量の分布を推定する畳み込み演算を行うフィルタを生成することを特徴とする請求項1から8のいずれか1項に記載の画像解析装置。
  10. 前記ニューラルネットワークは、前記対象物の流量を計測する方向に基づいて特徴マップを推定する1つ以上の畳み込み層、および、前記特徴マップに基づいて前記対象物の流量の分布を推定する1つ以上の逆畳み込み層を有し、
    前記表示手段は、前記対象物の流量を計測する方向に基づいて、前記畳み込み層および逆畳み込み層からいずれかを選択することを特徴とする請求項に記載の画像解析装置。
  11. 画像解析装置が実行する画像解析方法であって、
    撮影された時系列の画像を取得する取得工程と、
    前記時系列の画像の中で対象物の流量を計測するための検知線の方向、および、前記時系列の画像において前記検知線と交差する方向に前記対象物の流量を計測する方向を設定する設定工程と、
    前記時系列の画像から取得した複数の画像と前記流量を計測する方向とを入力とするニューラルネットワークに基づいて推定された前記対象物の流量の分布を示す情報と、前記対象物の流量を計測する方向を示す情報とを表示する表示工程と、
    を有することを特徴とする画像解析方法。
  12. コンピュータを、請求項1から1のいずれか1項に記載の画像解析装置して機能させるためのプログラム。
JP2019167189A 2019-09-13 2019-09-13 画像解析装置、画像解析方法、及びプログラム Active JP7443002B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019167189A JP7443002B2 (ja) 2019-09-13 2019-09-13 画像解析装置、画像解析方法、及びプログラム
US17/016,067 US11915430B2 (en) 2019-09-13 2020-09-09 Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019167189A JP7443002B2 (ja) 2019-09-13 2019-09-13 画像解析装置、画像解析方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2021043866A JP2021043866A (ja) 2021-03-18
JP2021043866A5 JP2021043866A5 (ja) 2022-09-20
JP7443002B2 true JP7443002B2 (ja) 2024-03-05

Family

ID=74864180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019167189A Active JP7443002B2 (ja) 2019-09-13 2019-09-13 画像解析装置、画像解析方法、及びプログラム

Country Status (2)

Country Link
US (1) US11915430B2 (ja)
JP (1) JP7443002B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110941999B (zh) * 2019-11-12 2023-02-17 通号通信信息集团有限公司 一种人群计数系统中自适应计算高斯核大小的方法
US11373425B2 (en) * 2020-06-02 2022-06-28 The Nielsen Company (U.S.), Llc Methods and apparatus for monitoring an audience of media based on thermal imaging
US11595723B2 (en) 2020-08-20 2023-02-28 The Nielsen Company (Us), Llc Methods and apparatus to determine an audience composition based on voice recognition
US11763591B2 (en) 2020-08-20 2023-09-19 The Nielsen Company (Us), Llc Methods and apparatus to determine an audience composition based on voice recognition, thermal imaging, and facial recognition
US11553247B2 (en) 2020-08-20 2023-01-10 The Nielsen Company (Us), Llc Methods and apparatus to determine an audience composition based on thermal imaging and facial recognition
WO2023170864A1 (ja) * 2022-03-10 2023-09-14 日本電気株式会社 ルート算出装置、ルート算出方法、および記録媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198566A (ja) 2009-02-27 2010-09-09 Nec Corp 人数計測装置、方法及びプログラム
WO2017038160A1 (ja) 2015-09-01 2017-03-09 日本電気株式会社 監視情報生成装置、撮影方向推定装置、監視情報生成方法、撮影方向推定方法、及びプログラム
JP2017118324A (ja) 2015-12-24 2017-06-29 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
JP2018180619A (ja) 2017-04-04 2018-11-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6295367B1 (en) * 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
US6263088B1 (en) * 1997-06-19 2001-07-17 Ncr Corporation System and method for tracking movement of objects in a scene
US6185314B1 (en) * 1997-06-19 2001-02-06 Ncr Corporation System and method for matching image information to object model information
JP5400718B2 (ja) 2010-07-12 2014-01-29 株式会社日立国際電気 監視システムおよび監視方法
JP6270433B2 (ja) 2013-11-26 2018-01-31 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム
JP6969871B2 (ja) * 2015-01-14 2021-11-24 日本電気株式会社 移動状況推定装置、移動状況推定方法およびプログラム
KR101558258B1 (ko) * 2015-02-04 2015-10-12 (주)유디피 Tof카메라를 이용한 피플 카운터 및 그 카운트 방법
JP5915960B1 (ja) * 2015-04-17 2016-05-11 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
WO2016172870A1 (zh) * 2015-04-29 2016-11-03 北京旷视科技有限公司 视频监控方法、视频监控系统以及计算机程序产品
WO2017122258A1 (ja) * 2016-01-12 2017-07-20 株式会社日立国際電気 混雑状況監視システム
US10497130B2 (en) * 2016-05-10 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Moving information analyzing system and moving information analyzing method
GB2562018A (en) * 2016-09-15 2018-11-07 Vivacity Labs Ltd A method and system for analyzing the movement of bodies in a traffic system
JP7130368B2 (ja) 2017-01-13 2022-09-05 キヤノン株式会社 情報処理装置および情報処理システム
JP6898165B2 (ja) * 2017-07-18 2021-07-07 パナソニック株式会社 人流分析方法、人流分析装置及び人流分析システム
JP6968645B2 (ja) * 2017-10-02 2021-11-17 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
TWI686748B (zh) * 2018-12-07 2020-03-01 國立交通大學 人流分析系統及人流分析方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198566A (ja) 2009-02-27 2010-09-09 Nec Corp 人数計測装置、方法及びプログラム
WO2017038160A1 (ja) 2015-09-01 2017-03-09 日本電気株式会社 監視情報生成装置、撮影方向推定装置、監視情報生成方法、撮影方向推定方法、及びプログラム
JP2017118324A (ja) 2015-12-24 2017-06-29 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
JP2018180619A (ja) 2017-04-04 2018-11-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
二木徹(外3名),多人数を高速にカウントする映像解析ソフトウェア,画像ラボ,日本,日本工業出版株式会社,2017年03月10日,第28巻, 第3号,p.53-57

Also Published As

Publication number Publication date
US11915430B2 (en) 2024-02-27
JP2021043866A (ja) 2021-03-18
US20210082127A1 (en) 2021-03-18

Similar Documents

Publication Publication Date Title
JP7443002B2 (ja) 画像解析装置、画像解析方法、及びプログラム
US11747898B2 (en) Method and apparatus with gaze estimation
US20170132785A1 (en) Method and system for evaluating the quality of a surgical procedure from in-vivo video
JP7057959B2 (ja) 動作解析装置
CN113408508B (zh) 基于Transformer的非接触式心率测量方法
CN106709932A (zh) 一种人脸位置跟踪方法、装置和电子设备
CN104486618B (zh) 视频图像的噪声检测方法及装置
US6421462B1 (en) Technique for differencing an image
JP2018022340A (ja) 画像処理装置、情報処理方法及びプログラム
CN110458895A (zh) 图像坐标系的转换方法、装置、设备及存储介质
JP2018180619A (ja) 情報処理装置、情報処理方法及びプログラム
CN104700405B (zh) 一种前景检测方法和系统
KR20180130869A (ko) 손 제스처를 검출하는 컨볼루션 신경망, 그리고 손 제스처에 의한 기기 제어시스템
CN110879982A (zh) 一种人群计数系统及方法
CN109543510A (zh) 人流密度估计方法、装置和电子设备
US6434271B1 (en) Technique for locating objects within an image
CN108334878A (zh) 视频图像检测方法和装置
CN111178276A (zh) 图像处理方法、图像处理设备及计算机可读存储介质
JP2020170252A (ja) 画像処理装置、情報処理方法及びプログラム
CN116884036A (zh) 基于YOLOv5DA的生猪姿态检测方法、装置、设备及介质
WO2012153868A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
CN115953438A (zh) 光流估计方法及装置、芯片及电子设备
JP7190871B2 (ja) 画像解析装置、画像解析方法、及びプログラム
WO2018169843A1 (en) Generation of alpha masks of video frames
JP7309392B2 (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220909

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240221

R151 Written notification of patent or utility model registration

Ref document number: 7443002

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151