JP2021039625A - 物体数推定装置、物体数推定方法、および物体数推定プログラム - Google Patents

物体数推定装置、物体数推定方法、および物体数推定プログラム Download PDF

Info

Publication number
JP2021039625A
JP2021039625A JP2019161610A JP2019161610A JP2021039625A JP 2021039625 A JP2021039625 A JP 2021039625A JP 2019161610 A JP2019161610 A JP 2019161610A JP 2019161610 A JP2019161610 A JP 2019161610A JP 2021039625 A JP2021039625 A JP 2021039625A
Authority
JP
Japan
Prior art keywords
image
estimation
unit
objects
local region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019161610A
Other languages
English (en)
Other versions
JP7118934B2 (ja
Inventor
雄土 山地
Yuto Yamaji
雄土 山地
智行 柴田
Satoyuki Shibata
智行 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2019161610A priority Critical patent/JP7118934B2/ja
Priority to CN202010122252.7A priority patent/CN112446275A/zh
Priority to US16/803,402 priority patent/US11449975B2/en
Publication of JP2021039625A publication Critical patent/JP2021039625A/ja
Application granted granted Critical
Publication of JP7118934B2 publication Critical patent/JP7118934B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Algebra (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】高精度に物体数を推定する。
【解決手段】物体数推定装置20は、取得部20Cと、設定部20Dと、推定部20Gと、を備える。取得部20Cは、画像30を取得する。設定部20Dは、画像30に応じて、画像30における物体数推定単位である局所領域サイズを設定する。推定部20Gは、設定された局所領域サイズの局所領域40ごとに画像30に含まれる物体数を推定する。
【選択図】図1

Description

本発明の実施形態は、物体数推定装置、物体数推定方法、および物体数推定プログラムに関する。
監視カメラなどで得られた画像を解析し、画像に含まれる人物の人数を推定する方法が知られている。例えば、画像と、画像に映る群衆状態および群衆位置を示す正解ラベルと、の対応を教師データと用いて学習モデルを学習する。そして、この学習モデルを用いて、画像から群衆位置を推定する技術が開示されている。また、従来では、画像に含まれる物体を固定サイズの領域ごとに推定することで、群衆位置から物体数を推定していた。
国際公開第2018/216648号公報
しかし、画像の撮影範囲などによって、画像に含まれる人物の大きさは変動する。このため、推定の単位である固定サイズが画像中の人物のサイズに適合しない場合、物体数の推定精度が低下する場合があった。
実施形態の物体数推定装置は、取得部と、設定部と、推定部と、を備える。取得部は、画像を取得する。設定部は、前記画像に応じて、前記画像における物体数推定単位である局所領域サイズを設定する。推定部は、設定された前記局所領域サイズの局所領域ごとに前記画像に含まれる物体数を推定する。
第1の実施形態に係る物体数推定システムの模式図。 第1の実施形態に係る画像の模式図。 第1の実施形態に係る局所領域の説明図。 第1の実施形態に係る基準学習モデルの模式図。 第1の実施形態に係る局所領域サイズと特徴マップと推定結果との関係を示す模式図。 第1の実施形態に係る画像の模式図。 第1の実施形態に係る画像の模式図。 第1の実施形態に係る出力画像の模式図。 第1の実施形態に係る出力画像の模式図。 第1の実施形態に係る学習モデルの模式図。 第1の実施形態に係る物体数推定処理の流れを示すフローチャート。 第1の実施形態に係る物体数推定処理の流れを示すフローチャート。 第2の実施形態に係る物体数推定システムの模式図。 第2の実施形態に係る教師画像の模式図。 第2の実施形態に係るハードウェア構成図。
以下に添付図面を参照して、物体数推定装置、物体数推定方法、および物体数推定プログラムを詳細に説明する。
(第1の実施形態)
図1は、本実施形態の物体数推定システム10の一例を示す模式図である。
物体数推定システム10は、物体数推定装置20と、通信部10Aと、撮影部10Bと、UI(ユーザ・インターフェース)部10Cと、を備える。
物体数推定装置20と、通信部10A、撮影部10B、およびUI部10Cとは、データまたは信号を授受可能に接続されている。
物体数推定装置20は、例えば、専用または汎用コンピュータである。物体数推定装置20は、画像に含まれる物体数を推定する(詳細後述)。
通信部10Aは、外部装置と通信する。例えば、通信部10Aは、公知の通信回線を介して、各種の情報を外部装置へ送信、または各種の情報を外部装置から受信する。
撮影部10Bは、物体を撮影する撮影装置である。撮影部10Bは、例えば、撮影によって撮影画像の画像データを得る。以下、画像データを、単に、画像と称して説明する場合がある。
撮影部10Bは、対象領域の撮影画像を取得する。対象領域は、実空間における特定の領域である。対象領域は、予め定めればよい。対象領域は、例えば、特定の建物内の領域や、特定の地域や、特定のスペースなどである。
撮影部10Bは、対象領域に含まれる物体を撮影した撮影画像を取得する。
物体とは、物体数推定装置20による数の推定対象である。物体の種類は、予め定めればよい。例えば、物体は、人物、動物、細胞、各種の生物、車両、飛行可能な物体(有人飛行機、無人飛行機(例えば、UAV(Unmanned Aerial Vehicle)、ドローン))、ロボット、などである。なお、物体は、これらに限定されない。本実施形態では、物体が人物である場合を、一例として説明する。
UI部10Cは、ユーザによる操作入力を受付ける機能、および、各種の情報を出力する機能を備える。例えば、UI部10Cは、ディスプレイ10Dと、入力部10Eと、を含む。
ディスプレイ10Dは、各種の情報を表示する。ディスプレイ10Dは、例えば、公知の有機EL(Electro−Luminescence)ディスプレイ、LCD(Liquid Crystal Display、投影装置などである。
入力部10Eは、ユーザからの各種指示を受付ける。入力部10Eは、例えば、キーボード、マウス、タッチパネル、マイクロフォン、などである。
なお、UI部10Cを、入力機構と出力機構とを備えたタッチパネルで構成してもよい。また、UI部10Cは、更に、音声を出力するスピーカを含む構成であってもよい。
次に、物体数推定装置20について説明する。物体数推定装置20は、処理部20Aと、記憶部20Bと、を備える。処理部20A、記憶部20B、通信部10A、撮影部10B、ディスプレイ10D、および入力部10Eは、バス10Fを介して接続されている。
記憶部20B、通信部10A、撮影部10B、ディスプレイ10D、および入力部10Eの少なくとも1つと、処理部20Aと、を、ネットワークを介して接続してもよい。
記憶部20Bは、各種データを記憶する。本実施形態では、記憶部20Bは、基準学習モデル50を予め記憶する。基準学習モデル50は、後述する処理部20Aの処理によって、学習モデル52に再構築される。基準学習モデル50および学習モデル52の詳細は後述する。
記憶部20Bは、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。なお、記憶部20Bは、物体数推定装置20の外部に設けられた記憶装置であってもよい。また、記憶部20Bは、記憶媒体であってもよい。具体的には、記憶媒体は、プログラムや各種情報を、LAN(Local Area Network)やインターネットなどを介してダウンロードして記憶または一時記憶したものであってもよい。また、記憶部20Bを、複数の記憶媒体から構成してもよい。
記憶部20Bおよび処理部20Aの少なくとも一方を、ネットワークに接続されたサーバ装置などの外部装置に搭載した構成としてもよい。また、処理部20Aに含まれる後述する機能部の少なくとも1つを、ネットワークを介して処理部20Aに接続されたサーバ装置などの外部装置に搭載してもよい。
処理部20Aは、取得部20Cと、設定部20Dと、出力制御部20Eと、受付部20Fと、推定部20Gと、を備える。取得部20C、設定部20D、出力制御部20E、受付部20F、および推定部20Gの少なくとも1つは、例えば、1または複数のプロセッサにより実現される。例えば、上記各部は、CPU(Central Processing Unit)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のIC(Integrated Circuit)などのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
取得部20Cは、画像を取得する。取得部20Cは、物体数推定対象の画像を取得する。
図2Aは、取得部20Cが取得する画像30の一例を示す模式図である。画像30には、1または複数の人物32が含まれる。上述したように、人物32は、物体の一例である。
図1に戻り説明を続ける。画像30は、撮影部10Bで得られた撮影画像、通信部10Aを介して接続された外部装置から取得した画像、記憶部20Bに予め記憶された画像、の何れであってもよい。また、通信部10Aを介して接続された外部装置は、通信部10Aを介して接続された撮影装置であってもよい。該撮影装置は、撮影によって撮影画像の画像データを得る装置であればよい。画像30は、撮影画像に限定されない。例えば、画像30は、撮影画像、スキャナ等で読取られた画像、公知の画像作成アプリケーションなどを用いて作成された画像、の何れであってもよい。
設定部20Dは、取得部20Cで取得した画像30に応じて、該画像30における局所領域サイズを設定する。局所領域サイズは、画像30における、物体数推定単位である。
図2Bは、局所領域40の一例の説明図である。図2Bには、局所領域サイズの異なる複数の局所領域40(局所領域40A〜局所領域40D)を一例として示した。局所領域40Aは、例えば、8×8ピクセルの局所領域サイズの局所領域40である。局所領域40Bは、例えば、16×16ピクセルの局所領域サイズの局所領域40である。局所領域40Cは、例えば、32×32ピクセルの局所領域サイズの局所領域40である。局所領域40Dは、例えば、64×64ピクセルの局所領域サイズの局所領域40である。なお、局所領域サイズは、図2Bに示す例に限定されない。
例えば、設定部20Dは、公知の検出器を用いて、画像30に含まれる人物の頭部のサイズを導出する。そして、設定部20Dは、導出された頭部のサイズから、局所領域サイズを(自動的に)設定してもよい。
詳細を後述する推定部20Gでは、画像30における局所領域サイズの局所領域40ごとに人物32の数を推定する。この局所領域40ごとの推定処理により、推定部20Gは、画像30に含まれる人物32の数を推定する。なお、人物32の数を、物体数と称して説明する場合がある。
この物体数の推定には、基準学習モデル50が用いられる。本実施形態では、基準学習モデル50は、予め記憶部20Bに記憶されているものとする。
図3は、基準学習モデル50を示す模式図である。基準学習モデル50は、画像30に対する畳み込み演算の繰返しによって、画像30における局所領域サイズの局所領域40内の物体数の推定結果を導出するためのモデルである。基準学習モデル50は、ニューラルネットワークのモデルである。
基準学習モデル50では、入力層として入力された画像30に対して、畳み込み演算を繰返すことで複数の畳み込み層42が生成されることで、サイズ(解像度およびスケール)の異なる複数の特徴マップ44が生成される。そして、基準学習モデル50では、複数の特徴マップ44の各々に対応する複数の出力マップ(出力層)である推定結果46が出力される。推定結果46は、物体数の推定結果である。
図3には、特徴マップ44として、特徴マップ44A〜特徴マップ44Dを一例として示した。
特徴マップ44Aは、1/8のサイズに縮小されたサイズの特徴マップ44である。推定結果46Aは、該サイズの特徴マップ44Aから導出された物体数の推定結果である。すなわち、推定結果46Aは、画像30における8×8ピクセルの局所領域サイズの局所領域40Aについて、物体数を推定した推定結果に相当する。
特徴マップ44Bは、1/16のサイズに縮小されたサイズの特徴マップ44である。推定結果46Bは、該サイズの特徴マップ44Bから導出された物体数の推定結果である。すなわち、推定結果46Bは、16×16ピクセルの局所領域サイズの局所領域40Bについて、物体数を推定した推定結果に相当する。
特徴マップ44Cは、1/32のサイズに縮小されたサイズの特徴マップ44である。推定結果46Cは、該サイズの特徴マップ44Cから導出された物体数の推定結果である。すなわち、推定結果46Cは、32×32ピクセルの局所領域サイズの局所領域40Cについて、物体数を推定した推定結果に相当する。
特徴マップ44Dは、1/64のサイズに縮小されたサイズの特徴マップ44である。推定結果46Dは、該サイズの特徴マップ44Dから導出された物体数の推定結果である。すなわち、推定結果46Dは、64×64ピクセルの局所領域サイズの局所領域40Dについて、物体数を推定した推定結果に相当する。
図4は、画像30における局所領域40Bの局所領域サイズと、特徴マップ44と、推定結果46と、の関係の一例を示す模式図である。図4には、局所領域サイズが16×16ピクセルである場合を、一例として示した。
図4に示すように、画像30における、16×16ピクセルの局所領域サイズの局所領域40Bの物体数を推定すると想定する。この場合、画像30を、基準学習モデル50を用いて1/16に縮小することで、該局所領域40Bに対応する特徴マップ44Bが得られることとなる。そして、該特徴マップ44Bから、例えば、6人、といった推定結果46Bが得られることとなる。
ここで、画像30に映る対象領域の範囲が変更されると、画像30に含まれる人物32の大きさが変動する。
対象領域の範囲の変更とは、撮影画像を物体数推定対象の画像30として用いる場合、撮影範囲が変更されることを意味する。すなわち、対象領域の範囲の変更とは、画像30を撮影する撮影部10Bまたは該画像30を撮影する他の撮影装置の、地上からの設置位置の高さ、撮影角度、画角、撮影倍率、解像度、および撮影環境(明るさなど)の少なくとも1つが変更されたことを意味する。また、撮影画像以外の画像30を用いる場合には、画像30に含まれる物体の大きさが変更された場合などが挙げられる。
すると、物体数推定単位である局所領域40の局所領域サイズを画像30に拘らず固定とした場合、物体数の推定精度が低下する場合がある。
図5Aおよび図5Bは、画像30に映る対象領域の範囲の異なる画像30の一例を示す模式図である。図5Aは、対象領域の範囲の狭い画像30Aの一例を示す模式図である。図5Bは、対象領域の範囲が画像30Aより広い画像30Bの一例を示す模式図である。画像30Aおよび画像30Bは、画像30の一例である。
図5Aおよび図5Bに示すように、局所領域サイズが固定であり、画像30Aと画像30Bに同じ局所領域サイズの局所領域40(例えば、16×16ピクセルの局所領域サイズの局所領域40B)が設定されたと想定する。この場合、対象領域の範囲の広い画像30Bでは、該局所領域サイズの局所領域40B中には、人物32を特定可能な部位(例えば頭部)の全体が含まれる(図5B参照)。一方、対象領域の範囲の狭い画像30Aでは、該局所領域サイズの局所領域40B中には人物32を特定可能な部位(例えば頭部)の一部の領域しか含まれない(図5A)。このため、局所領域サイズを画像30に拘らず固定として、人物32の推定を行うと、推定精度が低下する場合があった。
図1に戻り説明を続ける。そこで、本実施形態では、設定部20Dが、画像30に応じて局所領域サイズを設定する。
例えば、設定部20Dは、ユーザによって選択された局所領域サイズを設定する。この場合、例えば、ユーザは、出力制御部20Eによって表示された出力画像から所望の推定結果46を選択することで、局所領域サイズを選択する。
詳細には、出力制御部20Eは、出力画像を出力する。例えば、出力制御部20Eは、出力画像をディスプレイ10Dへ表示する。なお、出力制御部20Eは、出力画像を、通信部10Aを介して接続された外部装置へ出力してもよい。本実施形態では、出力制御部20Eは、出力画像をディスプレイ10Dへ表示する形態を、一例として説明する。
出力画像は、画像30に含まれる物体数を、互いにサイズの異なる複数の局所領域サイズの局所領域40ごとに推定した、推定結果46の一覧を含む画像である。
図6は、出力画像54の一例を示す模式図である。出力画像54は、画像30と、複数の推定結果46と、を含む。
出力画像54に表示される推定結果46は、互いにサイズの異なる複数の局所領域サイズの局所領域40ごとに推定された物体数(すなわち、人物32の人数)を示す情報である。図6には、推定結果46(46A〜46D)の推定結果画像48(48A〜48D)を一例として示した。また、図6には、推定結果画像48が、局所領域40ごとの推定結果46に代えて、画像30に含まれる物体数47(47A〜47D)を含む場合を一例として示した。物体数47(47A〜47D)は、画像30の局所領域40(40A〜40D)ごとに物体数(推定結果46)を推定する処理を、局所領域40の位置を変えながら画像30全体に対して行うことで、画像30全体に含まれる物体数を算出した算出結果である。
なお、推定結果画像48は、画像30上に、推定結果46および物体数47の少なくとも一方を示す情報を重畳した重畳画像であることが好ましい。
なお、図6中、推定結果画像48Aは、8×8ピクセルの局所領域サイズの局所領域40Aごとに推定された、画像30に含まれる物体数47Aを示す画像である。推定結果画像48Bは、16×16ピクセルの局所領域サイズの局所領域40Bごとに推定された、画像30に含まれる物体数47Bを示す画像である。推定結果画像48Cは、32×32ピクセルの局所領域サイズの局所領域40Cごとに推定された、画像30に含まれる物体数47Cを示す画像である。推定結果画像48Dは、64×64ピクセルの局所領域サイズの局所領域40Dごとに推定された、画像30に含まれる物体数47Dを示す画像である。
例えば、出力制御部20Eは、取得部20Cで取得した画像30を基準学習モデル50へ入力することで、互いにサイズの異なる複数の局所領域サイズの各々に対応する、複数の推定結果画像48を生成する。そして、出力制御部20Eは、画像30と、複数の推定結果画像48と、を含む出力画像54を、ディスプレイ10Dへ表示すればよい。
ユーザは、表示された出力画像54を視認しながら入力部10Eを操作することで、推定結果46(または物体数47)の何れかを選択する。すなわち、ユーザは、表示されている複数の推定結果画像48の何れかを選択することで、推定結果46(または物体数47)の何れかを選択する。図6には、推定結果画像48Aが選択された場合を一例として示した。ユーザは、表示されている複数の推定結果画像48の内、少なくとも1つの推定結果画像48を選択すればよく、2以上の推定結果画像48を選択してもよい。ここでは、1つの推定結果画像48を選択した場合を想定し、説明を続ける。
そして、ユーザは、入力部10Eを操作することで、出力画像54に含まれる決定ボタンDの表示位置を選択する。すると、受付部20Fは、出力画像54に含まれる推定結果46のユーザによる選択を入力部10Eから受付ける。
設定部20Dは、受付けた推定結果46(または物体数47)に対応する局所領域サイズを、該画像30の物体数推定単位である局所領域サイズとして設定すればよい。
なお、設定部20Dによる局所領域サイズの設定は、上記方法に限定されない。
例えば、設定部20Dは、複数の推定結果46の内、画像30に含まれる予め取得した正解の物体数に最も近い推定結果46の導出に用いた局所領域サイズを、該画像30の物体数推定単位である局所領域サイズとして設定してもよい。
この場合、設定部20Dは、推定結果46に代えて物体数47を用いる事が好ましい。上述したように、物体数47は、画像30の局所領域40ごとに推定結果46を推定する処理を、局所領域40の位置を変えながら画像30全体に対して行うことで、画像30全体に含まれる物体数を算出した算出結果である。そして、設定部20Dは、取得した正解の物体数に最も近い物体数47の推定に用いた局所領域サイズを、該画像30の物体数推定単位である局所領域サイズとして設定すればよい。
また、設定部20Dは、画像30に含まれる予め取得した正解の物体数を、入力部10Eから受付ければよい。この場合、ユーザは、画像30に含まれる正解の物体数を、入力部10Eを操作することで入力すればよい。また、設定部20Dは、外部装置などで推定された、画像30に含まれる物体数を、予め取得した正解の物体数として用いてもよい。
また、設定部20Dは、1つの画像30に対して、1つの局所領域サイズを設定してもよいし、互いにサイズの異なる複数の局所領域サイズを設定してもよい。複数の局所領域サイズを設定する場合、例えば、ユーザは、出力画像54に含まれる複数の推定結果画像48(推定結果46)の内、2以上の推定結果画像48(推定結果46)を選択すればよい。そして、設定部20Dは、受付部20Fを介して入力部10Eから受付けた複数の推定結果画像48における推定結果46の各々の推定に用いた局所領域サイズを、設定すればよい。
また、設定部20Dは、画像30内の互いに異なる領域に、互いに異なる局所領域サイズを設定してもよい。
図7は、出力画像54の一例を示す模式図である。
例えば、ユーザは、表示された出力画像54を視認しながら入力部10Eを操作することで、互いに異なる局所領域サイズの推定結果画像48(推定結果46)を複数選択する。このとき、ユーザは、入力部10Eを操作することで、推定結果画像48における特定の領域を選択する。
図7には、一例として、8×8ピクセルの局所領域サイズに対応する推定結果画像48Aにおける、図7中の上側の領域SAが選択され、16×16ピクセルの局所領域サイズに対応する推定結果画像48Bにおける、図7中の下側の領域SBが選択された状態を示した。
この場合、設定部20Dは、画像30における領域SAについては推定結果画像48Aにおける推定結果46Aの導出に用いた8×8ピクセルの局所領域サイズを設定する。また、設定部20Dは、画像30における領域SBについては推定結果画像48Bにおける推定結果46Bの導出に用いた16×16ピクセルの局所領域サイズを設定すればよい。
図1に戻り説明を続ける。推定部20Gは、基準学習モデル50を、設定部20Dで設定された局所領域サイズの局所領域40の推定結果46を導出するための学習モデル52に再構築する。
図8は、再構築された学習モデル52の一例を示す模式図である。例えば、設定部20Dが、16×16ピクセルの局所領域サイズを設定したと想定する。この場合、推定部20Gは、図3に示す基準学習モデル50を、畳み込み演算の繰返しによって、画像30を1/16のサイズの特徴マップ44Bに縮小することで推定結果46Bを出力する学習モデル52に再構築する。
詳細には、推定部20Gは、学習モデル52における、設定された局所領域サイズより後段の(下位の)畳み込み演算によって形成される特徴マップ44および推定結果46を削除することで、学習モデル52のネットワークを再構築する。この処理により、推定部20Gは、基準学習モデル50から学習モデル52を再構築する。
そして、推定部20Gは、再構築した学習モデル52を、該学習モデル52の再構築に用いた画像30の対象領域の範囲を一意に識別する識別情報に対応付けて、記憶部20Bへ記憶する。この識別情報には、例えば、該画像30を撮影した撮影部10Bの識別情報などを用いればよい。
取得部20Cが新たな画像30を取得すると、推定部20Gは、該画像30に応じて設定された局所領域サイズの局所領域40ごとに、該画像30に含まれる物体数を推定する。
すなわち、推定部20Gは、取得部20Cで取得した画像30の対象領域の範囲の識別情報に対応する学習モデル52を、記憶部20Bから読取る。そして、推定部20Gは、該画像30と、該学習モデル52とを用いて、該画像30に含まれる物体数を推定する。上述したように、学習モデル52は、該画像30に設定された局所領域サイズに応じて基準学習モデル50を再構築することで得られた学習モデルである。このため、推定部20Gは、読取った学習モデル52に該画像30を入力することで、画像30に設定された局所領域サイズの局所領域40ごとの物体数である推定結果46を得る。そして、推定部20Gは、該画像30における局所領域40の位置を変更しながら、画像30全体に対して該推定処理を行うことで、画像30に含まれる物体数を推定する。
推定部20Gは、推定結果46をディスプレイ10Dに表示、記憶部20Bへ記憶、および、通信部10Aを介して外部装置へ送信、の何れかの処理を更に実行してもよい。
なお、上述したように、設定部20Dが、1つの画像30に対して複数の局所領域サイズを設定する場合がある。この場合、推定部20Gは、該画像30の対象領域の範囲を一意に識別する識別情報に対応付けて、複数の局所領域サイズの各々用に再構築された複数の学習モデル52を記憶部20Bへ記憶することとなる。このため、この場合、推定部20Gは、取得部20Cで新たに取得した画像30の対象領域の範囲の識別情報に対応する、複数の学習モデル52を、記憶部20Bから読取ることとなる。
この場合、推定部20Gは、読取った複数の学習モデル52の各々に画像30を入力することで、これらの学習モデル52の各々からの出力として複数の推定結果46を得る。そして、推定部20Gは、複数の推定結果46の重み付け和を、該画像30の各局所領域40の推定結果46として用いればよい。
詳細には、推定部20Gは、局所領域40ごとに、複数の学習モデル52から導出された該局所領域に対する複数の推定結果46の各々に、予め定めた重み係数を乗算し、これらの乗算した結果の和である重み付け和を、該局所領域40の推定結果46として用いればよい。重み係数は、局所領域サイズごとに予め設定し、予め画像30Bへ記憶すればよい。そして、推定部20Gは、該画像30における局所領域40の位置を変更しながら、画像30全体に対して該推定処理を行うことで、画像30に含まれる物体数を推定すればよい。
また、上述したように、設定部20Dが、画像30内の互いに異なる領域に、互いにサイズの異なる局所領域サイズを設定する場合がある(図7参照)。この場合、設定部20Dは、画像30の対象領域の範囲を一意に識別する識別情報に対応付けて、画像30内における位置および範囲を示す領域情報、および、該領域情報の領域に設定された局所領域サイズに応じて再構築された学習モデル52と、を対応付け記憶部20Bに記憶すればよい。
そして、推定部20Gは、該画像30における該領域ごとに、該領域に設定された局所領域サイズに対応する学習モデル52を用いて、局所領域40ごとの物体数である推定結果46を得ればよい。そして、推定部20Gは、該画像30における局所領域40の位置を変更させながら、画像30全体に対して該推定処理を行うことで、画像30に含まれる物体数を推定すればよい。
次に、本実施形態の物体数推定装置20で実行する物体数推定処理の流れの一例を説明する。図9および図10は、物体数推定処理の流れの一例を示すフローチャートである。
図9は、物体数推定処理における、学習モデル52の生成の流れの一例を示すフローチャートである。
処理部20Aは、対象領域の範囲が変更されたか否かを判断する(ステップS100)。
対象領域の範囲の変更とは、撮影画像を物体数推定対象の画像30として用いる場合、該撮影画像を撮影する撮影部10Bまたは該撮影画像を撮影する他の撮影装置の、撮影部10Bまたは該他の撮影装置自体の新たな設置または変更、撮影条件、地上からの設置位置の高さ、撮影角度、撮影環境(明るさなど)、画角、解像度、の少なくとも1つが変更されたことを意味する。また、撮影画像以外の画像30を物体数推定対象の画像30として用いる場合には、画像30に含まれる物体の大きさが変更された場合や、新たな画像30を取得した場合、などが挙げられる。なお、ステップS100において、処理部20Aは、ユーザによる入力部10Eの指示などによって変更を示す変更情報が入力された場合に、対象領域の範囲が変更されたと判断してもよい。
ステップS100で否定判断すると(ステップS100:No)、本ルーチンを終了する。ステップS100で肯定判断すると(ステップS100:Yes)、ステップS102へ進む。
ステップS102では、取得部20Cが、ステップS100で対象領域の範囲を変更すると判断された画像30を取得する(ステップS102)。
設定部20Dは、ステップS102で取得した画像30に応じて、該画像30における物体数推定単位である局所領域サイズを設定する(ステップS104)。
次に、推定部20Gは、記憶部20Bに記憶されている基準学習モデル50を、ステップS104で設定された局所領域サイズの局所領域40の推定結果46を導出するための学習モデル52に再構築する(ステップS106)。そして、推定部20Gは、ステップS106で再構築した学習モデル52を、ステップS102で取得した画像30の対象領域の範囲を一意に識別する識別情報に対応付けて、記憶部20Bへ記憶する(ステップS108)。そして、本ルーチンを終了する。
図10は、物体数推定処理における、物体数推定の流れの一例を示すフローチャートである。
取得部20Cが画像30を取得する(ステップS200)。設定部20Dは、ステップS200で取得した画像30の、対象領域の範囲を一意に識別する識別情報に対応する学習モデル52を、記憶部20Bから読取る(ステップS202)。
例えば、設定部20Dは、取得した画像30を公知の画像解析方法を用いて解析することで、該画像30の対象領域の範囲を特定すればよい。また、識別情報には、特定した対象領域の範囲を示す情報を含む、識別情報を用いればよい。なお、画像30に、該識別情報または該画像30の対象領域の範囲を示す情報を含む構成としてもよい。この場合、画像30のヘッダー部分などに、該情報を含む構成とすればよい。そして、該画像30の送信側(例えば、撮影部10B)では、該画像30の物体数推定装置20への送信時に、該情報を付与した画像30を送信すればよい。この場合、設定部20Dは、画像30に含まれる該識別情報に対応する学習モデル52を、記憶部20Bから読取ればよい。
次に、推定部20Gは、ステップS200で取得した画像30を、ステップS202で読み込んだ学習モデル52へ入力することで、該画像30に設定された局所領域サイズの局所領域40ごとに、該画像30に含まれる物体数を推定する(ステップS204)。そして、本ルーチンを終了する。
なお、ステップS202の処理において、ステップS200で取得した画像30の、対象領域の範囲を一意に識別する識別情報に対応する学習モデル52が、記憶部20Bに記憶されていない場合がある。この場合、処理部20Aは、図9のステップS100で肯定判断したとして(ステップS100:Yes)、該画像30について、ステップS104〜ステップS108の処理を実行すればよい。そして、次に、ステップS202〜ステップS204の処理を実行すればよい。
以上説明したように、本実施形態の物体数推定装置20は、取得部20Cと、設定部20Dと、推定部20Gと、を備える。取得部20Cは、画像30を取得する。設定部20Dは、画像30に応じて、画像30における物体数推定単位である局所領域サイズを設定する。推定部20Gは、設定された局所領域サイズの局所領域40ごとに画像30に含まれる物体数を推定する。
このように、本実施形態の物体数推定装置20では、画像30に応じて、画像30における物体数推定単位である局所領域サイズを設定する。
すなわち、本実施形態の物体数推定装置20では、画像30に映る対象領域の範囲が変更されることで、画像30に含まれる人物32の大きさが変動した場合であっても、該画像30に応じた局所領域サイズを設定する。そして、物体数推定装置20では、設定した局所領域サイズごとに、画像30に含まれる物体数を推定することができる。
従って、本実施形態の物体数推定装置20は、高精度に物体数を推定することができる。
なお、基準学習モデル50および学習モデル52を、含まれる人物32の数に加えて、画像30における人物32の位置および密度の少なくとも一方を更に含む推定結果46を出力するモデルとしてもよい。この場合、本実施形態の物体数推定装置20は、上記効果に加えて、画像30に含まれる人物32の密度、および、画像30における人物32の位置、の少なくとも一方を、高精度に推定することができる。
(第2の実施形態)
第2の実施形態では、基準学習モデル50として、特定の教師画像を用いて学習した学習モデルを用いる場合を説明する。
なお、第1の実施形態と同じ機能および構成の部分には、同じ符号を付与し、詳細な説明を省略する。
図11は、本実施形態の物体数推定システム11の一例を示す模式図である。
物体数推定システム11は、物体数推定装置21と、通信部10Aと、撮影部10Bと、UI部10Cと、を備える。物体数推定装置21と、通信部10A、撮影部10B、およびUI部10Cとは、データまたは信号を授受可能に接続されている。
物体数推定装置21は、記憶部20Bと、処理部21Aと、を備える。物体数推定装置21は、処理部20Aに代えて処理部21Aを備える点以外は、上記実施形態の物体数推定装置20と同様である。
処理部21Aは、取得部20Cと、設定部20Dと、出力制御部21Eと、受付部20Fと、推定部21Gと、学習部21Hと、を備える。
学習部21Hは、基準学習モデル50を学習する。学習部21Hは、教師画像と、教師画像を互いに異なる複数の局所領域サイズの各々に縮小した縮小画像の各々から推定された物体数と、の対応を示す教師データを用いて、該教師画像から推定結果46を導出するための基準学習モデル50を学習する。
教師画像は、物体の位置情報および物体の存在確率分布を示す分布情報を含む画像である。図12は、教師画像60の一例を示す模式図である。図12には、教師画像60の一例として、教師画像60Aおよび教師画像60Bを示した。
図12に示すように、教師画像60は、人物32の位置情報62と、分布情報64と、を含む。位置情報62は、教師画像60に含まれる人物32の、画像30における位置を示す情報である。分布情報64は、人物32の存在確率分布を示す情報である。図12には、分布情報64をガウシアン分布で示した形態を一例として示した。また、図12には、人物32の特定に用いる部位の一例である頭部の存在確率を示す分布情報64を、ガウシアン分布で表した例を示した。
例えば、学習部21Hは、教師画像60と、教師画像60を互いに異なる複数の局所領域サイズの各々に縮小した縮小画像の各々から推定された物体数と、の対応を示す教師データを予め記憶部20Bへ記憶する。なお、教師画像60に対応する分布情報64の縮小画像は、縮小前と縮小後とで含まれる画素の総和値が変わらないように縮小された画像である。
そして、学習部21Hは、該教師データを用いて、公知の学習方法により、基準学習モデル50を学習する(図3参照)。
出力制御部21E、および推定部21Gは、基準学習モデル50として、学習部21Hで学習された基準学習モデル50を用いる点以外は、上記第1の実施形態と同様の処理を実行すればよい。
すなわち、推定部21Gは、学習部21Hの学習により得られた基準学習モデル50を学習モデル52に再構築すればよい。そして、推定部21Gは、再構築した学習モデル52と画像30とを用いて、画像30に含まれる物体数を推定すればよい。
ここで、図12に示すように、教師画像60は、人物32の存在確率分布を示す分布情報64を含む。具体的には、教師画像60の人物32は、一様なガウシアン分布によってぼかされた状態となっている。このため、ガウシアン分布によってぼかされた状態となっている分布情報64と、該教師画像60の実画像と、の間には、差異が生じた状態となる。この差異は、基準学習モデル50に悪影響を与える場合があると考えられる。
しかし、本実施形態では、物体数推定装置21は、画像30に応じて設定された局所領域サイズの局所領域40ごとに、画像30に含まれる人物32の物体数を推定する。このため、本実施形態の物体数推定装置21は、縮小された分布情報64を用いて学習することで、ぼかしの影響を受けにくくなる。従って、本実施形態の物体数推定装置21は、上記実施形態の効果に加えて、高精度な学習モデル50を学習することができ、また、高精度な学習モデル52を再構成することができる。
次に、上記実施形態の物体数推定装置20および物体数推定装置21のハードウェア構成の一例を説明する。
図13は、上記実施形態の物体数推定装置20および物体数推定装置21のハードウェア構成図の一例である。
上記実施形態の物体数推定装置20および物体数推定装置21は、CPU86などの制御装置と、ROM(Read Only Memory)88やRAM(Random Access Memory)90やHDD(ハードディスクドライブ)92などの記憶装置と、各種機器とのインターフェースであるI/F部82と、出力情報などの各種情報を出力する出力部80と、ユーザによる操作を受付ける入力部94と、各部を接続するバス96とを備えており、通常のコンピュータを利用したハードウェア構成となっている。
上記実施形態の物体数推定装置20および物体数推定装置21では、CPU86が、ROM88からプログラムをRAM90上に読み出して実行することにより、上記各部がコンピュータ上で実現される。
なお、上記実施形態の物体数推定装置20および物体数推定装置21で実行される上記各処理を実行するためのプログラムは、HDD92に記憶されていてもよい。また、上記実施形態の物体数推定装置20および物体数推定装置21で実行される上記各処理を実行するためのプログラムは、ROM88に予め組み込まれて提供されていてもよい。
また、上記実施形態の物体数推定装置20および物体数推定装置21で実行される上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、上記実施形態の物体数推定装置20および物体数推定装置21で実行される上記処理を実行するためのプログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記実施形態の物体数推定装置20および物体数推定装置21で実行される上記処理を実行するためのプログラムを、インターネットなどのネットワーク経由で提供または配布するようにしてもよい。
なお、上記には、本発明の実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10、11 物体数推定システム
20、21 物体数推定装置
20C 取得部
20D 設定部
20E、21E 出力制御部
20F 受付部
20G、21G 推定部
50 基準学習モデル
52 学習モデル

Claims (10)

  1. 画像を取得する取得部と、
    前記画像に応じて、前記画像における物体数推定単位である局所領域サイズを設定する設定部と、
    設定された前記局所領域サイズの局所領域ごとに前記画像に含まれる物体数を推定する推定部と、
    を備える物体数推定装置。
  2. 前記推定部は、
    前記画像に対する畳み込み演算の繰返しによって、前記画像における前記局所領域サイズの領域の物体数の推定結果を導出するための学習モデル、前記画像、及び設定された前記局所領域サイズを用いて、前記画像に含まれる物体数を推定する、
    請求項1に記載の物体数推定装置。
  3. 前記推定部は、
    前記画像に対する畳み込み演算の繰返しによって、前記画像から互いに異なる複数の前記局所領域サイズの局所領域の各々の前記推定結果を導出するための基準学習モデルを、設定された前記局所領域サイズの局所領域の前記推定結果を導出するための前記学習モデルに再構築し、再構築した前記学習モデルと前記画像とを用いて、前記画像に含まれる物体数を推定する、
    請求項2に記載の物体数推定装置。
  4. 物体の位置情報および物体の存在確率分布を示す分布情報を含む教師画像と、前記教師画像を互いに異なる複数の前記局所領域サイズの各々に縮小した縮小画像の各々から推定された物体数と、の対応を示す教師データを用いて、前記教師画像から前記推定結果を導出するための前記基準学習モデルを学習する学習部を備え、
    前記推定部は、
    前記基準学習モデルを、設定された前記局所領域サイズの前記縮小画像から推定された前記推定結果を導出するための前記学習モデルに再構築し、再構築した前記学習モデルと前記画像とを用いて前記画像に含まれる物体数を推定する、
    請求項3に記載の物体数推定装置。
  5. 前記画像に含まれる物体数を、互いにサイズの異なる複数の前記局所領域サイズの局所領域ごとに推定した前記推定結果の一覧を含む出力画像を出力する出力制御部と、
    前記出力画像に含まれる前記推定結果のユーザによる選択を受付ける受付部と、
    を備え、
    前記設定部は、
    受付けた前記推定結果に対応する前記局所領域サイズを設定する、
    請求項2〜請求項4の何れか1項に記載の物体数推定装置。
  6. 前記設定部は、
    前記画像に含まれる物体数を、互いにサイズの異なる複数の前記局所領域サイズの局所領域ごとに推定した前記推定結果の内、前記画像に含まれる予め取得した正解の物体数に最も近い前記推定結果に対応する前記局所領域サイズを設定する、
    請求項2〜請求項5の何れか1項に記載の物体数推定装置。
  7. 前記設定部は、
    互いにサイズの異なる複数の前記局所領域サイズを設定し、
    前記推定部は、
    前記画像に含まれる物体数を、設定された複数の前記局所領域サイズの領域ごとに推定した結果の重み付け和を、前記推定結果として推定する、
    請求項2〜請求項6の何れか1項に記載の物体数推定装置。
  8. 前記設定部は、
    前記画像内の互いに異なる領域に互いに異なる前記局所領域サイズを設定し、
    前記推定部は、
    前記画像における前記領域ごとに、前記領域に設定された前記局所領域サイズの局所領域ごとの物体数を推定する、
    請求項1〜請求項7の何れか1項に記載の物体数推定装置。
  9. コンピュータによって実行される物体数推定方法であって、
    画像を取得するステップと、
    前記画像に応じて、前記画像における物体数推定単位である局所領域サイズを設定するステップと、
    設定された前記局所領域サイズの局所領域ごとに前記画像に含まれる物体数を推定するステップと、
    を含む物体数推定方法。
  10. 画像を取得するステップと、
    前記画像に応じて、前記画像における物体数推定単位である局所領域サイズを設定するステップと、
    設定された前記局所領域サイズの局所領域ごとに前記画像に含まれる物体数を推定するステップと、
    をコンピュータに実行させるための物体数推定プログラム。
JP2019161610A 2019-09-04 2019-09-04 物体数推定装置、物体数推定方法、および物体数推定プログラム Active JP7118934B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019161610A JP7118934B2 (ja) 2019-09-04 2019-09-04 物体数推定装置、物体数推定方法、および物体数推定プログラム
CN202010122252.7A CN112446275A (zh) 2019-09-04 2020-02-27 物体数量推定装置、物体数量推定方法以及存储介质
US16/803,402 US11449975B2 (en) 2019-09-04 2020-02-27 Object count estimation apparatus, object count estimation method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019161610A JP7118934B2 (ja) 2019-09-04 2019-09-04 物体数推定装置、物体数推定方法、および物体数推定プログラム

Publications (2)

Publication Number Publication Date
JP2021039625A true JP2021039625A (ja) 2021-03-11
JP7118934B2 JP7118934B2 (ja) 2022-08-16

Family

ID=74681778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019161610A Active JP7118934B2 (ja) 2019-09-04 2019-09-04 物体数推定装置、物体数推定方法、および物体数推定プログラム

Country Status (3)

Country Link
US (1) US11449975B2 (ja)
JP (1) JP7118934B2 (ja)
CN (1) CN112446275A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220198216A1 (en) * 2020-12-17 2022-06-23 Fujitsu Limited Computer-readable recording medium storing image output program, image output method, and image output apparatus

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7216487B2 (ja) * 2018-06-21 2023-02-01 キヤノン株式会社 画像処理装置およびその制御方法
JP7433864B2 (ja) * 2019-11-27 2024-02-20 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN114746866B (zh) * 2020-09-16 2023-05-23 Fsx株式会社 便携终端及湿毛巾管理系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015185106A (ja) * 2014-03-26 2015-10-22 パナソニックIpマネジメント株式会社 人数計測装置、人数計測システムおよび人数計測方法
JP2017059207A (ja) * 2015-09-18 2017-03-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像認識方法
JP2018005357A (ja) * 2016-06-29 2018-01-11 株式会社東芝 情報処理装置および情報処理方法
JP2018022340A (ja) * 2016-08-03 2018-02-08 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
JP2018148367A (ja) * 2017-03-03 2018-09-20 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
WO2018173108A1 (ja) * 2017-03-21 2018-09-27 富士通株式会社 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム
JP2018180619A (ja) * 2017-04-04 2018-11-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011021605A1 (ja) * 2009-08-18 2011-02-24 公立大学法人大阪府立大学 物体検出方法
JP5594672B2 (ja) * 2011-04-14 2014-09-24 株式会社 日立産業制御ソリューションズ 物体認識装置および物体認識方法
US9875412B2 (en) * 2014-02-10 2018-01-23 Hitachi Kokusai Electric Inc. Crowd monitoring system and crowd monitoring method
JP2015167854A (ja) 2014-03-07 2015-09-28 勉 湯浅 裁鋏
JP6950692B2 (ja) * 2016-08-04 2021-10-13 日本電気株式会社 人流推定装置、人流推定方法およびプログラム
JP6835218B2 (ja) 2017-05-22 2021-02-24 日本電気株式会社 群衆状態認識装置、学習方法および学習プログラム
CN108830145B (zh) * 2018-05-04 2021-08-24 深圳技术大学(筹) 一种基于深度神经网络的人数统计方法及存储介质
CN109558862B (zh) * 2018-06-15 2023-04-07 拓元(广州)智慧科技有限公司 基于空间感知的注意力细化框架的人群计数方法及系统
JP6989450B2 (ja) * 2018-06-21 2022-01-05 株式会社東芝 画像解析装置、画像解析方法及びプログラム
JP2020170252A (ja) * 2019-04-01 2020-10-15 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
JP7361551B2 (ja) * 2019-09-20 2023-10-16 キヤノン株式会社 デバイス、制御方法、及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015185106A (ja) * 2014-03-26 2015-10-22 パナソニックIpマネジメント株式会社 人数計測装置、人数計測システムおよび人数計測方法
JP2017059207A (ja) * 2015-09-18 2017-03-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像認識方法
JP2018005357A (ja) * 2016-06-29 2018-01-11 株式会社東芝 情報処理装置および情報処理方法
JP2018022340A (ja) * 2016-08-03 2018-02-08 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
JP2018148367A (ja) * 2017-03-03 2018-09-20 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
WO2018173108A1 (ja) * 2017-03-21 2018-09-27 富士通株式会社 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム
JP2018180619A (ja) * 2017-04-04 2018-11-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220198216A1 (en) * 2020-12-17 2022-06-23 Fujitsu Limited Computer-readable recording medium storing image output program, image output method, and image output apparatus

Also Published As

Publication number Publication date
US11449975B2 (en) 2022-09-20
CN112446275A (zh) 2021-03-05
US20210065351A1 (en) 2021-03-04
JP7118934B2 (ja) 2022-08-16

Similar Documents

Publication Publication Date Title
US11544831B2 (en) Utilizing an image exposure transformation neural network to generate a long-exposure image from a single short-exposure image
JP7118934B2 (ja) 物体数推定装置、物体数推定方法、および物体数推定プログラム
EP3754592B1 (en) Image acquisition device and method of controlling the same
JP6798183B2 (ja) 画像解析装置、画像解析方法およびプログラム
US11810279B2 (en) Image acquisition device and method of controlling the same
EP3379459A1 (en) System and method for telecom inventory management
JP2021503134A (ja) 画像深度とエゴモーション予測ニューラルネットワークの教師なし学習
JP6397379B2 (ja) 変化領域検出装置、方法、及びプログラム
CN108463821A (zh) 用于直接从图像识别实体的系统和方法
CN112242002B (zh) 基于深度学习的物体识别和全景漫游方法
JP7086878B2 (ja) 学習装置、学習方法、プログラムおよび認識装置
JP7001150B2 (ja) 識別システム、モデル再学習方法およびプログラム
JP6707715B2 (ja) 学習装置、推定装置、学習方法及びプログラム
EP3924929A1 (en) Modifying sensor data using generative adversarial models
Ahn et al. Implement of an automated unmanned recording system for tracking objects on mobile phones by image processing method
JP7001149B2 (ja) データ提供システムおよびデータ収集システム
US11586279B2 (en) Display apparatus and control method thereof
JP2022189901A (ja) 学習方法、学習装置、プログラムおよび記録媒体
JP6981553B2 (ja) 識別システム、モデル提供方法およびモデル提供プログラム
CN115481671A (zh) 图像识别辅助装置、图像识别辅助方法及记录介质
CN113807150A (zh) 数据处理、姿态预测方法、设备及存储介质
JP4942197B2 (ja) テンプレート作成装置及び表情認識装置並びにその方法、プログラム及び記録媒体
JP7272381B2 (ja) 学習処理装置及び学習処理プログラム
JP7524548B2 (ja) 画像処理装置、検出方法、及びプログラム
WO2024070654A1 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220803

R151 Written notification of patent or utility model registration

Ref document number: 7118934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151