JP6786837B2 - 動体計数装置及びプログラム - Google Patents

動体計数装置及びプログラム Download PDF

Info

Publication number
JP6786837B2
JP6786837B2 JP2016061313A JP2016061313A JP6786837B2 JP 6786837 B2 JP6786837 B2 JP 6786837B2 JP 2016061313 A JP2016061313 A JP 2016061313A JP 2016061313 A JP2016061313 A JP 2016061313A JP 6786837 B2 JP6786837 B2 JP 6786837B2
Authority
JP
Japan
Prior art keywords
moving
virtual line
unit
moving body
locus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016061313A
Other languages
English (en)
Other versions
JP2017174259A (ja
Inventor
大輔 池田
大輔 池田
大西 健司
健司 大西
昌嗣 外池
昌嗣 外池
新宮 淳
淳 新宮
祐介 宇野
祐介 宇野
佑介 山浦
佑介 山浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2016061313A priority Critical patent/JP6786837B2/ja
Priority to US15/250,322 priority patent/US10068335B2/en
Publication of JP2017174259A publication Critical patent/JP2017174259A/ja
Application granted granted Critical
Publication of JP6786837B2 publication Critical patent/JP6786837B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Description

本発明は、動体計数装置及びプログラムに関する。
特許文献1に記載の人検出装置は、カメラの撮像画像から検出された床面の着色部分の面積を、人がいない状態で撮像された撮像画像から検出された床面の着色部分の面積と比較して、撮像領域に滞在する人により隠された部分の面積を検出することによって滞在者数を求めている。
特開2009−230724号公報
本発明は、滞在している人を検出するための予め定められた領域を事前に設定しておく場合と比較して、撮像装置により撮像された画像から動体を計数する基準となる位置を設定する手間を簡略化することを目的とする。
本発明の請求項1に係る動体計数装置は、予め定められた領域を撮像する第1撮像装置により各々異なる時点に撮像された複数の画像を取得する第1撮像画像取得部と、前記第1撮像画像取得部により取得された複数の画像に基づいて、前記予め定められた領域内を移動する1以上の動体の各々について移動の軌跡である移動軌跡を特定する動体移動軌跡特定部と、前記第1撮像画像取得部により取得された画像上に仮想される仮想線であって、前記予め定められた領域内に予め定められた位置を通過した動体を計数する際の基準となる仮想線を、前記動体移動軌跡特定部により特定された移動軌跡に基づいて設定する仮想線設定部と、前記動体移動軌跡特定部により特定された移動軌跡のうち、前記設定された仮想線と交差する移動軌跡を計数することにより、前記予め定められた位置を通過した動体を計数する第1動体計数部とを備え、前記仮想線設定部は、前記仮想線の角度であって、前記第1撮像画像取得部により取得された画像において予め設定される基準線との間でなす角度を、前記動体移動軌跡特定部により特定された移動軌跡が示す移動方向に基づいて設定することを特徴とする。
本発明の請求項2に係る動体計数装置は、請求項1に記載の構成において、前記仮想線設定部は、前記仮想線と前記移動方向とが予め定められた角度をなすように前記仮想線の角度を設定することを特徴とする。
本発明の請求項3に係る動体計数装置は、予め定められた領域を撮像する第1撮像装置により各々異なる時点に撮像された複数の画像を取得する第1撮像画像取得部と、前記第1撮像画像取得部により取得された複数の画像に基づいて、前記予め定められた領域内を移動する1以上の動体の各々について移動の軌跡である移動軌跡を特定する動体移動軌跡特定部と、前記第1撮像画像取得部により取得された画像上に仮想される仮想線であって、前記予め定められた領域内に予め定められた位置を通過した動体を計数する際の基準となる仮想線を、前記動体移動軌跡特定部により特定された移動軌跡に基づいて設定する仮想線設定部と、前記動体移動軌跡特定部により特定された移動軌跡のうち、前記設定された仮想線と交差する移動軌跡を計数することにより、前記予め定められた位置を通過した動体を計数する第1動体計数部とを備え、前記動体移動軌跡特定部は、前記第1撮像画像取得部により取得された複数の画像の各々において、動体が位置する領域である動体領域を検出し、前記仮想線設定部は、前記検出された複数の動体領域のうち属性値又は当該属性値の変化量が最小となる動体領域の座標を、前記画像上において前記仮想線が通過する座標として設定することを特徴とする。
本発明の請求項4に係る動体計数装置は、予め定められた領域を撮像する第1撮像装置により各々異なる時点に撮像された複数の画像を取得する第1撮像画像取得部と、前記第1撮像画像取得部により取得された複数の画像に基づいて、前記予め定められた領域内を移動する1以上の動体の各々について移動の軌跡である移動軌跡を特定する動体移動軌跡特定部と、前記第1撮像画像取得部により取得された画像上に仮想される仮想線であって、前記予め定められた領域内に予め定められた位置を通過した動体を計数する際の基準となる仮想線を、前記動体移動軌跡特定部により特定された移動軌跡に基づいて設定する仮想線設定部と、前記動体移動軌跡特定部により特定された移動軌跡のうち、前記設定された仮想線と交差する移動軌跡を計数することにより、前記予め定められた位置を通過した動体を計数する第1動体計数部とを備え、前記動体移動軌跡特定部は、前記第1撮像画像取得部により取得された複数の画像の各々において、動体が位置する領域である動体領域と、前記動体の頭部が位置する領域である頭部領域とを検出し、前記仮想線設定部は、前記複数の画像の各々について検出された動体領域と頭部領域の相対的な位置関係に基づいて、前記画像上において前記仮想線が通過する座標を設定することを特徴とする。
本発明の請求項5に係る動体計数装置は、請求項4に記載の構成において、前記仮想線設定部は、前記複数の画像の各々について検出された動体領域と頭部領域の組のうち、動体領域の中心部から頭部領域の中心部までの距離が最小となる組の動体領域又は頭部領域の座標を、前記画像上において前記仮想線が通過する座標として設定することを特徴とする。
本発明の請求項6に係る動体計数装置は、請求項1乃至のいずれか1項に記載の構成において、前記予め定められた領域は施設の出入口の前の領域であり、前記第1撮像装置とは異なる位置に配置された第2撮像装置により撮像された、前記予め定められた位置を通過した動体を表す画像を取得する第2撮像画像取得部と、前記第2撮像画像取得部により取得された画像に基づいて、前記動体の顔部分が向いている方向を特定する顔部分方向特定部と、前記顔部分方向特定部により特定された前記顔部分が向いている方向が予め定められた方向である場合に、前記動体を、前記施設に進入した動体として計数する第2動体計数部とを備えることを特徴とする。
本発明の請求項7に係るプログラムは、コンピュータを、予め定められた領域を撮像する第1撮像装置により各々異なる時点に撮像された複数の画像を取得する第1撮像画像取得部と、前記第1撮像画像取得部により取得された複数の画像に基づいて、前記予め定められた領域内を移動する1以上の動体の各々について移動の軌跡である移動軌跡を特定する動体移動軌跡特定部と、前記第1撮像画像取得部により取得された画像上に仮想される仮想線であって、前記予め定められた領域内に予め定められた位置を通過した動体を計数する際の基準となる仮想線を、前記動体移動軌跡特定部により特定された移動軌跡に基づいて設定する仮想線設定部と、前記動体移動軌跡特定部により特定された移動軌跡のうち、前記設定された仮想線と交差する移動軌跡を計数することにより、前記予め定められた位置を通過した動体を計数する第1動体計数部ととして機能させるためのプログラムであって、前記仮想線設定部は、前記仮想線の角度であって、前記第1撮像画像取得部により取得された画像において予め設定される基準線との間でなす角度を、前記動体移動軌跡特定部により特定された移動軌跡が示す移動方向に基づいて設定することを特徴とする。
本発明の請求項8に係るプログラムは、コンピュータを、予め定められた領域を撮像する第1撮像装置により各々異なる時点に撮像された複数の画像を取得する第1撮像画像取得部と、前記第1撮像画像取得部により取得された複数の画像に基づいて、前記予め定められた領域内を移動する1以上の動体の各々について移動の軌跡である移動軌跡を特定する動体移動軌跡特定部と、前記第1撮像画像取得部により取得された画像上に仮想される仮想線であって、前記予め定められた領域内に予め定められた位置を通過した動体を計数する際の基準となる仮想線を、前記動体移動軌跡特定部により特定された移動軌跡に基づいて設定する仮想線設定部と、前記動体移動軌跡特定部により特定された移動軌跡のうち、前記設定された仮想線と交差する移動軌跡を計数することにより、前記予め定められた位置を通過した動体を計数する第1動体計数部ととして機能させるためのプログラムであって、前記動体移動軌跡特定部は、前記第1撮像画像取得部により取得された複数の画像の各々において、動体が位置する領域である動体領域を検出し、前記仮想線設定部は、前記検出された複数の動体領域のうち属性値又は当該属性値の変化量が最小となる動体領域の座標を、前記画像上において前記仮想線が通過する座標として設定することを特徴とする。
本発明の請求項9に係るプログラムは、コンピュータを、予め定められた領域を撮像する第1撮像装置により各々異なる時点に撮像された複数の画像を取得する第1撮像画像取得部と、前記第1撮像画像取得部により取得された複数の画像に基づいて、前記予め定められた領域内を移動する1以上の動体の各々について移動の軌跡である移動軌跡を特定する動体移動軌跡特定部と、前記第1撮像画像取得部により取得された画像上に仮想される仮想線であって、前記予め定められた領域内に予め定められた位置を通過した動体を計数する際の基準となる仮想線を、前記動体移動軌跡特定部により特定された移動軌跡に基づいて設定する仮想線設定部と、前記動体移動軌跡特定部により特定された移動軌跡のうち、前記設定された仮想線と交差する移動軌跡を計数することにより、前記予め定められた位置を通過した動体を計数する第1動体計数部ととして機能させるためのプログラムであって、前記動体移動軌跡特定部は、前記第1撮像画像取得部により取得された複数の画像の各々において、動体が位置する領域である動体領域と、前記動体の頭部が位置する領域である頭部領域とを検出し、前記仮想線設定部は、前記複数の画像の各々について検出された動体領域と頭部領域の相対的な位置関係に基づいて、前記画像上において前記仮想線が通過する座標を設定することを特徴とする。
請求項1、2又はに係る発明によれば、滞在している人を検出するための予め定められた領域を事前に設定しておく場合と比較して、撮像装置により撮像された画像から動体を計数する基準となる位置を設定する手間を簡略化することができる。また、仮想線の角度を手動により設定する手間を省略することができる。
請求項3乃至5、8及び9のいずれか1項に係る発明によれば、仮想線の座標を手動により設定する手間を省略することができる。
請求項に係る発明によれば、予め定められた位置を通過した動体のうち、施設に進入した動体を計数することができる。
動体計数装置1の構成の一例を示す図である。 撮像装置2A及び2Bの設置例を示す図である。 動体計数動作の一例を示すフローチャートである。 移動軌跡特定処理の一例を示すフローチャートである。 仮想線角度設定処理の一例を示すフローチャートである。 移動軌跡の一例を示す図である。 移動方向の分類の一例を示す図である。 移動軌跡の集計表の一例を示す図である。 仮想線座標設定処理の一例を示すフローチャートである。 移動軌跡の座標に対応する人領域の変遷の一例を示す図である。 移動軌跡を構成する各座標に対応する人領域の面積の一例を示す図である。 仮想線の一例を示す図である。 撮像装置2Aにより撮像された画像の一例を示す図である。 撮像装置2Bにより撮像された画像の一例を示す図である。 仮想線座標設定処理の一例を示すフローチャートである。 移動軌跡の座標に対応する人領域と頭部領域の変遷の一例を示す図である。 移動軌跡を構成する各座標に対応する人領域と、その頭部領域との距離の一例を示す図である。 仮想領域の一例を示す図である。
以下、本発明の実施の形態について図面を参照しつつ説明する。
1.実施形態
1−1.構成
図1は、本発明の一実施形態に係る動体計数装置1の構成の一例を示す図である。動体計数装置1は、撮像装置2Aにより撮像された画像に基づいて移動物体(以下、「動体」という。)を計数する装置である。ここで動体とは、具体的には人である。動体計数装置1は、制御部10と、記憶部20と、出力部30と、外部インタフェース40A及び40Bとを備える。
制御部10は、CPU(Central Processing Unit)等の演算処理装置とメモリとを備え、記憶部20に記憶されるプログラムを実行する。記憶部20は、ハードディスク等の記憶装置であり、制御部10に実行されるプログラムの他、各種データを記憶する。出力部30は、記憶部20に記憶される各種データを出力する。出力部30は、例えば、液晶ディスプレイ等の表示装置や、データ通信カード等の通信装置や、Bluetooth(登録商標)等の近距離無線通信規格に準拠した通信モジュールである。外部インタフェース40Aは、第1撮像装置である撮像装置2Aを動体計数装置1に接続するためのインタフェースである。外部インタフェース40Bは、第2撮像装置である撮像装置2Bを動体計数装置1に接続するためのインタフェースである。
撮像装置2A及2Bは、予め定められた領域を撮像するカメラである。ここで予め定められた領域とは、具体的には施設の出入口の前の領域である。ここで施設とは、具体的には店舗である。
図2は、撮像装置2A及び2Bの設置例を示す図である。撮像装置2Aは、店舗内の天井Cに設置され、店舗の出入口E前の領域を俯瞰で撮像する。天井Cに設置される際、撮像装置2Aは、シャッタ等の障害物Oが写り込まないように傾けて設置される。言い換えると、撮像装置2Aの光軸が床面F法線と平行とならないように設置される。撮像装置2Aは、撮像した動画データを外部インタフェース40Aに出力する。一方、撮像装置2Bは、店舗内に設置され、店舗の出入口E前の領域を水平方向から撮像する。撮像装置2Bは、撮像した動画データを外部インタフェース40Bに出力する。
制御部10は、記憶部20に記憶されるプログラムを実行することにより、第1撮像画像取得部11と、動体移動軌跡特定部12と、仮想線設定部13と、第1動体計数部14と、第2撮像画像取得部15と、顔部分方向特定部16と、第2動体計数部17という機能を実現する。
第1撮像画像取得部11は、撮像装置2Aにより各々異なる時点に撮像された複数の画像を取得する。ここで複数の画像とは、具体的には、連続的に撮像された複数の静止画像である。ただし、複数の画像は、必ずしも連続的な静止画像である必要はなく、非連続の静止画像であってもよい。
動体移動軌跡特定部12は、第1撮像画像取得部11により取得された複数の画像に基づいて、店舗の出入口前の領域を移動する1以上の人の各々について移動の軌跡である移動軌跡を特定する。具体的には、動体移動軌跡特定部12は、まず、背景差分法を用いて、第1撮像画像取得部11により取得された複数の画像の各々において、動体が位置する領域である動体領域を検出する。次に、動体移動軌跡特定部12は、検出した各動体領域からHOG(Histograms of Oriented Gradients)特徴量を抽出し、事前学習により人物を識別するために構築された人物識別器を用いて、検出した動体領域の中から、人が位置する人領域を判別する。最後に、動体移動軌跡特定部12は、人領域と判別された各動体領域に基づいて、パーティクルフィルタを用いて人の移動軌跡を特定する。
仮想線設定部13は、第1撮像画像取得部11により取得された画像上に仮想される仮想線であって、施設の出入口前の領域内に予め定められた位置を通過した人を計数する際の基準となる仮想線を、動体移動軌跡特定部12により特定された移動軌跡に基づいて設定する。ここで、予め定められた位置とは、具体的には撮像装置2Aの真下の位置である。
具体的には、仮想線設定部13は、仮想線の角度であって、第1撮像画像取得部11により取得された画像において予め設定される基準線との間でなす角度を、動体移動軌跡特定部12により特定された移動軌跡が示す移動方向に基づいて設定する。ここで、画像において予め設定される基準線とは、具体的には画像の一辺である。仮想線の角度を設定する際、仮想線設定部13は、仮想線と移動方向とが予め定められた角度をなすように仮想線の角度を設定する。ここで予め定められた角度とは、具体的には90度である。
また、仮想線設定部13は、第1撮像画像取得部11により取得された複数の画像の各々において動体移動軌跡特定部12により検出された複数の人領域の属性値に基づいて、上記画像上において仮想線が通過する座標を設定する。ここで、人領域の属性値とは、具体的には人領域の面積である。その際、仮想線設定部13は、前記仮想線設定部は、検出された複数の人領域のうち面積が最小となる人領域の座標を、上記の座標として設定する。ここで人領域の座標とは、具体的には人領域の重心の座標である。
第1動体計数部14は、動体移動軌跡特定部12により特定された移動軌跡のうち、仮想線設定部13により設定された仮想線と交差する移動軌跡を計数することにより、撮像装置2Aの真下の位置を通過した人を計数する。
第2撮像画像取得部15は、撮像装置2Bにより撮像された画像を取得する。第2撮像画像取得部15は、特に、撮像装置2Aの真下の位置を通過した人を撮像した画像を取得する。
顔部分方向特定部16は、第2撮像画像取得部15により取得された画像に基づいて、撮像装置2Aの真下の位置を通過した人の顔部分が向いている方向を特定する。具体的には、顔部分方向特定部16は、事前学習により正面顔を識別するために構築された正面顔識別器と、事前学習により後頭部を識別するために構築された後頭部識別器とを用いて、取得された画像から正面顔が検出されるのか、それとも後頭部が検出されるのかを判定する。言い換えると、顔部分方向特定部16は、当該人が撮像装置2Bの方を向いているのか、それとも撮像装置2Bとは逆の方向を向いているのかを判定する。
第2動体計数部17は、顔部分方向特定部16により特定された方向が予め定められた方向である場合に、撮像装置2Aの真下の位置を通過した人を、店舗に進入した人として計数する。ここで、予め定められた方向とは、具体的には、撮像装置2Bが存在する方向である。言い換えると、店舗内の方向である。
1−2.動作
動体計数装置1の動作について説明する。図3は、動体計数装置1により実行される動体計数動作の一例を示すフローチャートである。この動体計数動作では、撮像装置2A及び2Bにより撮像される画像に基づいて、店舗に入店する人と店舗から退店する人とを計数する。
動体計数装置1の第1撮像画像取得部11は、撮像装置2Aにより連続的に撮像された複数の画像を取得する(S1)。複数の画像が取得されると、動体移動軌跡特定部12は、移動軌跡特定処理を実行する(S2)。図4は、移動軌跡特定処理の一例を示すフローチャートである。
移動軌跡特定処理において、動体移動軌跡特定部12は、ステップS1において取得された複数の画像の各々において、動体が位置する領域である動体領域を検出する(S21)。動体領域を検出すると、動体移動軌跡特定部12は、検出した各動体領域からHOG特徴量を抽出し、事前学習により人物を識別するために構築された人物識別器を用いて、検出した動体領域の中から、人が位置する人領域を判別する(S22)。人領域を判別すると、動体移動軌跡特定部12は、人領域と判別された各動体領域(より具体的には、各動体領域の重心)に対してパーティクルフィルタを適用して人の移動軌跡を特定する(S23)。
移動軌跡特定処理の完了後、仮想線が設定されていない場合には(S3のNO)、処理はステップS4に進む。一方、仮想線が設定されている場合には(S3のYES)、処理はステップS7に進む。
ステップS3の判定において仮想線が設定されていない場合には、仮想線設定部13は仮想線角度設定処理を実行する(S4)。図5は、仮想線角度設定処理の一例を示すフローチャートである。
仮想線角度設定処理において、仮想線設定部13は、ステップS2において特定された各移動軌跡を、移動方向に応じて複数のグループに分類し、グループごとに移動軌跡の数を集計する(S41)。図6は、ステップS2において特定される各移動軌跡の一例を示す図である。同図に示す矢印Arは人の移動軌跡を表している。同図は10人分の移動軌跡を示している。各移動軌跡は、画像の左下隅を原点とするxy座標系により表現される。図7は、移動軌跡を分類する際に参照される、移動方向の分類の一例を示す図である。同図に示す分類では、移動方向は、0度から45度刻みで315度までの8方向に分類される。0度の移動方向は、画像の重心Gを起点とし、x軸に平行な方向とされる。なお、同図に示す8方向の中に移動軌跡と一致する移動方向が存在しない場合には、仮想線設定部13は、最も近い移動方向に移動軌跡を分類する。また、移動軌跡が一直線でない場合には(すなわち、複数のベクトルにより構成される場合には)、合成ベクトルを算出して、算出した合成ベクトルをいずれかの移動方向に分類する。図8は、図6に示す移動軌跡を、図7に示す8方向に分類した場合に生成される集計表の一例を示す図である。同図に示す集計表によれば、移動方向を90度とする移動軌跡が最も多いことがわかる。仮想線設定部13は、移動軌跡を分類し集計すると、最も多くの移動軌跡が分類された移動方向を特定する(S42)。図8に示す例によれば、移動方向「90度」を特定する。移動方向を特定すると、仮想線設定部13は、特定した移動方向に対して直角となる角度を、仮想線の角度(0度≦θ<180度)として算出する(S43)。仮に移動方向として90度が特定されたとすると、仮想線設定部13は、仮想線の角度として0度を算出する。
仮想線の角度を設定すると、仮想線設定部13は仮想線座標設定処理を実行する(S5)。図9は、仮想線座標設定処理の一例を示すフローチャートである。
仮想線座標設定処理において、仮想線設定部13は、ステップS42において特定した移動方向に分類された一の移動軌跡について、移動軌跡を構成する各座標に対応する人領域の面積を算出する(S51)。図10は、移動軌跡の座標に対応する人領域の変遷の一例を示す図である。同図に示す画像IM1は、t秒時点に撮像装置2Aにより撮像された画像である。一方、画像IM2は、t+1秒時点に撮像装置2Aにより撮像された画像である。各画像に示す人領域A1、A2は、人Pを表す画像部分を囲む外接矩形により表現される。人領域A1、A2は、画像の左下隅を原点とするxy座標系により表現される。人領域A1の重心G1と人領域A2の重心G2は、それぞれ移動軌跡を構成する座標上に位置する。図11は、移動軌跡を構成する各座標に対応する人領域の面積の一例を示す図である。同図によれば、人Pが出入口Eを通過後1.50秒が経過するまでは、y座標の値が増加するにつれて、すなわち人Pが出入口Eから離れるにつれて、面積が減少する。出入口Eを通過後1.50秒を経過すると、y座標の値が増加するにつれて、すなわち人Pが出入口Eから離れるにつれて、面積が増加する。仮想線設定部13は、各人領域の面積を算出すると、算出した面積の中で最小の面積に対応する座標を特定する(S52)。図11に示す例によれば、面積「100」に対応する座標「(200,150)」を特定する。ここで、最小の面積に対応する座標とは、店舗の出入口E前の領域において撮像装置2Aの真下の位置に対応する座標である。
仮想線の座標を設定すると、仮想線設定部13は、ステップS4で設定した角度とステップS5で設定した座標とに基づいて仮想線を設定する(S6)。具体的には、画像のx軸に対して、ステップS4で設定した角度をなし、且つステップS5で設定した座標を通る線分を仮想線として設定する。図12は、設定される仮想線の一例を示す図である。同図に示す例では、ステップS4で角度「0度」が設定され、ステップS5で座標「(200,150)」が設定された場合に設定される仮想線Lが示されている。仮想線Lは、画像の左下隅を原点とするxy座標系により表現される。
仮想線が設定されると、第1動体計数部14は、ステップS2において特定された各移動軌跡が、ステップS6で設定された仮想線と交差するか否かを判定する(S7)。この判定の結果、移動軌跡が仮想線と交差しない場合には、すなわち人が撮像装置2Aの真下を通過していない場合には(S7のNO)、処理はステップS1に戻る。一方、この判定の結果、移動軌跡が仮想線と交差する場合には、すなわち人が撮像装置2Aの真下を通過した場合には(S7のYES)、第1動体計数部14は、当該人を入退店者としてカウントする(S8)。具体的には、記憶部20に記憶される入退店者数の値をインクリメントする。図13は、撮像装置2Aの真下を通過する人を撮像した画像の一例を示す図である。同図に示す画像では、人P1の人領域A3と、人P2の人領域A4とが検出されている。これらの人領域のうち、人領域A3の重心G3が、座標(150,200)において仮想線Lと交差している。
人が入退店者としてカウントされると、第2撮像画像取得部15は、当該人を撮像した画像であって、撮像装置2Bにより撮像された画像を取得する(S9)。具体的には、当該人が撮像装置2Aの真下を通過した時点に撮像装置2Bにより撮像された画像を取得する。ここで、当該人が撮像装置2Aの真下を通過した時点は、当該人の人領域の重心が仮想線上に位置している画像のタイムスタンプを参照することにより特定される。図14は、図13に例示した画像が撮像された時点に撮像装置2Bにより撮像された画像の一例を示す図である。図14に示す画像において各人の位置は、x軸とz軸からなる直交座標系により表現される。ここでx軸は、図13に示すx軸と対応している。例えば人P1の位置は、x座標「150」により識別される。図14に示す画像によれば、人P1及びP2の顔部分が向いている方向が特定される。
入退店者を撮像した画像が取得されると、顔部分方向特定部16は、取得された画像に基づいて、当該人の顔部分が向いている方向を特定する(S10)。具体的には、事前学習により正面顔を識別するために構築された正面顔識別器と、事前学習により後頭部を識別するために構築された後頭部識別器とを用いて、取得された画像から正面顔が検出されるのか、それとも後頭部が検出されるのかを判定する。言い換えると、顔部分方向特定部16は、当該人が撮像装置2Bの方を向いているのか、それとも撮像装置2Bとは逆の方向を向いているのかを判定する。この判定の結果、正面顔が検出された場合には(S11のYES)、第2動体計数部17は、当該人を入店者としてカウントする(S12)。具体的には、記憶部20に記憶される入店者数の値をインクリメントする。一方、この判定の結果、後頭部が検出された場合には(S11のNO)、第2動体計数部17は、当該人を退店者としてカウントする(S13)。具体的には、記憶部20に記憶される退店者数の値をインクリメントする。
以上が、動体計数動作についての説明である。
以上説明した動体計数装置1によれば、撮像装置2Aにより撮像された画像に基づいて仮想線が設定されるため、利用者が手動で仮想線を設定する必要がない。また、仮想線が画像上において、撮像装置2Aの真下に対応する位置に配置されるように設定されるため、そのように設定されない場合と比較して、人が精度よく計数される。また、人の顔部分の向きに応じて入店者と退店者とが判別されるため、入店者と退店者とが別々に計数される。
2.変形例
上記の実施形態は下記のように変形してもよい。また、下記の変形例は他の1以上の変形例と組み合わせてもよい。
2−1.変形例1
上記の実施形態に係る人は動体の一例である。動体は、人以外の動物であってもよい。または、動体は、人により操作されて移動する物体(例えば、自動車)であってもよい。
2−2.変形例2
上記の実施形態に係る店舗の出入口前の領域は、撮像装置2Aにより撮像される予め定められた領域の一例である。この予め定められた領域は、店舗内の他の領域(例えば、通路)であってもよいし、店舗外の領域であってもよい。また、上記の実施形態に係る店舗は、入退出者が計数対象となる施設の一例である。入退出者が計数対象となる施設は、住宅やオフィス等、店舗以外であってもよい。
2−3.変形例3
上記の実施形態に係る動体移動軌跡特定部12は、上述した技術とは異なる周知の技術を利用して、第1撮像画像取得部11により取得された複数の画像から移動軌跡を特定するようにしてもよい。例えば、動体移動軌跡特定部12は、画像から検出した各動体領域から、HOG特徴量以外の他の特徴量(例えば、EOH(Edge of Orientation Histograms)特徴量やEdgelet特徴量)を抽出して、人物識別器を用いて人領域を判別してもよい。また、動体移動軌跡特定部12は、パーティクルフィルタ以外の他の物体追跡技術(例えば、Mean Shift)を人領域に適用して、人の移動軌跡を特定するようにしてもよい。
2−4.変形例4
上記の実施形態に係る仮想線角度設定処理では、10人分の移動軌跡に基づいて仮想線の角度を設定しているが(図6参照)、仮想線の角度を設定するために参照される移動軌跡の本数は10未満であっても、11以上であってもよい。また、同処理では、10人分の移動軌跡が8方向に分類されているが(図7参照)、移動軌跡が分類される方向の数は8未満であっても、9以上であってもよい。また、同処理では、最も多くの移動軌跡が分類された移動方向に対して直角となる角度を仮想線の角度として算出しているが、仮想線の角度は、当該移動方向に対して厳密に直角である必要はない。すなわち仮想線の角度は、当該移動方向に対して略直角であればよい。また、同処理では、仮想線と画像の一辺(具体的には、x軸)とがなす角度を、仮想線の角度として設定しているが、この画像の一辺は、画像に予め設定される基準線の一例である。この画像に予め設定される基準線は、線分(例えば、画像の対角線)であってもよい。
2−5.変形例5
上記の実施形態に係る仮想線座標設定処理では、画像において検出される人領域は外接矩形で表現されているが、外接矩形は人領域の形状の一例である。人領域の形状は、外接矩形以外の他の形状(例えば、外接円)であってもよい。また、同処理では、面積が最小である人領域の重心の座標が仮想線の座標として設定されているが、人領域の重心の座標は、人領域を示す座標の一例である。人領域を示す座標は、重心以外の点(例えば、人領域の頂点)の座標であってもよい。また、同処理では、面積が最小である人領域の座標が仮想線の座標として設定されているが、面積の変化量が最小である人領域の座標を仮想線の座標として設定してもよい。ここで、面積の変化量が最小である人領域とは、その変化量が最小となる変化の前又は後の面積を有する人領域である。また、同処理では、面積が最小である人領域の座標が仮想線の座標として設定されているが、人領域の面積は、仮想線の座標を設定するために参照される属性値の一例である。仮想線の座標を設定するために参照される属性値は、面積以外の属性値(例えば、人領域の幅、高さ、対角線長)であってもよい。
2−6.変形例6
上記の実施形態に係る仮想線座標設定処理では、移動軌跡を構成する各座標に対応する人領域の面積を算出し、最小の面積を有する人領域の座標を仮想線の座標として設定している。しかし、この方法は、仮想線の座標を設定するための方法の一例である。別の方法として、仮想線設定部13は、動体移動軌跡特定部12により複数の画像の各々について検出された人領域と、人の頭部が位置する頭部領域の相対的な位置関係に基づいて、仮想線の座標を設定するようにしてもよい。より具体的には、複数の画像の各々について検出された人領域と頭部領域の組のうち、人領域の中心部から頭部領域の中心部までの距離が最小となる組の人領域又は頭部領域の座標を仮想線の座標として設定してもよい。ここで、人領域の中心部から頭部領域の中心部までの距離が最小となる場合とは、例えば、人領域と頭部領域の各々の中心部が重なる場合である。ここで中心部とは、具体的には各領域の重心である。なお、この仮想線座標の設定方法を採用する場合には、動体移動軌跡特定部12は、第1撮像画像取得部11により取得された複数の画像の各々において、人領域に加えて頭部領域を検出する。
図15は、本変形例に係る仮想線座標設定処理の一例を示すフローチャートである。同図に示す仮想線座標設定処理において、仮想線設定部13は、ステップS42において特定した移動方向に分類された一の移動軌跡について、移動軌跡を構成する各座標に対応する人領域と、その頭部領域との距離を算出する(S53)。図16は、移動軌跡の座標に対応する人領域と頭部領域の変遷の一例を示す図である。同図に示す画像IM3は、t秒時点に撮像装置2Aにより撮像された画像である。一方。画像IM4は、t+1秒時点に撮像装置2Aにより撮像された画像である。各画像に示す人領域A5、A7は、人Pを表す画像部分を囲む外接矩形により表現される。各画像に示す頭部領域A6、A8は、人Pの頭部を表す画像部分を囲む外接矩形により表現される。人領域A5、A7と、頭部領域A6、A8は、画像の左下隅を原点とするxy座標系により表現される。人領域A5の重心G5と人領域A7の重心G7は、それぞれ移動軌跡を構成する座標上に位置する。図17は、移動軌跡を構成する各座標に対応する人領域と、その頭部領域との距離の一例を示す図である。同図によれば、人Pが出入口Eを通過後1.50秒が経過するまでは、人領域のy座標の値が増加するについて、すなわち人Pが出入口Eから離れるにつれて、距離が減少する。出入口Eを通過後1.50秒を経過すると、人領域のy座標の値が増加するについて、すなわち人Pが出入口Eから離れるにつれて、距離が増加する。仮想線設定部13は、各座標について人領域と頭部領域との距離を算出すると、算出した距離の中で最小の距離に対応する座標を特定する(S54)。図17に示す例によれば、距離「0」に対応する座標「(200,150)」を特定する。ここで、最小の距離に対応する座標とは、店舗の出入口E前の領域において撮像装置2Aの真下の位置に対応する座標である。
以上が、本変形例に係る仮想線座標設定処理についての説明である。
なお、以上説明した仮想線座標設定処理において、頭部領域の形状は、外接矩形以外の他の形状(例えば、外接円)であってもよい。また、同処理において、距離の変化量が最小である人領域の座標を仮想線の座標として設定してもよい。ここで、距離の変化量が最小である人領域とは、その変化量が最小となる変化の前又は後の距離を頭部領域との間で有する人領域である。また、同処理において、最小の距離に対応する人領域の座標に代えて、最小の距離に対応する頭部領域の座標を、仮想線の座標として設定してもよい。
2−7.変形例7
上記の実施形態に係る撮像装置2Aは、店舗の天井Cに傾けて設置されている(図2参照)。そのため、撮像装置2Aにより撮像される画像では、その中央で検出される人領域の面積が最小とはならない。そこで、上記の実施形態に係る動体計数動作では、仮想線座標特定処理を行って、面積が最小となる人領域の座標を特定している。しかし、撮像装置2Aが傾けて設置されない場合には(言い換えると、撮像装置2Aの光軸が床面法線と平行となるように設置された場合には)、撮像される画像の中央で検出される人領域の面積が最小となる。そのため、撮像装置2Aが傾けて設置されない場合には、上記の仮想線座標特定処理は省略されてもよい。代わりに、仮想線の座標(n,200)(0≦n≦600)が固定的に設定される。
2−8.変形例8
上記の実施形態に係る動体計数動作において、仮想線の設定後、当該仮想線を境界とする2つの仮想領域を設定し、第1動体計数部14は、これら2つの仮想領域を通過する移動軌跡を計数することにより、入退店者を計数するようにしてもよい。図18は、仮想領域の一例を示す図である。同図に示す例では、出入口Eに近い側に仮想領域A9が設定され、出入口Eから遠い側に仮想領域A10が設定されている。各仮想領域は、画像の左下隅を原点とするxy座標系により表現される。
2−9.変形例9
上記の実施形態に係る動体計数装置1の制御部10により実行されるプログラムは、磁気テープ、磁気ディスク、フレキシブルディスク、光ディスク、光磁気ディスク、メモリ等の記憶媒体に記憶された状態で提供されてもよい。また、当該プログラムは、インターネット等の通信回線を介してダウンロードされてもよい。
1…動体計数装置、2A、2B…撮像装置、10…制御部、11…第1撮像画像取得部、12…動体移動軌跡特定部、13…仮想線設定部、14…第1動体計数部、15…第2撮像画像取得部、16…顔部分方向特定部、17…第2動体計数部、20…記憶部、30…出力部、40A、40B…外部インタフェース

Claims (9)

  1. 予め定められた領域を撮像する第1撮像装置により各々異なる時点に撮像された複数の画像を取得する第1撮像画像取得部と、
    前記第1撮像画像取得部により取得された複数の画像に基づいて、前記予め定められた領域内を移動する1以上の動体の各々について移動の軌跡である移動軌跡を特定する動体移動軌跡特定部と、
    前記第1撮像画像取得部により取得された画像上に仮想される仮想線であって、前記予め定められた領域内に予め定められた位置を通過した動体を計数する際の基準となる仮想線を、前記動体移動軌跡特定部により特定された移動軌跡に基づいて設定する仮想線設定部と、
    前記動体移動軌跡特定部により特定された移動軌跡のうち、前記設定された仮想線と交差する移動軌跡を計数することにより、前記予め定められた位置を通過した動体を計数する第1動体計数部と
    を備え、
    前記仮想線設定部は、前記仮想線の角度であって、前記第1撮像画像取得部により取得された画像において予め設定される基準線との間でなす角度を、前記動体移動軌跡特定部により特定された移動軌跡が示す移動方向に基づいて設定することを特徴とする動体計数装置。
  2. 前記仮想線設定部は、前記仮想線と前記移動方向とが予め定められた角度をなすように前記仮想線の角度を設定することを特徴とする請求項に記載の動体計数装置。
  3. 予め定められた領域を撮像する第1撮像装置により各々異なる時点に撮像された複数の画像を取得する第1撮像画像取得部と、
    前記第1撮像画像取得部により取得された複数の画像に基づいて、前記予め定められた領域内を移動する1以上の動体の各々について移動の軌跡である移動軌跡を特定する動体移動軌跡特定部と、
    前記第1撮像画像取得部により取得された画像上に仮想される仮想線であって、前記予め定められた領域内に予め定められた位置を通過した動体を計数する際の基準となる仮想線を、前記動体移動軌跡特定部により特定された移動軌跡に基づいて設定する仮想線設定部と、
    前記動体移動軌跡特定部により特定された移動軌跡のうち、前記設定された仮想線と交差する移動軌跡を計数することにより、前記予め定められた位置を通過した動体を計数する第1動体計数部と
    を備え、
    前記動体移動軌跡特定部は、前記第1撮像画像取得部により取得された複数の画像の各々において、動体が位置する領域である動体領域を検出し、
    前記仮想線設定部は、前記検出された複数の動体領域のうち属性値又は当該属性値の変化量が最小となる動体領域の座標を、前記画像上において前記仮想線が通過する座標として設定することを特徴とする動体計数装置。
  4. 予め定められた領域を撮像する第1撮像装置により各々異なる時点に撮像された複数の画像を取得する第1撮像画像取得部と、
    前記第1撮像画像取得部により取得された複数の画像に基づいて、前記予め定められた領域内を移動する1以上の動体の各々について移動の軌跡である移動軌跡を特定する動体移動軌跡特定部と、
    前記第1撮像画像取得部により取得された画像上に仮想される仮想線であって、前記予め定められた領域内に予め定められた位置を通過した動体を計数する際の基準となる仮想線を、前記動体移動軌跡特定部により特定された移動軌跡に基づいて設定する仮想線設定部と、
    前記動体移動軌跡特定部により特定された移動軌跡のうち、前記設定された仮想線と交差する移動軌跡を計数することにより、前記予め定められた位置を通過した動体を計数する第1動体計数部と
    を備え、
    前記動体移動軌跡特定部は、前記第1撮像画像取得部により取得された複数の画像の各々において、動体が位置する領域である動体領域と、前記動体の頭部が位置する領域である頭部領域とを検出し、
    前記仮想線設定部は、前記複数の画像の各々について検出された動体領域と頭部領域の相対的な位置関係に基づいて、前記画像上において前記仮想線が通過する座標を設定する
    ことを特徴とする動体計数装置。
  5. 前記仮想線設定部は、前記複数の画像の各々について検出された動体領域と頭部領域の組のうち、動体領域の中心部から頭部領域の中心部までの距離が最小となる組の動体領域又は頭部領域の座標を、前記画像上において前記仮想線が通過する座標として設定することを特徴とする請求項に記載の動体計数装置。
  6. 前記予め定められた領域は施設の出入口の前の領域であり、
    前記第1撮像装置とは異なる位置に配置された第2撮像装置により撮像された、前記予め定められた位置を通過した動体を表す画像を取得する第2撮像画像取得部と、
    前記第2撮像画像取得部により取得された画像に基づいて、前記動体の顔部分が向いて
    いる方向を特定する顔部分方向特定部と、
    前記顔部分方向特定部により特定された前記顔部分が向いている方向が予め定められた方向である場合に、前記動体を、前記施設に進入した動体として計数する第2動体計数部と
    を備えることを特徴とする請求項1乃至のいずれか1項に記載の動体計数装置。
  7. コンピュータを、
    予め定められた領域を撮像する第1撮像装置により各々異なる時点に撮像された複数の画像を取得する第1撮像画像取得部と、
    前記第1撮像画像取得部により取得された複数の画像に基づいて、前記予め定められた領域内を移動する1以上の動体の各々について移動の軌跡である移動軌跡を特定する動体移動軌跡特定部と、
    前記第1撮像画像取得部により取得された画像上に仮想される仮想線であって、前記予め定められた領域内に予め定められた位置を通過した動体を計数する際の基準となる仮想線を、前記動体移動軌跡特定部により特定された移動軌跡に基づいて設定する仮想線設定部と、
    前記動体移動軌跡特定部により特定された移動軌跡のうち、前記設定された仮想線と交差する移動軌跡を計数することにより、前記予め定められた位置を通過した動体を計数する第1動体計数部と
    として機能させるためのプログラムであって、
    前記仮想線設定部は、前記仮想線の角度であって、前記第1撮像画像取得部により取得された画像において予め設定される基準線との間でなす角度を、前記動体移動軌跡特定部により特定された移動軌跡が示す移動方向に基づいて設定することを特徴とするプログラム。
  8. コンピュータを、
    予め定められた領域を撮像する第1撮像装置により各々異なる時点に撮像された複数の画像を取得する第1撮像画像取得部と、
    前記第1撮像画像取得部により取得された複数の画像に基づいて、前記予め定められた領域内を移動する1以上の動体の各々について移動の軌跡である移動軌跡を特定する動体移動軌跡特定部と、
    前記第1撮像画像取得部により取得された画像上に仮想される仮想線であって、前記予め定められた領域内に予め定められた位置を通過した動体を計数する際の基準となる仮想線を、前記動体移動軌跡特定部により特定された移動軌跡に基づいて設定する仮想線設定部と、
    前記動体移動軌跡特定部により特定された移動軌跡のうち、前記設定された仮想線と交差する移動軌跡を計数することにより、前記予め定められた位置を通過した動体を計数する第1動体計数部と
    として機能させるためのプログラムであって、
    前記動体移動軌跡特定部は、前記第1撮像画像取得部により取得された複数の画像の各々において、動体が位置する領域である動体領域を検出し、
    前記仮想線設定部は、前記検出された複数の動体領域のうち属性値又は当該属性値の変化量が最小となる動体領域の座標を、前記画像上において前記仮想線が通過する座標として設定することを特徴とするプログラム。
  9. コンピュータを、
    予め定められた領域を撮像する第1撮像装置により各々異なる時点に撮像された複数の画像を取得する第1撮像画像取得部と、
    前記第1撮像画像取得部により取得された複数の画像に基づいて、前記予め定められた領域内を移動する1以上の動体の各々について移動の軌跡である移動軌跡を特定する動体移動軌跡特定部と、
    前記第1撮像画像取得部により取得された画像上に仮想される仮想線であって、前記予め定められた領域内に予め定められた位置を通過した動体を計数する際の基準となる仮想線を、前記動体移動軌跡特定部により特定された移動軌跡に基づいて設定する仮想線設定部と、
    前記動体移動軌跡特定部により特定された移動軌跡のうち、前記設定された仮想線と交差する移動軌跡を計数することにより、前記予め定められた位置を通過した動体を計数する第1動体計数部と
    として機能させるためのプログラムであって、
    前記動体移動軌跡特定部は、前記第1撮像画像取得部により取得された複数の画像の各々において、動体が位置する領域である動体領域と、前記動体の頭部が位置する領域である頭部領域とを検出し、
    前記仮想線設定部は、前記複数の画像の各々について検出された動体領域と頭部領域の相対的な位置関係に基づいて、前記画像上において前記仮想線が通過する座標を設定する
    ことを特徴とするプログラム。
JP2016061313A 2016-03-25 2016-03-25 動体計数装置及びプログラム Active JP6786837B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016061313A JP6786837B2 (ja) 2016-03-25 2016-03-25 動体計数装置及びプログラム
US15/250,322 US10068335B2 (en) 2016-03-25 2016-08-29 Moving-object counter apparatus, moving-object counting method, and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016061313A JP6786837B2 (ja) 2016-03-25 2016-03-25 動体計数装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2017174259A JP2017174259A (ja) 2017-09-28
JP6786837B2 true JP6786837B2 (ja) 2020-11-18

Family

ID=59898824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016061313A Active JP6786837B2 (ja) 2016-03-25 2016-03-25 動体計数装置及びプログラム

Country Status (2)

Country Link
US (1) US10068335B2 (ja)
JP (1) JP6786837B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11328513B1 (en) 2017-11-07 2022-05-10 Amazon Technologies, Inc. Agent re-verification and resolution using imaging
JP6675564B1 (ja) * 2019-05-13 2020-04-01 株式会社マイクロネット 顔認識システム、顔認識方法及び顔認識プログラム
JP7374855B2 (ja) * 2020-06-18 2023-11-07 株式会社東芝 人物識別装置、人物識別システム、人物識別方法、及びプログラム
TWI799761B (zh) * 2020-12-02 2023-04-21 晶睿通訊股份有限公司 監控場域識別方法及其監控設備

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005140754A (ja) * 2003-11-10 2005-06-02 Konica Minolta Holdings Inc 人物検知方法、監視システム、およびコンピュータプログラム
JP5016533B2 (ja) 2008-03-25 2012-09-05 パナソニック株式会社 人検出装置及びそれを用いる負荷制御システム
US9390334B2 (en) * 2011-03-31 2016-07-12 Panasonic Intellectual Property Management Co., Ltd. Number of persons measurement device
KR101480348B1 (ko) * 2013-05-31 2015-01-09 삼성에스디에스 주식회사 사람 검출 장치 및 방법과 사람 계수 장치 및 방법
JP5834254B2 (ja) * 2014-04-11 2015-12-16 パナソニックIpマネジメント株式会社 人数計測装置、人数計測システムおよび人数計測方法
JP6433389B2 (ja) * 2015-08-04 2018-12-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
TWI604416B (zh) * 2015-10-01 2017-11-01 晶睿通訊股份有限公司 影像流量分析方法及具有影像流量分析功能的攝影機
JP6558579B2 (ja) * 2015-12-24 2019-08-14 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法

Also Published As

Publication number Publication date
US20170278254A1 (en) 2017-09-28
US10068335B2 (en) 2018-09-04
JP2017174259A (ja) 2017-09-28

Similar Documents

Publication Publication Date Title
USRE45768E1 (en) Method and system for enhancing three dimensional face modeling using demographic classification
US9269012B2 (en) Multi-tracker object tracking
US8599266B2 (en) Digital processing of video images
US8396282B1 (en) Method and system for computing fused saliency maps from multi-modal sensory inputs
US9171230B2 (en) Object detection method, object detection apparatus and image pickup apparatus
US9224060B1 (en) Object tracking using depth information
KR101480348B1 (ko) 사람 검출 장치 및 방법과 사람 계수 장치 및 방법
JP6786837B2 (ja) 動体計数装置及びプログラム
US9832452B1 (en) Robust user detection and tracking
US9652031B1 (en) Trust shifting for user position detection
US20100054535A1 (en) Video Object Classification
WO2012101962A1 (ja) 姿勢状態推定装置および姿勢状態推定方法
US20120093398A1 (en) System and method for multi-agent event detection and recognition
CN108701211B (zh) 用于实时地检测、跟踪、估计和识别占用的基于深度感测的系统
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
JP6779410B2 (ja) 映像解析装置、映像解析方法、及びプログラム
US11221671B2 (en) Opengaze: gaze-tracking in the wild
JP2017010224A (ja) 物体追尾装置、物体追尾方法及びプログラム
JPWO2008035411A1 (ja) 移動体情報検出装置、移動体情報検出方法および移動体情報検出プログラム
JP6708368B2 (ja) 変形可能部分モデルを使用した車両追跡における部分的隠蔽処理方法及びシステム
Dupuis et al. Robust radial face detection for omnidirectional vision
Newbury et al. Learning to take good pictures of people with a robot photographer
Wallhoff et al. Face tracking in meeting room scenarios using omnidirectional views
Chen “FOLO”: A vision-based human-following robot
Takahashi et al. Facial expression estimation using simplified head model based on particle filtering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201012

R150 Certificate of patent or registration of utility model

Ref document number: 6786837

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350