JP2009055139A - 人物追跡システム、人物追跡装置および人物追跡プログラム - Google Patents

人物追跡システム、人物追跡装置および人物追跡プログラム Download PDF

Info

Publication number
JP2009055139A
JP2009055139A JP2007217660A JP2007217660A JP2009055139A JP 2009055139 A JP2009055139 A JP 2009055139A JP 2007217660 A JP2007217660 A JP 2007217660A JP 2007217660 A JP2007217660 A JP 2007217660A JP 2009055139 A JP2009055139 A JP 2009055139A
Authority
JP
Japan
Prior art keywords
person
pattern
tracking system
trajectory
pattern image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007217660A
Other languages
English (en)
Other versions
JP4970195B2 (ja
Inventor
Kazuya Takahashi
一哉 高橋
Wataru Ito
渡 伊藤
Mitsue Ito
光恵 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2007217660A priority Critical patent/JP4970195B2/ja
Priority to US12/193,150 priority patent/US8144929B2/en
Publication of JP2009055139A publication Critical patent/JP2009055139A/ja
Application granted granted Critical
Publication of JP4970195B2 publication Critical patent/JP4970195B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】遮蔽物が存在する空間においても精度良く人物の移動軌跡を追跡する。
【解決手段】撮像方向が床面に向けられた複数のカメラを天井に設置し、複数のカメラによりそれぞれ撮像された撮像画像のうち、重複して撮像された重複撮像領域の少なくとも一部に基づいて、重複撮像領域に写し出された物体の視差を算出し、算出された視差が予め定められた閾値以上の物体を人物として検出し、検出された人物が含まれるパタン画像を抽出し、抽出されたパタン画像と、カメラにより撮像された画像とのパタンマッチングにより、人物が移動する軌跡を追跡する。
【選択図】図1

Description

本発明は、人物追跡装置システム、人物追跡装置および人物追跡プログラムに関し、特に屋内の天井に設置することが可能で、ビルや店舗内の人物の移動軌跡を計測するのに好適な人物追跡技術に関する。
人物の移動軌跡の計測は、セキュリティ対策、交通量調査、店舗内の顧客嗜好調査等の目的で行われることがある。
例えば、下記の特許文献1には、店舗内に設置された多数のカメラにより来店客を撮影し、撮影されたフレーム画像毎に性別や年齢や服装等の特徴を認識して、認識した特徴を利用して他のカメラの人物との同定処理を行い、店内における人物の移動軌跡を取得する技術が開示されている。また、下記の特許文献2には、人物の同定に顔認識処理を用いる技術が開示されている。
特開2004−348618公報 特開2006−209585公報
しかしながら、従来の技術では、1つのカメラがカバーする範囲を広くするために、カメラを天井付近に浅い俯角で設置することが多く、例えば小売店舗のように遮蔽物が多く混雑する空間では、人物が物もしくは他の人物により隠れてしまい、人物の移動軌跡を正確に追跡できなくなることがあった。
この点、従来の技術では、人物の画像から得られた性別、年齢、服装等の特徴又は顔認識処理の結果を用いて人物の同定処理を行っているが、これらの顔認識処理や特徴量を抽出するには人物を高精細に撮影する必要があり、高性能のカメラ若しくは多数のカメラが必要となってしまうほか、人物の顔向きや姿勢によっては同定処理にミスが生じることがあるため、人物の移動軌跡の追跡精度が悪くなってしまうことがあった。
本発明の目的の一つは、遮蔽物が存在する空間においても精度良く人物の移動軌跡を追跡することができる人物追跡システム、人物追跡装置および人物追跡プログラムを提供することにある。
本発明に係る人物追跡システムは、天井に設置され、撮像方向が床面に向けられた複数のカメラと、前記複数のカメラによりそれぞれ撮像された撮像画像のうち、重複して撮像された重複撮像領域の少なくとも一部に基づいて、前記重複撮像領域に写し出された物体の視差を算出する手段と、前記算出された視差が予め定められた閾値以上の物体を人物として検出する手段と、前記検出された人物が含まれるパタン画像を抽出する手段と、前記抽出されたパタン画像と、前記カメラにより撮像された画像とのパタンマッチングにより、前記人物が移動する軌跡を追跡する手段と、を含む、ことを特徴とする。
また、本発明の一態様に係る人物追跡システムは、前記検出された人物が含まれるパタン画像の位置と、当該人物について算出された前記視差とに基づいて、当該人物の前記床面における位置座標を演算する演算手段をさらに含む、ことを特徴とする。
また、本発明の一態様に係る人物追跡システムは、前記検出された人物毎に、前記抽出されたパタン画像を記憶する記憶手段と、前記パタンマッチングの結果に基づいて、前記記憶手段に記憶されるパタン画像を更新する更新手段と、をさらに含む、ことを特徴とする。
また、本発明の一態様に係る人物追跡システムは、前記記憶手段は、前記パタン画像に関連づけて当該パタン画像の前記床面における位置座標をさらに記憶し、前記更新手段は、前記記憶されるパタン画像が前記重複撮像領域に含まれる場合に、当該重複撮像領域から検出される人物の画像領域に基づいて、当該パタン画像を更新する、ことを特徴とする。
また、本発明の一態様に係る人物追跡システムは、前記更新手段は、前記記憶されるパタン画像が前記重複撮像領域に含まれ、かつ当該重複撮像領域から人物が検出されない場合には、当該パタン画像を削除する、ことを特徴とする。
また、本発明の一態様に係る人物追跡システムは、前記パタン画像から特徴量データを抽出する手段をさらに含み、前記抽出された特徴量データを前記パタンマッチングに用いる、ことを特徴とする。
また、本発明の一態様に係る人物追跡システムは、前記特徴量データは、輝度パタン、色ヒストグラム、色成分の比率、エッジヒストグラム、フーリエスペクトル、フーリエメリンスペクトルの少なくとも1つである、ことを特徴とする。
また、本発明の一態様に係る人物追跡システムは、前記複数のカメラの撮像範囲毎に、前記検出された人物が移動した軌跡を生成する手段をさらに含む、ことを特徴とする。
また、本発明の一態様に係る人物追跡システムは、前記生成された軌跡を前記検出された人物毎に統合する手段をさらに含む、ことを特徴とする。
また、本発明の一態様に係る人物追跡システムは、前記複数のカメラはそれぞれ、鉛直下方向に向けて撮像角度が調整される、ことを特徴とする。
また、本発明の一態様に係る人物追跡システムは、前記検出された人物について取得された属性情報を、当該人物について取得された軌跡に関連づけて記憶する手段をさらに含む、ことを特徴とする。
また、本発明の一態様に係る人物追跡システムは、前記属性情報は、前記人物に備え付けられた非接触無線タグの情報を読み取ることにより取得される、ことを特徴とする。
また、本発明に係る人物追跡装置は、天井に設置され、撮像方向が床面に向けられた複数のカメラにより撮像された画像を取得する手段と、前記複数のカメラによりそれぞれ撮像された撮像画像のうち、重複して撮像された重複撮像領域の少なくとも一部に基づいて、前記重複撮像領域に写し出された物体の視差を算出する手段と、前記算出された視差が予め定められた閾値以上の物体を人物として検出する手段と、前記検出された人物が含まれるパタン画像を抽出する手段と、前記抽出されたパタン画像と、前記カメラにより撮像された画像とのパタンマッチングにより、前記人物が移動する軌跡を追跡する手段と、を含む、ことを特徴とする。
また、本発明に係る人物追跡プログラムは、天井に設置され、撮像方向が床面に向けられた複数のカメラにより撮像された画像を取得する手段、前記複数のカメラによりそれぞれ撮像された撮像画像のうち、重複して撮像された重複撮像領域の少なくとも一部に基づいて、前記重複撮像領域に写し出された物体の視差を算出する手段、前記算出された視差が予め定められた閾値以上の物体を人物として検出する手段、前記検出された人物が含まれるパタン画像を抽出する手段、及び、前記抽出されたパタン画像と、前記カメラにより撮像された画像とのパタンマッチングにより、前記人物が移動する軌跡を追跡する手段、としてコンピュータを機能させることを特徴とする。
本発明によれば、遮蔽物が存在する空間においても精度良く人物の移動軌跡を追跡することができる。
また、本発明の一態様によれば、撮像エリアが重なり合う複数のカメラによる撮像画像に基づいて人物を検出し、その人物の位置を視差に基づく透視変換により、床面における位置座標として取得するため、高い精度で人物の移動軌跡を追跡できる。
また、本発明の一態様によれば、カメラは鉛直下方向の床面に向けて撮像方向が調整されるため、人物の位置を撮像画像から床面の座標系に透視変換する際の誤差が小さくでき、高い精度で人物の移動軌跡を追跡できる。
また、本発明の一態様によれば、カメラは天井に設置され床面を撮像するため、カメラの近傍にいる人物により遠方の人物の遮蔽が起こりにくく、また、視差を利用したステレオ計測の範囲(重複撮像領域)も天井から床面までの狭い範囲に限られるので、高い精度で人物の移動軌跡を追跡できる。
また、本発明の一態様によれば、一部のステレオ計測の範囲(重複撮像領域)で人物を検出した後は、それ以外の領域では、検出した人物のパタン画像を用いたパタンマッチング処理により人物を追跡するので、処理負荷を軽減することができる。
以下、本発明の好適な実施の形態(以下、実施形態)を、図面を参照しながら説明する。
図1は本発明の実施形態である人物追跡システム1を示す図である。図1に示されるように、人物追跡システム1には、ローカル装置11,12,・・・19等の複数のローカル装置が含まれる。各ローカル装置は、広角なカメラを1台ずつ有しており、それぞれのカメラは計測対象となる建物内の天井に設置され、建物の床面にほぼ正対するように撮像角度が調整される。
各ローカル装置は、カメラにより取得される画像を1フレームずつ順次処理して、カメラにより写し出された物体(人物)が撮像エリア内を移動する軌跡を追跡する。追跡された軌跡のデータは、例えば1秒または30フレーム等の所定の時間ごとに、人物追跡システム管理装置30に送信される。ローカル装置と人物追跡システム管理装置30へのデータの送受信は専用の信号線で構成することとしてもよいし、TCP/IP等のプロトコルを用いたネットワークにより構成することとしてもよい。
ローカル装置により取得される軌跡データは、ローカル装置のカメラが撮像する床面領域の一箇所を原点とする座標系(以後フロア座標系という)により表されているものとする。なお、各ローカル装置により検出された人物のフロア座標系における位置座標は、公知の透視変換処理により演算することとしてよい。
人物追跡システム管理装置30は、軌跡統合部301、及び軌跡データベース302を備える。軌跡統合部301は、所定の時間ごとに受信したローカル装置ごとの軌跡データを同一の人物について連結統合する。統合された一連の軌跡データは、軌跡データベース302に格納される。軌跡データの軌跡データベース302への格納は、所定の時間ごとに行うこととしてよい。
本実施形態では、ローカル装置には2種類のタイプが存在し、それぞれタイプA、タイプBとする。
図2には、タイプAのローカル装置の一例を示す。タイプAのローカル装置は、空間の天井に設置され、撮像方向が床面にほぼ正対するように調整された広角カメラ101、パタン保持部102、パタン照合部103、及びローカル軌跡生成部104を含み構成される。
パタン保持部102は、検出された人物が写し出された画像領域から特徴量データを抽出して保持する。抽出する特徴量データとしては、輝度分布、RED,GREEN,BLUE等の色成分の比率、人物の輪郭の局所的な向きを近傍8方向に分類した際の各方向成分の比率、画像領域のフーリエスペクトル、フーリエメリンスペクトル等の各種の情報を用いることとしてよい。抽出された特徴量データは、検出された人物を識別する人物IDに関連づけたパタンデータテーブルとしてメモリに格納される。
人物IDは、ローカル装置ごとに人物の追跡が開始される際に付与される識別情報である。人物IDは、ローカル装置毎に順に番号を振ることより付与してもよいし、ローカル装置のID、人物の追跡を開始した時刻、及びフロア座標により生成した番号により、人物追跡システムの全体において固有のIDを各人物に付与することとしてもよい。
パタン照合部103は、パタン保持部102においてテーブルデータ化されて保持されるパタンをテンプレートとして、広角カメラ101により撮像された画像に対してパタンマッチング処理を行う。パタン照合部103は、パタンマッチング処理の結果、テンプレートの特徴に最も類似する領域の中心を人物のフロア座標系における新たな位置座標とし、この位置座標をローカル軌跡生成部104に出力する。また、パタン照合部103は、フロア座標系における位置座標とともに、新たな位置座標に基づいて画像から切り出されたパタン画像の輝度パタンデータおよびそのパタン画像から抽出した色、エッジ、スペクトル等に関する特徴量をパタン保持部102に出力する。
パタン保持部102は、パタン照合部103から入力されたデータに基づいて、パタンデータテーブルを更新する。また、パタン保持部102は隣接するローカル装置のパタン照合部103からも、広角カメラ101の視野に入る物体に関して位置座標とともに輝度パタンを初めとする各種特徴量の入力を受け付ける。パタン保持部は、上記入力を受け付けたデータに基づいて、新たな人物ID及びその特徴量をパタンデータテーブルに追加して更新する。
ローカル軌跡生成部104は、1秒または30フレーム分など所定の時間毎にパタン保持部102にテーブルデータ化された人物IDの移動軌跡を生成し、所定の時間間隔で人物追跡システム管理装置30に出力する。パタン照合部103におけるパタンマッチング処理としてたとえば走査画像とテンプレート間での相関係数を求めて1に最も近い領域を照合結果とする。相関係数は、RED,GREEN,BLUEの各色の相関係数をそれぞれ求めてから各色の相関係数を所定の重みで加算して算出してもよい。また、相関係数を用いた照合方法には公知の正規化相関を用いることとしてよい。
図3はタイプBのローカル装置の機能ブロックの一例を示す図である。図3に示されるように、タイプBのローカル装置は、床面に正対する広角カメラ101、パタン保持部202、パタン照合部203、ローカル軌跡生成部204、パタン更新部205、人物候補保持部206、視差計測部207、人物候補保持部208、および視差計測部209を含み構成される。パタン保持部202、パタン照合部203、ローカル軌跡生成部204の動作はそれぞれ、パタン保持部102、パタン照合部103、ローカル軌跡生成部104の動作と同様であるため、説明を省略する。
視差計測部207および視差計測部209は、広角カメラ101と隣接する他のカメラの画像で重複する撮像エリアについて計測される視差に基づいて、視差画像を生成する。
人物候補保持部206と人物候補保持部208は、それぞれ、視差計測部207と視差計測部209により生成された視差画像を所定の閾値を用いて二値化することにより、人物の上半身の候補領域の中心座標と、当該候補領域の縦横サイズの人物候補リストを保持する。なお、候補領域は人物の上半身画像の外接矩形としてよい。
パタン更新部205の詳細は後述するが、人物候補保持部206および208の保持する人物候補リストと、パタン保持部202の保持するパタンデータテーブルと、追跡中の人物の位置と外接矩形の縦横サイズに不整合を生じる場合は人物候補保持部206および208の保持する人物候補リストに基づいて、パタン保持部202に保持される追跡中の人物について保持されたパタンデータを更新する。
また、人物候補保持部206および208の保持する人物候補リストに存在するにもかかわらず、パタン保持部202の保持する追跡中人物のパタンデータテーブルにない場合は、新たに撮像エリアに進入してきた人物として、パタン保持部202の保持する追跡中人物のパタンデータテーブルに追加する。この際の新たな人物IDは、ローカル装置のID、その人物の追跡を開始した時刻、及びフロア座標を接頭とする番号を付与して命名することとしてよい。
なお、人物追跡システム1に含まれる各装置は、それぞれ図示しない媒体読み取り装置によりコンピュータが読み取り可能な記録媒体(DVD−ROM,CD−ROM,フラッシュメモリ等)に格納されたプログラムを読み込むことにより、上述した各機能を実現することとしてよい。
ここで、図4には、小売り店舗に人物追跡システム1を適用した際の、各ローカル装置の配置の一例を示す。図4では、小売り店舗の俯瞰図に各ローカル装置の有する広角カメラの撮像エリアが円で描かれている。この場合、俯瞰図上方に店舗入り口があり、左側にレジカウンタがある。斜線のある矩形は高さのある陳列棚を示していて、広角カメラの撮像エリアである円内であっても円の中心から外れて陳列棚上または反対側はその陳列棚に遮蔽されて見えないものとする。
図4においては、ローカル装置11,12,・・・,19の9台が設置されているものとし、各ローカル装置の有する広角カメラの撮像範囲111〜119を円により示している。また、隣接カメラの撮像エリアの重複領域はステレオ計測領域400として十字パタンで示している。
図5は、人物追跡システム1におけるローカル装置の組み合わせの一例を示す図である。図5に示される組み合わせでは、広角カメラ101を有するタイプBのローカル装置12に隣接してタイプBのローカル装置11および13が配置されている。基本的に広角カメラによる撮像エリアの中心付近はパタンマッチング処理により人物を追跡し、撮像エリアの外周付近等の他のカメラの撮像エリアとの重複領域では、ステレオ計測により立体形状を確認した上で人物を追跡する。撮像エリアの重複領域(ステレオ計測領域)では、人物の検出及び追跡に背景差分法またはフレーム間差分法を用いずに済むため、動きの遅い人物や滞留している人物でも的確に検出や追跡ができる。
また、人物追跡システム1におけるローカル装置の組み合わせは、上述した例に限られるものではなく、図6に示されるように、ローカル装置の一部に、例えばタイプAのローカル装置14を組み込むこととしてもよい。人物追跡システム1にタイプAのローカル装置を組み込むことにより、人物追跡システム1全体における視差計測の負荷を減じることができる。タイプAのローカル装置は、人物の出入りが少ないような箇所に対応して設置することで、人物追跡システム1全体としての人物の検出精度を劣化させずに、処理の負荷を低減させることができる。
図7は視差計測部207および209の出力である視差画像の例を説明する図である。図7には、影を伴う移動人物の例が示されている。図7(a)は、ローカル装置の有する広角カメラの俯瞰画像の例であって、図7(b)の人物を上方から見た図である。図示しないが隣接するカメラにも同一の人物が映り、その立ち位置のフロア座標は透視変換することで得られる。しかしフロアからの高さが増すにつれて画像のずれ量が大きくなり、脚部から腹部、肩部、頭部と次第にずれが大きくなる。このずれ量に基づいて、頭部と、肩部と、脚部のパタンを変えて表示した図7(c)が視差画像の例である。影の部分は床に生じる視差の大きさと同じなので、所定の大きさ以上の視差を有する領域を抽出することで影や床の映りこみによる誤検出を防止する。図7(d)及び(e)については後述する。
図8(a)は人物候補保持部206および208の処理を説明する図である。人物候補保持部206および208では、視差計測部207または209により生成された視差画像について以下に説明する処理が行われて、人物候補リストが更新される。
人物候補保持部206は、視差計測部207により生成された視差画像を所定の閾値との比較により二値化する(S11)。閾値は検出する人物の高さに応じて変更することとしてよく、たとえば、閾値を高く設定すると身長の高い大人が検出の対象となり、閾値を低く設定すると身長の低い子供も検出することができるようになる。
次に二値画像にモホロジカル処理(膨張伸縮処理)を施して、切れた物体の連結、孤立点の除去、物体中の穴埋め等の補正処理を行う(S12)。モホロジカル処理を施して得られた二値画像に対してラベリング処理をする。ラベリング処理は、画素の4近傍または8近傍の連結状態に応じて二値化画素を画素群に分け、画素群毎にラベルを振ることで行われる(S13)。そして、ラベリング処理により分けられた画素群を取り囲む外接矩形を設定する。ラベルごとに設定された外接矩形の中心座標を計測し、さらに外接矩形の縦横の画素サイズを計測して、人物候補リストを更新する(S14)。
図8(b)はモホロジカル処理後の画像であり、斜線で示した領域がラベリング処理により分けられた画素群を示している。また、図8(c)はラベリング処理による各画素群とともに、その外接矩形を重ねて描いた図である。ここで、図7(d)は視差画像に対して図8(a)の一連の処理を施した後の画像であり、図7(e)は図7(a)の俯瞰画像に対して図7(d)をマスク画像として用いたマスク処理後の画像である。ここでは高さのある上半身部分の輝度情報のみが残されて、床の影など高さのない部分の輝度情報はゼロとマスクされている。図7(e)ではゼロとマスクされている領域は黒で示している。後述のパタン保持部ではこのゼロ以外の領域を輝度パタンとして保持する。
図9は、パタン保持部102および202の保持するパタンデータテーブルの例を示す。パタンデータテーブルは、人物ID毎に座標情報、輝度パタン、色ヒストグラム、エッジヒストグラム、フーリエスペクトルを関連づけて格納したレコードにより構成される。人物IDには、異なる軌跡の人物が同じ番号とならないようにローカル装置により管理された識別番号が付与される。なお、同一人物が一端視野からはずれて再び現れた場合にも、その人物には別の番号が付与される。座標情報には、各パタンの外接矩形の中心座標及び外接矩形の縦横の画素数を含むこととしてよい。また、上記の例では、パタンデータテーブルには、輝度パタン、色ヒストグラム、エッジヒストグラム、フーリエスペクトルをパタン画像の特徴量として格納することとしているが、これらの一部のみを格納することとしてもよいし、他の特徴量を格納することとしても構わない。
図10はパタン照合部103および203の処理フローを示す図である。広角カメラ101が画像1フレームを入力する度に1サイクル処理する構成である。広角カメラは、撮像した画像の1フレームをパタン照合部103に入力する(S101)。
パタン照合部103は、パタン保持部102または202に保持されたパタンデータテーブルを検索し(S102)、検索が終了していなければパタンデータテーブルに格納されたテーブルから1つのパタン、例えば輝度パタンを読み込む(S103)。パタン照合部103は、読み込んだ輝度パタンで入力された画像を走査して、輝度パタンとの相関が最も高い画像領域を抽出する(S104)。パタンの相関の計算にはたとえば、公知の正規化相関演算を用いることとしてよい。なお、相関演算には、フーリエスペクトルの輝度パタン、色ヒストグラム、エッジヒストグラムを用いてもよいし、それらの値の平均値や、ヒストグラムの総和による規格化を行った後に、相関を求めることとしてもよい。
パタン照合部103は、演算された相関が所定の値以上の画像領域を候補パタンとする(S105)。以上のようにS102からS105を繰り返し、パタンデータテーブルの検索が終了すると、候補パタンの検証処理を行う(S106)。ここでは1つのパタンに複数の候補パタンがあるか否かを確認し(S107)、候補パタンが複数ある場合には色ヒストグラム、エッジヒストグラム、フーリエスペクトルの相関の高低に基づいて、最終的に1つの候補に絞り込む(S108)。候補が最終的に1つに決定されると、その候補領域に基づいて、輝度パタン、色ヒストグラム、エッジヒストグラム、フーリエスペクトル等の特徴量を算出して、算出された特徴量を用いてパタンデータテーブルを更新する(S109)。
更新されたパタンデータテーブルは、パタン保持部202に出力される(S110)。ローカル軌跡生成部104および204には、パタンデータテーブルのうち人物IDと中心座標のみが出力される。また、パタンのサイズは、初期のパタンのサイズを維持してもよいし、カメラの視野の場所に応じてサイズのテーブルを作成しておき、このテーブルに基づいてパタンサイズを変更することとしてもよい。
図11はパタン更新部205の処理フローを示す図である。まず、パタン保持部202からパタンデータテーブルを読み込む(S201)。パタンデータテーブルに格納されたパタンのうち未処理のパタンがあるか否かを判断する(S202)。そして、未処理のパタンがある場合には(S202;Y)、そのパタンを読み込み(S203)、その位置座標が重複領域にあるか否かを判断する(S204)。重複領域とは、例えば図4における撮像エリア111と112とが重複するステレオ計測領域(重複撮像領域)400である。パタンがステレオ計測領域400に含まれると判断される場合には、そのパタンと人物候補保持部206に保持されているパタンと照合する(S205)。照合の結果、該当するパタンがあれば(S206;Y)、そのパタンによりパタンデータテーブルのパタン画像の座標と、その外接矩形の縦横の画素数とを更新する(S207)。一方で、ステレオ計測領域400に該当するパタンが存在しない場合には(S206;N)、そのパタンを削除する(S208)。また、S204で、パタンがステレオ計測領域400の内部に含まれないと判定される場合には、処理S202に戻り処理を繰り返す。
そして、全てのパタンについて処理が終了すると(S202;N)、人物候補の中でパタンデータテーブルと照合しないものがあるか否かを判断する(S209)。未照合の人物候補がある場合は、新たに検出された人物としてパタンデータテーブルにレコードを追加する(S210)。以上の処理により削除、修正、追加されたパタンデータテーブルの座標と外接矩形の縦横画素数に基づいて、輝度パタン等の特徴量を抽出して(S211)、パタン更新部の処理を終了する。
図12はローカル軌跡生成部104および204が軌跡統合部301へ出力するデータの一例を示した図である。ローカル軌跡生成部104および204は、予め定められた数のフレーム(例えば30フレーム)における人物の位置座標を、人物IDをインデクスとして所定の時間(例えば1秒)ごとに送信する。軌跡統合部301では、各フレームの同一人物の位置座標を直線又は曲線により連結することにより、その人物の移動軌跡が得られる。
図12において、広角カメラの撮像エリア内を人物が移動しているものとする。上述したように、人物が撮像エリアから一端外れて再び撮像エリアに進入してきた場合には、同一人物であっても新たな人物IDが割り当てられることになる。図12の例では、人物IDを1〜12の番号で示しているが、他にも、カメラのID、軌跡が最初に検出された時刻、フレーム番号、最初に検出した場所のフロア座標系による座標値から生成される一意の数値を人物IDとすることとしてもよい。
図12(a)には、ローカル軌跡生成部104,204により生成される軌跡データの一例を示す。軌跡データは、人物ID毎の30フレームにおける座標位置を含むものであり、所定の時間間隔で(時刻s1,s2,・・・)、人物追跡システム管理装置30に送信される。図12(a)に示される軌跡データは、各時刻に送信されたデータが順次蓄積されたものとなっている。
図12(b)は、上記送信された軌跡データに基づいて可視化された人物の軌跡の一例を表す図である。図12(b)では、時刻s1のタイミングで送信される軌跡データに基づいて、人物ID「1」,「2」,そして「12」の軌跡を示している。
図13はローカル装置11において生成された30フレームを単位とした軌跡データを4回送信した場合に、その軌跡データに基づいて人物追跡システム管理装置30により描画される軌跡の様子を示したものである。人物追跡システム管理装置30では、各ローカル装置により付与された人物IDを、「ローカル装置により付与された人物ID」+「ローカル装置のID」という形式に変換する。ローカル装置11,12,・・・,19のそれぞれのIDを、CAM1,CAM2,・・・,CAM9とすると、ローカル装置11の人物ID「12」は、「12CAM1」と変換される。人物追跡システム管理装置30の軌跡統合部301では、この様に同一の人物IDで送られてくる軌跡データに含まれる各座標値を連結して一連の軌跡を形成する。
以上に説明した軌跡データ通信処理と軌跡統合処理によって、各ローカル装置に属する広角カメラの撮像範囲内における各人物の移動軌跡が生成される。
次に図14乃至16を参照しつつ、各ローカル装置による撮像エリアにおける人物の移動軌跡を統合して、人物追跡システム管理装置30による人物の移動軌跡を統合する処理について説明する。
図14は軌跡統合部301の処理フローを示す図である。まず、人物追跡システム管理装置30は、各ローカル装置のローカル軌跡生成部により生成された軌跡データを受信する(S301)。各軌跡データはフロア座標系で表されているものとする。
つぎに人物追跡システム管理装置30は、受信した各軌跡データに基づいて、各ローカル装置の撮像エリア毎の軌跡を生成する。そして、所定単位(例えば30フレーム)の軌跡データの処理が終了するまで(S302;N)、生成された軌跡のうち、重なり合い、又は近接する部分を有する軌跡は同一人物のものであるとして人物IDを編集する(S303)。こうして、所定単位の軌跡データの処理が終了すると(S302;Y)、人物IDを編集した軌跡データを軌跡データベース302に保存する(S304)。軌跡統合部301は、軌跡データを受信するごとに以上の処理を繰り返す。
図15は、上述した人物および軌跡の統合処理を説明するための図である。図15では、受信した軌跡データに基づいて各人物の軌跡が描画されている。図15の例では、時刻k−1〜kにおいてローカル装置11により生成された軌跡データと、時刻k〜k+2においてローカル装置14により生成された軌跡データに基づいて描画された軌跡が示されている。
人物IDが「12CAM1」の軌跡と、人物IDが「34CAM4」の軌跡において、時刻kにおいて各軌跡は接近している。このように接近している場合は同一人物の軌跡であるとしてそれぞれの人物及び軌跡を統合する。軌跡が接近しているか否かは、時刻kにおける各軌跡のフロア座標の距離を計測し、その距離が予め定められた範囲内(例えば40cm以内)に継続して収まる場合に“接近している”ものとして判断する。前記範囲は人物追跡装置を設置する環境に応じて変更することとしてよい。たとえば、ローカル装置の広角カメラのレンズ歪が小さく、人物の位置座標の計測精度がよい場合は範囲をさらに小さくすることとしてもよい。
図16は、軌跡統合部301により統合された軌跡を表す統合軌跡データを説明する図である。統合軌跡データは、受信時刻、時刻、各ローカル装置のローカル軌跡生成部による軌跡データ、そして統合される軌跡及びその時刻を表す軌跡統合情報を含むデータである。
図16においては、人物ID「11CAM1」,「12CAM1」,「33CAM4」,「34CAM4」について位置座標が取得された期間を両端矢印で示している。以上の内容からなる、軌跡統合部301の統合軌跡データが本発明の、人物追跡システム1による最終的な出力結果である。このような出力結果に基づいて、計測空間についての人物の移動軌跡がほぼリアルタイムに出力される。
以上説明した本実施形態に係る人物追跡システム1によれば、遮蔽物が存在する空間においても精度良く人物の移動軌跡を追跡することができる。また、人物毎の移動軌跡から人物毎の移動方向、移動速度、滞留時間などをほぼリアルタイムに知ることが可能であり、これらの条件に応じて画面上に注意すべき人物に印をつけたり、警報を出したりのセキュリティ装置として利用することもできる。
また、本実施形態に係る人物追跡システム1は、非接触ICタグ等の機器を使用しないため、店舗以外のオープンスペースでも使用可能であり、カメラが天井から床面を見下ろす構成のため近傍の人物による遠方人物の遮蔽が起こりにくく、天井が低い状況でも設置が可能である。
また、以上に説明した本実施形態に係る人物追跡システム1は、個人を特定することなく各人物の移動軌跡を計測記録するものであるから、各個人のプライバシーを侵害するおそれがない。なお、個人を特定して移動軌跡を追跡する場合には、各人物に非接触無線タグを保持させて、特定のエリアに無線タグリーダを設置し、特定エリアの入口または出口などのポイントで各人物の非接触無線タグを読み取ることで特定したユーザ情報を軌跡に関連づけて記憶することで、容易に対応可能である。
なお、本発明は上記の実施形態に限定されるものではない。例えば、上記の実施形態において、軌跡統合部301は出力データを軌跡データベース302に格納することも可能で、かようにすれば過去の軌跡データを再生することもできる。本発明の人物追跡システム1は、外部の情報提供サーバに接続することで、店舗の顧客の移動経路や来店者数を計測するマーケティングシステム、又は滞留や往復を繰り返す挙動不審者を検出するセキュリティシステムに用いることができる。
また、本実施形態に係る人物追跡システム1は、多数の人物の移動軌跡を途切れることなく計測できるので、例えば店舗の出入り口またはレジカウンタにて、店員の目視あるいは自動判定装置により顧客の性別、年齢などの属性を一度入力すれば、顧客の性別や年齢に応じた経路情報を取得することができ、客層の情報を収集する顧客情報収集システムにも容易に適用可能である。
本実施形態に係る人物追跡システムのシステム構成図である。 タイプAのローカル装置の機能ブロック図である。 タイプBのローカル装置の機能ブロック図である。 ローカル装置の配置の一例を示す図である。 ローカル装置の組み合わせの一例を示す図である。 ローカル装置の、組み合わせの他の一例を示す図である。 視差計測部の出力例を示す図である。 人物候補保持部の処理のフロー図である。 パタン保持部の保持するパタンデータテーブルの一例を示す図である。 パタン照合部の処理のフロー図である。 パタン更新部の処理のフロー図である。 ローカル軌跡生成部の出力を説明する図である。 軌跡の統合処理の一例を示す図である。 軌跡統合部の処理のフロー図である。 重複物体を統合し、人物IDを編集する処理の一例を示す図である。 軌跡統合部の出力データを説明する図である。
符号の説明
1 人物追跡システム、11〜19 ローカル装置、30 人物追跡システム管理装置、 101 広角カメラ、102 パタン保持部、103 パタン照合部、104 ローカル軌跡生成部、202 パタン保持部、203 パタン照合部、204 ローカル軌跡生成部、205 パタン更新部、206 人物候補保持部、207 視差計測部、208 人物候補保持部、209 視差計測部、111〜119 撮像エリア、301 軌跡統合部、302 軌跡データベース、400 ステレオ計測領域。

Claims (14)

  1. 天井に設置され、撮像方向が床面に向けられた複数のカメラと、
    前記複数のカメラによりそれぞれ撮像された撮像画像のうち、重複して撮像された重複撮像領域の少なくとも一部に基づいて、前記重複撮像領域に写し出された物体の視差を算出する手段と、
    前記算出された視差が予め定められた閾値以上の物体を人物として検出する手段と、
    前記検出された人物が含まれるパタン画像を抽出する手段と、
    前記抽出されたパタン画像と、前記カメラにより撮像された画像とのパタンマッチングにより、前記人物が移動する軌跡を追跡する手段と、を含む、
    ことを特徴とする人物追跡システム。
  2. 前記検出された人物が含まれるパタン画像の位置と、当該人物について算出された前記視差とに基づいて、当該人物の前記床面における位置座標を演算する演算手段をさらに含む、
    ことを特徴とする請求項1に記載の人物追跡システム。
  3. 前記検出された人物毎に、前記抽出されたパタン画像を記憶する記憶手段と、
    前記パタンマッチングの結果に基づいて、前記記憶手段に記憶されるパタン画像を更新する更新手段と、をさらに含む、
    ことを特徴とする請求項1又は2に記載の人物追跡システム。
  4. 前記記憶手段は、前記パタン画像に関連づけて当該パタン画像の前記床面における位置座標をさらに記憶し、
    前記更新手段は、前記記憶されるパタン画像が前記重複撮像領域に含まれる場合に、当該重複撮像領域から検出される人物の画像領域に基づいて、当該パタン画像を更新する、
    ことを特徴とする請求項3に記載の人物追跡システム。
  5. 前記更新手段は、前記記憶されるパタン画像が前記重複撮像領域に含まれ、かつ当該重複撮像領域から人物が検出されない場合には、当該パタン画像を削除する、
    ことを特徴とする請求項4に記載の人物追跡システム。
  6. 前記パタン画像から特徴量データを抽出する手段をさらに含み、
    前記抽出された特徴量データを前記パタンマッチングに用いる、
    ことを特徴とする請求項1乃至5のいずれかに記載の人物追跡システム。
  7. 前記特徴量データは、輝度パタン、色ヒストグラム、色成分の比率、エッジヒストグラム、フーリエスペクトル、フーリエメリンスペクトルの少なくとも1つである、
    ことを特徴とする請求項6に記載の人物追跡システム。
  8. 前記複数のカメラの撮像範囲毎に、前記検出された人物が移動した軌跡を生成する手段をさらに含む、
    ことを特徴とする請求項1乃至7に記載の人物追跡システム。
  9. 前記生成された軌跡を前記検出された人物毎に統合する手段をさらに含む、
    ことを特徴とする請求項8に記載の人物追跡システム。
  10. 前記複数のカメラはそれぞれ、鉛直下方向に向けて撮像角度が調整される、
    ことを特徴とする請求項1乃至9のいずれかに記載の人物追跡システム。
  11. 前記検出された人物について取得された属性情報を、当該人物について取得された軌跡に関連づけて記憶する手段をさらに含む、
    ことを特徴とする請求項1乃至10のいずれかに記載の人物追跡システム。
  12. 前記属性情報は、前記人物に備え付けられた非接触無線タグの情報を読み取ることにより取得される、
    ことを特徴とする請求項11に記載の人物追跡システム。
  13. 天井に設置され、撮像方向が床面に向けられた複数のカメラにより撮像された画像を取得する手段と、
    前記複数のカメラによりそれぞれ撮像された撮像画像のうち、重複して撮像された重複撮像領域の少なくとも一部に基づいて、前記重複撮像領域に写し出された物体の視差を算出する手段と、
    前記算出された視差が予め定められた閾値以上の物体を人物として検出する手段と、
    前記検出された人物が含まれるパタン画像を抽出する手段と、
    前記抽出されたパタン画像と、前記カメラにより撮像された画像とのパタンマッチングにより、前記人物が移動する軌跡を追跡する手段と、を含む、
    ことを特徴とする人物追跡装置。
  14. 天井に設置され、撮像方向が床面に向けられた複数のカメラにより撮像された画像を取得する手段、
    前記複数のカメラによりそれぞれ撮像された撮像画像のうち、重複して撮像された重複撮像領域の少なくとも一部に基づいて、前記重複撮像領域に写し出された物体の視差を算出する手段、
    前記算出された視差が予め定められた閾値以上の物体を人物として検出する手段、
    前記検出された人物が含まれるパタン画像を抽出する手段、及び、
    前記抽出されたパタン画像と、前記カメラにより撮像された画像とのパタンマッチングにより、前記人物が移動する軌跡を追跡する手段、
    としてコンピュータを機能させることを特徴とする人物追跡プログラム。
JP2007217660A 2007-08-23 2007-08-23 人物追跡システム、人物追跡装置および人物追跡プログラム Expired - Fee Related JP4970195B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007217660A JP4970195B2 (ja) 2007-08-23 2007-08-23 人物追跡システム、人物追跡装置および人物追跡プログラム
US12/193,150 US8144929B2 (en) 2007-08-23 2008-08-18 Human pursuit system, human pursuit apparatus and human pursuit program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007217660A JP4970195B2 (ja) 2007-08-23 2007-08-23 人物追跡システム、人物追跡装置および人物追跡プログラム

Publications (2)

Publication Number Publication Date
JP2009055139A true JP2009055139A (ja) 2009-03-12
JP4970195B2 JP4970195B2 (ja) 2012-07-04

Family

ID=40382200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007217660A Expired - Fee Related JP4970195B2 (ja) 2007-08-23 2007-08-23 人物追跡システム、人物追跡装置および人物追跡プログラム

Country Status (2)

Country Link
US (1) US8144929B2 (ja)
JP (1) JP4970195B2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011059951A (ja) * 2009-09-09 2011-03-24 Toshiba Tec Corp 動線編集方法及び装置並びに動線編集プログラム
WO2011099072A1 (ja) * 2010-02-10 2011-08-18 株式会社 東芝 パターン識別装置
KR101223528B1 (ko) 2011-04-25 2013-01-21 한국과학기술원 협업 방식의 감시카메라 시스템 구동방법, 시스템 및 이를 위한 카메라
JP2013122670A (ja) * 2011-12-09 2013-06-20 Fujitsu Ltd 作業記録システム及び作業記録方法
WO2014199817A1 (ja) * 2013-06-14 2014-12-18 オムロン株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP2015187880A (ja) * 2015-05-25 2015-10-29 株式会社ニコン 検出装置
WO2019138537A1 (ja) * 2018-01-12 2019-07-18 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP2019186859A (ja) * 2018-04-16 2019-10-24 Kddi株式会社 接続装置、接続方法及び接続プログラム
JP2020530170A (ja) * 2017-08-07 2020-10-15 スタンダード コグニション コーポレーション 画像認識を用いた被写体識別及び追跡
CN113450236A (zh) * 2020-03-24 2021-09-28 浙江宇视科技有限公司 基于时空数据的可疑人员识别方法、装置、系统和介质
WO2022014327A1 (ja) * 2020-07-14 2022-01-20 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、およびプログラム
JP2022074009A (ja) * 2020-10-30 2022-05-17 学校法人東京理科大学 行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法
US11429985B2 (en) 2017-03-21 2022-08-30 Kabushiki Kaisha Toshiba Information processing device calculating statistical information
US11551079B2 (en) 2017-03-01 2023-01-10 Standard Cognition, Corp. Generating labeled training images for use in training a computational neural network for object or action recognition
US11790682B2 (en) 2017-03-10 2023-10-17 Standard Cognition, Corp. Image analysis using neural networks for pose and action identification
JP7420932B2 (ja) 2019-10-25 2024-01-23 セブン-イレブン インコーポレイテッド スケーラブル位置追跡システムを用いた位置の追跡

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8139818B2 (en) * 2007-06-28 2012-03-20 Toshiba Tec Kabushiki Kaisha Trajectory processing apparatus and method
JP5570176B2 (ja) 2009-10-19 2014-08-13 キヤノン株式会社 画像処理システム及び情報処理方法
WO2012108099A1 (ja) * 2011-02-09 2012-08-16 富士フイルム株式会社 撮像装置および撮像方法
AU2011265430B2 (en) * 2011-12-21 2015-03-19 Canon Kabushiki Kaisha 3D reconstruction of partially unobserved trajectory
CN103971359A (zh) * 2013-02-05 2014-08-06 株式会社理光 利用多个立体相机的对象检测结果定位对象的方法和装置
US11615460B1 (en) 2013-11-26 2023-03-28 Amazon Technologies, Inc. User path development
US10134004B1 (en) * 2014-12-23 2018-11-20 Amazon Technologies, Inc. Processing image data from a camera cluster
ES2719474T3 (es) 2014-12-31 2019-07-10 Akzo Nobel Coatings Int Bv Procedimiento para la preparación de dispersiones basadas en disolventes orgánicos, composiciones de revestimiento y sustrato metálico revestido útiles para aplicaciones de envasado
US10810539B1 (en) * 2015-03-25 2020-10-20 Amazon Technologies, Inc. Re-establishing tracking of a user within a materials handling facility
US11205270B1 (en) 2015-03-25 2021-12-21 Amazon Technologies, Inc. Collecting user pattern descriptors for use in tracking a movement of a user within a materials handling facility
US10679177B1 (en) * 2015-03-25 2020-06-09 Amazon Technologies, Inc. Using depth sensing cameras positioned overhead to detect and track a movement of a user within a materials handling facility
US10586203B1 (en) 2015-03-25 2020-03-10 Amazon Technologies, Inc. Segmenting a user pattern into descriptor regions for tracking and re-establishing tracking of a user within a materials handling facility
WO2018092881A1 (ja) * 2016-11-21 2018-05-24 日本電気株式会社 動線合成装置、動線合成方法および記録媒体
US11328513B1 (en) 2017-11-07 2022-05-10 Amazon Technologies, Inc. Agent re-verification and resolution using imaging
US11039084B2 (en) * 2017-11-14 2021-06-15 VergeSense, Inc. Method for commissioning a network of optical sensors across a floor space
CN109040539B (zh) * 2018-07-10 2020-12-01 京东方科技集团股份有限公司 图像采集装置、货架及图像识别方法
CN110969644B (zh) * 2018-09-28 2023-12-01 杭州海康威视数字技术股份有限公司 人员轨迹追踪方法、装置及系统
US11386306B1 (en) 2018-12-13 2022-07-12 Amazon Technologies, Inc. Re-identification of agents using image analysis and machine learning
CN110177258A (zh) * 2019-06-28 2019-08-27 Oppo广东移动通信有限公司 图像处理方法、装置、服务器及存储介质
CN110278413A (zh) * 2019-06-28 2019-09-24 Oppo广东移动通信有限公司 图像处理方法、装置、服务器以及存储介质
US11094042B1 (en) * 2021-03-12 2021-08-17 Flyreel, Inc. Face detection and blurring methods and systems

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1048008A (ja) * 1996-08-02 1998-02-20 Omron Corp 注目情報計測方法及び装置並びにそれを用いた各種システム
JP2004096402A (ja) * 2002-08-30 2004-03-25 Nec Corp 物体追跡装置、物体追跡方法および物体追跡プログラム
JP2005100388A (ja) * 2003-09-05 2005-04-14 Hitachi Kokusai Electric Inc 物体追跡方法
JP2006093955A (ja) * 2004-09-22 2006-04-06 Matsushita Electric Ind Co Ltd 映像処理装置
JP2006195504A (ja) * 2005-01-11 2006-07-27 Mitsubishi Electric Corp エリア管理システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3567066B2 (ja) * 1997-10-31 2004-09-15 株式会社日立製作所 移動体組合せ検出装置および方法
US6396535B1 (en) * 1999-02-16 2002-05-28 Mitsubishi Electric Research Laboratories, Inc. Situation awareness system
GB2352859A (en) * 1999-07-31 2001-02-07 Ibm Automatic zone monitoring using two or more cameras
US6442474B1 (en) * 2000-12-07 2002-08-27 Koninklijke Philips Electronics N.V. Vision-based method and apparatus for monitoring vehicular traffic events
US7688349B2 (en) * 2001-12-07 2010-03-30 International Business Machines Corporation Method of detecting and tracking groups of people
JP4125634B2 (ja) 2003-05-26 2008-07-30 Necソフト株式会社 顧客情報収集管理方法及びそのシステム
US7171024B2 (en) * 2003-12-01 2007-01-30 Brickstream Corporation Systems and methods for determining if objects are in a queue
JP2006209585A (ja) 2005-01-31 2006-08-10 Mitsubishi Electric Corp 防犯システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1048008A (ja) * 1996-08-02 1998-02-20 Omron Corp 注目情報計測方法及び装置並びにそれを用いた各種システム
JP2004096402A (ja) * 2002-08-30 2004-03-25 Nec Corp 物体追跡装置、物体追跡方法および物体追跡プログラム
JP2005100388A (ja) * 2003-09-05 2005-04-14 Hitachi Kokusai Electric Inc 物体追跡方法
JP2006093955A (ja) * 2004-09-22 2006-04-06 Matsushita Electric Ind Co Ltd 映像処理装置
JP2006195504A (ja) * 2005-01-11 2006-07-27 Mitsubishi Electric Corp エリア管理システム

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011059951A (ja) * 2009-09-09 2011-03-24 Toshiba Tec Corp 動線編集方法及び装置並びに動線編集プログラム
WO2011099072A1 (ja) * 2010-02-10 2011-08-18 株式会社 東芝 パターン識別装置
JP5349622B2 (ja) * 2010-02-10 2013-11-20 株式会社東芝 パターン識別装置
KR101223528B1 (ko) 2011-04-25 2013-01-21 한국과학기술원 협업 방식의 감시카메라 시스템 구동방법, 시스템 및 이를 위한 카메라
JP2013122670A (ja) * 2011-12-09 2013-06-20 Fujitsu Ltd 作業記録システム及び作業記録方法
WO2014199817A1 (ja) * 2013-06-14 2014-12-18 オムロン株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP2015002401A (ja) * 2013-06-14 2015-01-05 オムロン株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP2015187880A (ja) * 2015-05-25 2015-10-29 株式会社ニコン 検出装置
US11551079B2 (en) 2017-03-01 2023-01-10 Standard Cognition, Corp. Generating labeled training images for use in training a computational neural network for object or action recognition
US11790682B2 (en) 2017-03-10 2023-10-17 Standard Cognition, Corp. Image analysis using neural networks for pose and action identification
US11429985B2 (en) 2017-03-21 2022-08-30 Kabushiki Kaisha Toshiba Information processing device calculating statistical information
JP2020530170A (ja) * 2017-08-07 2020-10-15 スタンダード コグニション コーポレーション 画像認識を用いた被写体識別及び追跡
JP7228569B2 (ja) 2017-08-07 2023-02-24 スタンダード コグニション コーポレーション 画像認識を用いた被写体識別及び追跡
JPWO2019138537A1 (ja) * 2018-01-12 2020-12-17 日本電気株式会社 情報処理装置、制御方法、及びプログラム
WO2019138537A1 (ja) * 2018-01-12 2019-07-18 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US11803972B2 (en) 2018-01-12 2023-10-31 Nec Corporation Information processing apparatus, control method, and program for accurately linking fragmented trajectories of an object
JP2019186859A (ja) * 2018-04-16 2019-10-24 Kddi株式会社 接続装置、接続方法及び接続プログラム
JP7420932B2 (ja) 2019-10-25 2024-01-23 セブン-イレブン インコーポレイテッド スケーラブル位置追跡システムを用いた位置の追跡
CN113450236A (zh) * 2020-03-24 2021-09-28 浙江宇视科技有限公司 基于时空数据的可疑人员识别方法、装置、系统和介质
CN113450236B (zh) * 2020-03-24 2022-12-23 浙江宇视科技有限公司 基于时空数据的可疑人员识别方法、装置、系统和介质
WO2022014327A1 (ja) * 2020-07-14 2022-01-20 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、およびプログラム
JP2022074009A (ja) * 2020-10-30 2022-05-17 学校法人東京理科大学 行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法
JP7211601B2 (ja) 2020-10-30 2023-01-24 学校法人東京理科大学 行動軌跡推定装置、行動軌跡推定プログラムおよび行動軌跡推定方法

Also Published As

Publication number Publication date
US20090052739A1 (en) 2009-02-26
JP4970195B2 (ja) 2012-07-04
US8144929B2 (en) 2012-03-27

Similar Documents

Publication Publication Date Title
JP4970195B2 (ja) 人物追跡システム、人物追跡装置および人物追跡プログラム
US10909695B2 (en) System and process for detecting, tracking and counting human objects of interest
JP6549797B2 (ja) 通行人の頭部識別方法及びシステム
CN104303193B (zh) 基于聚类的目标分类
Hu et al. Principal axis-based correspondence between multiple cameras for people tracking
JP3753722B2 (ja) 歯牙映像からの歯牙領域の抽出方法及び歯牙映像を利用した身元確認方法及び装置
US9953225B2 (en) Image processing apparatus and image processing method
CN108805900B (zh) 一种跟踪目标的确定方法及装置
JP6286474B2 (ja) 画像処理装置および領域追跡プログラム
CN102915433B (zh) 基于字符组合的车牌定位和识别方法
JP2004058737A (ja) 駅ホームにおける安全監視装置
KR102406804B1 (ko) 딥러닝 기반 영상 내 객체 자동 검출 방법 및 시스템
Nyaruhuma et al. Verification of 2D building outlines using oblique airborne images
US20230274579A1 (en) Techniques for automatically identifying secondary objects in a stereo-optical counting system
Snidaro et al. Automatic camera selection and fusion for outdoor surveillance under changing weather conditions
JP3577875B2 (ja) 移動物体抽出装置
CN112513870A (zh) 用于利用改进的高度计算对感兴趣的人类对象进行检测、跟踪和计数的系统和方法
KR101560810B1 (ko) 템플릿 영상을 이용한 공간 관리 방법 및 장치
JP6851246B2 (ja) 物体検出装置
Tang Development of a multiple-camera tracking system for accurate traffic performance measurements at intersections
CN112446355B (zh) 一种公共场所行人识别方法及人流统计系统
US7346193B2 (en) Method for detecting object traveling direction
Benedek et al. Motion-based flexible camera registration
Yan et al. Multiview pedestrian localisation via a prime candidate chart based on occupancy likelihoods
JP2001357489A (ja) 走行車両検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4970195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees