JP2004096402A - 物体追跡装置、物体追跡方法および物体追跡プログラム - Google Patents

物体追跡装置、物体追跡方法および物体追跡プログラム Download PDF

Info

Publication number
JP2004096402A
JP2004096402A JP2002254493A JP2002254493A JP2004096402A JP 2004096402 A JP2004096402 A JP 2004096402A JP 2002254493 A JP2002254493 A JP 2002254493A JP 2002254493 A JP2002254493 A JP 2002254493A JP 2004096402 A JP2004096402 A JP 2004096402A
Authority
JP
Japan
Prior art keywords
feature amount
region
information
state
correspondence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002254493A
Other languages
English (en)
Other versions
JP4240957B2 (ja
Inventor
Hiroichi Koizumi
小泉 博一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2002254493A priority Critical patent/JP4240957B2/ja
Priority to EP03791330A priority patent/EP1538565A4/en
Priority to US10/525,874 priority patent/US20050254686A1/en
Priority to PCT/JP2003/010837 priority patent/WO2004021281A1/ja
Priority to CNB038247518A priority patent/CN1320502C/zh
Priority to KR1020057003601A priority patent/KR100664425B1/ko
Publication of JP2004096402A publication Critical patent/JP2004096402A/ja
Application granted granted Critical
Publication of JP4240957B2 publication Critical patent/JP4240957B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】複数の物体が画像上で重なり合った状態から分離してもなお画像領域に複数の物体が存在する場合や、分離する前後において画像上で重なり合う物体の組み合わせが入れ替わった場合でも、物体と物体領域との対応付けを誤ることのない物体追跡装置を提供する。
【解決手段】物体領域抽出部12は、画像入力端子11を介して画像情報を入力し、入力された画像情報から物体領域を抽出する。特徴量生成部14は、物体の特徴量と物体領域の特徴量とを生成する。特徴量合成部15は、複数の物体の特徴量を合成して合成特徴量を生成する。対応付け部17は、物体領域の特徴量と合成特徴量との類似度を算出して、算出した類似度に基づいて最適な物体と物体領域との対応付けを行う。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、画像情報に基づいて物体を追跡する物体追跡装置、物体追跡方法、および物体追跡プログラムに関し、特に、複数の物体が画像上で重なった場合にも追跡を継続できる物体追跡装置、物体追跡方法、および物体追跡プログラムに関する。
【0002】
【従来の技術】
ビデオカメラ等から時々刻々と入力される画像情報に基づいて人などの物体を追跡する物体追跡装置は、複数の物体が画像上で重なり合った場合にも追跡対象の物体の追跡を継続する必要がある。例えば、特開平06−169458号公報には、追跡中に複数の物体が交差した場合にも物体の追跡を継続できる物体追跡装置が記載されている。
【0003】
図14は、特開平06−169458号公報に記載された従来の物体追跡装置の構成を示すブロック図である。この物体追跡装置は、図14に示すように、画像入力端子40にビデオカメラ等から定期的に入力される画像情報から物体領域を抽出する物体領域抽出手段41、抽出された物体領域と後述する領域選択手段45が出力する追跡対象の物体領域とを比較して追跡対象の物体の状態を検出する追尾状態検出手段42、画像情報と追跡対象の物体領域とに基づいて物体の特徴量を生成する特徴量生成手段43、画像情報と物体領域抽出手段41が抽出した物体領域とに基づいて全ての物体領域の特徴量を生成するとともに、特徴量生成手段43から入力された物体の特徴量に最も近い特徴量の物体領域を選択する物体同定手段44、および追跡対象の物体領域を出力する領域選択手段45を含む。
【0004】
ここで、物体領域とは、画像における物体を含む領域である。追尾状態検出手段42が出力する追跡対象の物体の状態には、追跡対象の物体が他の物体と交差している状態である重なり状態と、追跡対象の物体が単独で存在し追跡されている状態である追跡状態とがある。また、特徴量生成手段43は、生成した特徴量を記憶する記憶手段を有し、さらに記憶手段が記憶する特徴量を更新する更新手段を含む。特徴量生成手段43は、物体の状態が追跡状態の場合には、記憶手段が記憶する特徴量を更新する。しかし、特徴量生成手段43は、物体の状態が重なり状態の場合には、記憶手段が記憶する特徴量を維持する。
【0005】
物体同定手段44は、物体の状態が重なり状態の場合にのみ、特徴量生成手段43が記憶している物体領域の特徴量に最も近い特徴量の物体領域を選択する。そして、領域選択手段45は、物体の状態が重なり状態から追跡状態に変化した場合に、物体同定手段44が選択した物体領域を追跡対象の物体領域として選択する。物体の状態が重なり状態から追跡状態に変化した場合以外の場合には、領域選択手段45は、物体領域抽出手段41が新たに抽出した全ての物体領域のうち、前回の追跡対象の物体領域の位置に最も近い位置にある物体領域を選択して出力する。そして、領域選択手段45は、選択した物体領域を新たな追跡対象の物体領域として出力する。なお、前回の追跡対象の物体領域とは、例えば、ビデオカメラ等から新たに入力された画像情報の1フレーム分前の画像情報に基づいて決定された追跡対象の物体領域である。
【0006】
このように、物体追跡装置は、物体の状態が追跡状態である場合には、新たに入力される画像情報を用いて物体領域の追跡を継続する。また、物体の状態が追跡状態から重なり状態に変化したときには、変化する直前の物体の特徴量が保存される。そして、物体の状態が重なり状態から追跡状態に変化したときに、物体同定手段44が選択していた物体領域を追跡対象の物体領域として、物体領域の追跡を継続する。従って、物体の状態が追跡状態から重なり状態に変化し、その後追跡状態に戻った場合に、物体領域の追跡を継続することができる。
【0007】
以上のように、従来の物体追跡装置は、重なり状態が解消したときに、重なり状態に変化する直前の物体の特徴量に基づいて物体と物体領域とを対応付けることによって、複数の物体が交差した場合でも物体領域の追跡を継続することができる。
【0008】
なお、Proceedings of the Fourth IEEE International Conference on  Automatic Face and Gesture Recognition March 28−30, 2000のp.348−p.353 に記載のTracking Interacting People (S.J.McKenna, S.Jabri, Z.Duric, H.Wechsler )には、交差中の物体が分離して重なり状態が解消された場合に、物体が各物体領域に属する確率を算出して、算出した確率が最も大きくなる物体領域に物体を対応付けることによって物体の追跡を継続する方法が記載されている。
【0009】
【発明が解決しようとする課題】
しかし、複数の個々の物体が交差して重なり状態になった後に重なり状態が解消したときに1つの物体領域に複数の物体が存在する場合や、重なり状態になる前と後とで1つの物体領域に存在する物体が入れ替わった場合には、重なり状態に変化する直前の物体の特徴量が、重なり状態が解消したとき後のいずれの物体の特徴量とも一致しないので、従来の物体追跡装置は、物体と物体領域との対応付けを誤る。例えば4人の個々の人間(A,B,C,D)が交差し、その後2人ずつのグループ(A,BのグループとC,Dのグループ)に分かれた場合や、2人の人間(A,B)と1人の人間(C)が交差した後に人間の組み合わせが入れ替わって1人(A)と2人(B,C)になった場合には、物体追跡装置は、物体と物体領域との対応付けを誤る。また、従来の物体追跡装置は個々の物体に対して最も類似している領域を選択しているが、物体全体として整合のとれた対応付けになるとは限らない。
【0010】
そこで、本発明の目的は、複数の物体が画像上で重なり合った状態から分離してもなお画像領域に複数の物体が存在する場合や、分離する前後において画像上で重なり合う物体の組み合わせが入れ替わった場合でも、物体と物体領域との対応付けを誤ることのない物体追跡装置、物体追跡方法および物体追跡プログラムを提供することを目的とする。また、物体と物体領域とを対応付ける際に、物体全体として最適な対応付けを選択できるようにすることも本発明の目的である。
【0011】
【課題を解決するための手段】
本発明による物体追跡装置は、画像情報に基づいて物体を追跡する物体追跡装置において、画像情報に含まれる各物体の特徴量を示す物体特徴量を合成して合成特徴量を生成する特徴量合成手段と、画像情報から抽出された領域であって物体を含む領域である物体領域の特徴量と合成特徴量との類似度に基づいて物体領域と物体とを対応付ける対応付け手段とを備えたことを特徴とする。
【0012】
特徴量合成手段が、複数の物体の必要な全ての組み合わせについて特徴量を合成して各合成特徴量を生成し、対応付け手段が、特徴量合成手段が生成した各合成特徴量と物体領域の特徴量を示す領域特徴量とを比較することによって物体と物体領域とを対応付けることが好ましい。そのような構成によれば、物体と物体領域とを対応付ける際に、最適な物体と物体領域との対応関係を選択できる。
【0013】
物体追跡装置が、画像情報から物体領域を抽出して物体領域の画像情報を含む物体領域情報を出力する物体領域抽出手段と、他の物体との相対的な位置関係を表す追跡状態を物体毎または物体領域毎に判定する追跡状態判定手段と、画像情報、物体領域情報および追跡状態判定手段の判定結果を用いて、領域特徴量および物体特徴量を生成する特徴量生成手段とを備え、特徴量合成手段が、物体特徴量および追跡状態判定手段の判定結果を用いて合成特徴量を生成するものであることが好ましい。そのような構成によれば、他の物体との相対的な位置関係に基づいて合成特徴量を生成できる。
【0014】
追跡状態判定手段が、物体領域情報と、現時刻以前の物体領域と物体との対応関係を示す確定対応情報とから、追跡状態を物体毎または物体領域毎に判定し、物体領域および物体と追跡状態との対応関係を示す第1の領域対応情報を出力し、特徴量生成手段が、現時刻の画像情報、物体領域情報、第1の領域対応情報および確定対応情報から、領域特徴量と物体特徴量とを生成し、特徴量合成手段が、物体特徴量と第1の領域対応情報とから、物体領域に対応付けられる候補となる各合成特徴量を生成し(すなわち、物体領域について物体の特徴量を合成し)、合成特徴量および合成特徴量生成のために用いられた物体と合成特徴量との対応関係を含む情報である合成特徴量情報を出力し、対応付け手段が、第1の領域対応情報、領域特徴量を示す情報である領域特徴量情報および合成特徴量情報から物体と物体領域とを対応付け、現時刻に対する確定対応情報を出力する対応確定手段を含むものであることが好ましい。そのような構成によれば、物体分離後に複数の物体が存在する場合や交差時に物体が入れ替わった場合に、物体と物体領域との対応づけを誤らないようにすることができる。
【0015】
物体追跡装置において、追跡状態が、物体領域内に1つの物体のみが存在する単独状態、物体領域内に複数の物体が対応する重なり状態、または物体領域が複数の物体領域に分かれる過渡的な状態である分離状態であることが好ましい。そのようにすれば、他の物体との相対的な位置関係を判定することができる。
【0016】
特徴量生成手段が、物体領域の色ヒストグラム、面積、画像テンプレートおよび面積で正規化された色ヒストグラムのいずれかまたはそれらの組み合わせを領域特徴量として生成し、物体に対応する物体領域を第1の領域対応情報から求め、その物体領域に対する色ヒストグラム、面積、画像テンプレートおよび面積で正規化された色ヒストグラムのいずれかまたはそれらの組み合わせを物体特徴量として生成するものであってもよい。
【0017】
追跡状態判定手段が、物体領域情報を記憶する物体領域記憶手段と、物体領域情報、確定対応情報、および物体領域記憶手段から出力される現時刻以前の物体領域情報とから物体を追跡し、物体と物体領域との対応を示す第2の領域対応情報を出力する物体追跡手段と、第2の領域対応情報、物体領域情報および現時刻以前の物体領域情報とから物体の追跡状態を判定し、第1の領域対応情報を出力する状態判定手段とを含むものであってもよい。
【0018】
状態判定手段が、第2の領域対応情報と物体領域情報とから、物体と物体領域との対応、物体領域間の距離、物体領域の分離中の継続時間のいずれかまたはそれらの組み合わせに基づいて、対応する物体領域に共通の領域が存在する物体同士をまとめ、これらの物体と対応する物体領域を1つのクラスに分類し、対応する物体領域がどの物体とも異なる物体については、その物体と対応する物体領域を1つのクラスに分類することによって、物体および物体領域を複数のクラスに分類し、分類したクラスに基づいて追跡状態を判定するものであってもよい。
【0019】
追跡状態が、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、状態判定手段が、分類したクラスに2以上の物体領域が含まれる場合に、クラスは分離状態である条件を満たすと判断し、クラスが分離状態である条件を満たす場合に、クラスに含まれる物体および物体領域の追跡状態を分離状態と判定するものであってもよい。
【0020】
状態判定手段が、分類したクラスが分離状態である条件を満たし、さらに、クラスに2以上の物体が含まれること、クラスに含まれる物体領域間の距離が予め決められた閾値以上であること、クラスに含まれる物体領域の分離中の継続時間が予め決められた閾値以上であることのいずれかまたはそれらの組み合わせを満たす場合に、クラスに含まれる物体および物体領域の追跡状態を分離状態と判定するように構成されていてもよい。そのような構成によれば、他の物体との相対的な位置関係が分離状態であると誤って判定するのを防止できる。
【0021】
追跡状態が、分離状態と物体領域内に1つの物体のみが存在する単独状態とを含み、状態判定手段が、分類したクラスが1つの物体を含み、クラスに含まれる物体および物体領域の追跡状態が分離状態でない場合に、クラスに含まれる物体および物体領域の追跡状態を単独状態と判定するように構成されていてもよい。
【0022】
追跡状態が、分離状態と、物体領域内に複数の物体が対応する重なり状態とを含み、状態判定手段が、分類したクラスが2以上の物体を含み、クラスに含まれる物体および物体領域の追跡状態が分離状態でない場合に、クラスに含まれる物体および物体領域の追跡状態を重なり状態と判定するように構成されていてもよい。
【0023】
特徴量生成手段が、画像情報と物体領域情報と第1の領域対応情報とから領域特徴量を抽出し、領域特徴量を示す情報である領域特徴量情報を出力する特徴量抽出手段と、物体特徴量を記憶し、要求に応じて、記憶する物体特徴量を選択する特徴量記憶手段と、領域特徴量情報、第1の領域対応情報あるいは確定対応情報および現時刻より以前に生成した物体特徴量とから、特徴量記憶手段が記憶する物体特徴量を更新する特徴量更新手段とを含むように構成されていてもよい。
【0024】
追跡状態が、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、特徴量抽出手段が、追跡状態が分離状態以外である場合には、物体との対応付けが不要であることを示す情報を領域特徴量情報に含め、対応確定手段が、領域特徴量情報によって物体との対応付けが不要であることが示されている物体領域を対応付けの対象から除外するように構成されていてもよい。そのような構成によれば、類似度の算出のための計算量を削減できる。
【0025】
追跡状態が、物体領域内に1つの物体のみが存在する単独状態を含み、特徴量更新手段が、第1の領域対応情報あるいは確定対応情報から物体の追跡状態が単独状態であるかを判定し、物体の追跡状態が単独状態以外の場合には、特徴量記憶手段が記憶する物体特徴量を更新しないように構成されていてもよい。
【0026】
特徴量合成手段が、特徴量生成手段が生成する物体特徴量と第1の領域対応情報とに基づいて、組み合わせが可能な物体と物体領域との全ての組み合わせを決定し、決定した物体と物体領域との組み合わせについてのみ、物体特徴量を合成して合成特徴量を生成するように構成されていてもよい。そのような構成によれば、不要な合成特徴量の生成の処理を削減できる。
【0027】
特徴量合成手段が、物体特徴量を合成する割合を補正するための係数である合成比率を求め、合成比率と物体特徴量とから合成特徴量を生成するように構成されていてもよい。そのような構成によれば、画像上での物体の大きさが実際の物体の大きさとは異なる場合に、物体の大きさに基づく誤差を補正できる。
【0028】
特徴量合成手段は、特徴量生成手段から物体特徴量とともに領域特徴量を入力し、入力した領域特徴量情報と物体の特徴量とに基づいて任意の合成比率に応じて合成特徴量を算出し、算出した合成特徴量と領域特徴量との類似度が最も高くなる場合の合成比率に応じた合成特徴量を出力するように構成されていてもよい。そのような構成によれば、物体と物体領域との各組み合わせに対して1つの合成特徴量のみに基づいて類似度を算出すればよく、無駄な算出処理を省くことができる。
【0029】
追跡状態が、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、特徴量合成手段が、追跡状態が分離状態であることが示されている物体領域についてのみ合成特徴量を生成するように構成されていてもよい。そのような構成によれば、不要な合成特徴量の生成の処理を削減できる。
【0030】
物体特徴量が、物体の面積を含み、特徴量合成手段が、物体特徴量に含まれる物体の面積から物体特徴量を合成する割合を補正するための係数である合成比率を求め、合成比率と物体特徴量とから合成特徴量を生成するように構成されていてもよい。そのような構成によれば、合成比率の算出のための計算量を削減できる。
【0031】
特徴量合成手段が、合成比率を、物体の面積の変化に基づく所定範囲内に制限するように構成されていてもよい。そのような構成によれば、画像上での物体の面積が変化する場合でも、正しい合成比率を求めることができる。
【0032】
特徴量合成手段は、特徴量生成手段から物体特徴量とともに領域特徴量を入力し、入力された領域特徴量と物体特徴量とから、物体の面積変化の範囲内で合成特徴量を生成し、物体領域との類似度が最も高くなる合成特徴量を出力するように構成されていてもよい。そのような構成によれば、物体の各組み合わせに対して1つの合成特徴量を出力するだけでよく、無駄な処理を省くことができる。
【0033】
物体特徴量が、画像テンプレートを含み、特徴量合成手段が、画像テンプレートと領域特徴量とから各物体の前後関係を判定し、判定した各物体の前後関係に基づいて画像テンプレートを合成するように構成されていてもよい。そのような構成によれば、物体が他の物体の背後に部分的に隠れている場合でも、物体と物体領域の対応関係を正しく算出することができる。
【0034】
対応確定手段が、合成特徴量情報、領域特徴量情報および第1の領域対応情報に基づいて、物体と物体領域との組み合わせのうち対応付けられる可能性のある全ての可能な組み合わせから最も類似した組み合わせを求め、求められた物体と物体領域との組み合わせを最適な対応付けとして選択して、物体と物体領域との最適な対応関係を示す最適対応情報を生成する対応計算手段と、第1の領域対応情報および最適対応情報に基づいて、物体と物体領域との対応関係を確定し、確定した物体と物体領域との対応関係を含む情報である確定対応情報を出力する対応決定手段とを含むように構成されていてもよい。そのような構成によれば、物体と物体領域とを対応付ける際に、最適な物体と物体領域との対応関係を選択できる。
【0035】
対応計算手段が、物体と物体領域との全ての可能な組み合わせについて、各組み合わせにおける物体領域の特徴量と合成特徴量との類似度の合計である合計類似度を求め、全ての可能な組み合わせのうち、合計類似度が最大となる組み合わせを最も類似した組み合わせとするように構成されていてもよい。
【0036】
第1の領域対応情報が、物体領域が静止している状態であるか動作している状態であるかを示す静動状態の情報を含み、対応計算手段が、静動状態の情報によって静止している状態であることが示されている物体領域と物体との組み合わせを、全ての可能な組み合わせから除外するように構成されていてもよい。そのような構成によれば、静動状態が静止状態を示す物体領域がどの物体とも対応付かない組み合わせのみ計算することにより、対応計算手段の計算量を削減することができる。
【0037】
対応計算手段が、最も類似した組み合わせとして決定した組み合わせを構成する物体と物体領域との組の類似度から得られる組み合わせ類似度が予め決められた閾値以下である場合には、物体と物体領域との全ての可能な組み合わせのうち、組み合わせ類似度が最大となる組み合わせの組み合わせ類似度から予め決められた閾値以内の組み合わせ類似度を持つ組み合わせを選択し、選択した組み合わせに共通して存在する物体と物体領域との対応関係を、最適な対応付けとして最適対応情報に含め、共通して存在する物体と物体領域との対応関係に含まれない物体と物体領域については、物体と物体領域には最適な対応がないことを示す情報を最適対応情報に含め、対応決定手段が、最適な物体と物体領域との対応関係がない旨が最適対応情報に示されていない物体については、その最適対応情報に含まれる物体と物体領域との対応関係を示す情報を確定対応情報として出力し、最適な物体と物体領域との対応関係がない旨が最適対応情報に示されている物体については、第1の領域対応情報に含まれる物体と物体領域との対応関係を示す情報を確定対応情報として出力するように構成されてもよい。そのような構成によれば、誤った物体と物体領域との対応関係を選択するのを防止できる。
【0038】
追跡状態が、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、対応決定手段が、追跡状態として分離状態が示されている物体領域についてのみ、最適対応情報に示される物体と物体領域との対応関係を確定するように構成されていてもよい。そのような構成によれば、物体と物体領域との対応関係の確定の処理を削減できる。
【0039】
追跡状態が、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、対応決定手段が、追跡状態として分離状態以外の状態が示されている物体領域についてのみ、第1の領域対応情報に含まれる物体と物体領域との対応を確定対応情報として出力するように構成されていてもよい。そのような構成によれば、物体と物体領域との対応関係の確定の処理を削減できる。
【0040】
本発明による物体追跡方法は、画像情報に基づいて物体を追跡する物体追跡方法において、画像情報に含まれる各物体の特徴量を示す物体特徴量を合成して合成特徴量を生成し、画像情報から抽出された領域であって物体を含む領域である物体領域の特徴量と合成特徴量との類似度に基づいて物体領域と物体とを対応付けることを特徴とする。
【0041】
物体追跡方法は、複数の物体の必要な全ての組み合わせについて特徴量を合成して各合成特徴量を生成し、生成された各合成特徴量と物体領域の特徴量を示す領域特徴量とを比較することによって物体と物体領域とを対応付けることが好ましい。そのような方法によれば、物体と物体領域とを対応付ける際に、最適な物体と物体領域との対応関係を選択できる。
【0042】
物体追跡方法は、画像情報から物体領域を抽出して物体領域の画像情報を含む物体領域情報を出力し、他の物体との相対的な位置関係を表す追跡状態を物体毎または物体領域毎に判定し、画像情報、物体領域情報および判定結果を用いて、領域特徴量および物体特徴量を生成し、物体特徴量および判定結果を用いて合成特徴量を生成することが好ましい。そのような方法によれば、他の物体との相対的な位置関係に基づいて、合成特徴量を生成できる。
【0043】
物体追跡方法は、物体領域情報と、現時刻以前の物体領域と物体との対応関係を示す確定対応情報とから、追跡状態を物体毎または物体領域毎に判定し、物体領域および物体と追跡状態との対応関係を示す第1の領域対応情報を出力し、現時刻の画像情報、領域特徴量を示す情報である領域特徴量情報、第1の領域対応情報および確定対応情報から、領域特徴量と物体特徴量とを生成し、物体特徴量と第1の領域対応情報とから、物体領域に対応付けられる候補となる各合成特徴量を生成して、合成特徴量および合成特徴量生成のために用いられた物体と合成特徴量との対応関係を含む情報である合成特徴量情報を出力し、第1の領域対応情報、領域特徴量情報および合成特徴量情報から物体と物体領域とを対応付け、現時刻に対する確定対応情報を出力することが好ましい。そのような方法によれば、物体分離後に複数の物体が存在する場合や交差時に物体が入れ替わった場合に、物体と物体領域との対応づけを誤らないようにすることができる。
【0044】
物体追跡方法において、追跡状態は、物体領域内に1つの物体のみが存在する単独状態、物体領域内に複数の物体が対応する重なり状態、または物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含む。
【0045】
物体追跡方法は、物体領域の色ヒストグラム、面積、画像テンプレートおよび面積で正規化された色ヒストグラムのいずれかまたはそれらの組み合わせを領域特徴量として生成し、物体に対応する物体領域を第1の領域対応情報から求め、その物体領域に対する色ヒストグラム、面積、画像テンプレートおよび面積で正規化された色ヒストグラムのいずれかまたはそれらの組み合わせを物体特徴量として生成するように構成されていてもよい。
【0046】
物体追跡方法は、物体領域情報を記憶し、物体領域情報、確定対応情報、および現時刻以前の物体領域情報とから物体を追跡し、物体と物体領域との対応を示す第2の領域対応情報を出力し、第2の領域対応情報、物体領域情報および現時刻以前の物体領域情報とから物体の追跡状態を判定して第1の領域対応情報を出力するように構成されていてもよい。
【0047】
物体追跡方法は、第2の領域対応情報と物体領域情報とから、物体と物体領域との対応、物体領域間の距離、物体領域の分離中の継続時間のいずれかまたはそれらの組み合わせに基づいて、対応する物体領域に共通の領域が存在する物体同士をまとめ、これらの物体と対応する物体領域を1つのクラスに分類し、対応する物体領域がどの物体とも異なる物体については、その物体と対応する物体領域を1つのクラスに分類することによって、物体および物体領域を複数のクラスに分類し、分類したクラスに基づいて追跡状態を判定するように構成されていてもよい。
【0048】
追跡状態は、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、物体追跡方法は、分類したクラスに2以上の物体領域が含まれる場合に、クラスは分離状態である条件を満たすと判断し、クラスが分離状態である条件を満たす場合に、クラスに含まれる物体および物体領域の追跡状態を分離状態と判定するように構成されていてもよい。
【0049】
物体追跡方法は、分類したクラスが分離状態である条件を満たし、さらに、クラスに2以上の物体が含まれること、クラスに含まれる物体領域間の距離が予め決められた閾値以上であること、クラスに含まれる物体領域の分離中の継続時間が予め決められた閾値以上であることのいずれかまたはそれらの組み合わせを満たす場合に、クラスに含まれる物体および物体領域の追跡状態を分離状態と判定するように構成されていてもよい。そのような方法によれば、他の物体との相対的な位置関係が分離状態であると誤って判定するのを防止できる。
【0050】
追跡状態は、分離状態と、物体領域内に1つの物体のみが存在する単独状態とを含み、物体追跡方法は、分類したクラスが1つの物体を含み、クラスに含まれる物体および物体領域の追跡状態が分離状態でない場合に、クラスに含まれる物体および物体領域の追跡状態を単独状態と判定するように構成されていてもよい。
【0051】
追跡状態は、分離状態と、物体領域内に複数の物体が対応する重なり状態とを含み、物体追跡方法は、分類したクラスが2以上の物体を含み、クラスに含まれる物体および物体領域の追跡状態が分離状態でない場合に、クラスに含まれる物体および物体領域の追跡状態を重なり状態と判定するように構成されていてもよい。
【0052】
物体追跡方法は、画像情報と物体領域情報と第1の領域対応情報とから領域特徴量を抽出し、領域特徴量を示す情報である領域特徴量情報を出力し、物体特徴量を記憶し、要求に応じて、記憶している物体特徴量を選択して出力し、領域特徴量情報と、第1の領域対応情報あるいは確定対応情報に基づいて記憶する物体特徴量を選択し、領域特徴量情報と確定対応情報と現時刻より以前に生成した物体特徴量とから、記憶される物体特徴量を更新するように構成されていてもよい。
【0053】
物体追跡方法は、追跡状態が、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、追跡状態が分離状態以外である場合には、物体との対応付けが不要であることを示す情報を領域特徴量情報に含め、領域特徴量情報によって物体との対応付けが不要であることが示されている物体領域を対応付けの対象から除外するように構成されていてもよい。そのような方法によれば、類似度の算出のための計算量を削減できる。
【0054】
物体追跡方法は、追跡状態が物体領域内に1つの物体のみが存在する単独状態を含み、第1の領域対応情報あるいは確定対応情報から物体の追跡状態が単独状態であるかを判定し、物体の追跡状態が単独状態でない場合には、記憶される物体特徴量を更新しないように構成されていてもよい。そのような方法によれば、不要な物体特徴量の更新の処理を削減できる。
【0055】
物体追跡方法は、生成された物体特徴量と第1の領域対応情報とに基づいて、組み合わせが可能な物体と物体領域との全ての組み合わせを決定し、決定した物体と物体領域との組み合わせについてのみ、物体特徴量を合成して合成特徴量を生成するように構成されていてもよい。そのような方法によれば、不要な合成特徴量の生成の処理を削減できる。
【0056】
物体追跡方法は、物体特徴量を合成する割合を補正するための係数である合成比率を求め、合成比率と物体特徴量とから合成特徴量を生成するように構成されていてもよい。そのような方法によれば、画像上での物体の大きさが実際の物体の大きさとは異なる場合に、物体の大きさに基づく誤差を補正できる。
【0057】
物体追跡方法は、物体特徴量とともに領域特徴量を入力し、入力した領域特徴量情報と物体の特徴量とに基づいて任意の合成比率に応じて合成特徴量を算出し、算出した合成特徴量と領域特徴量との類似度が最も高くなる場合の合成比率に応じた合成特徴量を出力するように構成されていてもよい。そのような構成によれば、物体と物体領域との各組み合わせに対して1つの合成特徴量のみに基づいて類似度を算出すればよく、無駄な算出処理を省くことができる。
【0058】
物体追跡方法は、追跡状態が物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、追跡状態が分離状態であることが示されている物体領域についてのみ合成特徴量を生成するように構成されていてもよい。そのような方法によれば、不要な合成特徴量の生成の処理を削減できる。
【0059】
物体追跡方法は、物体特徴量が物体の面積を含み、物体特徴量に含まれる物体の面積から物体特徴量を合成する割合を補正するための係数である合成比率を求め、合成比率と物体特徴量とから合成特徴量を生成するように構成されていてもよい。そのような方法によれば、合成比率の算出のための計算量を削減できる。
【0060】
物体追跡方法は、合成比率を、物体の面積の変化に基づく所定範囲内に制限するように構成されていてもよい。そのような方法によれば、画像上での物体の面積が変化する場合でも、正しい合成比率を求めることができる。
【0061】
物体追跡方法は、物体特徴量とともに領域特徴量を入力し、入力された領域特徴量と物体特徴量とから、物体の面積変化の範囲内で合成特徴量を生成し、物体領域との類似度が最も高くなる合成特徴量を出力するように構成されていてもよい。そのような構成によれば、物体の各組み合わせに対して1つの合成特徴量を出力するだけでよく、無駄な処理を省くことができる。
【0062】
物体追跡方法は、物体特徴量が画像テンプレートを含み、特徴量合成手段が、画像テンプレートと領域特徴量とから各物体の前後関係を判定し、判定した各物体の前後関係に基づいて画像テンプレートを合成するように構成されていてもよい。そのような構成によれば、物体が他の物体の背後に部分的に隠れている場合でも、物体と物体領域の対応関係を正しく算出することができる。
【0063】
物体追跡方法は、合成特徴量情報、領域特徴量情報および第1の領域対応情報に基づいて、物体と物体領域との組み合わせのうち対応付けられる可能性のある全ての可能な組み合わせから最も類似した組み合わせを求め、求められた物体と物体領域との組み合わせを最適な対応付けとして選択して、物体と物体領域との最適な対応関係を示す最適対応情報を生成し、第1の領域対応情報および最適対応情報に基づいて、物体と物体領域との対応関係を確定し、確定した物体と物体領域との対応関係を含む情報である確定対応情報を出力するように構成されていてもよい。
【0064】
物体追跡方法は、物体と物体領域との全ての可能な組み合わせについて、各組み合わせにおける物体領域の特徴量と合成特徴量との類似度の合計である合計類似度を求め、全ての可能な組み合わせのうち、合計類似度が最大となる組み合わせを最も類似した組み合わせとするように構成されていてもよい。
【0065】
物体追跡方法は、第1の領域対応情報が、物体領域が静止している状態であるか動作している状態であるかを示す静動状態の情報を含み、静動状態の情報によって静止している状態であることが示されている物体領域と物体との組み合わせを、全ての可能な組み合わせから除外するように構成されていてもよい。そのような構成によれば、静動状態が静止状態を示す物体領域がどの物体とも対応付かない組み合わせのみ計算することにより、計算量を削減することができる。
【0066】
物体追跡方法は、最も類似した組み合わせとして決定した組み合わせを構成する物体と物体領域との組の類似度から得られる組み合わせ類似度が予め決められた閾値以下である場合には、物体と物体領域との全ての可能な組み合わせのうち、組み合わせ類似度が最大となる組み合わせの組み合わせ類似度から予め決められた閾値以内の組み合わせ類似度を持つ組み合わせを選択し、選択した組み合わせに共通して存在する物体と物体領域との対応関係を、最適な対応付けとして最適対応情報に含め、共通して存在する物体と物体領域との対応関係に含まれない物体と物体領域については、物体と物体領域には最適な対応がないことを示す情報を最適対応情報に含め、最適な物体と物体領域との対応関係がない旨が最適対応情報に示されていない物体については、その最適対応情報に含まれる物体と物体領域との対応関係を示す情報を確定対応情報として出力し、最適な物体と物体領域との対応関係がない旨が最適対応情報に示されている物体については、第1の領域対応情報に含まれる物体と物体領域との対応関係を示す情報を確定対応情報として出力するように構成されていてもよい。そのような方法によれば、誤った物体と物体領域との対応関係を選択するのを防止できる。
【0067】
物体追跡方法は、追跡状態として分離状態が示されている物体領域についてのみ、最適対応情報に示される物体と物体領域との対応関係を確定するように構成されていてもよい。そのような方法によれば、物体と物体領域との対応関係の確定の処理を削減できる。
【0068】
物体追跡方法は、追跡状態として分離状態以外の状態が示されている物体領域についてのみ、第1の領域対応情報に含まれる物体と物体領域との対応を確定対応情報として出力するように構成されていてもよい。そのような方法によれば、物体と物体領域との対応関係の確定の処理を削減できる。
【0069】
本発明による物体追跡プログラムは、画像情報に基づいて物体を追跡する物体追跡プログラムであって、コンピュータに、画像情報を入力する処理と、入力された画像情報に含まれる各物体の特徴量を示す物体特徴量を合成して合成特徴量を生成する処理と、画像情報から抽出された領域であって物体を含む領域である物体領域の特徴量と合成特徴量との類似度に基づいて物体領域と物体とを対応付ける処理とを実行させることを特徴とする。
【0070】
本発明による他の態様の物体追跡プログラムは、入力された画像情報における物体と物体領域とを対応付ける物体追跡プログラムであって、コンピュータに、画像情報を入力する処理と、入力された画像情報から物体領域を抽出して物体領域の画像情報を含む物体領域情報を出力する処理と、物体領域情報と、現時刻以前の物体領域と物体との対応関係を示す確定対応情報とから、追跡状態を物体毎または物体領域毎に判定し、物体領域および物体と追跡状態との対応関係を示す第1の領域対応情報を出力する処理と、画像情報、物体領域情報および第1の領域対応情報を用いて、物体領域の特徴量を示す領域特徴量および物体の特徴量を示す物体特徴量を生成する処理と、物体特徴量と第1の領域対応情報とから、複数の物体の必要な全ての組み合わせについて特徴量を合成して各合成特徴量を生成し、合成特徴量および合成特徴量生成のために用いられた物体と合成特徴量との対応関係を含む情報である合成特徴量情報を出力する処理と、第1の領域対応情報、領域特徴量情報および合成特徴量情報から物体と物体領域とを対応付け、現時刻に対する確定対応情報を出力する処理とを実行させるように構成されていてもよい。
【0071】
本発明によるさらに他の態様の物体追跡プログラムは、入力された画像情報における物体と物体領域とを対応付ける物体追跡プログラムであって、コンピュータに、画像情報を入力する処理と、物体領域情報と、現時刻以前の物体領域と物体との対応関係を示す確定対応情報とから、追跡状態を物体毎または物体領域毎に判定し、物体領域および物体と追跡状態との対応関係を示す第1の領域対応情報を出力する処理と、画像情報、物体領域情報および第1の領域対応情報を用いて、物体領域の特徴量を示す領域特徴量および物体の特徴量を示す物体特徴量を生成する処理と、各物体を対象として、追跡状態が、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態以外の状態であると判定されている物体について、第1の領域対応情報に含まれる物体と物体領域との対応を、物体と物体領域との対応として確定し、追跡状態が分離状態であると判定されている物体について、物体特徴量と第1の領域対応情報とから複数の物体の必要な全ての組み合わせについて特徴量を合成して各合成特徴量を生成し、各合成特徴量と領域特徴量とを比較し、最も類似度が高い合成特徴量に対応した物体と物体領域とを対応付ける処理とを実行させるように構成されていてもよい。
【0072】
【発明の実施の形態】
実施の形態1.
本発明の第1の実施の形態を図面を用いて説明する。図1は、本発明による物体追跡装置の構成の一例を示すブロック図である。図1に示すように、物体追跡装置は、ビデオカメラ等から時々刻々と画像情報が入力される画像入力端子11、画像入力端子11に入力される画像情報から物体領域を抽出する物体領域抽出部12、画像入力端子11に入力される画像情報に基づいて物体の特徴量と物体領域の特徴量とを生成する特徴量生成部14、複数の物体の特徴量を合成して新たな特徴量を生成する特徴量合成部15、および物体と物体領域との対応付けを行う対応付け部17を含む。
【0073】
なお、物体領域抽出部12、特徴量生成部14、特徴量合成部15および対応付け部17は、ハードウェアでも実現可能であるが、ソフトウェアでも実現可能である。すなわち、物体領域抽出部12、特徴量生成部14、特徴量合成部15および対応付け部17を、プログラムに基づいて処理を実行するCPUと、以下に説明する物体領域抽出部12、特徴量生成部14、特徴量合成部15および対応付け部17の機能を実現するために記憶装置に格納されているプログラムとで実現することができる。
【0074】
物体追跡装置は、ビデオカメラなどを用いて予め特定された範囲(以下、追跡範囲という。)の画像を連続して撮影して、撮影した画像内に映る物体を認識することによって物体を追跡する。
【0075】
例えば、ビデオカメラは動かないように固定され、ビデオカメラは予め決められた範囲の画像を連続して撮影する。なお、ビデオカメラは、上下方向や左右方向に撮影範囲を変更することができるものであってもよい。また、ビデオカメラを用いて画像を連続して撮影するのでなく、一定の時間の間隔で画像を撮像する他の撮像装置を用いてもよい。例えば、デジタルカメラなど静止画として画像情報を取り込む装置を用いてもよい。
【0076】
物体領域とは、画像における物体を含む領域である。物体領域は、例えば、以下のようにして抽出される。すなわち、ビデオカメラ等に、予め全く物体が存在していないときに追跡範囲を撮影させ、物体領域抽出部12は、撮影された画像の情報を背景画像情報として背景画像記憶部に記憶する。そして、物体領域抽出部12は、画像入力端子11に入力される画像情報と背景画像記憶部に記憶されている背景画像情報とを画素単位で比較し画素値の差分を算出して、算出した差分が予め決められた閾値以上である画素(以下、物体画素という。)を抽出する。物体領域抽出部12は、抽出した物体画素のうち互いに隣接する物体画素を全て選択する。物体領域抽出部12は、選択した物体画素同士をつなぎ合わせて領域を抽出する。そして、物体領域抽出部12は、抽出した領域に領域番号を付与して物体領域として出力する。
【0077】
なお、背景画像記憶部は、背景画像情報を1つだけ記憶するのでなく、複数の背景画像情報を記憶してもよい。例えば、追跡範囲が屋外である場合には、背景画像記憶部は、日中に撮像した背景画像情報(以下、日中画像という。)と夜間に撮像した背景画像情報(以下、夜間画像という。)とを記憶し、日中は日中画像を用い、夜間は夜間画像を用いるようにしてもよい。
【0078】
追跡対象の物体の形状などの特徴が既知である場合には、物体追跡装置は、背景画像記憶部を有するのではなく、予め物体の形状や色や動作などの情報を物体モデルの情報として記憶する物体モデル記憶装置を有してもよい。そして、物体領域抽出部12は、入力された画像情報と物体モデル記憶装置が記憶する物体モデルとを照合し、物体モデルに整合する領域を物体領域として抽出してもよい。
【0079】
特徴量とは、物体と物体領域とを対応付ける際に用いられる量である。特徴量には、物体領域の特徴量と物体の特徴量との2種類が存在する。物体領域の特徴量は、各物体領域から求められる特徴量を示し、物体の特徴量は物体を構成する物体領域の集合から求められる特徴量を示す。
【0080】
特徴量生成部14は、例えば、物体領域の色ヒストグラムを算出する。そして、算出した物体領域の色ヒストグラムを物体領域の特徴量として出力する。なお、物体領域の特徴量は、物体領域の面積であってもよく、また、画像テンプレートなどでもよい。また、面積で正規化した色ヒストグラムでもよい。さらに、色ヒストグラム、面積、画像テンプレートおよび面積で正規化された色ヒストグラムのうちの2つ以上の組み合わせであってもよい。
【0081】
物体の特徴量は物体を構成する物体領域の集合から求められる特徴量であるから、物体の特徴量も、色ヒストグラム、面積、画像テンプレートおよび面積で正規化された色ヒストグラムのいずれかまたはそれらの組み合わせで表される。
【0082】
特徴量生成部14は、物体領域の特徴量に基づいて物体の特徴量を算出する。物体領域の特徴量は各物体領域から求められる特徴量であり、物体の特徴量は物体を構成する物体領域の集合から求められる特徴量である。すなわち、物体が1つの物体領域に対応している場合には、物体の特徴量は、物体領域の特徴量に基づいて決定され、物体が複数の物体領域から構成されている場合には、物体の特徴量は、それらの物体領域の特徴量を合成したものから決定される。
【0083】
なお、物体領域抽出部12は、画像情報から物体領域を抽出して物体領域の画像情報を含む物体領域情報を出力する物体領域抽出手段の具体的な一例(具体例)である。また、特徴量生成部14は、領域特徴量および物体特徴量を生成する特徴量生成手段の具体例であり、特徴量合成部15は、複数の物体の必要な全ての組み合わせについて特徴量を合成して各合成特徴量を生成する特徴量合成手段の具体例である。
【0084】
図2は、対応付け部17の構成の一例を示すブロック図である。図2に示すように、対応付け部17は、追跡状態判定部13と対応確定部16とを含む。追跡状態判定部13は、物体と物体領域との対応付けを行って追跡状態を判定する。対応確定部16は、物体の追跡状態に基づいて物体と物体領域との対応付けを確定する。
【0085】
なお、追跡状態とは、他の物体との重なりや分離などの他の物体との相対的な位置関係を示す状態である。追跡状態として、例えば、物体領域内に1つの物体のみが存在する単独状態、物体領域内に複数の物体が対応する重なり状態、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態がある。すなわち、本実施の形態では、追跡状態には、単独状態、重なり状態および分離状態が含まれる。一般に、重なり状態から分離状態を経て単独状態に遷移する。
【0086】
また、追跡状態判定部13は、他の物体との相対的な位置関係を表す追跡状態を物体毎または物体領域毎に判定する追跡状態判定手段の具体例である。また、対応確定部16は、物体を含む領域である物体領域の特徴量と合成特徴量との類似度に基づいて物体領域と物体とを対応付ける対応付け手段、および現時刻に対する確定対応情報を出力する対応確定手段の具体例である。
【0087】
本実施の形態では、以下に説明するように、物体の特徴量を用いて物体領域に対応する特徴量を合成し、物体と物体領域の対応付けを行うことによって、合成しない場合に比べて物体領域中の物体判定の信頼性を高めることができる。また、特に、重なり状態が解消された際の物体と物体領域との対応付けにおいて、複数の物体の特徴量を合成し、合成特徴量を用いて分離後の物体領域に複数の物体が存在した場合の物体と物体領域との特徴量の類似度を求めるので、分離後の領域に複数の物体が存在する場合や物体の交差時に物体が入れ替わった場合でも、物体と物体領域との対応づけを誤らない。
【0088】
次に、図3のフローチャートを参照して本実施の形態の動作を説明する。図3は、本発明による物体追跡装置の処理経過の一例を示すフローチャートである。
【0089】
物体領域抽出部12は、画像入力端子11を介して画像情報を入力する(ステップS301)。物体領域抽出部12は、入力された画像情報から物体領域を抽出する(ステップS302)。そして、物体領域抽出部12は、物体領域の画像情報(物体領域画像情報)を含む物体領域情報を出力する。
【0090】
追跡状態判定部13は、物体領域抽出部12が出力する物体領域情報を記憶する。追跡状態判定部13は、物体領域抽出部12が出力した現時刻の物体領域情報と、追跡状態判定部13自身が記憶する過去の物体領域情報と、対応確定部16から入力される過去の確定対応情報とに基づいて、物体を追跡することで物体と物体領域とを対応付け、物体と物体領域との追跡状態を物体毎に、または物体領域毎に判定する。なお、以下、物体を着目しているときには物体の追跡状態と表現し、物体領域に着目しているときには物体領域の追跡状態と表現するが、物体と物体領域とが対応付けされている場合には、それらの表現は実質的に同義である。
【0091】
そして、追跡状態判定部13は、第1の領域対応情報を出力する(ステップS303)。第1の領域対応情報は、物体と物体領域との対応関係と、追跡状態とを示す情報(物体領域および物体と追跡状態との対応関係を示す情報)である。また、確定対応情報とは、対応確定部16によって確定された物体と物体領域との対応関係を示す情報である。対応確定部16が物体と物体領域との対応関係を確定する手順は後述する。
【0092】
図4は、第1の領域対応情報の例を示す説明図である。第1の領域対応情報は、例えば、物体領域情報にα,β,γの3つの物体領域の画像情報が存在し、4つの物体A,B,C,Dの存在している場合,図4(c)に示すような物体領域α、β、γと物体A、B、C、Dとの対応を示すために、各物体領域に対する物体および追跡状態との対応関係を示す図4(a)に示すような情報である。また、例えば図4(b)に示すような各物体に対する物体領域および追跡状態との対応関係を示す情報でもよい。
【0093】
また、物体の追跡は、追跡している物体と物体領域とを対応付けることであり、例えば過去の物体に対応する物体領域から物体の位置を求め、物体の位置から最も近い物体領域を求め、求められた物体領域と追跡している物体とを対応付けるといった方法で実現できる。ここで、例えば物体領域の重心位置を物体の位置とする。物体と物体領域の対応付け方法については後述する。
【0094】
特徴量生成部14は、画像入力端子11を介して入力された画像情報と物体領域抽出部12から入力された物体領域情報とに基づいて、物体領域の特徴量を生成し(ステップS304)、領域特徴量情報を特徴量合成部15および対応付け部17に出力する。領域特徴量情報とは、物体領域抽出部12が抽出した各物体領域の特徴量(領域特徴量)を示す情報である。また、特徴量生成部14は、追跡状態判定部13が出力する第1の領域対応情報とステップS304で生成した物体領域の特徴量とに基づいて、物体の特徴量を決定し、記憶する物体の特徴量を更新する(ステップS305)。そして、特徴量生成部14は、特徴量合成部15からの要求に応じて物体の特徴量を出力する。
【0095】
なお、特徴量生成部14は、追跡状態判定部13が出力する第1の領域対応情報において追跡状態が単独状態である物体の特徴量を更新する。画像上で物体が重なり合っている場合には正確な物体の特徴量の算出はできないので、特徴量生成部14は、追跡状態が単独状態以外の状態である場合には、記憶される特徴量の更新を行わない。物体の特徴量の更新は、例えば、式(1)に基づいて行われる。
【0096】
【数1】
Figure 2004096402
【0097】
ここで、Hinは物体の現在観測された特徴量(物体を構成する現時刻の物体領域の集合から求められた特徴量)を示す。H ,Ht−1 は、特徴量生成部14が記憶する物体の特徴量のうち時刻tと時刻t−1とにおいて記憶される物体の特徴量を示し、H が更新後の物体の特徴量を示す。また、ηは物体の特徴量の更新係数を示す。
【0098】
特徴量合成部15は、特徴量生成部14に記憶された物体の特徴量と追跡状態判定部13が出力する第1の領域対応情報とに基づいて、複数の物体の必要な全ての組み合わせについて物体の特徴量を合成した特徴量(以下、合成特徴量という。)を算出する(ステップS306)。すなわち、特徴量合成部15は、特徴量生成部14が生成する物体の特徴量と第1の領域対応情報とに基づいて、組み合わせが可能な物体と物体領域との全ての組み合わせを決定し、決定した物体と物体領域との組み合わせについてのみ合成特徴量(物体単体の物体特徴量を含む概念)を生成する。そして、特徴量合成部15は、算出した合成特徴量を含む合成特徴量情報を出力する。合成特徴量情報とは、算出した合成特徴量と、合成特徴量算出のために用いられた物体と合成特徴量との対応関係とを含む情報である。なお、特徴量生成部14は、特徴量合成部15の要求に応じて、記憶している物体の特徴量を選択し、選択した物体の特徴量を特徴量合成部15に出力する。特徴量合成部15は、第1の領域対応情報に基づいて、特徴量生成部14に要求する物体の特徴量を決める。
【0099】
複数の物体の必要な全ての組み合わせとは、例えば物体A,B,Cが画像上で重なり合った状態(すなわち、重なり状態)になった後、いくつかの物体が分離して2つの物体領域α,βに分離した状態(すなわち、分離状態)になった場合には、物体と物体領域との組み合わせは、(α,β)=(ABC,Φ),(Φ,ABC),(A,BC),(B,CA),(C,AB),(BC,A),(CA,B),(AB,C)の8通りの組み合わせが発生しうるので、特徴量合成部15は、A,B,C,AB,BC,CA,ABCの組み合わせについての物体の合成特徴量を生成する。なお、例えば(α,β)=(AB,C)は、物体領域αに物体A,Bが存在し、物体領域βに物体Cが存在することを示す。また、Φは、対応付けられる物体がないことを示す。合成特徴量情報は、例えば、ABの合成特徴量と、算出されたABの合成特徴量に対応付けられる物体は物体Aおよび物体Bであることを示す情報とを含む。
【0100】
対応確定部16は、特徴量生成部14が出力する領域特徴量情報と、特徴量合成部15が出力する合成特徴量情報と、追跡状態判定部13が出力する第1の領域対応情報とに基づいて、物体と物体領域との対応関係を確定する(ステップS307)。そして、対応確定部16は、確定対応情報を出力する。
【0101】
対応確定部16は、追跡状態判定部13が出力する第1の領域対応情報において追跡状態が分離状態であることが示されている物体については、領域特徴量情報と合成特徴量情報とに基づいて物体と物体領域との対応関係を確定する。また、第1の領域対応情報において追跡状態が分離状態以外であることが示されている物体については、追跡状態判定部13が出力する第1の領域対応情報に含まれる物体領域との対応関係の情報を、物体と物体領域との対応関係として確定する。そして、対応確定部16は、確定した物体と物体領域との対応関係の情報を確定対応情報とする。
【0102】
追跡状態判定部13は、物体の追跡状態が、単独状態、重なり状態または分離状態であるかを以下のような方法で判定する。追跡状態判定部13は、物体領域抽出部12からの現時刻の物体領域情報と、追跡状態判定部13自身が記憶している過去の物体領域情報と、対応確定部16が出力する過去の確定対応情報とに基づいて、物体および物体領域を全体としてクラス分けをする。
【0103】
例えば、確定対応情報において物体Aと物体領域αとが対応付けられている場合には、追跡状態判定部13は、物体Aと物体領域αとをクラスXにクラス分けをする。また、物体Bと物体領域βとが対応付けられている場合には、追跡状態判定部13は、クラスXとは別のクラスYに物体Bと物体領域βとをクラス分けする。さらに、物体Aと物体Bとが物体領域γにも対応付けられている場合には、追跡状態判定部13は、クラスXに含まれる物体AとクラスYに含まれる物体Bとが対応付けられているとして、物体領域γとクラスXに含まれる全ての要素とクラスYに含まれる全ての要素とを同じクラスに属させる。すなわち、クラスXに、物体領域γとクラスYの要素である物体Bおよび物体領域βとを属させる。その結果、クラスYは削除され、クラスXには、物体A,Bと物体領域α,β,γとが属することになる。このように、1つのクラスでは各物体と各物体領域とが少なくとも1つの他の物体または他の物体領域と対応付けられているように、クラス分けを行う。
【0104】
物体および物体領域のクラス分けを行うと、追跡状態判定部13は、各クラスの要素の数に基づいて、追跡状態が、単独状態、重なり状態または分離状態であるかを判定する。クラスの要素中に物体の要素が1個のみ含まれる場合には、追跡状態判定部13は、追跡状態を単独状態と判定する。クラスの要素中に物体の要素が2個以上含まれ、かつ、物体領域の要素が1個のみ含まれる場合には、追跡状態判定部13は、追跡状態を重なり状態と判定する。クラスの要素中に物体の要素が2個以上含まれ、かつ、物体領域の要素が2個以上含まれている場合には、追跡状態判定部13は、追跡状態を分離状態と判定する。
【0105】
次に、特徴量の合成から領域と物体の選択までの一連の処理について説明する。対応確定部16は、物体と物体領域との全ての組み合わせについて組み合わせ類似度を算出する。そして、対応確定部16は、組み合わせ類似度が最も高い物体と物体領域との組み合わせを選択する。選択された組み合わせが、物体と物体領域との対応付けである。ここで、組み合わせ類似度とは、組み合わせを構成する物体と物体領域との組の類似度から得られる、組み合わせの妥当性を示す指標である。組み合わせ類似度が高いと、組み合わせが妥当であり、組み合わせを構成する物体と物体領域との組が類似していることを示す。なお、ここでは、組み合わせ類似度として、それぞれの組み合わせにおける物体領域の特徴量と合成特徴量との類似度の合計である合計類似度を使用するが、組み合わせ類似度は、類似度の合計に限られない。
【0106】
例えば、物体A,B,Cが重なった後に分離した場合には、(α,β)=(ABC,Φ),(Φ,ABC),(A,BC),(B,CA),(C,AB),(BC,A),(CA,B),(AB,C)の8通りの物体と物体領域との組み合わせについて、物体領域の特徴量と合成特徴量とから組み合わせ類似度を算出する。そして、対応確定部16は、算出した組み合わせ類似度が最も大きくなる場合の物体と物体領域との組み合わせを最適な対応付けとする。
【0107】
例えば、物体領域αに対応しうる物体がAおよびBで、物体領域βに対応しうる物体がA、BおよびCの場合のように、物体Cと物体領域αが対応付かないのが明らかな場合には、対応確定部16は、(α,β)=(AB,C),(Φ,ABC),(A,BC),(B,CA)の4通りの組み合わせについてのみ組み合わせ類似度を算出してもよい。そうすることにより、対応確定部16は、類似度の算出の計算量を削減することができる。
【0108】
組み合わせ類似度を算出するために、対応確定部16は、物体の合成特徴量と物体領域の特徴量との距離(以下、特徴量間の距離という。)を算出し、特徴量間の距離から組み合わせの距離を算出する。対応確定部16は、算出した組み合わせの距離が小さい場合には組み合わせ類似度が高いと判定し、算出した組み合わせの距離が大きい場合には組み合わせ類似度が低いと判定する。組み合わせの距離は例えば特徴量間の距離の和とし、式(2)のように算出される。
【0109】
【数2】
Figure 2004096402
【0110】
ここで、iは物体領域の番号、kは物体と物体領域との組み合わせ番号、Hrはi番目の物体領域の特徴量、Hgkiはk番目の組み合わせにおけるi番目の物体領域に対応させる物体の合成特徴量を示す。Dはk番目の組み合わせにおける組み合わせの距離を示す。
【0111】
上記の(α,β)=(ABC,Φ),(Φ,ABC),(A,BC),(B,CA),(C,AB),(BC,A),(CA,B),(AB,C)の8通りの物体と物体領域との組み合わせの場合には、i=1,2であり、k=1〜8である。すなわち、対応確定部16は、全ての可能な組み合わせ(この例では8通りの組み合わせ)について物体領域と物体との各組((α,β)=(A,BC)を例にすると、αとAとからなる組と、βとBCとからなる組)の特徴量間の距離から組み合わせの距離(D)を求めて(α,β)=(A,BC)の組み合わせを例にすると、αとAの距離と、βとBCの距離との合計)、全ての可能な組み合わせのうち、組み合わせの距離が最小となる組み合わせを最も類似した組み合わせとする。
【0112】
特徴量合成部15は、任意の合成比率εに応じて合成特徴量を算出することが好ましい。そして、対応確定部16は、合成比率εに応じて算出された合成特徴量に基づいて組み合わせ類似度を算出して、最適な物体と物体領域との組み合わせを選択する。合成比率εとは、物体領域に含まれる各物体の特徴量の割合を補正するための係数である。例えば、物体間でカメラからの距離が異なるために画像上での見かけ上の物体の大きさが異なる場合がある。この場合に、単純に物体の特徴量を合計して合成特徴量を算出すると、算出した合成特徴量が現実の物体領域の特徴量と異なるので、対応確定部16は、正しく物体と物体領域との対応付けを確定できない。特徴量合成部15が所定の合成比率εに応じて合成特徴量を算出することによって、対応確定部16は、物体と物体領域との誤った対応付けを確定するのを防止できる。
【0113】
例えば、物体A,Bの2つの物体の特徴量を合成する場合には、特徴量合成部15は、式(3)に基づいて合成特徴量を生成する。そして、対応確定部16は、式(4)に基づいて、組み合わせの距離を算出する。
【0114】
【数3】
Figure 2004096402
【0115】
【数4】
Figure 2004096402
【0116】
特徴量合成部15は、合成比率εを0から1まで変化させて(例えば、合成比率を0から1まで0.1間隔に変化させて)、変化させた全ての合成比率εの値に基づいて合成特徴量を算出する。対応確定部16は、物体領域の特徴量と物体の合成特徴量との特徴量間の距離が最小となる合成特徴量を選択する。そして、対応確定部16は、選択した合成特徴量に基づいて式(4)のように組み合わせの距離を算出し、組み合わせの距離が最も小さくなる場合の物体と物体領域との組み合わせを最適な対応付けとする。
【0117】
なお、本例では、対応確定部16は、L2ノルムに基づいて特徴量間の距離を算出したが、類似度の算出ができる計算手法であれば、他の距離尺度に基づいて特徴量間の距離を算出してもよい。L2ノルムとは、式(2)および式(4)に示される差分二乗和によって算出される距離尺度をいう。
【0118】
以上のように、本発明による物体追跡装置は、重なり状態の物体の合成特徴量を算出して、物体領域の特徴量と合成特徴量との類似度を算出し、算出した類似度に基づいて物体と物体領域の対応付けを行うことによって、複数の物体が交差した後に分離してもなお複数の物体の組が存在する場合や、交差の前後において交差する物体の組み合わせが入れ替わった場合でも、追跡対象の物体の追跡を継続することができる。
【0119】
また、本発明による物体追跡装置は、物体と物体領域との全ての組み合わせについて物体領域の特徴量と合成特徴量との類似度を算出して、算出した類似度に基づいて最適な物体と物体領域との組み合わせを選択するので、追跡対象の物体と追跡対象の物体が存在する領域とを対応付ける際に、物体全体として最適な対応付けを選択できる。
【0120】
次に、追跡状態判定部13、特徴量生成部14および対応確定部16の詳細な構成について説明する。まず、追跡状態判定部13の構成を説明する。図5は、追跡状態判定部13の構成の一例を示すブロック図である。図5に示す例では、追跡状態判定部13は、物体追跡部131、状態判定部132および物体領域情報記憶部133を含む。
【0121】
なお、物体追跡部131は、物体領域情報、確定対応情報、および物体領域記憶手段から出力される過去の物体領域情報とから物体を追跡して物体と物体領域との対応を示す第2の領域対応情報を出力する物体追跡手段の具体例である。また、物体領域情報記憶部133は、物体領域情報と第1の領域対応情報とを記憶する物体領域記憶手段の具体例であり、状態判定部132は、第2の領域対応情報、物体領域情報および過去の物体領域情報とから物体の追跡状態を判定し、第1の領域対応情報を出力する状態判定手段の具体例である。
【0122】
物体追跡部131は、物体領域抽出部12が出力する現時刻の物体領域情報、物体領域情報記憶部133が記憶する過去の物体領域情報、および対応確定部16が出力する過去の確定対応情報に基づいて物体を追跡し物体と物体領域とを対応付ける。そして、物体追跡部131は、第2の領域対応情報を生成して、生成した第2の領域対応情報を状態判定部132に出力する。
【0123】
第2の領域対応情報とは、物体と物体領域の対応関係を示す情報である。第2の領域対応情報は、第1の領域対応情報と異なり追跡状態の情報が含まれない。図6は、第2の領域対応情報の例を示す説明図である。第2の領域対応情報は、例えば、物体領域情報にα,β,γの3つの物体領域の画像情報が存在し、過去の確定対応情報として4つの物体A,B,C,Dが存在していることを認識した場合には,図6(c)に示すような物体領域α、β、γと物体A、B、C、Dとの対応を示すために、各物体領域と物体の対応関係を示す図6(a)に示すような情報である。また、例えば図6(b)に示すような各物体と物体領域との対応関係を示す情報でもよい。
【0124】
状態判定部132は、物体領域抽出部12が出力した物体領域情報と物体追跡部131が出力した第2の領域対応情報とに基づいて、物体の追跡状態の判定を行う。そして、状態判定部132は、第2の領域対応情報と判定結果とに基づいて第1の領域対応情報を出力する。
【0125】
物体領域情報記憶部133は、物体領域抽出部12が出力する物体領域情報を記憶する。物体領域情報記憶部133が記憶する物体領域情報は、次時刻において第2の領域対応情報の生成に用いられる過去の物体領域情報となる。
【0126】
図7は、特徴量生成部14の構成の一例を示すブロック図である。図7に示す例では、特徴量生成部14は、特徴量抽出部141、特徴量更新部142および特徴量記憶部143を含む。
【0127】
なお、特徴量抽出部141は、画像情報と物体領域情報と第1の領域対応情報とから領域特徴量を抽出し領域特徴量を含む情報である領域特徴量情報を出力する特徴量抽出手段の具体例である。また、特徴量記憶部143は、要求に応じて記憶する物体特徴量を選択して出力する特徴量記憶手段の具体例であり、特徴量更新部142は、領域特徴量情報、第1の領域対応情報および現時刻より以前に生成した物体特徴量とから、特徴量記憶手段が記憶する物体特徴量を更新する特徴量更新手段の具体例である。
【0128】
特徴量抽出部141は、画像入力端子11を介して入力された画像情報と物体領域抽出部12が出力した物体領域情報とに基づいて各物体領域の特徴量を算出する。そして、特徴量抽出部141は、算出した物体領域の特徴量を含む領域特徴量情報を出力する。出力された領域特徴量情報は、特徴量更新部142と対応確定部16とに入力される。
【0129】
特徴量更新部142は、第1の領域対応情報において追跡状態が単独状態であることが示されている物体については、特徴量抽出部141が出力した領域特徴量情報に基づいて特徴量記憶部143に記憶される特徴量を更新する。特徴量更新部142は、第1の領域対応情報において追跡状態が単独状態以外の状態が示されている物体については、特徴量記憶部143に記憶される特徴量を更新しない。特徴量記憶部143が記憶する物体の特徴量は、特徴量合成部15が合成特徴量を生成するために用いられる。すなわち、特徴量合成部15の要求に応じて、記憶している物体の特徴量を選択し、選択した物体の特徴量を特徴量合成部15に出力する。
【0130】
図8は、対応確定部16の構成の一例を示すブロック図である。図8に示す例では、対応確定部16は、対応計算部161および対応決定部162を含む。
【0131】
なお、対応計算部161は、物体と物体領域との最適な対応関係を示す最適対応情報を生成する対応計算手段の具体例である。また、対応決定部162は、確定した物体と物体領域との対応関係を含む情報である確定対応情報を出力する対応決定手段の具体例である。
【0132】
対応計算部161は、特徴量生成部14が出力した領域特徴量情報、特徴量合成部15が出力した合成特徴量情報、および追跡状態判定部13が出力した第1の領域対応情報に基づいて、物体と物体領域との組み合わせのうち対応付けられる可能性のある全ての組み合わせについて、物体領域の特徴量と合成特徴量との類似度を算出し、組み合わせ類似度を算出する。そして、対応計算部161は、組み合わせ類似度が最も大きくなる物体と物体領域との組み合わせを最適な対応付けとして選択して、最適対応情報を生成し、最適対応情報を出力する。なお、最適対応情報とは、物体と物体領域との最適な対応関係(組み合わせ類似度が最も大きくなる場合の物体と物体領域との組み合わせ)を示す情報である。
【0133】
対応決定部162は、追跡状態判定部13が出力した第1の領域対応情報において追跡状態が分離状態であることが示されている物体については、対応計算部161が出力した最適対応情報に含まれる物体領域との対応関係の情報を、この物体と物体領域との対応関係の情報として確定する。分離状態以外の状態であることが示されている物体については、対応決定部162は、追跡状態判定部13が出力した第1の領域対応情報に含まれる物体領域との対応関係の情報を、この物体と物体領域との対応関係の情報として確定する。
【0134】
また、対応決定部162は、第1の領域対応情報に含まれる物体の情報と、確定した物体と物体領域との対応付けの情報とを比較し、第1の領域対応情報に含まれるいずれの物体とも対応付けられない未対応物体領域が発生した場合には、新しい物体を生成し未対応物体領域と対応付ける。そして、対応決定部162は、確定された物体と物体領域との対応関係の情報を確定対応情報として出力する。
【0135】
例えば、物体領域αにA,Bの2つの物体が完全に重なった状態で存在していたために、物体追跡装置は、物体領域αに1つの物体Aの存在しか認識できなかった場合がある。この場合に、物体Aと物体Bとが分離状態に遷移すると、物体領域αから未対応物体領域としての新たな物体領域βが分離する。しかし、物体追跡装置は、物体Bの存在を認識していないため、いずれの物体にも対応付けられない物体領域βが発生することになる。従って、対応決定部162は、新たに物体Bを生成して、物体Bを物体領域βに対応付ける。
【0136】
なお、図1、図2、図5、図7および図8に示された構成は、ソフトウェアによって実現可能である。すなわち、本実施の形態では、コンピュータに、画像情報を入力する画像入力処理と、入力された画像情報から物体領域を抽出して物体領域の画像情報を含む物体領域情報を出力する物体領域抽出処理と、物体領域情報と、現時刻以前の物体領域と物体との対応関係を示す確定対応情報とから、追跡状態を物体毎または物体領域毎に判定し、物体領域および物体と追跡状態との対応関係を示す第1の領域対応情報を出力する追跡状態判定処理と、画像情報、物体領域情報および追跡状態判定手段の判定結果を用いて、物体領域の特徴量を示す領域特徴量および物体の特徴量を示す物体特徴量を生成する特徴量生成処理と、物体特徴量と第1の領域対応情報とから、複数の物体の必要な全ての組み合わせについて特徴量を合成して各合成特徴量を生成し、合成特徴量および合成特徴量生成のために用いられた物体と合成特徴量との対応関係を含む情報である合成特徴量情報を出力する特徴量合成処理と、物体領域情報、第1の領域対応情報、領域特徴量情報および合成特徴量情報から物体と物体領域とを対応付け、現時刻に対する確定対応情報を出力する対応確定処理とを実行させるための物体追跡プログラムによって物体追跡装置を実現することが可能である。
【0137】
(変形例1)追跡状態判定部13は、以下に述べる判定方法に基づいて物体の追跡状態を判定してもよい。例えば、始めに物体が重なっていたために物体領域に一つの物体のみ対応付けられている場合には追跡状態は単独状態であると判定される。その状態から物体領域が複数に分かれた際に物体は一つであるために重なり状態から分離状態に遷移したとは判定されず、単独状態のままであると判定される可能性がある。単独状態の物体から複数の物体が分離することに対処するために、追跡状態判定部13は、クラスに含まれる物体の要素が1つであってもクラスに物体領域の要素が2個以上含まれる場合には、追跡状態を分離状態と判定してもよい。
【0138】
上記の実施の形態では、物体領域抽出部12が、物体領域を抽出する方法として、画像入力端子11を介して入力された画像情報と予め撮像した背景画像情報との画素値の差分を算出する例を示した。画素値の差分を算出する際に、物体が背景と類似した特徴(例えば、物体の色と背景の色が類似している場合)を持つなどの原因によって、物体領域抽出部12が、正しく物体領域の抽出が行えない場合がある。物体領域の抽出が正しく行えない場合には、追跡状態判定部13の状態判定部132は、追跡状態が分離状態に遷移したと誤って判断する可能性がある。このような場合に正しく物体領域の抽出をおこなうために、状態判定部132は、物体領域間の空間的な距離を用いて対処すればよい。
【0139】
すなわち、状態判定部132は、物体および物体領域のクラス分けをする際に、物体領域間の距離がある閾値以下である物体領域については、それらの物体領域と各物体領域に対応付けられる物体とを全て同じクラスにクラス分けする。例えば、物体A,Bと物体領域α,βとがある場合に、物体領域αと物体Aとが対応付けられ、物体領域βと物体Bとが対応付けられている場合を考える。上記の実施の形態で示された方法では、状態判定部132は、物体領域αと物体Aとが属するクラスと、物体領域βと物体Bとが属するクラスと2つのクラスを生成する。これに対して、物体領域αと物体領域βとの間の距離が予め決められた閾値以下である場合には、状態判定部132は、物体領域α,βと物体A,Bとを全てまとめて1つのクラスとしてもよい。
【0140】
まとめて1つのクラスにすることにより、状態判定部132は、追跡状態を判定する際に、物体が2個以上含まれるクラスにおいて物体領域が2個以上に分離しても物体領域間の距離が閾値以下の場合には、追跡状態は重なり状態のまま変化しないと判定することができる。そして、状態判定部132は、物体領域間の距離が閾値を超えた時点で、追跡状態は分離状態であると判定する。
【0141】
(変形例2)さらに、状態判定部132は、物体領域の分離中継続期間に基づいて物体領域が一部偶然に分離する場合に対処するようにしてもよい。分離中継続期間とは、以前は1つであった物体領域が分離するときに,分離した物体領域間の距離がある閾値(0でもよい。)以上であるときに物体領域が分離可能な状態とした場合の、物体領域が分離可能な状態の継続時間を示す。この場合、状態判定部132は、クラス分けをする際に、分離中継続時間がある閾値未満の物体領域および物体領域に対応する物体を同じクラスに属させ、以前の追跡状態を維持するようにする。そして、状態判定部132は、分離中継続期間が閾値を超えた場合には、追跡状態を分離状態と判定する。
【0142】
分離中継続期間は、以下のように更新されて記憶される。分離中継続期間は、物体領域情報記憶部133に記憶される。物体追跡部131は、物体領域情報記憶部133が記憶する分離中継続期間を取得し、各物体領域に分離中継続期間を対応付け、新たな分離中継続期間を算出する。そして、物体追跡部131は、物体領域情報記憶部133が記憶する分離中継続期間を更新する。
【0143】
物体追跡部131は、以下のように物体領域と分離中継続期間との対応付けを行う。物体追跡部131は、物体領域抽出部12が出力する物体領域情報に含まれる現時刻の物体領域と対応確定部16が出力する過去の確定対応情報とに基づいて、現在の物体領域と過去の物体領域との対応付けを行う。そして、物体追跡部131は、物体領域情報記憶部133が記憶する過去の物体領域に対応する分離中継続期間を当該過去の物体領域に対応する現在の物体領域に対応付ける。対応付けられた分離中継続期間が複数ある場合には、物体追跡部131は、複数ある分離中継続期間のうち最大の分離中継続期間を物体領域に対応付ける。なお、物体追跡部131は、複数ある分離中継続期間のうち最小の分離中継続期間を現在の物体領域に対応付けてもよい。また、物体追跡部131は、分離中継続期間の平均時間を算出して、算出した平均時間を現在の物体領域に対応付けてもよい。
【0144】
状態判定部132は、物体領域情報記憶部133から分離中継続期間を取得する。また、状態判定部132は、物体領域の追跡状態を判定する。そして、状態判定部132は、判定結果に基づいて物体領域情報記憶部133が記憶する分離中継続期間を更新する。例えば、状態判定部132は、物体領域の追跡状態が分離可能な状態であると判定した場合には、物体領域情報記憶部133が記憶する分離中継続期間を当該分離中継続期間と現在の時刻とに基づいて更新する。また、状態判定部132は、物体領域の追跡状態が分離可能な状態でない場合には、分離中継続期間をリセットする。また、分離中継続期間を記憶する代わりに分離が開始した時刻を示す分離開始時刻を記憶してもよい。このとき、分離中継続期間は現在の時刻と分離開始時刻との差をとることにより求めることができる。
【0145】
また、物体追跡部131は、分離中継続期間を物体領域情報記憶部133に記憶するのでなく、分離中継続期間を含んだ第2の領域対応情報を生成してもよい。このとき、状態判定部132は分離中継続時間を第2の領域対応情報から取得する。このように、物体領域情報記憶部133を介さずに物体追跡部131から状態判定部132へ分離中継続時間を直接的に送受信することで、物体領域情報記憶部133の処理を削減できるという利点がある。
【0146】
なお、第1の実施の形態、変形例1および変形例2の方法を組み合わせて使用してもよい。すなわち、物体と物体領域との対応、物体領域間の距離、物体領域の分離中の継続時間の組み合わせに基づいて、対応する物体領域に共通の領域が存在する物体同士をまとめ、これらの物体と対応する物体領域を1つのクラスに分類するようにしてもよい。また、分類したクラスが分離状態である条件を満たし、さらに、クラスに2以上の物体が含まれること、クラスに含まれる物体領域間の距離が予め決められた閾値以上であること、およびクラスに含まれる物体領域の分離中の継続時間が予め決められた閾値以上であることのうちのいずれかまたはそれらの組み合わせを満たす場合に、クラスに含まれる物体および物体領域の追跡状態を分離状態と判定するようにしてもよい。
【0147】
(変形例3)物体追跡装置は、以下のような方法によって、物体の特徴量の合成を行って、物体と物体領域との対応付けを行ってもよい。すなわち、特徴量合成部15は、特徴量生成部14から物体の特徴量だけでなく領域特徴量情報も取得する。特徴量合成部15は、特徴量生成部14が出力する領域特徴量情報と物体の特徴量とに基づいて任意の合成比率εに応じて合成特徴量を算出する。そして、特徴量合成部15は、算出した合成特徴量と領域特徴量情報に含まれる物体領域の特徴量との類似度が最も高くなる場合の合成比率εに応じた合成特徴量を出力する。対応確定部16は、出力された合成特徴量に基づいて物体と物体領域との各組み合わせの物体領域の特徴量と合成特徴量との類似度を算出し、組み合わせ類似度を算出する。
【0148】
特徴量生成部14が物体と物体領域との類似度が最も高くなる合成比率εに応じた合成特徴量を出力することによって、対応確定部16は、物体と物体領域との各組み合わせに対して1つの合成特徴量のみに基づいて類似度を算出すればよい。従って、対応確定部16は、無駄な算出処理を省くことができる。
【0149】
(変形例4)また、物体追跡装置は、以下のような方法によって、特徴量の合成を行い物体と物体領域との対応付けを行ってもよい。すなわち、特徴量合成部15は、特徴量生成部14から物体の特徴量だけでなく領域特徴量情報も取得し、式(5)〜(7)に従って距離を最小にする合成比率εの値を算出する。式(5)は、特徴量生成部14が出力した領域特徴量情報と物体の特徴量とに基づいて、物体の特徴量と物体領域の特徴量との距離f(ε)を算出する式である。特徴量合成部15は、式(6)と式(7)とに示すように、距離f(ε)を合成比率εで偏微分した式が「0」となる場合の合成比率εの値を算出する。すなわち、特徴量合成部15は、距離f(ε)が最小となる合成比率εを算出する。特徴量合成部15は、算出した合成比率εに基づいて、式(3)によって合成特徴量を生成する。そして、対応確定部16は、生成された合成特徴量に基づいて類似度を算出する。なお、ここでは、物体A,Bについての合成特徴量を例にする。
【0150】
【数5】
Figure 2004096402
【0151】
【数6】
Figure 2004096402
【0152】
【数7】
Figure 2004096402
【0153】
ここで、Hgki は物体Aの特徴量Hと物体Bの特徴量Hとの合成特徴量、Hrは物体領域の特徴量を示す。また、例えば特徴量が色ヒストグラムで、色ヒストグラムの階級(ビン)の数がn個である場合には、特徴量H,H,Hr,Hgkiはそれぞれn次元ベクトルであり、H=(a,a,...,a),H=(b,b,...,b),Hr=(χ,χ,...,χ),Hgki=(χk1,χk2,...,χkn)と表現される。
【0154】
式(7)によって算出された合成比率εが0未満であるか、または1より大きな値となった場合には、0または1のうち式(7)によって算出された合成比率εの値に近い値を選択して合成比率εの値とする。特徴量合成部15は、算出した合成比率εに基づいて合成特徴量を生成する。対応確定部16は、生成された合成特徴量に基づいて、式(2)に示す組み合わせの距離を求め、組み合わせの距離を最小化する物体と物体領域との組み合わせを、最適な対応付けとして確定する。
【0155】
式(5),(6),(7)を用いることにより、特徴量合成部15は、特定の合成比率εに対してのみ合成特徴量を生成すればよい。従って、様々な合成比率εに対して合成特徴量を生成する場合と比較して、類似度の算出のための計算量を削減することができる。なお、特徴量合成部15は、物体が3つ以上重なった場合にも、上述した方法と同様の方法で合成特徴量を生成できる。また、ここでは、特徴量合成部15は、特徴量間の距離尺度としてL2ノルムを用いたが、他の距離尺度を用いてもよい。
【0156】
また、物体追跡装置は、以下のような方法によって、特徴量の合成を行い領域と物体との選択を行うものであってもよい。すなわち、特徴量合成部15は、物体の面積比を合成比率として用いて合成特徴量を生成する。そして、対応確定部16は、生成された合成特徴量に基づいて類似度を算出する。この方法は、物体の重なり時の特徴量の合成比率は、物体と物体との面積の比にほぼ等しいという事実に基づく方法である。物体の面積比を合成比率とすることにより、特徴量合成部15は、合成比率の算出のための計算を削減することができる。合成特徴量は、式(8)によって算出される。
【0157】
【数8】
Figure 2004096402
【0158】
,Hは、それぞれ物体A,Bの特徴量を示す。S,Sは、それぞれ物体A,Bの画像情報上での面積を示す。また、Hg は合成特徴量である。対応確定部16は、生成された合成特徴量Hg を用いて、式(2)に示す距離の和を求め、距離の和を最小化する物体と物体領域との組み合わせを最適な対応付けとして確定する。
【0159】
例えば、特徴量生成部14は、物体領域の画像に含まれる画素数を物体の面積とし、その面積を物体の特徴量に加えたものを、他の物体の特徴量と同様に生成する。そして、特徴量生成部14の特徴量記憶部143は、面積を加えた特徴量を記憶し、第1の領域対応情報において追跡状態が重なり状態以外の状態を示している場合に、面積を加えた特徴量を更新する。
【0160】
さらに、物体追跡装置は、以下のような方法によって、特徴量の合成を行い物体と物体領域との対応付けを行ってもよい。すなわち、重なっている物体のそれぞれの面積がSからSの範囲で変化する可能性があるとし、特徴量合成部15は、その変化範囲内で式(9)によって合成特徴量を生成する。式(9)は、物体Aの特徴量と物体Bの特徴量との合成特徴量を算出する式である。そして、対応確定部16は、式(10)によって、生成された合成特徴量のうち領域特徴量との類似度が最も高くなる合成特徴量に基づいて物体と物体領域との類似度を算出し、組み合わせ類似度を算出する。
【0161】
【数9】
Figure 2004096402
【0162】
【数10】
Figure 2004096402
【0163】
ΔSは、物体Aと物体Bとが重なる直前からの物体Aの面積の変化量を示す。物体の面積の変化量を考慮した合成特徴量を算出することにより、物体の面積に多少変化があった場合にも、特徴量合成部15は、実際とはかけはなれた合成比率を選択することを回避することができ、正しい合成比率に基づいて合成特徴量を生成することができる。その結果、対応確定部16は、最適な物体と物体領域との対応付けを確定することができる。
【0164】
(変形例5)また、特徴量合成部15は、特徴量生成部14から物体の特徴量だけでなく領域特徴量情報も取得して、特徴量生成部14から入力された領域特徴量情報と物体の特徴量とから、面積変化の範囲内で合成特徴量を生成し、物体領域との類似度が最も高くなる合成特徴量を出力し、対応確定部16が合成特徴量に基づいて物体と物体領域との各組み合わせの組み合わせ類似度を求めるようにしてもよい。すなわち、合成比率εを、物体の面積の変化に基づく所定範囲内に制限してもよい。そのようにしても、特徴量合成部15は、物体の各組み合わせに対して1つの合成特徴量を出力するだけでよく、様々な合成比率εに対して合成特徴量を生成する場合に比べて、無駄な処理を省くことができる。
【0165】
(変形例6)また、特徴量合成部15は、物体のテンプレートを特徴量として用いて、合成特徴量を求めてもよい。ここで、テンプレートとは、画像中から物体に相当する部分を抽出して得られる部分画像であり、物体の形状や色を記述されたもの相当する。テンプレートは、物体と物体領域との対応関係に基づいて画像中の物体に相当する領域を抽出することによって生成される。また、標準顔画像などのように、予めモデル化された画像がテンプレートとして用いられてもよい。
【0166】
例えば、2つの物体が1つの物体領域にある場合には、特徴量合成部15は、テンプレートを物体領域内で走査させて、物体領域内の各位置におけるテンプレートと物体領域との類似度を算出する。特徴量合成部15は、類似度が最大となる位置を求める。特徴量合成部15は、式(11)と式(12)とによって類似度を算出する。
【0167】
【数11】
Figure 2004096402
【0168】
【数12】
Figure 2004096402
【0169】
(x,y)はi番目のテンプレートの座標を示し、R(x,y)は物体領域の座標を示す。また、mはi番目のテンプレートM(x,y)の領域全体を示す。特徴量合成部15は、式(11)に示すように、テンプレートと物体領域との画素値の差分二乗和を特徴量間の距離として算出する。そして、式(12)に示すように、特徴量間の距離が最小となる場合をテンプレートと物体領域との類似度が最大であると判定する。また、特徴量合成部15は、テンプレートと物体領域との類似度が最大となる位置(a,b)を物体の位置とする。
【0170】
次に、特徴量合成部15は、テンプレートと物体領域との類似度に基づいて、重なっている物体の前後関係を判定する。特徴量合成部15は、物体領域との類似度の高いテンプレートが物体領域との類似度の低いテンプレートを遮蔽していると判定する。そして、特徴量合成部15は、テンプレートを合成することによって合成特徴量に相当する合成テンプレートを生成する。このように、特徴量合成部15は、画像テンプレートと物体領域の特徴量とから各物体の前後関係を判定し、判定した各物体の前後関係に基づいて画像テンプレートを合成して合成特徴量を得るようにしてもよい。
【0171】
また、特徴量合成部15は、物体領域との類似度の最大値が最大であるテンプレートを選択し、選択されたテンプレートが選択されないテンプレートを遮蔽していると判定してもよい。このとき、物体領域と選択されたテンプレート(類似度が最大となる場合のテンプレート)とが重複する領域を物体領域から除外し、残った物体領域と選択されなかったテンプレートとに基づいて、テンプレートと物体領域との類似度の算出、類似度が最大となるテンプレートの選択、類似度が最大となる場合のテンプレートの位置の算出、および遮蔽の判定を繰り返し行ってもよい。
【0172】
図9は、テンプレートを用いて合成特徴量を生成する概念を示した説明図である。図9(a)に示すように、特徴量合成部15は、物体領域αにおいてテンプレートAとテンプレートBとを走査する。テンプレートBと物体領域αとの類似度の最大値がテンプレートAと物体領域αとの類似度の最大値より大きくなるので、特徴量合成部15は、テンプレートBがテンプレートAを遮蔽していると判断できる。図9(b)に示すように、特徴量合成部15は、物体領域との類似度が最大となるそれぞれの位置でテンプレートAとテンプレートBとを合成して、合成テンプレートXを生成する。合成テンプレートXを生成する際に、特徴量合成部15は、テンプレートAとテンプレートBとが重なっている部分については、テンプレートBの値を用いて合成を行う。なお、(a,b)がテンプレートAと物体領域との類似度が最大となる位置であり、(a,b)がテンプレートBと物体領域との類似度が最大となる位置である。
【0173】
対応確定部16は、合成テンプレート内の色ヒストグラムに基づいて、式(2)によって物体領域の特徴量と合成特徴量との類似度を算出し、組み合わせ類似度を算出することができる。また、対応確定部16は、式(12)と同様に、物体領域と合成テンプレートとを照合することによって物体領域の特徴量と合成特徴量との類似度を算出し、組み合わせ類似度を算出してもよい。テンプレートを用いることにより、物体が他の物体の背後に部分的に隠れている場合でも、物体と物体領域の対応関係を正しく算出することができる。
【0174】
(変形例7)また、上述した各方法において、物体と物体領域との対応付けを行う際に、対応確定部16は、組み合わせ類似度が低い場合にも強制的に対応付けを行うので、物体と物体領域との対応付けが正しく行われない場合がある。そこで、対応確定部16は、最適な組み合わせの組み合わせ類似度(すなわち、組み合わせ類似度が最大となる組み合わせの組み合わせ類似度)が低い場合には、物体と物体領域との対応付けを行わないようにしてもよい。その場合に、対応計算部161は、物体と物体領域との最適な組み合わせについて、組み合わせ類似度が予め決められた閾値以下であるときには、組み合わせを構成する物体に対応する最適な物体領域は無いと判断する。そして、対応計算部161は、最適な物体と物体領域との対応関係が無いことを示す情報を含んだ最適対応情報を出力する。対応決定部162は、最適対応情報が、物体に対応する最適な物体領域が無いことを示す情報を含む場合には、その物体については、第1の領域対応情報に含まれる物体と物体領域との対応関係の情報をそのまま物体と物体領域との対応関係として確定し、確定対応情報として出力する。そうでない場合には、最適対応情報に含まれる物体と物体領域との対応関係を示す情報を確定対応情報として出力する。例えば、対応計算部161が、(α,β)=(A,BC)を最適な組み合わせとした場合を例にすると、対応計算部161は、αとAとからなる組の類似度、およびβとBCとからなる組の類似度から組み合わせ類似度を算出し、組み合わせ類似度が閾値以下であるか否か判断する。そして、組み合わせ類似度が閾値以下であれば、対応決定部162は、物体Aおよび物体Bおよび物体Cに対応する物体領域として、第1の領域対応情報に含まれる物体Aおよび物体Bおよび物体Cと物体領域との対応関係の情報をそのまま物体Aおよび物体Bおよび物体Cと物体領域との対応関係として確定する。
【0175】
(変形例8)また、上述した各方法において、物体と物体領域との対応付けを行う際に、対応確定部16は、組み合わせ類似度が低い場合にも強制的に対応付けを行うので、物体と物体領域との対応付けが正しく行われない場合がある。そこで、対応確定部16は、最適な組み合わせの組み合わせ類似度(すなわち、組み合わせ類似度が最大となる組み合わせの組み合わせ類似度)が低い場合には、物体と物体領域との対応付けを行わないようにしてもよい。その場合に、対応計算部161は、物体と物体領域との最適な組み合わせについて、物体領域と物体の組の類似度が予め決められた閾値以下であるときには、その物体に対応する最適な物体領域は無いと判断する。そして、対応計算部161は、最適な物体と物体領域との対応関係が無いことを示す情報を含んだ最適対応情報を出力する。対応決定部162は、最適対応情報が、物体に対応する最適な物体領域が無いことを示す情報を含む場合には、その物体については、第1の領域対応情報に含まれる物体と物体領域との対応関係の情報をそのまま物体と物体領域との対応関係として確定し、確定対応情報として出力する。そうでない場合には、最適対応情報に含まれる物体と物体領域との対応関係を示す情報を確定対応情報として出力する。例えば、対応計算部161が、(α,β)=(A,BC)を最適な組み合わせとした場合を例にすると、対応計算部161は、αとAとからなる組の類似度、およびβとBCとからなる組の類似度が閾値以下であるか否か判断する。そして、αとAとの類似度が閾値以下であれば、対応決定部162は、物体Aに対応する物体領域として、第1の領域対応情報に含まれる物体Aと物体領域との対応関係の情報をそのまま物体Aと物体領域との対応関係として確定する。
【0176】
(変形例9)対応計算部161は、最適な物体と物体領域との組み合わせのうち、明らかに判別が可能な物体のみを物体領域と対応付けるようにしてもよい。その場合、対応計算部161は、全ての物体と物体領域との組み合わせについて組み合わせ類似度の値が高い順番に並べる。そして、上位の組み合わせ間の組み合わせ類似度の値の差が小さく(例えば、予め決められたある閾値以下)、上位の組み合わせに共通する物体と物体領域とが存在する場合には、対応計算部161は、その物体と物体領域との組み合わせのみを最適な対応付けとする。対応計算部161は、その物体と物体領域との組み合わせのみの情報を含んだ最適対応情報を出力する。従って、最適対応情報には、他の物体と他の物体領域とには最適な対応関係となる組み合わせが無いことを示す情報が含まれることになる。
【0177】
例えば、物体A,B,Cと物体領域α,β,γとの対応付けにおいて、組み合わせ類似度の値の高い上位3つの組み合わせが(α,β,γ)=(A,B,C),(AB,Φ,C),(B,A,C)である場合には、対応計算部161は、物体Cと物体領域γとの組み合わせのみを最適な対応関係とする。そして、対応計算部161は、物体Cと物体領域γとの組み合わせのみを最適な対応関係とする情報を含んだ最適対応情報を出力する。なお、この方法を、変形例7と組み合わせてもよい。すなわち、物体と物体領域との最適な組み合わせについて物体領域と物体の組の類似度が予め決められた閾値以下である場合に、上位の組み合わせ間の合計類似度の値の差が小さく(例えば、予め決められたある閾値以下)、上位の組み合わせに共通する物体と物体領域とが存在しないときには、対応計算部161は、最適対応情報に、他の物体と他の物体領域とには最適な対応関係となる組み合わせが無いことを示す情報を含めるようにしてもよい。
【0178】
対応決定部162は、最適対応情報において最適な対応関係が無いことが示されている物体についてには、第1の領域対応情報に含まれる物体と物体領域との対応関係を、物体と物体領域との対応関係として確定する。
【0179】
以上のように、対応計算部161は、全ての可能な組み合わせのうち、組み合わせ類似度が最大となる組み合わせの組み合わせ類似度から予め決められた閾値以内の組み合わせ類似度を持つ組み合わせについて、組み合わせ類似度が最大となる組み合わせの組み合わせ類似度から予め決められた閾値以内の組み合わせ類似度を持つ組み合わせを選択し、選択した組み合わせに共通して存在する物体と物体領域との対応関係を、最適な対応付けとして最適対応情報に含め、共通して存在する物体と物体領域との対応関係に含まれない物体と物体領域については、最適な対応がないことを示す情報を最適対応情報に含め、対応決定部162は、最適な物体と物体領域との対応関係がない旨が最適対応情報に示されていない物体については、その最適対応情報に含まれる物体と物体領域との対応関係を示す情報を確定対応情報として出力し、最適な物体と物体領域との対応関係がない旨が最適対応情報に示されている物体については、第1の領域対応情報に含まれる物体と物体領域との対応関係を示す情報を確定対応情報として出力するようにしてもよい。
【0180】
(変形例10)また、上述した各方法において、特徴量生成部14は、追跡状態に応じて対応確定部16に出力する領域特徴量情報に含む情報を変更してもよい。その場合、例えば、追跡状態判定部13が出力する第1の領域対応情報には、追跡状態が分離状態であることが示されている物体領域の特徴量を含む。また、追跡状態が分離状態以外の状態であることが示されている物体領域については、特徴量を含んでいてもよいが、対応確定部16ではその特徴量を必要としないので何も含まなくてもよい。また、特徴量を含まない代わりに対応付けが不要であることを示す情報を含んでいてもよい。対応確定部16は、領域特徴量情報によって物体との対応付けが不要であることが示されている物体領域を対応付けの対象から除外する。これにより、対応確定部16の計算量を削減することができる。
【0181】
(変形例11)また、特徴量合成部15は、特徴量記憶部142が記憶する全ての物体の特徴量を取得するのでなく、追跡状態判定部13が出力する第1の領域対応情報において追跡状態が分離状態であることが示されている物体についてのみ、特徴量記憶部142が記憶する物体の特徴量を取得してもよい。そうすることにより、合成特徴量の生成に必要のない物体の特徴量を取得するという無駄な処理を省くことができ、特徴量合成部15は、合成特徴量生成の処理の迅速化を図ることができる。
【0182】
(変形例12)また、上述した各方法において、追跡状態が分離状態以外の状態である物体については、第1の領域対応情報と確定対応情報とは同じになるので、対応確定部16から追跡状態判定部13にフィードバックされる確定対応情報に含まれる情報を、分離状態の物体のみについての対応関係に限定してもよい。その場合、それ以外の物体については、追跡状態判定部13は、確定対応情報の代わりに、追跡状態判定部13自身が過去に求めた(第1の領域対応情報に含まれる)対応関係を用いるようにする。そのようにしても、上述した各方法を用いた物体追跡装置と等価な装置を実現できる。
【0183】
(変形例13)また、上述した各方法において、特徴量更新部142は第1の領域対応情報に基づいて物体の特徴量を更新したが、第1の領域対応情報ではなく確定対応情報に基づいて物体の特徴量を更新してもよい。その場合には、特徴量抽出部141は、特徴量更新部142に出力する領域特徴量情報に、第1の領域対応情報において追跡状態が単独状態または分離状態であることが示されている物体領域の特徴量を含める。特徴量更新部142は、対応確定部16が物体と物体領域との対応付けを確定した後に、対応確定部16が出力する確定対応情報に基づいて物体の追跡状態を判定する。そして、特徴量更新部142は、追跡状態が単独状態である物体についてのみ、特徴量抽出部141が出力する物体領域の特徴量情報に基づいて特徴量記憶部143が記憶する物体の特徴量を更新する。そのようにしても、上述した各方法を用いた物体追跡装置と等価な装置を実現できる。
【0184】
(変形例14)また、特徴量更新部142が確定対応情報に基づいて物体の追跡状態を判定するのでなく、対応確定部16が、物体の追跡状態を判定してもよい。その場合、対応確定部16は、判定した物体の追跡状態の情報を含んだ確定対応情報を出力する。そうすることにより、特徴量更新部142が、物体の追跡状態を判定する処理を省くことができる。そのようにしても、上述した各方法を用いた物体追跡装置と等価な装置を実現できる。
【0185】
(変形例15)特徴量更新部142は、第1の領域対応情報のみに基づいて特徴量記憶部143が記憶する物体の特徴量を更新するのでなく、第1の領域対応情報と確定対応情報とに基づいて特徴量記憶部143が記憶する物体の特徴量を更新してもよい。その場合、特徴量抽出部141は、特徴量更新部142に出力する領域特徴量情報に、第1の領域対応情報において単独状態または分離状態であることが示されている物体領域の特徴量を含める。特徴量更新部142は、特徴量抽出部141が出力する領域特徴量情報と追跡状態判定部13が出力する第1の領域対応情報とに基づいて、追跡状態が単独状態であることが示されている物体についてのみ、特徴量記憶部143が記憶する物体の特徴量を更新する。特徴量更新部142は、対応確定部16が物体と物体領域との対応付けを確定した後に、対応確定部16が出力する確定対応情報に基づいて物体の追跡状態を判定し、追跡状態が分離状態から単独状態に遷移した物体についてのみ、特徴量抽出部141が出力する領域特徴量情報に基づいて、特徴量記憶部143が記憶する物体の特徴量を更新する。
【0186】
この場合にも、さらに、特徴量更新部142が確定対応情報に基づいて物体の追跡状態を判定するのでなく、対応確定部16が、物体の追跡状態を判定してもよい。そして、対応確定部16は、判定した物体の追跡状態の情報を含んだ確定対応情報を出力する。そうすることにより、特徴量更新部142が、物体の追跡状態を判定する処理を省くことができる。
【0187】
実施の形態2.
次に、本発明の第2の実施の形態を図面を参照して説明する。本実施の形態における第1の領域対応情報は、物体領域が静止している状態であるか動作している状態であるかを示す静動状態の情報を含む。静動状態には、物体領域が静止していることを示す静止状態と物体領域が動作していることを示す動作状態とがある。物体追跡装置は、静動状態が静止状態である物体領域を背景として取り扱う。
【0188】
また、第1の領域対応情報は、物体領域を背景として取り扱うか否かを示す背景更新情報を含む。背景更新情報は、例えば、「0」と「1」の2値で表現される。物体領域の背景更新情報が「1」である場合には、物体量領域は背景として取り扱われる。物体領域の背景更新情報が「0」である場合には、物体領域を背景とはしない。
【0189】
例えば、人物を追跡する物体追跡装置である場合に、人物から分離した静止物体を背景と見なすことにより、物体追跡装置は、人物のみを追跡対象とすることができる。静動状態の判定方法として、例えば、抽出した物体領域のうち静止している状態の継続時間(以下、静止継続期間という。)が予め決められた閾値以上になった場合には、その物体領域は静止状態であると判定し、静止継続期間が予め決められた閾値より小さい場合には、その物体領域の静動状態を動作状態であると判定する方法を用いる。
【0190】
物体追跡装置は、背景更新情報を導入することによって、背景とみなした物体領域を追跡が不要な物体領域とみなして追跡対象から除外して、追跡が必要な物体のみを追跡対象とすることができる。すなわち、静動状態の情報によって、静止している状態であることが示されている物体領域と物体との組み合わせを、全ての可能な組み合わせから除外する。例えば、物体領域のうち、静止継続期間が予め決められた閾値を超え、かつ静動状態が静止状態であり、さらに確定対応情報に基づいて対応付けられる物体が存在しないと判断される物体領域についてのみ、物体追跡装置は、物体領域を背景の一部とみなして取り扱う。また、背景であるかの判定のために閾値を設けることによって、物体の追跡に失敗した場合にも、物体追跡装置は、追跡対象の物体が存在する物体領域を誤って背景とみなすことを防止することができる。
【0191】
図10は、本発明による物体追跡装置の第2の実施の形態を示すブロック図である。図10に示すように、物体追跡装置の構成要素は、第1の実施の形態の場合と同じであるが、物体領域抽出部12は、画像入力端子11を介して入力される画像情報だけでなく、画像情報と対応付け部17からの確定対応情報とに基づいて、物体領域の抽出を行う。なお、対応付け部17の構成は図2に示された構成と同じであり、追跡状態判定部13の構成は図5に示された構成と同じであり、特徴量生成部14の構成は図7に示された構成と同じであり、対応確定部16の構成は図8に示された構成と同じである。
【0192】
物体領域情報記憶部133は、物体領域の静止継続期間を記憶する。物体追跡部131は、物体領域情報記憶部133が記憶する過去の各物体領域の静止継続期間と現時刻の物体領域とを対応付ける。そして、物体追跡部131は、現時刻における静止継続期間を算出する。物体領域情報記憶部133は、算出された現時刻における物体領域の静止継続期間を記憶する。
【0193】
最新の静止継続期間の算出の際に、物体領域に対応付けられる過去の静止継続期間が複数存在する場合も考えられる。過去の静止継続期間が複数存在する場合には、物体追跡部131は、複数存在する過去の静止継続期間のうち最大の静止継続期間を選択して、現時刻における静止継続期間に対応付ける。なお、最短の静止継続期間を選択して現時刻における静止継続期間に対応付けてもよいし、静止継続期間の平均時間を算出し、算出した平均時間を現時刻における静止継続期間に対応付けてもよい。
【0194】
そして、物体追跡部131は、静止継続期間の更新を以下の手順により行うことで現時刻における静止継続期間を算出する。物体追跡部131は、各物体領域について過去の物体領域の重心と最新の物体領域の重心との差分ベクトルを求める。差分ベクトルの大きさが予め決められた閾値以下である場合には、物体追跡部131は、物体は静止していると判断して、静止継続期間を更新する。差分ベクトルの大きさが予め決められた閾値を超える場合には、物体追跡部131は、物体領域が動いていると判断して、静止継続期間をリセットする。
【0195】
状態判定部132は、物体領域情報記憶部133に記憶される物体領域の静止継続期間に基づいて物体領域の静動状態を判定する。そして、状態判定部132は、物体領域の静止継続時間と静動状態の情報を含んだ第1の領域対応情報を出力する。また、物体領域情報記憶部133は、状態判定部132の判定に基づいて物体領域の静動状態を更新する。
【0196】
第1の実施の形態では、対応計算部161は、物体と物体領域との組み合わせのうち対応付けられる可能性のある全ての組み合わせ(全ての可能な組み合わせ)について、物体領域の特徴量と合成特徴量との類似度を計算したが、本実施の形態では、静動状態が静止状態を示す物体領域がどの物体とも対応付かない組み合わせのみについて計算する。すなわち、静動状態が静止を示す物体領域に物体を対応付ける組み合わせを、全ての可能な組み合わせから除外する。そうすることにより、対応計算部161は、物体と物体領域との類似度の算出のための計算量を削減することができる。
【0197】
対応確定部162は、物体追跡部131が算出する物体領域の静止継続期間の情報を含んだ確定対応情報を出力する。対応確定部162は、静止継続期間の情報と静動状態の情報とに基づいて物体領域が背景とみなせるかを判定する。具体的には、静止継続期間が予め決められた閾値を超え、かつ静動状態が静止状態であり、さらに確定対応情報に基づいて対応付けられる物体が存在しない場合に、物体領域が背景とみなせると判定する。物体領域を背景とみなせる場合には、対応確定部162は、物体領域内の背景を更新することを示す背景更新情報を確定対応情報に含める。
【0198】
確定対応情報が物体領域内の背景を更新することを示す背景更新情報を含んでいる場合には、物体領域抽出部12は、物体領域情報と画像入力端子11を介して入力された画像情報と対応付け部17が出力する確定対応情報とに基づいて、物体領域の領域内の背景の画像を更新する。物体領域抽出部12は、式(13)に基づいて背景の画像の更新を行う。
【0199】
【数13】
Figure 2004096402
【0200】
ここで、(x,y)は画素の座標を示し、It0(x,y)は座標(x,y)における画像情報の画素値を示す。B(x,y)とBt−1(x,y)とはそれぞれ座標(x,y)における時刻t,t−1の背景画像の画素値を示す。また、μは更新係数を示す。
【0201】
以上のように、状態判定部132が物体領域の静止継続時間と静動状態の情報を含んだ第1の領域対応情報を出力し、対応付け部17が背景更新情報を含んだ確定対応情報を出力することによって、物体と背景とを区別することができる。そして、第1の領域対応情報が静動状態の情報を含むことにより、物体追跡装置は、静止している物体を物体領域と対応付けられる候補から除外する。その結果、対応計算部161が行う類似度の算出のための計算量を低減することができる。また、動作中の物体のみを追跡することができる。
【0202】
なお、物体領域情報記憶部133が静止継続期間を記憶して、物体領域情報記憶部133が記憶する静止継続期間を状態判定部132が取得するのでなく、物体追跡部131が静止継続期間の情報を含んだ第2の領域対応情報を状態判定部132に出力してもよい。そうすることにより、状態判定部132は、物体領域情報記憶部133を介することなく静止継続期間の情報を取得できる。
【0203】
また、特徴量抽出部141は、追跡状態が分離状態であることが示され、かつ静動状態が静止状態であることが示されている物体領域については、領域特徴量情報に特徴量を含んでもよいが、対応計算部161では不要なため、何も含まなくてもよい。あるいは、何も含まない代わりに対応付けが不要であることを示す情報を含んでもよい。これにより、不要な特徴量を出力する無駄を省くことができる。
【0204】
実施の形態3.
次に、本発明の第3の実施の形態を図面を参照して説明する。図11は、本発明による物体追跡装置の第3の実施の形態を示す構成図である。図11に示すように、物体追跡装置は、画像入力端子21、第1の制御部22、物体領域抽出部23、特徴量生成部24および特徴量合成部25を含む。
【0205】
第1の制御部22は、画像入力端子21、物体領域抽出部23、特徴量生成部24および特徴量合成部25に接続され、それらを制御する。また、第1の制御部22は、物体と物体領域との対応付けを行って、確定対応情報を出力する。
【0206】
物体領域抽出部23は、第1の制御部22からの画像情報に基づいて物体領域を抽出し、領域番号を付与した物体領域の画像情報を含む物体領域情報を第1の制御部22に出力する。
【0207】
特徴量生成部24は、第1の制御部22からの画像情報と物体領域情報とに基づいて物体領域の特徴量を抽出する。そして、抽出した物体領域の特徴量を含む領域特徴量情報を第1の制御部22に出力する。
【0208】
特徴量合成部25は、第1の制御部22からの領域特徴量情報と第1の領域対応情報とに基づいて、複数の物体の必要な全ての組み合わせについて物体の特徴量を合成した合成特徴量を算出するそして、特徴量合成部25は、合成特徴量を含んだ合成特徴量情報を第1の制御部22に出力する。
【0209】
なお、第1の領域対応情報は、第1の実施の形態と同様に、物体と物体領域との対応関係の情報と物体の追跡状態の情報とを含む。また、本実施の形態では、第1の制御部22が、第1の領域対応情報を生成する。
【0210】
ビデオカメラ等から、画像信号が入力される画像入力端子21を介して、第1の制御部22は画像情報を入力する。第1の制御部22は、画像情報を物体領域抽出部23に出力し、物体領域抽出部23が出力する物体領域情報を入力する。また、物体領域情報と過去の確定対応情報とに基づいて、第1の領域対応情報を生成し、生成した第1の領域対応情報、画像情報および物体領域情報を特徴量生成部24に出力する。さらに、特徴量生成部24が出力する領域特徴量情報を入力し、領域特徴量情報および第1の領域対応情報を特徴量合成部25に出力する。また、特徴量合成部25が出力する合成特徴量情報を入力する。
【0211】
第1の制御部22は、領域特徴量情報に含まれる物体領域の特徴量と合成特徴量情報に含まれる合成特徴量との類似度を算出し、組み合わせ類似度を算出して、物体と物体領域との最適な対応付けを確定する。そして、確定した物体と物体領域との対応関係の情報を確定対応情報として出力する。
【0212】
図12は、第1の制御部22の構成の一例を示すブロック図である。図12に示すように、第1の制御部22は、第2の制御部221、物体追跡部222、状態判定部223および対応計算部224を含む。
【0213】
なお、第1の制御部22(第2の制御部221、物体追跡部222、状態判定部223および対応計算部224)、物体領域抽出部23、特徴量生成部24および特徴量合成部25は、ハードウェアでも実現可能であるが、ソフトウェアでも実現可能である。すなわち、第1の制御部22、物体領域抽出部23、特徴量生成部24および特徴量合成部25を、プログラムに基づいて処理を実行するCPUと、以下に説明する第1の制御部22、物体領域抽出部23、特徴量生成部24および特徴量合成部25の機能を実現するために記憶装置に格納されているプログラムとで実現することができる。
【0214】
第2の制御部221は、画像入力端子21を介して画像情報が入力されると、画像情報を物体領域抽出部23に出力する。また、第2の制御部221は、物体領域抽出部23が出力した現時刻の物体領域情報と、第2の制御部221自身が記憶する過去の物体領域情報と、第2の制御部221自身が記憶する過去の確定対応情報とを物体追跡部222に出力する。さらに、第2の制御部221は、画像入力端子21を介して入力された画像情報と、物体領域抽出部23が出力した物体領域情報とを領域特徴量生成部24に出力する。なお、確定対応情報の内容は、第1の実施の形態の場合と同じである。
【0215】
また、第2の制御部221は、物体追跡部222から第2の領域対応情報が入力されると、第2の領域対応情報と物体領域情報とを状態判定部223に出力する。なお、第2の領域対応情報の内容は、第1の実施の形態の場合と同じである。
【0216】
また、第2の制御部221は、状態判定部223から第1の領域対応情報が入力されると、第1の領域対応情報において追跡状態が分離状態であることが示されている物体領域についてのみ、物体の特徴量と第1の領域対応情報とを特徴量合成部25に出力する。なお、第1の領域対応情報の内容は、第1の実施の形態の場合と同じである。
【0217】
さらに、第2の制御部221は、特徴量合成部25から合成特徴量情報が入力されると、領域特徴量情報と合成特徴量情報と第1の領域対応情報とを対応計算部224に出力する。また、状態判定部223が出力する第1の領域対応情報において追跡状態が分離状態以外の状態であることが示されている物体については、第1の領域対応情報に含まれる物体領域との対応を、この物体と物体領域との対応関係として確定する。第1の領域対応情報において追跡状態が分離状態であることが示されている物体については、対応計算部224が出力する最適対応情報に含まれる物体領域との対応を、この物体と物体領域との対応関係として確定する。なお、対応計算部224が出力する最適対応情報の内容は、第1の実施の形態の場合と同じである。
【0218】
物体追跡部222は、第2の制御部221から入力された現時刻の物体領域情報と、第2の制御部221が記憶する過去の物体領域情報と、過去の確定対応情報とに基づいて物体を追跡し、第2の領域対応情報を第2の制御部221に出力する。なお、物体追跡部222が物体を追跡する方法は、第1の実施の形態における物体を追跡する方法と同じである。
【0219】
状態判定部223は、第2の制御部221から入力された第2の領域対応情報と物体領域情報とに基づいて物体の追跡状態の判定を行い、第1の領域対応情報を第2の制御部221に出力する。
【0220】
対応計算部224は、第2の制御部221から入力された領域特徴量情報と、合成特徴量情報と、第1の領域対応情報とに基づいて、物体と物体領域との全ての可能な組み合わせについて物体の合成特徴量と物体領域の特徴量との類似度を算出し、組み合わせ類似度を算出し、組み合わせ類似度が最も高くなる物体と物体領域との組み合わせを最適な物体と物体領域との対応付けと確定して、最適対応情報を生成する。そして、最適対応情報を第2の制御部221に出力する。
【0221】
次に、第3の実施の形態による物体追跡装置の動作を説明する。図13は、物体追跡装置の処理経過の一例を示すフローチャートである。画像入力端子21を介して画像情報が入力されると(ステップS1401)、物体領域抽出部23は、画像情報から物体領域を抽出する(ステップS1402)。そして、物体領域の画像情報を含む物体領域情報を出力する。
【0222】
物体追跡部222は、物体を追跡して物体と物体領域とを対応付け、第2の領域対応情報を出力する。状態判定部223は、第2の領域対応情報と物体領域情報とに基づいて物体の追跡状態を判定する(ステップS1403)。特徴量生成部24は、物体領域の特徴量を算出する(ステップS1404)。
【0223】
第2の制御部221は、カウンタiを有する。第2の制御部221は、物体の数をカウンタiに設定する(ステップS1405)。第2の制御部221は、カウンタiの値が「0」であるかを判定して(ステップS1406)、カウンタiの値が「0」である場合には処理を終了する。カウンタiの値が「0」でない場合には、第2の制御部221は、状態判定部223に次のステップS1407の処理の実行を指示する。
【0224】
状態判定部223は、物体の追跡状態が分離状態であるかを判定する(ステップS1407)。状態判定部223が物体の追跡状態が分離状態であると判定した場合には、特徴量合成部25は、複数の物体の必要な全ての組み合わせについて物体の特徴量を合成して合成特徴量を生成する(ステップS1408)。
【0225】
対応計算部224は、物体と物体領域との全ての可能な組み合わせについて物体の合成特徴量と物体領域の特徴量との類似度を算出し、組み合わせ類似度を算出する。第2の制御部221は、対応計算部224が算出した組み合わせ類似度が最も高くなる物体と物体領域との組み合わせを最適な物体と物体領域との対応関係として確定する(ステップS1409)。
【0226】
ステップS1407において、追跡状態が分離状態以外の状態であると状態判定部223が判定した場合には、第2の制御部221は、第1の領域対応情報に含まれる物体と物体領域との対応を、最適な物体と物体領域との対応関係として確定する(ステップS1409)。
【0227】
特徴量生成部14は、対応が確定した物体の特徴量を更新する(ステップS1410)。ただし、特徴量生成部14は、追跡状態が単独状態であることが示されている物体についてのみ、特徴量を更新する。
【0228】
次いで、第2の制御部221は、カウンタの値を「1」減らす(ステップS1411)。そして、ステップS1406において、カウンタの値が「0」と判断されるまでステップS1407からステップS1410までの処理が繰り返し実行される。すなわち、全ての物体について、最適な物体領域との対応関係が確定するまでステップS1407からステップS1410までの処理が実行される。全ての物体について物体領域との対応関係を確定するための処理(ステップS1407〜S1410)が終了したら、再び、ステップS1401から処理を実行する。
【0229】
以上のように物体追跡装置を構成することにより、第1の実施の形態と同様の機能を有する物体追跡装置を実現することができる。
【0230】
なお、図11および図12に示された構成は、ソフトウェアによって実現可能である。すなわち、本実施の形態では、画像情報を入力する画像入力処理と、物体領域情報と、現時刻以前の物体領域と物体との対応関係を示す確定対応情報とから、追跡状態を物体毎または物体領域毎に判定し、物体領域および物体と追跡状態との対応関係を示す第1の領域対応情報を出力する追跡状態判定処理と、画像情報、物体領域情報および追跡状態判定手段の判定結果を用いて、物体領域の特徴量を示す領域特徴量および物体の特徴量を示す物体特徴量を生成する特徴量生成処理と、各物体を対象として、追跡状態が、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態以外の状態であると判定されている物体について、第1の領域対応情報に含まれる物体と物体領域との対応を、物体と物体領域との対応として確定し、追跡状態が分離状態であると判定されている物体について、物体特徴量と第1の領域対応情報とから複数の物体の必要な全ての組み合わせについて特徴量を合成して各合成特徴量を生成し、各合成特徴量と領域特徴量とを比較し、最も類似度が高い合成特徴量に対応した物体と物体領域とを対応付ける対応付け処理とを実行させるための物体追跡プログラムによって物体追跡装置を実現可能である。
【0231】
【発明の効果】
以上に説明したように、本発明によれば、複数の物体の特徴量を合成し、合成特徴量を用いて物体と物体領域との特徴量の類似度を求めるので、物体分離後に複数の物体が存在する場合や交差時に物体が入れ替わった場合に、物体と物体領域との対応づけを誤らないようにすることができる。特に、重なり状態が解消された際の物体と物体領域との対応付けにおいて、物体と物体領域との対応づけを誤らないようにすることができる。
【0232】
また、領域と物体との組み合わせを考え、各組み合わせについて類似度を求めることによって、物体と領域を対応付ける際に、全体として最適となる対応付けを選択できる。
【図面の簡単な説明】
【図1】本発明による物体追跡装置の構成の一例を示すブロック図である。
【図2】対応付け部の構成の一例を示すブロック図である。
【図3】本発明による物体追跡装置の処理経過の一例を示すフローチャートである。
【図4】第1の領域対応情報の一例を示す説明図である。
【図5】追跡状態判定部の構成の一例を示すブロック図である。
【図6】第2の領域対応情報の一例を示す説明図である。
【図7】特徴量生成部の構成の一例を示すブロック図である。
【図8】対応確定部の構成の一例を示すブロック図である。
【図9】テンプレートを用いた特徴量の合成方法の一例を示す説明図である。
【図10】本発明による物体追跡装置の構成の他の例を示すブロック図である。
【図11】本発明による物体追跡装置の構成のさらに他の例を示すブロック図である。
【図12】第1の制御部の構成の一例を示すブロック図である。
【図13】本発明による物体追跡装置の処理経過の他の例を示すフローチャートである。
【図14】従来の物体追跡装置の構成を示すブロック図である。
【符号の説明】
11,21 画像入力端子
12,23 物体領域抽出部
13 追跡状態判定部
131,222 物体追跡部
132,223 状態判定部
133 物体領域情報記憶部
14,24 特徴量生成部
141 特徴量抽出部
142 特徴量更新部
143 特徴量記憶部
15,25 特徴量合成部
16 対応確定部
161,224 対応計算部
162 対応決定部
17 対応付け部
22 第1の制御部
221 第2の制御部

Claims (61)

  1. 画像情報に基づいて物体を追跡する物体追跡装置において、
    前記画像情報に含まれる各物体の特徴量を示す物体特徴量を合成して合成特徴量を生成する特徴量合成手段と、
    前記画像情報から抽出された領域であって物体を含む領域である物体領域の特徴量と前記合成特徴量との類似度に基づいて物体領域と物体とを対応付ける対応付け手段と
    を備えたことを特徴とする物体追跡装置。
  2. 特徴量合成手段は、複数の物体の必要な全ての組み合わせについて特徴量を合成して各合成特徴量を生成し、
    対応付け手段は、前記特徴量合成手段が生成した各合成特徴量と物体領域の特徴量を示す領域特徴量とを比較することによって物体と物体領域とを対応付ける
    請求項1記載の物体追跡装置。
  3. 画像情報から物体領域を抽出して物体領域の画像情報を含む物体領域情報を出力する物体領域抽出手段と、
    他の物体との相対的な位置関係を表す追跡状態を物体毎または物体領域毎に判定する追跡状態判定手段と、
    前記画像情報、前記物体領域情報および前記追跡状態判定手段の判定結果を用いて、領域特徴量および物体特徴量を生成する特徴量生成手段とを備え、
    特徴量合成手段は、前記物体特徴量および前記追跡状態判定手段の判定結果を用いて合成特徴量を生成する
    請求項2記載の物体追跡装置。
  4. 追跡状態判定手段は、物体領域情報と、現時刻以前の物体領域と物体との対応関係を示す確定対応情報とから、追跡状態を物体毎または物体領域毎に判定し、物体領域および物体と追跡状態との対応関係を示す第1の領域対応情報を出力し、
    特徴量生成手段は、現時刻の画像情報、前記物体領域情報、前記第1の領域対応情報および前記確定対応情報から、領域特徴量と物体特徴量とを生成し、
    特徴量合成手段は、前記物体特徴量と前記第1の領域対応情報とから、物体領域に対応付けられる候補となる各合成特徴量を生成し、合成特徴量および合成特徴量生成のために用いられた物体と合成特徴量との対応関係を含む情報である合成特徴量情報を出力し、
    対応付け手段は、前記第1の領域対応情報、前記領域特徴量を示す情報である領域特徴量情報および前記合成特徴量情報から物体と物体領域とを対応付け、現時刻に対する前記確定対応情報を出力する対応確定手段を含む
    請求項3記載の物体追跡装置。
  5. 追跡状態には、物体領域内に1つの物体のみが存在する単独状態、物体領域内に複数の物体が対応する重なり状態、および物体領域が複数の物体領域に分かれる過渡的な状態である分離状態が含まれる
    請求項3または請求項4記載の物体追跡装置。
  6. 特徴量生成手段は、
    物体領域の色ヒストグラム、面積、画像テンプレートおよび面積で正規化された色ヒストグラムのいずれかまたはそれらの組み合わせを領域特徴量として生成し、
    前記物体に対応する物体領域を前記第1の領域対応情報から求め、その物体領域に対する色ヒストグラム、面積、画像テンプレートおよび面積で正規化された色ヒストグラムのいずれかまたはそれらの組み合わせを物体特徴量として生成する
    請求項4記載の物体追跡装置。
  7. 追跡状態判定手段は、
    物体領域情報を記憶する物体領域記憶手段と、
    前記物体領域情報、確定対応情報、および前記物体領域記憶手段から出力される現時刻以前の物体領域情報とから物体を追跡し、物体と物体領域との対応を示す第2の領域対応情報を出力する物体追跡手段と、
    前記第2の領域対応情報、前記物体領域情報および現時刻以前の前記物体領域情報とから物体の追跡状態を判定し、前記第1の領域対応情報を出力する状態判定手段とを含む
    請求項4記載の物体追跡装置。
  8. 状態判定手段は、
    第2の領域対応情報と物体領域情報とから、物体と物体領域との対応、物体領域間の距離、物体領域の分離中の継続時間のいずれかまたはそれらの組み合わせに基づいて、対応する前記物体領域に共通の領域が存在する物体同士をまとめ、これらの物体と対応する物体領域を1つのクラスに分類し、対応する物体領域がどの物体とも異なる物体については、その物体と対応する物体領域を1つのクラスに分類することによって、物体および物体領域を複数のクラスに分類し、分類したクラスに基づいて追跡状態を判定する
    請求項7記載の物体追跡装置。
  9. 追跡状態は、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、
    状態判定手段は、
    分類したクラスに2以上の物体領域が含まれる場合に、そのクラスは分離状態である条件を満たすと判断し、
    クラスが分離状態である条件を満たす場合に、そのクラスに含まれる物体および物体領域の追跡状態を分離状態と判定する
    請求項8記載の物体追跡装置。
  10. 状態判定手段は、
    分類したクラスが分離状態である条件を満たし、さらに、
    前記クラスに2以上の物体が含まれること、前記クラスに含まれる物体領域間の距離が予め決められた閾値以上であること、前記クラスに含まれる物体領域の分離中の継続時間が予め決められた閾値以上であることのいずれかまたはそれらの組み合わせを満たす場合に、前記クラスに含まれる物体および物体領域の追跡状態を分離状態と判定する
    請求項9記載の物体追跡装置。
  11. 追跡状態は、分離状態と、物体領域内に1つの物体のみが存在する単独状態とを含み、
    状態判定手段は、分類したクラスが1つの物体を含み、前記クラスに含まれる物体および物体領域の追跡状態が分離状態でない場合に、前記クラスに含まれる物体および物体領域の追跡状態を単独状態と判定する
    請求項9または請求項10記載の物体追跡装置。
  12. 追跡状態は、分離状態と、物体領域内に複数の物体が対応する重なり状態とを含み、
    状態判定手段は、分類したクラスが2以上の物体を含み、前記クラスに含まれる物体および物体領域の追跡状態が分離状態でない場合に、前記クラスに含まれる物体および物体領域の追跡状態を重なり状態と判定する
    請求項9または請求項10記載の物体追跡装置。
  13. 特徴量生成手段は、
    画像情報と物体領域情報と第1の領域対応情報とから領域特徴量を抽出し、前記領域特徴量を示す情報である領域特徴量情報を出力する特徴量抽出手段と、
    物体特徴量を記憶し、要求に応じて、記憶する物体特徴量を選択して出力する特徴量記憶手段と、
    前記領域特徴量情報、前記第1の領域対応情報あるいは確定対応情報および現時刻より以前に生成した物体特徴量とから、特徴量記憶手段が記憶する前記物体特徴量を更新する特徴量更新手段とを含む
    請求項4記載の物体追跡装置。
  14. 追跡状態は、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、
    特徴量抽出手段は、追跡状態として分離状態以外の状態が示されている物体領域については、物体との対応付けが不要であることを示す情報を領域特徴量情報に含め、
    対応確定手段は、前記領域特徴量情報によって物体との対応付けが不要であることが示されている物体領域を対応付けの対象から除外する
    請求項13記載の物体追跡装置。
  15. 追跡状態は、物体領域内に1つの物体のみが存在する単独状態を含み、
    特徴量更新手段は、
    第1の領域対応情報あるいは確定対応情報から物体の追跡状態が単独状態であるかを判定し、
    物体の追跡状態が単独状態以外の場合には、特徴量記憶手段が記憶する物体特徴量を更新しない
    請求項13記載の物体追跡装置。
  16. 特徴量合成手段は、
    特徴量生成手段が生成する物体特徴量と第1の領域対応情報とに基づいて、組み合わせが可能な物体と物体領域との全ての組み合わせを決定し、
    決定した物体と物体領域との組み合わせについてのみ、物体特徴量を合成して合成特徴量を生成する
    請求項4記載の物体追跡装置。
  17. 特徴量合成手段は、物体特徴量を合成する割合を補正するための係数である合成比率を求め、前記合成比率と物体特徴量とから合成特徴量を生成する
    請求項4記載の物体追跡装置。
  18. 特徴量合成手段は、特徴量生成手段から物体特徴量とともに領域特徴量を入力し、入力した領域特徴量情報と物体の特徴量とに基づいて任意の合成比率に応じて合成特徴量を算出し、算出した合成特徴量と領域特徴量との類似度が最も高くなる場合の合成比率に応じた合成特徴量を出力する
    請求項4記載の物体追跡装置。
  19. 追跡状態は、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、
    特徴量合成手段は、追跡状態として分離状態であることが示されている物体領域についてのみ合成特徴量を生成する
    請求項4記載の物体追跡装置。
  20. 物体特徴量は、物体の面積を含み、
    特徴量合成手段は、前記物体特徴量に含まれる物体の面積から物体特徴量を合成する割合を補正するための係数である合成比率を求め、前記合成比率と前記物体特徴量とから合成特徴量を生成する
    請求項4記載の物体追跡装置。
  21. 特徴量合成手段は、合成比率を、物体の面積の変化に基づく所定範囲内に制限する
    請求項20記載の物体追跡装置。
  22. 特徴量合成手段は、特徴量生成手段から物体特徴量とともに領域特徴量を入力し、入力された領域特徴量と物体特徴量とから、物体の面積変化の範囲内で合成特徴量を生成し、物体領域との類似度が最も高くなる合成特徴量を出力する
    請求項4記載の物体追跡装置。
  23. 物体特徴量は、物体の形状や色を記述した画像テンプレートを含み、
    特徴量合成手段は、画像テンプレートと領域特徴量とから各物体の前後関係を判定し、判定した各物体の前後関係に基づいて画像テンプレートを合成して合成特徴量を得る
    請求項4記載の物体追跡装置。
  24. 対応確定手段は、
    合成特徴量情報、領域特徴量情報および第1の領域対応情報に基づいて、物体と物体領域との組み合わせのうち対応付けられる可能性のある全ての可能な組み合わせから最も類似した組み合わせを求め、求められた物体と物体領域との組み合わせを最適な対応付けとして選択して、物体と物体領域との最適な対応関係を示す最適対応情報を生成する対応計算手段と、
    前記第1の領域対応情報および前記最適対応情報に基づいて、物体と物体領域との対応関係を確定し、確定した物体と物体領域との対応関係を含む情報である確定対応情報を出力する対応決定手段とを含む
    請求項4記載の物体追跡装置。
  25. 対応計算手段は、物体と物体領域との全ての可能な組み合わせについて、各組み合わせにおける物体領域の特徴量と合成特徴量との類似度の合計である合計類似度を求め、前記全ての可能な組み合わせのうち、合計類似度が最大となる組み合わせを最も類似した組み合わせとする
    請求項24記載の物体追跡装置。
  26. 第1の領域対応情報は、物体領域が静止している状態であるか動作している状態であるかを示す静動状態の情報を含み、
    対応計算手段は、前記静動状態の情報によって、静止している状態であることが示されている物体領域と物体との組み合わせを、全ての可能な組み合わせから除外する
    請求項24記載の物体追跡装置。
  27. 対応計算手段は、最も類似した組み合わせとして決定した組み合わせを構成する物体と物体領域との組の類似度から得られる組み合わせ類似度が予め決められた閾値以下である場合には、物体と物体領域との全ての可能な組み合わせのうち、組み合わせ類似度が最大となる組み合わせの組み合わせ類似度から予め決められた閾値以内の組み合わせ類似度を持つ組み合わせを選択し、選択した組み合わせに共通して存在する物体と物体領域との対応関係を、最適な対応付けとして最適対応情報に含め、前記共通して存在する物体と物体領域との対応関係に含まれない物体と物体領域については、物体と物体領域には最適な対応がないことを示す情報を最適対応情報に含め、
    対応決定手段は、
    最適な物体と物体領域との対応関係がない旨が前記最適対応情報に示されていない物体については、その最適対応情報に含まれる物体と物体領域との対応関係を示す情報を確定対応情報として出力し、
    最適な物体と物体領域との対応関係がない旨が前記最適対応情報に示されている物体については、第1の領域対応情報に含まれる物体と物体領域との対応関係を示す情報を確定対応情報として出力する
    請求項24または請求項25記載の物体追跡装置。
  28. 追跡状態は、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、
    対応決定手段は、追跡状態として分離状態が示されている物体領域についてのみ、最適対応情報に示される物体と物体領域との対応関係を確定する
    請求項24記載の物体追跡装置。
  29. 追跡状態は、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、
    対応決定手段は、追跡状態として分離状態以外の状態が示されている物体領域についてのみ、第1の領域対応情報に含まれる物体と物体領域との対応を確定対応情報として出力する
    請求項24記載の物体追跡装置。
  30. 画像情報に基づいて物体を追跡する物体追跡方法において、前記画像情報に含まれる各物体の特徴量を示す物体特徴量を合成して合成特徴量を生成し、
    前記画像情報から抽出された領域であって物体を含む領域である物体領域の特徴量と前記合成特徴量との類似度に基づいて物体領域と物体とを対応付ける
    ことを特徴とする物体追跡方法。
  31. 複数の物体の必要な全ての組み合わせについて特徴量を合成して各合成特徴量を生成し、
    生成された各合成特徴量と物体領域の特徴量を示す領域特徴量とを比較することによって物体と物体領域とを対応付ける
    請求項30記載の物体追跡方法。
  32. 画像情報から物体領域を抽出して物体領域の画像情報を含む物体領域情報を出力し、
    他の物体との相対的な位置関係を表す追跡状態を物体毎または物体領域毎に判定し、
    前記画像情報、前記物体領域情報および前記判定結果を用いて、領域特徴量および物体特徴量を生成し、
    前記物体特徴量および前記判定結果を用いて合成特徴量を生成する
    請求項31記載の物体追跡方法。
  33. 物体領域情報と、現時刻以前の物体領域と物体との対応関係を示す確定対応情報とから、追跡状態を物体毎または物体領域毎に判定し、物体領域および物体と追跡状態との対応関係を示す第1の領域対応情報を出力し、
    現時刻の画像情報、前記物体領域情報、前記第1の領域対応情報および前記確定対応情報から、領域特徴量と物体特徴量とを生成し、
    前記物体特徴量と前記第1の領域対応情報とから、物体領域に対応付けられる候補となる各合成特徴量を生成し、合成特徴量および合成特徴量生成のために用いられた物体と合成特徴量との対応関係を含む情報である合成特徴量情報を出力し、
    前記第1の領域対応情報、前記領域特徴量を示す情報である領域特徴量情報および前記合成特徴量情報から物体と物体領域とを対応付け、現時刻に対する前記確定対応情報を出力する
    請求項32記載の物体追跡方法。
  34. 追跡状態には、物体領域内に1つの物体のみが存在する単独状態、物体領域内に複数の物体が対応する重なり状態、および物体領域が複数の物体領域に分かれる過渡的な状態である分離状態が含まれる
    請求項32または請求項33記載の物体追跡方法。
  35. 物体領域の色ヒストグラム、面積、画像テンプレートおよび面積で正規化された色ヒストグラムのいずれかまたはそれらの組み合わせを領域特徴量として生成し、
    前記物体に対応する物体領域を前記第1の領域対応情報から求め、その物体領域に対する色ヒストグラム、面積、画像テンプレートおよび面積で正規化された色ヒストグラムのいずれかまたはそれらの組み合わせを物体特徴量として生成する
    請求項33記載の物体追跡方法。
  36. 物体領域情報を記憶し、
    前記物体領域情報、確定対応情報、および現時刻以前の物体領域情報とから物体を追跡し、物体と物体領域との対応を示す第2の領域対応情報を出力し、
    前記第2の領域対応情報、前記物体領域情報および現時刻以前の前記物体領域情報とから物体の追跡状態を判定し、前記第1の領域対応情報を出力する
    請求項33記載の物体追跡方法。
  37. 第2の領域対応情報と物体領域情報とから、物体と物体領域との対応、物体領域間の距離、物体領域の分離中の継続時間のいずれかまたはそれらの組み合わせに基づいて、対応する前記物体領域に共通の領域が存在する物体同士をまとめ、これらの物体と対応する物体領域を1つのクラスに分類し、対応する物体領域がどの物体とも異なる物体については、その物体と対応する物体領域を1つのクラスに分類することによって、物体および物体領域を複数のクラスに分類し、
    分類したクラスに基づいて追跡状態を判定する
    請求項36記載の物体追跡方法。
  38. 追跡状態は、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、
    分類したクラスに2以上の物体領域が含まれる場合に、そのクラスは分離状態である条件を満たすと判断し、
    クラスが分離状態である条件を満たす場合に、そのクラスに含まれる物体および物体領域の追跡状態を分離状態と判定する
    請求項37記載の物体追跡方法。
  39. 分類したクラスが分離状態である条件を満たし、さらに、前記クラスに2以上の物体が含まれること、前記クラスに含まれる物体領域間の距離が予め決められた閾値以上であること、前記クラスに含まれる物体領域の分離中の継続時間が予め決められた閾値以上であることのいずれかまたはそれらの組み合わせを満たす場合に、前記クラスに含まれる物体および物体領域の追跡状態を分離状態と判定する
    請求項38記載の物体追跡方法。
  40. 追跡状態は、分離状態と、物体領域内に1つの物体のみが存在する単独状態とを含み、
    分類したクラスが1つの物体を含み、前記クラスに含まれる物体および物体領域の追跡状態が分離状態でない場合に、前記クラスに含まれる物体および物体領域の追跡状態を単独状態と判定する
    請求項38または請求項39記載の物体追跡方法。
  41. 追跡状態は、分離状態と、物体領域内に複数の物体が対応する重なり状態とを含み、
    分類したクラスが2以上の物体を含み、前記クラスに含まれる物体および物体領域の追跡状態が分離状態でない場合に、前記クラスに含まれる物体および物体領域の追跡状態を重なり状態と判定する
    請求項38または請求項39記載の物体追跡方法。
  42. 画像情報と物体領域情報と第1の領域対応情報とから領域特徴量を抽出し、前記領域特徴量を示す情報である領域特徴量情報を出力し、
    物体特徴量を記憶し、要求に応じて、記憶している物体特徴量を選択して出力し、
    前記領域特徴量情報と、第1の領域対応情報あるいは確定対応情報と、現時刻より以前に生成した物体特徴量とから、記憶される前記物体特徴量を更新する
    請求項33記載の物体追跡方法。
  43. 追跡状態は、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、
    追跡状態として分離状態以外の状態が示されている物体領域については、物体との対応付けが不要であることを示す情報を領域特徴量情報に含め、
    前記領域対応情報によって物体との対応付けが不要であることが示されている物体領域を対応付けの対象から除外する
    請求項42記載の物体追跡方法。
  44. 追跡状態は、物体領域内に1つの物体のみが存在する単独状態を含み、
    第1の領域対応情報あるいは確定対応情報から物体の追跡状態が単独状態であるかを判定し、
    物体の追跡状態が単独状態以外の場合には、記憶される物体特徴量を更新しない
    請求項42記載の物体追跡方法。
  45. 物体特徴量と第1の領域対応情報とに基づいて、組み合わせが可能な物体と物体領域との全ての組み合わせを決定し、
    決定した物体と物体領域との組み合わせについてのみ、物体特徴量を合成して合成特徴量を生成する
    請求項33記載の物体追跡方法。
  46. 物体特徴量を合成する割合を補正するための係数である合成比率を求め、
    前記合成比率と物体特徴量とから合成特徴量を生成する
    請求項33記載の物体追跡方法。
  47. 物体特徴量とともに領域特徴量を入力し、入力した領域特徴量情報と物体の特徴量とに基づいて任意の合成比率に応じて合成特徴量を算出し、算出した合成特徴量と領域特徴量との類似度が最も高くなる場合の合成比率に応じた合成特徴量を出力する
    請求項33記載の物体追跡方法。
  48. 追跡状態は、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、
    追跡状態として分離状態であることが示されている物体領域についてのみ合成特徴量を生成する
    請求項33記載の物体追跡方法。
  49. 物体特徴量は、物体の面積を含み、
    物体の面積に基づいて物体特徴量を合成する割合を補正するための係数である合成比率を求め、求められた合成比率と物体特徴量とから合成特徴量を生成する
    請求項33記載の物体追跡方法。
  50. 合成比率を、物体の面積の変化に基づく所定範囲内に制限する
    請求項49記載の物体追跡方法。
  51. 物体特徴量とともに領域特徴量を入力し、入力された領域特徴量と物体特徴量とから、物体の面積変化の範囲内で合成特徴量を生成し、物体領域との類似度が最も高くなる合成特徴量を出力する
    請求項33記載の物体追跡装置。
  52. 物体特徴量が物体の形状や色を記述した画像テンプレートを含み、
    画像テンプレートと領域特徴量とから各物体の前後関係を判定し、判定した各物体の前後関係に基づいて画像テンプレートを合成して合成特徴量を得る
    請求項33記載の物体追跡方法。
  53. 合成特徴量情報、領域特徴量情報および第1の領域対応情報に基づいて、物体と物体領域との組み合わせのうち対応付けられる可能性のある全ての可能な組み合わせから最も類似した組み合わせを求め、求められた物体と物体領域との組み合わせを最適な対応付けとして選択して、物体と物体領域との最適な対応関係を示す最適対応情報を生成し、
    前記第1の領域対応情報および前記最適対応情報に基づいて、物体と物体領域との対応関係を確定し、確定した物体と物体領域との対応関係を含む情報である確定対応情報を出力する
    請求項33記載の物体追跡方法。
  54. 物体と物体領域との全ての可能な組み合わせについて、各組み合わせにおける物体領域の特徴量と合成特徴量との類似度の合計である合計類似度を求め、前記全ての可能な組み合わせのうち、合計類似度が最大となる組み合わせを最も類似した組み合わせとする
    請求項53記載の物体追跡方法。
  55. 第1の領域対応情報が、物体領域が静止している状態であるか動作している状態であるかを示す静動状態の情報を含み、
    前記静動状態の情報によって、静止している状態であることが示されている物体領域と物体との組み合わせを、全ての可能な組み合わせから除外する
    請求項53記載の物体追跡方法。
  56. 最も類似した組み合わせとして決定した組み合わせを構成する物体と物体領域との組の類似度から得られる組み合わせ類似度が予め決められた閾値以下である場合には、物体と物体領域との全ての可能な組み合わせのうち、組み合わせ類似度が最大となる組み合わせの組み合わせ類似度から予め決められた閾値以内の組み合わせ類似度を持つ組み合わせを選択し、選択した組み合わせに共通して存在する物体と物体領域との対応関係を、最適な対応付けとして最適対応情報に含め、前記共通して存在する物体と物体領域との対応関係に含まれない物体と物体領域については、物体と物体領域には最適な対応がないことを示す情報を最適対応情報に含め、
    最適な物体と物体領域との対応関係がない旨が前記最適対応情報に示されていない物体については、その最適対応情報に含まれる物体と物体領域との対応関係を示す情報を確定対応情報として出力し、
    最適な物体と物体領域との対応関係がない旨が前記最適対応情報に示されている物体については、第1の領域対応情報に含まれる物体と物体領域との対応関係を示す情報を確定対応情報として出力する
    請求項53または請求項54記載の物体追跡方法。
  57. 追跡状態は、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、
    追跡状態として分離状態が示されている物体領域についてのみ、最適対応情報に示される物体と物体領域との対応関係を確定する
    請求項53記載の物体追跡方法。
  58. 追跡状態は、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態を含み、
    追跡状態として分離状態以外の状態が示されている物体領域についてのみ、第1の領域対応情報に含まれる物体と物体領域との対応を確定対応情報として出力する
    請求項53記載の物体追跡方法。
  59. 画像情報に基づいて物体を追跡する物体追跡プログラムであって、
    コンピュータに、
    画像情報を入力する処理と、
    入力された前記画像情報に含まれる各物体の特徴量を示す物体特徴量を合成して合成特徴量を生成する処理と、
    前記画像情報から抽出された領域であって物体を含む領域である物体領域の特徴量と前記合成特徴量との類似度に基づいて物体領域と物体とを対応付ける処理と
    を実行させるための物体追跡プログラム。
  60. 入力された画像情報における物体と物体領域とを対応付ける物体追跡プログラムであって、
    コンピュータに、
    画像情報を入力する処理と、
    入力された前記画像情報から物体領域を抽出して物体領域の画像情報を含む物体領域情報を出力する処理と、
    前記物体領域情報と、現時刻以前の物体領域と物体との対応関係を示す確定対応情報とから、追跡状態を物体毎または物体領域毎に判定し、前記物体領域および前記物体と前記追跡状態との対応関係を示す第1の領域対応情報を出力する処理と、
    前記画像情報、前記物体領域情報および前記第1の領域対応情報を用いて、物体領域の特徴量を示す領域特徴量および物体の特徴量を示す物体特徴量を生成する処理と、
    前記物体特徴量と前記第1の領域対応情報とから、複数の物体の必要な全ての組み合わせについて特徴量を合成して各合成特徴量を生成し、合成特徴量および合成特徴量生成のために用いられた物体と合成特徴量との対応関係を含む情報である合成特徴量情報を出力する処理と、
    前記第1の領域対応情報、前記領域特徴量情報および前記合成特徴量情報から物体と物体領域とを対応付け、現時刻に対する前記確定対応情報を出力する処理と
    を実行させるための物体追跡プログラム。
  61. 入力された画像情報における物体と物体領域とを対応付ける物体追跡プログラムであって、
    コンピュータに、
    画像情報を入力する処理と、
    前記物体領域情報と、現時刻以前の物体領域と物体との対応関係を示す確定対応情報とから、追跡状態を物体毎または物体領域毎に判定し、物体領域および物体と追跡状態との対応関係を示す第1の領域対応情報を出力する処理と、
    前記画像情報、前記物体領域情報および前記第1の領域対応情報を用いて、物体領域の特徴量を示す領域特徴量および物体の特徴量を示す物体特徴量を生成する処理と、
    各物体を対象として、追跡状態が、物体領域が複数の物体領域に分かれる過渡的な状態である分離状態以外の状態であると判定されている物体について、前記第1の領域対応情報に含まれる物体と物体領域との対応を、物体と物体領域との対応として確定し、追跡状態が分離状態であると判定されている物体について、前記物体特徴量と前記第1の領域対応情報とから複数の物体の必要な全ての組み合わせについて特徴量を合成して各合成特徴量を生成し、各合成特徴量と領域特徴量とを比較し、最も類似度が高い合成特徴量に対応した物体と物体領域とを対応付ける処理と
    を実行させるための物体追跡プログラム。
JP2002254493A 2002-08-30 2002-08-30 物体追跡装置、物体追跡方法および物体追跡プログラム Expired - Fee Related JP4240957B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2002254493A JP4240957B2 (ja) 2002-08-30 2002-08-30 物体追跡装置、物体追跡方法および物体追跡プログラム
EP03791330A EP1538565A4 (en) 2002-08-30 2003-08-27 OBJECT TRACKING DEVICE, OBJECT TRACKING PROCEDURE AND OBJECT PURPOSE PROGRAM
US10/525,874 US20050254686A1 (en) 2002-08-30 2003-08-27 Object trace device, object method, and object trace program
PCT/JP2003/010837 WO2004021281A1 (ja) 2002-08-30 2003-08-27 物体追跡装置、物体追跡方法および物体追跡プログラム
CNB038247518A CN1320502C (zh) 2002-08-30 2003-08-27 用于跟踪目标的装置、跟踪目标的方法和跟踪目标的程序
KR1020057003601A KR100664425B1 (ko) 2002-08-30 2003-08-27 물체 추적 장치, 물체 추적 방법, 및 물체 추적 프로그램을 수록한 컴퓨터 판독 가능 기록매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002254493A JP4240957B2 (ja) 2002-08-30 2002-08-30 物体追跡装置、物体追跡方法および物体追跡プログラム

Publications (2)

Publication Number Publication Date
JP2004096402A true JP2004096402A (ja) 2004-03-25
JP4240957B2 JP4240957B2 (ja) 2009-03-18

Family

ID=31972842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002254493A Expired - Fee Related JP4240957B2 (ja) 2002-08-30 2002-08-30 物体追跡装置、物体追跡方法および物体追跡プログラム

Country Status (6)

Country Link
US (1) US20050254686A1 (ja)
EP (1) EP1538565A4 (ja)
JP (1) JP4240957B2 (ja)
KR (1) KR100664425B1 (ja)
CN (1) CN1320502C (ja)
WO (1) WO2004021281A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055139A (ja) * 2007-08-23 2009-03-12 Hitachi Kokusai Electric Inc 人物追跡システム、人物追跡装置および人物追跡プログラム
WO2011141990A1 (ja) * 2010-05-10 2011-11-17 富士通株式会社 画像処理装置および画像処理プログラム
KR101173802B1 (ko) 2010-03-15 2012-08-16 오므론 가부시키가이샤 대상물 추적 장치, 대상물 추적 방법, 및 제어 프로그램이 기록된 기록 매체
US8355046B2 (en) 2004-07-14 2013-01-15 Panasonic Corporation Object tracing device, object tracing system, and object tracing method
JP2015114933A (ja) * 2013-12-13 2015-06-22 国立大学法人 東京大学 物体認識装置、ロボット及び物体認識方法
JP2017182295A (ja) * 2016-03-29 2017-10-05 Kddi株式会社 画像処理装置
WO2017199840A1 (ja) * 2016-05-18 2017-11-23 日本電気株式会社 オブジェクト追跡装置、オブジェクト追跡方法および記録媒体
US10636153B2 (en) 2016-11-22 2020-04-28 Fujitsu Limited Image processing system, image processing apparatus, and image processing method for object tracking
US10839532B2 (en) 2017-11-13 2020-11-17 Fujitsu Limited Image processing method and information processing apparatus
WO2023176405A1 (ja) * 2022-03-17 2023-09-21 国立研究開発法人量子科学技術研究開発機構 画像認識プログラム、これを用いた画像認識装置、検出対象個体数計数方法、およびこれらに使用する画像認識学習用モデル画像作成装置

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7526750B2 (en) * 2003-10-15 2009-04-28 Microsoft Corporation Object-based systematic state space exploration of software
CN100435555C (zh) * 2005-11-17 2008-11-19 中国科学院半导体研究所 高速目标跟踪方法及其电路系统
JP5122567B2 (ja) * 2006-08-11 2013-01-16 トムソン ライセンシング 動き描写操作の方法及び装置
US7920717B2 (en) * 2007-02-20 2011-04-05 Microsoft Corporation Pixel extraction and replacement
JP2009053815A (ja) * 2007-08-24 2009-03-12 Nikon Corp 被写体追跡プログラム、および被写体追跡装置
US8660300B2 (en) * 2008-12-12 2014-02-25 Silicon Laboratories Inc. Apparatus and method for optical gesture recognition
JP2011015244A (ja) * 2009-07-03 2011-01-20 Sanyo Electric Co Ltd ビデオカメラ
US8509482B2 (en) * 2009-12-21 2013-08-13 Canon Kabushiki Kaisha Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
EP2561434B1 (en) * 2010-04-20 2017-07-19 ZTE Corporation Method and system for hierarchical tracking of content and cache for networking and distribution to wired and mobile devices
KR101054736B1 (ko) * 2010-05-04 2011-08-05 성균관대학교산학협력단 3차원 물체 인식 및 자세 추정 방법
RU2546327C1 (ru) 2011-03-28 2015-04-10 Нек Корпорейшн Устройство для отслеживания человека, способ отслеживания человека и невременный машиночитаемый носитель, хранящий программу для отслеживания человека
US9230366B1 (en) * 2013-12-20 2016-01-05 Google Inc. Identification of dynamic objects based on depth data
JP6203077B2 (ja) * 2014-02-21 2017-09-27 株式会社東芝 学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システム
KR101596436B1 (ko) * 2014-05-19 2016-02-23 한국과학기술연구원 다중 목표 추적 시스템 및 방법
JP6340957B2 (ja) * 2014-07-02 2018-06-13 株式会社デンソー 物体検出装置および物体検出プログラム
US20170053172A1 (en) * 2015-08-20 2017-02-23 Kabushiki Kaisha Toshiba Image processing apparatus, and image processing method
US10462449B2 (en) * 2017-02-23 2019-10-29 Novatek Microelectronics Corp. Method and system for 360-degree video playback
KR102022971B1 (ko) * 2017-10-18 2019-09-19 한국전자통신연구원 영상의 객체 처리 방법 및 장치
JP6707305B2 (ja) * 2018-02-06 2020-06-10 日本電信電話株式会社 コンテンツ判定装置、コンテンツ判定方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2620952B2 (ja) * 1988-04-18 1997-06-18 日本電信電話株式会社 微細パターン形成方法
JPH0259976A (ja) * 1988-08-26 1990-02-28 Matsushita Electric Works Ltd ブロック統合処理方式
JP3022899B2 (ja) * 1991-01-31 2000-03-21 株式会社エヌ・ティ・ティ・データ 図形の部分照合方法
JPH0721475A (ja) * 1993-06-30 1995-01-24 Fuji Electric Co Ltd 侵入物体監視装置
US6185314B1 (en) * 1997-06-19 2001-02-06 Ncr Corporation System and method for matching image information to object model information
US6545706B1 (en) * 1999-07-30 2003-04-08 Electric Planet, Inc. System, method and article of manufacture for tracking a head of a camera-generated image of a person

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8355046B2 (en) 2004-07-14 2013-01-15 Panasonic Corporation Object tracing device, object tracing system, and object tracing method
US8144929B2 (en) 2007-08-23 2012-03-27 Hitachi Kokusai Electric Inc. Human pursuit system, human pursuit apparatus and human pursuit program
JP2009055139A (ja) * 2007-08-23 2009-03-12 Hitachi Kokusai Electric Inc 人物追跡システム、人物追跡装置および人物追跡プログラム
KR101173802B1 (ko) 2010-03-15 2012-08-16 오므론 가부시키가이샤 대상물 추적 장치, 대상물 추적 방법, 및 제어 프로그램이 기록된 기록 매체
US9709874B2 (en) 2010-05-10 2017-07-18 Fujitsu Limited Device and method for image processing used for tracking pursued subject
WO2011141990A1 (ja) * 2010-05-10 2011-11-17 富士通株式会社 画像処理装置および画像処理プログラム
JP5338978B2 (ja) * 2010-05-10 2013-11-13 富士通株式会社 画像処理装置および画像処理プログラム
JP2015114933A (ja) * 2013-12-13 2015-06-22 国立大学法人 東京大学 物体認識装置、ロボット及び物体認識方法
JP2017182295A (ja) * 2016-03-29 2017-10-05 Kddi株式会社 画像処理装置
WO2017199840A1 (ja) * 2016-05-18 2017-11-23 日本電気株式会社 オブジェクト追跡装置、オブジェクト追跡方法および記録媒体
JPWO2017199840A1 (ja) * 2016-05-18 2019-03-22 日本電気株式会社 オブジェクト追跡装置、オブジェクト追跡方法およびオブジェクト追跡プログラム
US10867394B2 (en) 2016-05-18 2020-12-15 Nec Corporation Object tracking device, object tracking method, and recording medium
US10636153B2 (en) 2016-11-22 2020-04-28 Fujitsu Limited Image processing system, image processing apparatus, and image processing method for object tracking
US10839532B2 (en) 2017-11-13 2020-11-17 Fujitsu Limited Image processing method and information processing apparatus
WO2023176405A1 (ja) * 2022-03-17 2023-09-21 国立研究開発法人量子科学技術研究開発機構 画像認識プログラム、これを用いた画像認識装置、検出対象個体数計数方法、およびこれらに使用する画像認識学習用モデル画像作成装置

Also Published As

Publication number Publication date
CN1320502C (zh) 2007-06-06
JP4240957B2 (ja) 2009-03-18
WO2004021281A1 (ja) 2004-03-11
KR20050057096A (ko) 2005-06-16
KR100664425B1 (ko) 2007-01-03
EP1538565A4 (en) 2010-11-17
US20050254686A1 (en) 2005-11-17
CN1695167A (zh) 2005-11-09
EP1538565A1 (en) 2005-06-08

Similar Documents

Publication Publication Date Title
JP2004096402A (ja) 物体追跡装置、物体追跡方法および物体追跡プログラム
JP7317919B2 (ja) 外観検索のシステムおよび方法
Hidalgo et al. Single-network whole-body pose estimation
US10990191B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
Liu et al. Pose-guided R-CNN for jersey number recognition in sports
CN102087702B (zh) 图像处理设备和图像处理方法
JP4956273B2 (ja) 投球球種識別装置、識別器生成装置、投球球種識別プログラム及び識別器生成プログラム
WO2007105768A1 (ja) 顔画像登録装置、顔画像登録方法、顔画像登録プログラム、および記録媒体
CN112005272A (zh) 影像分析装置、人物检索系统和人物检索方法
JP4874150B2 (ja) 移動物体追跡装置
JP6362085B2 (ja) 画像認識システム、画像認識方法およびプログラム
JP4969291B2 (ja) 移動物体追跡装置
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
US20230351615A1 (en) Object identifications in images or videos
JPH09265538A (ja) 自動追尾装置
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
CN114529944A (zh) 一种结合人体关键点热图特征的人像景别识别方法
JPH11296673A (ja) ジェスチャ認識装置
JP3122290B2 (ja) ジェスチャ動画像認識方法
WO2023112321A1 (ja) 画像処理システム、画像処理方法及び非一時的なコンピュータ可読媒体
Hu et al. An Apparel Image Segmentation Method Utilizing a Prior Probability Mask Graph
US20220101491A1 (en) Information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050720

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20051116

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20051116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4240957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130109

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130109

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees