JP3910629B2 - 人物判定装置及び人物検索追跡装置 - Google Patents

人物判定装置及び人物検索追跡装置 Download PDF

Info

Publication number
JP3910629B2
JP3910629B2 JP2006531421A JP2006531421A JP3910629B2 JP 3910629 B2 JP3910629 B2 JP 3910629B2 JP 2006531421 A JP2006531421 A JP 2006531421A JP 2006531421 A JP2006531421 A JP 2006531421A JP 3910629 B2 JP3910629 B2 JP 3910629B2
Authority
JP
Japan
Prior art keywords
walking
information
person
image
sequences
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006531421A
Other languages
English (en)
Other versions
JPWO2006013765A1 (ja
Inventor
太郎 今川
正宏 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP3910629B2 publication Critical patent/JP3910629B2/ja
Publication of JPWO2006013765A1 publication Critical patent/JPWO2006013765A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Description

本発明は、異なる画像シーケンスに含まれる人物同士が同一人物であるか否かを判定する人物判定装置、及び、それを応用した人物の検索・追跡をする装置に関する。
監視カメラ等で得られた画像シーケンスから特定の人物を検索・追跡するためには、人物の同定、つまり、異なる画像や画像シーケンスに写っている人物が同一人物であるか否かを判定することが必要とされる。
従来、画像シーケンスにおける人の検索・追跡を目的とした同一人物の判定方法として、隣り合うフレーム間で近接した人物領域同士を対応付ける手法がある(例えば、特許文献1参照)。
図1A〜図1Cは、特許文献1に記載された人の検索・追跡方法を説明する図である。図1A及び図1Bは、同一人物を撮影した時間的に連続するフレーム画像を表している。図1Aに示されるフレーム画像A10は、右方向に移動する人A11を写した画像を示す。矩形A12は、動きベクトルを用いて人体中で動きが小さい領域(人物安定領域)として検出された頭部及び胴体部分を含む外接矩形である。図1Bに示されるフレーム画像A20においても、同様に、人A21から検出した人物安定領域の外接矩形A22が破線で示されている。図1Cに示されるフレーム画像A30には、フレーム画像A10及びA20から得た人物安定領域の外接矩形A12及びA22が重ねて同時に表示されている。この従来の手法では、フレーム画像A30に示されるように、外接矩形A12と外接矩形A22との重なり、及び、両者の動きベクトルの連続性から、人A11と人A21とを同一人物として対応付け、検索・追跡を行っている。
特開2003−346159号公報(第3及び第6頁、図2及び図9)
しかしながら、上記従来の手法では、フレーム間で近接した位置から人を検索していくため、あるフレームで1度人物検出を失敗すると、失敗したフレームの前のフレームの人物と後のフレームの人物との対応付けができなくなり、人の追跡ができなくなるというという課題を有している。
また、同様の手法で、人領域の色や画像パタンを用いて異なるフレーム間の人を対応付けることも考えられるが、離れたフレーム間では、人の移動による位置の変化が大きくなることや、同一人物であっても、カメラに対する向き・姿勢・照明条件が変化することで対応付けが困難になるという課題を有している。
従って、画像内に複数人が写っている場合に、検索・追跡したい人が他の人や物の陰に一時的にでも入ったり、照明変化などの影響で一時的に人の検出が正常に行えないフレームが発生すると、もはや検索・追跡が継続できなくなるという問題がある。
そこで、本発明は、上記従来の課題を解決するもので、時間的に離れたフレーム間や異なるカメラで撮影したフレーム間においても、同一人物の判定をすることができる人物判定装置、及び、その人物判定装置を利用して人物を検索・追跡する人物検索追跡装置を提供することを目的とする。
上記目的を達成するために、本発明に係る人物判定装置は、異なる画像シーケンスに含まれる人物同士が同一であるか否かを判定する人物判定装置であって、第1の画像シーケンス、及び、前記第1の画像シーケンスと異なる時刻又は異なるイメージセンサにて取得された第2の画像シーケンスの入力を受け付ける画像シーケンス入力手段と、入力された前記第1及び第2の画像シーケンスから、それぞれ、人物の歩行状態を示す画像シーケンスである第1及び第2の歩行シーケンスを抽出する歩行シーケンス抽出手段と、抽出された前記第1及び第2の歩行シーケンスから、それぞれ、人物の歩行についての周期的な動きを特定する情報である第1及び第2の歩行情報を抽出する歩行情報抽出手段と、抽出された前記第1及び第2の歩行情報を照合する歩行情報照合手段と、前記歩行情報照合手段による照合結果に基づいて、前記第1及び第2の画像シーケンスに含まれる人物同士が同一であるか否かを判定する判定手段とを備えることを特徴とする。ここで、歩行情報としては、例えば、人物の時間的又は空間的な歩行周期を示す情報であったり、人物の周期的な歩行動作における時間的又は空間的な位相情報であったり、人物の周期的な歩行動作を示す時間的又は空間的な位置情報であってもよい。
本発明によれば、人の歩行から得られる時空間周期情報、時空間位相情報及び時空間位置情報を利用することで、離れたフレーム間や異なるセンサより得られる人物画像シーケンスを対応付けることができる。
つまり、時間的に離れたフレーム間や異なるカメラで撮影したフレーム間においても、同一人物の判定をすることができる人物判定装置、及び、その人物判定装置を利用して人物を検索・追跡する人物検索追跡装置が実現される。
本発明の実施の形態に係る人物判定装置は、異なる画像シーケンスに含まれる人物同士が同一であるか否かを判定する人物判定装置であって、第1の画像シーケンス、及び、前記第1の画像シーケンスと異なる時刻又は異なるイメージセンサにて取得された第2の画像シーケンスの入力を受け付ける画像シーケンス入力手段と、入力された前記第1及び第2の画像シーケンスから、それぞれ、人物の歩行状態を示す画像シーケンスである第1及び第2の歩行シーケンスを抽出する歩行シーケンス抽出手段と、抽出された前記第1及び第2の歩行シーケンスから、それぞれ、人物の歩行についての周期的な動きを特定する情報である第1及び第2の歩行情報を抽出する歩行情報抽出手段と、抽出された前記第1及び第2の歩行情報を照合する歩行情報照合手段と、前記歩行情報照合手段による照合結果に基づいて、前記第1及び第2の画像シーケンスに含まれる人物同士が同一であるか否かを判定する判定手段とを備えることを特徴とする。ここで、歩行情報としては、例えば、人物の時間的又は空間的な歩行周期を示す情報であったり、人物の周期的な歩行動作における時間的又は空間的な位相情報であったり、人物の周期的な歩行動作を示す時間的又は空間的な位置情報であってもよい。
これによって、人物の歩行に着目して同一人物の判定が行われるので、フレーム間で近接した位置にいる人物を同一人物と判定したり、色や画像パタンで同一人物を判定する従来技術に比べ、検索・追跡したい人が他の人や物の陰に一時的にでも入ったり、照明変化などの影響で一時的に人の検出が正常に行えない場合であっても、同一人物の判定が可能となる。つまり、本発明は、人が異なれば歩行周期や歩幅等の歩行特性が異なること、及び、同一人物であれば一定の歩行特性で歩行するということを利用しているので、時間的・空間的な位置に依存することなく同一人物の判定が可能であり、時間的に離れたフレーム間や異なるカメラで撮影したフレーム間においても、同一人物の判定をすることができる。
また、前記歩行情報照合手段は、前記第1及び第2の歩行情報にそれぞれ含まれる第1及び第2の時空間位相情報に基づいて、前記第1及び第2の画像シーケンスに含まれる人物が所定の歩行姿勢となる時刻または位置を比較することにより歩行情報を照合するようにしてもよい。具体的には、前記歩行情報照合手段は、前記第1の歩行情報に含まれる第1の時空間位相情報に基づいて、前記第1の画像シーケンスに含まれる人物の、前記第1の画像シーケンスと異なる時刻または位置における時空間位相情報を推定する位相情報推定部と、前記位相情報推定手段で推定された前記時空間位相情報および前記第2の時空間位相情報に基づいて、前記第1及び第2の画像シーケンスに含まれる人物が所定の歩行姿勢となる時刻または位置を比較することにより歩行情報を照合する歩行情報照合部とを有する。
これによって、時空間周期情報のみを用いて人物同士が同一人物であるか否かを判定する場合に比べ、判定の精度を向上させることができる。例えば、歩幅及び歩速が同一である二人の人物が同一の画像シーケンスに撮像されているような場合には、これら二人の時空間周期情報は同一であるため、判別がつかない。しかし、時空間周期情報が同一であったとしても、脚を交差するタイミングまたは位置が異なれば、時空間位相情報が異なる。したがって、時空間位相情報を用いることにより、より正確な判定を行なうことができるようになる。
なお、前記歩行情報照合手段は、前記第1及び第2の歩行情報にそれぞれ含まれる第1及び第2の時空間位相情報に基づいて、同一の時刻または位置における前記第1及び第2の画像シーケンスに含まれる人物の歩行姿勢を比較することにより歩行情報を照合するようにしてもよい。具体的には、前記歩行情報照合手段は、前記第1の時空間歩行情報に含まれる位相情報に基づいて、前記第1の画像シーケンスに含まれる人物の、前記第1の画像シーケンスと異なる時刻または位置における時空間位相情報を推定する位相情報推定部と、前記位相情報推定手段で推定された前記時空間位相情報および前記第2の時空間位相情報に基づいて、同一の時刻または位置における前記第1及び第2の画像シーケンスに含まれる人物の歩行姿勢を比較することにより歩行情報を照合する歩行情報照合部とを有する。
また、歩行シーケンスとしては、例えば、画像シーケンスそれぞれを時間軸に沿って切断した場合の切断面における画像であり、具体的には、画像シーケンスそれぞれに含まれる人物の両脚を切断した切片を時間軸に並べて得られる画像等である。これによって、時間的及び空間的に、人物の歩行特性を抽出することが可能となる。
また、前記画像シーケンス入力手段は、同一場所を撮影する異なるイメージセンサにて取得された第1及び第2の画像シーケンスの入力を受け付けてもよい。これによって、死角が存在する同一場所を異なる角度から撮影して得られる異なる画像シーケンスにおける人物の同定が可能となる。
また、前記人物判定装置はさらに、前記第1及び第2の画像シーケンスそれぞれにおける画像上の位置と撮影場所における位置との対応関係を示す補正情報を予め記憶する補正情報記憶手段と、前記補正情報記憶手段に記憶された補正情報に基づいて、前記歩行情報抽出手段による前記第1及び第2の歩行情報の抽出における時空間的な補正処理を行う補正手段とを備えてもよい。これによって、異なるイメージセンサで取得される場合であっても、イメージセンサの配置位置や撮影方向等の相違に基づく画像同士の不整合が補正されるので、異なるイメージセンサによる人物判定が可能となる。
ここで、補正情報として、例えば、撮影場所における歩行面を一定距離の間隔で2次元的に区切る格子線を特定する情報であってもよい。
また、上記目的を達成するために、本発明に係る人物検索追跡装置は、人物が撮像された画像シーケンスにおいて特定の人物を検索又は追跡する人物検索追跡装置であって、上記人物判定装置と、前記人物判定装置が備える歩行情報照合手段によって前記第1及び第2の歩行情報が一致すると照合された場合に、前記第1及び第2の歩行情報に対応する前記第1及び第2の歩行シーケンス同士を対応づけて記憶する歩行シーケンス記憶手段とを備えることを特徴とする。これによって、歩行シーケンスごとの同一性を予め解析して記憶しておき、人物の検索・追跡時に読み出して利用することで、画像シーケンスを表示させながら人物の検索・追跡を行うことができ、処理が高速化される。
また、上記目的を達成するために、本発明に係る人物検索追跡装置は、人物が撮像された画像シーケンスにおいて特定の人物を検索又は追跡する人物検索追跡装置であって、上記人物判定装置と、前記人物判定装置が備える画像シーケンス入力手段が受け付ける前記第1及び第2の画像シーケンスを表示する表示手段とを備え、前記表示手段は、前記第1及び第2の画像シーケンスに含まれる人物のうち、前記人物判定装置が備える判定手段によって同一人物と判定された人物を他の人物と区別するための強調表示をすることを特徴とする。これによって、異なる画像が同時に表示されている場合であっても強調表示によって同一人物を即座を知ることができ、人物の検索・追跡が容易となる。
本発明の他の局面に係る人物判定装置は、異なる画像シーケンスに含まれる人物同士が同一であるか否かを判定する人物判定装置であって、画像シーケンス中に含まれる第1及び第2の人物の歩行状態を示す画像シーケンスである第1及び第2の歩行シーケンスを検出する歩行シーケンス検出手段と、前記第1の人物の歩行シーケンスから当該歩行シーケンスとは異なる時刻または位置における第1の人物の周期的な歩行運動における歩行姿勢の遷移を示す情報を推定する歩行姿勢遷移推定手段と、推定された前記第1の人物の歩行姿勢の遷移を示す情報と、前記第2の人物の歩行姿勢の遷移を示す情報との整合性を判定し、整合性を有する場合に、前記第1の人物と前記第2の人物とが同一であると判断する判断手段とを備える。
これによって、人物の歩行に着目して同一人物の判定が行われるので、フレーム間で近接した位置にいる人物を同一人物と判定したり、色や画像パタンで同一人物を判定する従来技術に比べ、検索・追跡したい人が他の人や物の陰に一時的にでも入ったり、照明変化などの影響で一時的に人の検出が正常に行えない場合であっても、同一人物の判定が可能となる。つまり、本発明は、人が異なれば歩行周期や歩幅等の歩行特性が異なること、及び、同一人物であれば一定の歩行特性で歩行するということを利用しているので、時間的・空間的な位置に依存することなく同一人物の判定が可能であり、時間的に離れたフレーム間や異なるカメラで撮影したフレーム間においても、同一人物の判定をすることができる。
なお、本発明は、上記のような人物判定装置及び人物検索追跡装置として実現すことができるだけでなく、人物判定方法及び人物検索追跡方法として実現したり、その方法をコンピュータに実行させるプログラムとして実現したり、そのプログラムが記録されたコンピュータ読み取り可能な記録媒体として実現することもできる。
以下、本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図2は、本実施の形態における人物判定装置10の構成を示す機能ブロック図である。この人物判定装置10は、人物の歩行シーケンスの連続性に着目して、異なるシーケンスに含まれる人物同士が同一人物であるか否かを判定する装置であり、歩行姿勢検出部200、歩行状態推定部180及び判定部190から構成される。
歩行姿勢検出部200は、動画像中から第一の人の所定の歩行姿勢を含む歩行シーケンスを検出する処理部である。
歩行状態推定部180は、第一の人の歩行シーケンスから、当該歩行シーケンスとは異なる時間または位置の第一の人の歩行状態(歩行周期運動における姿勢の遷移状態)を推定する処理部である。
判定部190は、第一の人の歩行状態と第二の人の歩行状態との整合性を判定し、整合性を有する場合には第一の人と第二の人とが同一であると判定する処理部である。
歩行姿勢検出部200は、画像シーケンス入力部100及び歩行シーケンス抽出部110から構成される。
歩行状態推定部180は、時空間周期情報抽出部120、時空間位相情報抽出部121及び時空間位置情報抽出部122から構成される。
判定部190は、時空間周期情報記憶部130、時空間位相情報記憶部131、時空間位置情報記憶部132、時空間周期照合部140、時空間位相照合部141、時空間差抽出部142、一致判定部150及び制御部160から構成される。
ここで、歩行姿勢検出部200は、画像シーケンス中に含まれる人物の歩行状態を示す画像シーケンスである歩行シーケンスを検出する歩行シーケンス検出手段の一例である。また、歩行状態推定部180は、歩行シーケンスから当該歩行シーケンスとは異なる時刻または位置における人物の周期的な歩行運動における歩行姿勢の遷移を示す情報を推定する歩行姿勢遷移推定手段の一例である。さらに、判定部190は、異なる時刻または異なるイメージセンサにて撮像された二人の人物の歩行姿勢の遷移を示す情報の整合性を判定し、二人の人物が同一人物か否かを判断する判断手段の一例である。なお、「歩行姿勢の遷移を示す情報」とは、後述する周期情報および位相情報を含む情報である。
画像シーケンス入力部100は、異なる時刻または異なるイメージセンサにて取得された第1及び第2の画像シーケンスの入力を受け付ける画像シーケンス入力手段の一例である。
歩行シーケンス抽出部110は、第1及び第2の画像シーケンスから、それぞれ、人物の歩行状態を示す画像シーケンスである第1及び第2の歩行シーケンスを抽出する歩行シーケンス抽出手段の一例である。
時空間位相情報抽出部121、時空間位置情報抽出部122及び時空間周期情報抽出部120は、第1及び第2の歩行シーケンスから、それぞれ、人物の歩行についての周期的な動きを特定する情報である第1及び第2の歩行情報を抽出する歩行情報抽出手段の一例である。
時空間位相照合部141、時空間差抽出部142及び時空間周期照合部140は、抽出された第1及び第2の歩行情報を照合する歩行情報照合手段の一例である。
一致判定部150は、照合結果に基づいて、第1及び第2の画像シーケンスに含まれる人物同士が同一人物であるか否かを判定する判定手段の一例である。
画像シーケンス入力部100は、カメラや画像記録装置から画像シーケンスを取得する信号インターフェース等である。「画像シーケンス」とは、図3のように撮影したフレーム画像を時間順に並べた配列である。
歩行シーケンス抽出部110は、画像シーケンス入力部100が取得した画像シーケンスから歩行シーケンスを抽出する処理部である。「歩行シーケンス」とは、各フレーム画像中の歩行動作領域から得た歩行状態のシーケンスである。図4Bに歩行シーケンスの例を示す。図4Aは各フレームでの人の下半身の領域を抽出して時間順に並べた配列である。図4Bは図4Aにおいて破線B10の位置で各フレーム画像の切片を時間順に並べたものである。図4Bの黒色の帯は足先の移動軌跡(人物の両脚を切断する切片における画像を時間軸に並べたもの)を示している。各歩行シーケンスの具体的算出方法は後述する。
時空間周期情報抽出部120は、歩行シーケンス抽出部110が抽出した歩行シーケンスから歩行の時空間的変化の周期情報を抽出する処理部である。「周期情報」とは、一定時間・一定距離あたりの歩数や、足や手の特定部位の時空間的な位置変化に対して周波数分析を行って得た結果や、時空間的に周期的に繰り返される最小パタンの形状などを意味する。時空間周期情報の例を図4Bで説明する。図4Bにおいて、時間軸及び画像の横軸(空間軸に対応する)において足先が交差する時空間的点に、黒三角印ならびに白三角印を表示している。時空間周期情報は隣り合う黒三角印同士の空間的間隔ならびに隣あう白三角印同士の時間的間隔に基づいて得る一定時間・一定距離あたりの歩数が時空間周期情報の例となる。また、隣り合う黒三角位置の破線と隣り合う白三角位置の破線とに囲まれる歩行パタンの形状(図4C)そのものを用いてもよいし、図4Bの曲線B11のように歩幅の時間的な変化や曲線B12のように歩幅の空間的変化に対して周波数分析を行って得た周波数特性(特定周波数帯のスペクトル強度など)などを用いることができる。
時空間周期情報記憶部130は、時空間周期情報抽出部120で抽出された時空間周期情報を、検出した時間や画像中の位置などと共に記憶しておくメモリ等である。時空間周期照合部140は、時空間周期情報抽出部120で抽出された時空間周期情報と、時空間周期情報記憶部130に記憶されている時空間周期情報との照合を行う処理部である。
時空間位相情報抽出部121は、歩行シーケンス抽出部110が抽出した歩行シーケンスから歩行の時空間的変化の位相情報を抽出する処理部である。「位相情報」とは、周期運動である歩行運動中の遷移状態(所定の歩行姿勢をとる位置や時間、または特定の位置や時間における歩行姿勢など)を意味する。例えば、同じ時空間周期を持った歩行シーケンスでも、どの時空間位置で足を地面についた(所定の歩行姿勢)かという情報が時空間位相情報となる。また、同一時間または同一位置で比較した2つの歩行シーケンス中の歩行姿勢の差異も時空間位相情報となる。時空間位相情報の例を図5、図6A〜図6C及び図7A〜図7Cを用いて説明する。図5は図4Bと同様に足位置の歩行軌跡を示しているが、時空間周期が同じで時空間位相が異なる2名の歩行軌跡A010、A011を示している。歩行軌跡A010とA011では歩幅や歩行周期は同じであるが、足が地面についた位置や時間、又は両足が交差する位置や時間が異なっている。また図6Aは障害物1800(斜線の領域)の存在により不連続に検出されている2つの歩行軌跡(第一の人の歩行軌跡1802(破線)と第二の人の歩行軌跡1801(実線))を表している。ここでそれぞれの歩行軌跡から位相情報を検出する場合を考える。位相情報とは、上述したように、所定の歩行姿勢をとる位置や時間、または所定の位置や時間における歩行姿勢などであり、第二の人の歩行軌跡1801及び第一の人の歩行軌跡1802のように異なる時間や位置における歩行軌跡については、同一の基準に基づいて位相情報が求められる。この場合、時空間位相情報抽出部121は、第一の人の歩行情報1802の所定の姿勢(足の交差など)の位置・時間やその周期性から撮影された時間や位置以外での歩行姿勢を推定する(図6Bの破線1803)。同様に、図6Cでは、時空間位相情報抽出部121は、障害物1800の右側の歩行軌跡1804(破線)から他の時間・位置での歩行姿勢(破線1805)を推定する。
次に、時空間位相情報抽出部121は、所定の歩行姿勢となる時間や位置を求める。ここでは所定の姿勢として脚が交差した状態(脚間の大きさが極小になった状態)を考える。図7Aに脚間の時間変化または位置変化を示す。脚間は歩行軌跡において両脚の軌跡の幅として画像より求めることができる。ここで、時空間位相情報抽出部121は、図7Bのように第一の人の脚間情報1902a(破線)から障害物等1900a(斜線領域)の存在により撮影されていない時間や位置における脚間の状態(姿勢状態)1903a(破線)を推定する。ここで、時空間位相情報抽出部121は、撮影されている領域として時間的に最初あるいは位置として画像の左側で、最初に所定の姿勢となる時間または位置を位相情報として求める。図7Bでは第一の人の推定歩行状態1903aに対しては時間または位置1905が、第二の人の歩行状態1901aに対しては時間または位置1906が、位相情報として得られる。同様に図7Cでは歩行状態1908a(破線)に対して推定した歩行状態1909a(破線)に対して位相情報1910が得られ、歩行状態1907a(実線)に対しては位相情報1911が得られる。
また、位相情報として所定の時間や位置における姿勢を用いる場合も同様に、時空間位相情報抽出部121は、所定の時間や位置における歩行状態または推定歩行状態を求める。図7Bの場合、時空間位相情報抽出部121は、所定の時間または位置1904における脚間(歩行姿勢)を求める。ここで第一の人に対する位相情報は推定歩行状態1903a(破線)の所定の時間または位置1904における値とし、第二の人に対する位相情報は歩行状態1901a(実線)の所定の時間または位置1904における値とする。同様に、図7Cでは歩行状態1908aに基づいて推定された推定歩行状態1909aの所定の時間または位置1904における値、歩行状態1907aの所定の時間または位置1904における値がそれぞれ第一の人および第二の人の位相情報となる。
上述の説明では、第一の人のみについて推定姿勢を用いたが、第二の人についても推定姿勢を求め、第一の人および第二の人ともに推定姿勢から位相情報を求めるようにしてもよい。例えば図6A〜図6Cや図7A〜図7Cにおける障害物の位置や図示している範囲外などを共通の位置として、当該共通の位置における推定状態を求めた後、位相情報を求めるようにしてもよい。
なお、所定の姿勢としては他の状態を用いてもよく、脚間が極大になる位置や脚間の変化が極大になる状態などを用いてもよい。
時空間位相情報記憶部131は、時空間位相情報抽出部121が抽出した時空間位相情報を、検出した時間や画像中の位置などと共に記憶しておくメモリ等である。時空間位相照合部141は、時空間位相情報抽出部121で抽出された時空間位相情報と、時空間位相情報記憶部131に記憶されている時空間位相情報との照合を行う処理部である。
時空間位置情報抽出部122は、歩行シーケンス抽出部110が抽出した歩行シーケンスについて、その歩行シーケンスが抽出された時空間的位置を抽出し、時空間位置情報として生成する処理部である。「時空間位置情報」とは、歩行シーケンスの検出を行った時間や場所を意味する。時空間位置情報の例を図5を用いて説明する。図5では2つの歩行軌跡それぞれについて時間的に最初に両足が交差した時間・空間的位置を破線の十字で表している。このように、絶対的な時間的・空間的歩行の位置を示す情報が時空間位置情報である。
時空間位置情報記憶部132は、時空間位置情報抽出部122から生成された時空間位置情報を記憶しておくメモリ等である。時空間差抽出部142は、時空間位置情報抽出部122で生成された時空間位置情報と、時空間位置情報記憶部132に記憶されている時空間位置情報との差異を求める処理部である。
一致判定部150は、時空間周期照合部140及び時空間位相照合部141及び時空間差抽出部142の結果に基づいて、異なる歩行シーケンス同士の一致不一致を判定する処理部である。つまり、一致判定部150は、同一人物の歩行シーケンスであるか否かを判定する。一致不一致の判定方法の例を時空間周期情報について説明すると次の通りである。つまり、時空間周期情報として一定時間内の歩数x及び一定距離内の歩数yが用いられる場合、照合の対象となる歩行シーケンスの一方から得られたx,yの組のベクトルZ1=(x1,y1)と他方のシーケンスから得られるベクトルZ2=(x2,y2)との差|Z1−Z2|<θ(θはあらかじめ定めたしきい値)や、|x1−x2|<θx、|y1−y2|<θy(θx、θyはあらかじめ定めたしきい値)を共に満たす場合に、一致判定部150は、2つの歩行シーケンスが一致すると判定する。つまり、一致判定部150は、同一人物の歩行シーケンスであると判定する。
一致判定部150は、時空間位相情報や時空間位置情報についても時空間周期情報と同様に、判定を行い、全ての項目で一致した場合や、指定した数の項目が一致した場合に、2つの歩行シーケンスが一致すると判断することができる。なお、判定手法は上記に限らず、一般的にパタン認識などに用いられる手法を適用することが可能である。
例えば、時空間位相情報を用いる場合、動画像中の第一の人の歩行シーケンスから得た時間位相情報tp1及び空間位相情報(位置の位相情報)sp1と、これらの位相情報が得られる時間または位置とは異なる時間または位置における第二の人の歩行シーケンスから得られる時間位相情報tp2及び空間位相情報(位置の位相情報)sp2とが比較される。この場合、一致判定部150は、|tp1−tp2|<θt(θtはあらかじめ定めたしきい値)及び|sp1−sp2|<θs(θtはあらかじめ定めたしきい値)のどちらか一方が満たされる場合、または両方が同時に満たされる場合に、第一の人と第二の人とが同一であると判定する。例えば、θtやθsを適切に設定しておくことで、図6Bの場合には、一致判定部150は、歩行状態1801と歩行状態1803の時空間位相情報が一致し、第一の人と第二の人とが同一であると判定する。かつ、図6Cの場合には、一致判定部150は、歩行状態1806と歩行状態1805とは時空間位相情報が異なり、第一の人と第二の人とが異なると判定する。同様に、一致判定部150は、図7Bの歩行状態1901aと歩行状態1903aとは時空間位相情報が一致し、第一の人と第二の人とが同一であると判定する。かつ、一致判定部150は、図7Cの歩行状態1907aと歩行状態1909aとは時空間位相情報が異なり、第一の人と第二の人とが異なると判定する。
制御部160は、一致判定部150による一致判定の結果に基づいた制御として、照合に用いた画像シーケンスの表示等を行う処理部である。図8A〜図8Cに表示の例を示す。図8Aは、比較した2つの画像シーケンスを人の領域を拡大して左右に表示し、各画像シーケンスの撮影時刻と場所とを合せて表示した例を示している。図8Bは、図8Aと同様の結果を人の移動軌跡(図中の矢印)と共に表示した例を示している。なお、これらの図では、画像シーケンスに合せて撮影した時刻や場所が文字で表示されているが、場所については地図を表示した上で、撮影位置や移動軌跡を重畳して表示するようにしてもよい。図8Cは、複数の人が画像内に含まれる場合に、一致した人の領域を破線の矩形を用いて強調表示した例を示している。なお、制御部160による制御の内容としては、表示以外にも、異なる歩行シーケンスが一致したという歩行シーケンス同士の接続情報を外部の記憶装置(位置情報記憶装置)に記憶しておくことなどでもよい。このように、異なる歩行シーケンスが一致する一致しないの対応関係を記憶しておくことで、人の歩行画像の検索や追跡を行う際に利用することができる。
上記のような手続きで歩行シーケンスの検索・追跡を行った結果の記憶書式の例を図9に示す。図9は、3つの歩行シーケンスの情報を示しており、1つの歩行シーケンスについて5つの項目の情報が含まれる。5つの項目はそれぞれシーケンス番号、時空間周期情報、時空間位相情報、時空間位置情報、一致シーケンス番号である。シーケンス番号は撮影時間や撮影カメラの異なる個々の歩行シーケンスに個々に付与するID番号である。時空間周期情報は一定時間内の歩数x及び一定距離内の歩数yを(x、y)と表している。時空間位相情報は基準となる時間や空間位置を過ぎてから最初に両足を交差した時間・空間位置までの移動量を、一歩分のシーケンスにかかる時間と移動量とをそれぞれ1.0と1.0とした時の割合で表現したものである。例えばシーケンス番号1の場合、基準となる時間から0.5歩分の時間で足を交差し、基準となる位置から0.1歩分の距離で足を交差していることを意味する。
時空間位置情報は最初に歩行シーケンスを検出した時刻と場所とを示している。場所については画像上での縦横方向の画素座標値を示している。
一致シーケンス番号は検索・追跡によって異なる歩行シーケンスに対して一致すると判定された歩行シーケンスのシーケンス番号を示している。一致するシーケンスがない場合には0とし、複数ある場合には複数個併記するようにしてもよい。一度検索・追跡した結果を保存しておくことで、同じ検索・追跡を再度行う場合に、前記情報を参照することで、一致判定を省略することが可能となる。
なお、シーケンス番号は撮影された画像の参照先(ファイル名や格納アドレスなど)と対応付けられていてもよい。時空間位置情報における空間的な場所の情報は、図9に示される様に、専用に設けた座標系で表現してもよいし、緯度経度などの汎用的な座標系で表現してもよい。
図10は、上記人物判定装置10を応用した人物検索追跡装置20の構成を示すブロック図である。この人物検索追跡装置20は、本実施の形態における画像シーケンスから人を検索・追跡する方法を実現するシステム又は装置の具体例であり、カメラ1010及び1020、時計1030、記憶装置1040、処理装置1050、表示装置1060、入力部1070並びにポインティングデバイス1080から構成される。
カメラ1010及び1020は、画像シーケンス入力部100の一例であり、人1000を含む画像を撮影する。時計1030は、撮影時刻を得るためのタイマーである。記憶装置1040は、カメラ1010及び1020で撮影した画像、時計1030から得られる撮影時刻並びに人の検索・追跡結果等を記憶するハードディスク等である。処理装置1050は、カメラ1010及び1020又は記憶装置1040から得られる画像シーケンスから人を検索・追跡する処理を行う装置であり、図2に示される人物判定装置10に相当する。表示装置1060は、処理装置1050の処理結果を表示するディスプレイであり、入力部1070は、検索・追跡の指示に用いるキーボードであり、ポインティングデバイス1080は、検索・追跡の指示に用いるマウス等である。図11は、ポインティングの例を示す。検索や追跡を行う場合には図11のように画像上で対象となる人1091をポインタ1090を用いて指定し、人1091と同じ歩行シーケンスを検索・追跡する。
各構成要素は、通信路を通じて接続されている。通信路は有線であっても、無線であってもよく、専用回線、公衆回線を含んでいてもよい。
次に、以上のように構成された本実施の形態における人物判定装置10の動作について、図12のフローチャートを用いて説明する。なお、本実施の形態では単一のカメラで異なる時間に得た画像シーケンス2から画像シーケンス1に含まれる人の検索・追跡を行う。図13Aおよび図13Bに画像シーケンス1及び画像シーケンス2の例をそれぞれ示す。図13Aは、画像シーケンス1を示し、障害物501の左側を人502が右方向に歩いているシーケンスを示している。一方、図13Bは、画像シーケンス2を示し、画像シーケンス1と同じ場所を同じカメラで10秒後に撮影した画像シーケンスを示している。画像シーケンス2では障害物501と右方向に歩いている人503と人504が含まれている。
最初に画像シーケンス入力部100が画像シーケンス1を入力する(ステップS401)。次に画像シーケンス1から歩行シーケンス(歩行シーケンス1)を抽出する(ステップS402)。歩行シーケンスとしては図4Aのように人の下半身の領域のシーケンスを用いる場合を説明する。
歩行シーケンス抽出部110が画像シーケンスから歩行シーケンスを抽出する例を図14を用いて説明する。最初に、歩行シーケンス抽出部110は、画像シーケンスからフレーム画像を1枚読み込む(ステップS601)。読み込むフレーム画像は未読のフレーム画像の中から時間順に行う。次に、歩行シーケンス抽出部110は、読み込んだフレーム画像の中から人領域を検出する(ステップS602)。人領域の検出手法は一般的に動物体の検出に用いられるフレーム間差分法や人が写っていない背景画像をあらかじめ用意しておき、前記背景画像との差分を算出する背景差分法を用いる。また、静止画の場合でもあらかじめ人のテンプレート画像を用意しておき、テンプレート画像との類似度計算(単純な差分の計算や正規化相関演算などのテンプレートマッチング法)で類似度の高い領域を抽出することで人領域の検出が可能である。次に、歩行シーケンス抽出部110は、前記人領域の画像から歩行状態を表す情報を抽出する(ステップS603)。歩行状態を表す情報としては、図4Bの足先の部位の軌跡情報のように歩行状態の時間推移を表す情報である。
なお、ステップS602とステップS603との処理は一連の処理として同時に行ってもよいし、ステップS602の処理結果をそのままステップS603の処理結果としてもよい。また、ステップS602のように明示的に人の領域全体を検出せずに、直接、ステップS603での出力が得られるように処理を行ってもよい。例えば、上記の下半身の画像であれば、下半身画像をテンプレートとしたテンプレートマッチング手法を用いて直接的に歩行状態情報を取得してもよい。最後に、歩行シーケンス抽出部110は、現在読み込んだフレーム画像が最後のフレームか否かの判断を行い(ステップS604)、最後のフレームであれば歩行シーケンス抽出処理を終了し、フレーム画像が残っている場合にはステップS601に戻る。
次に、ステップS402で得た歩行シーケンス1から、時空間周期情報抽出部120、時空間位相情報抽出部121及び時空間位置情報抽出部122は、それぞれ、時空間周期情報、時空間位相情報及び時空間位置情報を抽出する(ステップS403)。
図4Bに示される歩行シーケンスから、時空間周期情報と時空間位相情報と時空間位置情報を抽出する方法の一例を図15と図16A〜図16Cを用いて説明する。
最初に、時空間周期情報抽出部120等は、歩行シーケンスの情報から、特定歩行状態の位置を検出する(ステップS701)。特定歩行状態の説明を図16A〜図16Cを用いて行う。図16Aは図4Bの歩行シーケンスに対して特定歩行状態位置の検出を行った結果を示している。図16Aの2本の互いに交差する黒色の波型の帯は足先の時間的な移動軌跡を表している。ここで横軸は画像の横方向の位置を表し、縦軸は時間を表す。ここで、2本の互いに交差する位置すなわち両足が交差する状態の位置(図の破線位置)を特定歩行状態位置とする。ここで、交差する位置の検出は図16Bのような交差部分の形状パタンをあらかじめ用意しておき、テンプレートマッチングや相関演算を行うことで、検出することが可能である。図16Cに検出過程の一例を示す。図16Cでは歩行軌跡800に対して検出テンプレート801の位置をずらしながら形状の一致度合いを算出している。マッチングによる一致度合いがあらかじめ定めた値以上であれば、特定歩行状態であるとする。このようにして、図16Aの破線の交点位置が求められる。
なお、特定歩行状態としては足の交差時に限らず、足を最も広げた状態としてもよい。足を最も広げた状態は図16Aの歩行軌跡上では交差する帯の間隔が最も広い位置(図の一点鎖線)の位置に相当する。特定歩行状態を全て検出するまでステップS701を行い、その後ステップS703に進む(ステップS702)。
次に、時空間周期情報抽出部120は、検出した特定歩行状態位置同士の間隔を算出することで、時空間周期情報を生成する(ステップS703)。周期情報については、別途、フーリエ解析やウェーブレット解析や自己相関法を用いて特定歩行状態の位置を得ずとも算出してもよい。この場合、図16Aの波型の帯の位置の時間的変化や、2本の帯の幅の時空間的変化に対してフーリエ変換やウェーブレット変換や自己相関法を適用すればよい。また、時空間周期情報としては図16Aの周期的な歩行の軌跡の最小単位の形状そのものをパタンとして利用してもよい。この場合、図16Aの縦横の破線で囲まれた範囲の2本の帯の波形状1つ分をパタンとして持つ。
次に、時空間位相情報抽出部121は、時空間位相情報を算出する(ステップS704)。時空間位相情報は基準となる時間や空間位置を過ぎてから最初に両足を交差した(特定歩行状態が出現する)時間・空間位置までの時空間的移動量を表している。時空間位相情報として所定の姿勢になる時間または位置を用いる場合、図7Bの例では脚間の間が極小になる時間または位置とし、1902aの歩行に対しては推定歩行状態1903aからもとめた1905の値が時間位相情報または空間位相情報となり、1901aの歩行に対しては1906の値が時間位相情報または空間位相情報となる。また、時空間位相情報として所定の時間また位置における姿勢を用いる場合、1902aの歩行に対しては推定歩行状態1903aの1904における値(脚間の値)が時間位相情報または空間位相情報となり、1901aの歩行に対しては1904における値が時間位相情報または空間位相情報となる。
また、図5の例で説明すると、時間軸の基準を歩行軌跡図の上端とした場合、上端から最初に両足を交差する位置(破線の交差位置)までの時間が時間の位相情報となり、空間位置の基準を歩行軌跡図の縦線A013とすると、縦線A013より右側で最も縦線A013に近い両足を交差した位置と縦線A013との距離が空間の位相情報となる。移動量の表現方法は上記に限らず、一歩分のシーケンスにかかる時間と移動量を基準として相対的な大きさで表現してもよい。
なお、時空間位相情報は画像内で前記特定歩行状態が出現する位相情報を意味し、同じ時空間周期の歩行シーケンスであっても、時空間的に足を地面に着けることや両足を交差するなどの状態の時空間的タイミングの異なる歩行は異なる値となる。図5では歩行シーケンスA011とA012では歩行の時空間周期は同じであるが、上記のように定義した時空間位相情報は異なる値となる。
次に、時空間位置情報抽出部122は、時空間位置情報を算出する(ステップS705)。時空間位置情報は最初の特定歩行状態を検出した時間と画像上での位置とする。時空間位置情報は、歩行の検出位置の時空間での絶対的な位置座標を表す情報であり、2歩目の検出位置や最後の検出位置を用いてもよい。
特定歩行状態を検出することで、歩行の時空間周期のみならずに歩行の時空間位相情報や時空間位置情報を得ることができる。
次に、ステップS403で得られた時空間周期情報、時空間位相情報及び時空間位置情報は、それぞれ、時空間周期情報記憶部130、時空間位相情報記憶部131及び時空間位置情報記憶部132に格納される(ステップS404)。
次に、画像シーケンス入力部100は、人を検索する画像シーケンス2をステップS401と同様に取得する(ステップS405)。そして、歩行シーケンス抽出部110は、その画像シーケンス2から歩行シーケンス2を抽出する(ステップS406)。続いて、歩行シーケンス抽出部110は、ステップS406での処理の結果、歩行シーケンスが他に存在するか否かの判断を行う(ステップS407)。歩行シーケンスが他に存在しない場合は(ステップS407でNo)、処理を終了する。存在する場合は(ステップS407でYes)、時空間周期情報抽出部120、時空間位相情報抽出部121及び時空間位置情報抽出部122は、歩行シーケンス1の場合と同様に、歩行シーケンス2から時空間周期情報、時空間位相情報及び時空間位置情報を抽出する(ステップS408)。
次に、時空間周期照合部140、時空間位相照合部141及び時空間差抽出部142は、それぞれ、ステップS404で記憶された歩行シーケンス1の時空間周期情報・時空間位相情報・時空間位置情報とステップS408で抽出された時空間周期情報・時空間位相情報・時空間位置情報とをそれぞれ照合する(ステップS409)。照合においては、3つの情報全てを用いてもよいし、時空間周期情報か時空間位相情報の一方のみを用いても照合を行うことができる。
照合方法としては、時空間周期情報、時空間位相情報、時空間位置情報それぞれについてあらかじめ一致度合いの基準を設け、3つの情報全てが基準を満たす場合に一致すると判断してもよい。例えば、個々の判定方法は図9のような表現の異なるシーケンス同士を比較する場合、各時空間周期情報を(x1、y1)、(x3、y3)とおくと|x1−x3|=Dx<θx、|y1−y3|=Dy<θyを共に満たす場合に両者が一致すると判定する。ここでθxとθyはあらかじめ定めたしきい値とする。同様に各自空間位相情報を(w1,z1)、(w3、z3)とおいた時、|w1−w3|=Dw<θw、|z1−z3|=Dz<θzを共に満たす場合に両者が一致すると判定する。ここでθwとθzはあらかじめ定めたしきい値とする。同様に、各時空間位置情報をt1,(xx1,yy1)とt3,(xx3,yy3)とおいた場合、|t1−t3|=Dt<θt、(xx1−xx3)*(xx1−xx3)+(yy1−yy3)*(yy1−yy3)=Dxy<θdを共に満たす場合に両者が一致すると判定する。ここでθtとθdはあらかじめ定めたしきい値とする。
また、上記の3つの情報を相互に関連付けて一致判定を行ってもよい。例えば、時空間周期情報の差Dx,Dyと時空間位相情報の差Dw,Dzと時空間位置情報の差Dt,Dxyの
積や和をあらかじめ定めた一致の基準と比較してしてもよい。例えば、(Dx+Dy+Dw
+Dz+Dt+Dxy)<θsumを満たす場合や(Dx×Dy×Dw×Dz×Dt×Dxy)<θmul
に両者が一致すると判定する。ここでθmulはあらかじめ定めたしきい値とする。また、時空間位置情報の差の大きさに基づいて、時空間周期情報の差や時空間位相情報の差の基準を変更するようにしてもよい。時空間的に離れるに従って、時空間周期の値や時空間位相の値が変化し得るため、時空間位置情報の差が大きくなると時空間周期情報の差や時空間位相情報の差の一致の基準を緩くすることで、検出漏れを低減させることが可能となる。例えば、時空間位置情報の差Dt、DxyがDt>θt又はDxy>θxyを満たす場合には、上記の判定しきい値θx,θy,θw、θzの値をα倍(αは1.0以上の定数)して一致判定を行う。
時空間周期情報を用いた場合、時空間周期情報はカメラに対する人の向きが変化しても値が変化しにくい為、時間的に離れた画像シーケンス間で検索・追跡が行いやすいという効果がある。
また、時空間位相情報を用いた場合、同じような時空間周期で歩行する他者の歩行シーケンスとの区別をつけやすいという効果がある。
続いて、一致判定部150は、ステップS409における照合結果に基づいて、歩行シーケンス1と歩行シーケンス2とが一致するか否かを判定する(ステップS410)。不一致の場合には(ステップS411でNo)、ステップS406に戻り、新たな歩行シーケンスを取得する(ステップS406)。一致した場合には(ステップS411でYes)、制御部160は、画像シーケンス1と画像シーケンス2とを表示装置1060に表示すると共に、一致した歩行シーケンスの人領域を強調表示する。制御部160による表示の例を図17に示す。図17において領域1130では画像シーケンス1を表示し、領域1140では画像シーケンス2を表示し、一致した歩行シーケンスに対応する人領域には外接矩形1110、1120を付加して協調表示する。
一般に、時空間周期情報(歩行パタン)は、個人性(歩き方の癖など)や個人のその場の状況(急いでいる、ゆっくり歩いているなど)や履物の種類(ヒールの高さや足首の可動範囲など)、持ち物(片側に重いものを持っているかなど)や服装(脚部の可動範囲など)、路面の状態(滑りやすさや傾斜など)など様々な要素の影響を受けて変化する為、個人を特定することは困難である。ここで、時空間位置情報を用いて照合する2つの歩行シーケンス間の時空間位置差を求め、前記時空間位置差によって一致判定の基準を変化させることで、場所や履物・服装・持ち物などが時空間的に変化し得る度合いを反映させることができ、誤った照合を行わないようにすることが可能となる。例えば図13A及び図13Bのように10秒程度の時空間差であれば、時空間周期情報の差や時空間位相情報の差が小さい歩行シーケンスを検索・追跡すればよい。例えば、Dt<10秒の場合には、上記の判定しきい値θx,θy,θw、θzの値をβ倍(βは1.0未満の定数)して一致判定を行う。上記のような方法を用いることで、図13Aの画像シーケンス中の人502に対して、図13Bの画像シーケンス中の2人のうち歩行シーケンスの情報が一致する人503を適切に選択することなどが可能となる。
以上のように、本実施の形態によれば、歩行シーケンスから得た時空間周期情報と、時空間位相情報と、時空間位置情報とを検出し、これらの情報に基づいて歩行シーケンスの一致判定を行うことで、画像中の人の大きさや向きなどの影響を抑えて、異なる時間の画像シーケンスに含まれる人の検索・追跡が可能となる。
なお、本実施の形態では、時空間周期情報と時空間位相情報とを共に用いて歩行シーケンスの照合を行ったが、時空間周期情報又は時空間位相情報のどちらか一方のみでも歩行シーケンスの照合は可能であり、本発明の効果を得ることができる。両者を組合わせることでより、詳細な照合が可能となり、検索・追跡の精度を向上させることができる。
また、画像シーケンス入力部100へ入力する画像シーケンスは少なくとも1歩以上の歩行過程を含む時間長又はフレーム数であることが望ましく、含まれる歩数は1歩よりも多い方が照合の精度向上が期待できる。1歩以上の歩行過程を含む時間長としてはおよそ0.5秒以上(30フレーム/秒でおよそ15フレーム以上)の長さの画像シーケンスであることが望ましく、特定歩行状態が少なくとも2回以上検出できることが望ましい。
なお、実施の形態1では画像シーケンスをカメラから直接得る例を示したが、記憶装置1040などに録画された画像シーケンスを読み出して用いても同様の効果が得られる。
(実施の形態2)
次に、本発明の実施の形態2について、図18A、図18B及び図19を用いて説明する。
実施の形態2は、基本的な構成は実施の形態1と同じであるが、2つの異なるカメラから得られた画像シーケンスをそれぞれ画像シーケンス1及び画像シーケンス2として扱い、人の検索・追跡を行うものである。画像の例を図18A及び図18Bに示す。図18Aは画像シーケンス1を示し、図18Bは画像シーケンス2を示す。図18A及び図18Bには、直方体形状の障害物900が表示されている。図18Aに示される画像シーケンス1では、障害物900で人922が隠されており、人912だけが写っている。一方、図18Bに示される画像シーケンス2では、人921と人922とが写っている。人912は人922に対応するが、画像シーケンス2の2人の人は互いに近くを歩いており背格好や服装は同じであり、人912に対応する人が人921か人922なのかは色やテクスチャや動きベクトルでは区別がつかない。ここで、図18A及び図18Bの格子状の破線は地面上の位置座標を重畳して表示したものであり、2つの画像シーケンスの位置情報の対応付けの説明のために表示している。破線の格子は、あらかじめカメラ画像内の位置と撮影場所の位置との対応関係(時空間補正情報)を実測又は、カメラ配置と光学系の仕様に基づいた幾何学計算することで得られる。図18Aの格子と図18Bの格子とは対応する位置を表している。このような画像中の異なる平面上の対応する点間の座標変換は3×3の平面射影行列Hで表現できる為、行列Hを算出し、保持しておけばよい。平面射影行列の求め方はK. Kanatani, N. Ohta and Y. Kanazawa, "Optimal homography computation with a reliability measure," IEICE Transactions on Information and Systems, Vol. E83-D, No.7, pp.1369-1374 (July 2000).などの既存の手法を用いることができる。
図19は、本実施の形態における人物判定装置15の構成を示す機能ブロック図である。この人物判定装置15は、実施の形態1における人物判定装置10が備える構成に加えて、さらに、時空間補正部170を備える。時空間補正部170は、歩行シーケンスの抽出又は時空間的周期情報や時空間的位相情報や時空間位置情報の算出時に、時空間補正情報を用いて補正を行い、異なる画像シーケンスにおける時空間的不整合性を補償する処理部である。ここで、時空間補正部170は、歩行情報の抽出における時空間的な補正処理を行う補正手段の一例である。
人物判定装置15は、異なるカメラの映像に対しても実施の形態1と同様の手続で処理を行い、画像シーケンス1中の人に対応する画像シーケンス2中の人を特定することができる。カメラの配置の違いから撮影される対象の画像内の配置が異なる為、前記格子線をカメラ毎(又は画像シーケンス毎)に時空間補正情報として保持しておき、歩行シーケンスを抽出する際の空間的な位置座標の補正情報として利用する。つまり、時空間補正部170は、撮影場所における歩行面を一定距離の間隔で2次元的に区切る格子線を特定する情報を補正情報として記憶しておく。
そして、時空間補正部170が前記時空間補正情報を用いて補正処理を行うことで、時空間的周期情報や時空間的位相情報や時空間位置情報を異なるカメラの映像間で照合することが可能となる。たとえば、時空間補正部170は、格子線で囲まれる小領域の各辺や面積の比率に応じて、時空間的周期情報、時空間的位相情報及び時空間位置情報を時空間的に補正する(比例係数を乗じる)。このとき、時空間位相情報としては特定の格子線を越えた後に最初に特定歩行状態になる時空間的位置を用いればよい。このような構成により、障害物900に隠れている人(図示せず)と人921を対応付け、人912と人922とを対応付けることが可能となる。
また、上記例では歩行シーケンスを抽出する際に、前記位置の対応関係を用いたが、画像シーケンスの状態で一方の画像シーケンスを他方の画像シーケンスの位置に合うように画像を変換してからその後の処理を行ってもよい。画像変換を行う場合にも上記の平面射影行列Hを用いることで歩行している平面(地面)上の画素位置に行列Hを作用させることで、対応するもう一方の画像シーケンス内の平面(地面)上の位置に変換できる。このため、全ての画素について同様の変換を行うことで画像の変換が可能となる。時空間周期情報・時空間位相情報・時空間位置情報を算出する際に、位置関係を用いて補正を行って算出することでもカメラ配置の影響を除いて歩行シーケンスを照合することが可能となる。
また、2つの画像シーケンス間でフレームレートが異なる場合にも予めフレームレートがそろうように時空間補正部170が一方に対してフレームレート変換を行うか、歩行シーケンスを抽出する際にフレームレートを変換するか、時空間周期情報・時空間位相情報・時空間位置情報を算出する際に時間情報の補正を行うことで、異なるフレームレートの画像シーケンス間での人の検索・追跡が可能となる。例えば、比較すべき2つの画像シーケンスのフレームレートがそれぞれ15フレーム/秒と30フレーム/秒との場合、後者の画像シーケンスから1フレームおきにフレームを間引くことで15フレーム/秒の画像シーケンスを生成したのち、画像シーケンス間の歩行シーケンスの検出・照合を行う。
この場合、あらかじめ補正に必要なフレームレートの情報時空間補正情報を画像シーケンスと対応付けられた状態で記憶装置などに保持しておけばよい。
一般的に、異なるカメラでは対象の向きや照明条件の違いやカメラの特性の違いから、画像上の人の見かけは大きく変わることが多いため、色や動きベクトルの連続性や人領域の画像パタンそのものを用いた追跡手法では適切に同じ人を検索・追跡することは困難である。しかしながら、本実施の形態における手法を用いることで、異なる向きや色や見た目の人であっても、同一人物の歩行シーケンスから得た時空間周期情報や時空間位相情報を用いることで異なる画像シーケンス中の人を検索・追跡することが可能となる。特に、異なるカメラの視野が同一場所を含み、同じ人を異なる方位から撮影できる場合には、時間位相情報を用いることで、より効果的な人のシーケンスの対応付けが可能になる。
なお、上記例ではカメラ画像間の位置の対応付けをあらかじめ行ったが、時間周期や時間位相を主に用いる場合には対応付けを行わない場合にでも、歩行シーケンス間の照合を行い、本発明の効果を得ることは可能である。
なお、上記実施の形態における処理の一部又は全部は専用の機器で行われてもよいし、端末や基地局等の通信機器やコンピュータに内蔵されるCPUが処理プログラムを実行することによって、行われてもよい。
本発明は、異なる画像シーケンスに含まれる人物同士が同一人物であるか否かを判定する人物判定装置、画像シーケンスから人物を検索・追跡する人物検索追跡装置等として、例えば、街頭等に設置される監視システム等として利用することができる。
図1Aは、従来の人物検索追跡装置における検出矩形の一例を示す図である。 図1Bは、従来の人物検索追跡装置における検出矩形の一例を示す図である。 図1Cは、従来の人物検索追跡装置における検出矩形の移動を示す図である。 図2は、本発明の実施の形態1における人物判定装置の構成を示す機能ブロック図である。 図3は、本発明の実施の形態1における画像シーケンスの一例を示す図である。 図4Aは、人の下半身画像のシーケンスの一例を示す図である。 図4Bは、本発明の実施の形態1における歩行シーケンスの一例を示す図である。 図4Cは、歩行シーケンスの最小パタンの形状の一例を示す図である。 本発明の実施の形態1における時空間位相情報及び時空間位置情報を示す図である。 図6Aは、本発明の実施の形態1における歩行軌跡の一例を示す図である。 図6Bは、本発明の実施の形態1における推定歩行状態の一例を示す図である。 図6Cは、本発明の実施の形態1における位相状態の異なる歩行状態の一例を示す図である。 図7Aは、本発明の実施の形態1における歩行軌跡と脚間の変化との関係の一例を示す図である。 図7Bは、本発明の実施の形態1における脚間変化の一例を示す図である。 図7Cは、本発明の実施の形態1における脚間変化の一例を示す図である。 図8Aは、本発明の実施の形態1における歩行シーケンスの表示の一例を示す図である。 図8Bは、本発明の実施の形態1における歩行シーケンスの表示の一例を示す図である。 図8Cは、本発明の実施の形態1における歩行シーケンスの表示の一例を示す図である。 図9は、本発明の実施の形態1における歩行シーケンスの検索・追跡を行った結果の記憶書式の例を示す図である。 図10は、本発明の実施の形態1における人物検索追跡装置の構成を示すブロック図である。 図11は、本発明の実施の形態1における検索・追跡の指示を行う画面の例を示す図である。 図12は、本発明の実施の形態1における照合手続きの一例を示すフローチャートである。 図13Aは、本発明の実施の形態1における画像シーケンス1の一例を示す図である。 図13Bは、本発明の実施の形態1における画像シーケンス2の一例を示す図である。 図14は、本発明の実施の形態1における歩行シーケンス抽出手続きの一例を示すフローチャートである。 図15は、本発明の実施の形態1における時空間周期情報・時空間位相情報・時空間位置情報の抽出手続きの一例を示すフローチャートである。 図16Aは、本発明の実施の形態1における特定歩行状態の検出の一例を示す図である。 図16Bは、本発明の実施の形態1における特定歩行状態の検出テンプレートの一例を示す図である。 図16Cは、本発明の実施の形態1における特定歩行状態の検出過程の一例を示す図である。 本発明の実施の形態1における制御部による表示の一例を示す図である。 図18Aは、本発明の実施の形態2における画像シーケンス1の一例を示す図である。 図18Bは、本発明の実施の形態2における画像シーケンス2の一例を示す図である。 図19は、本発明の実施の形態2における人物判定装置の構成を示す機能ブロック図である。
符号の説明
10、15 人物判定装置
20 人物検索追跡装置
100 画像シーケンス入力部
110 歩行シーケンス抽出部
120 時空間周期情報抽出部
121 時空間位相情報抽出部
122 時空間位置情報抽出部
130 時空間周期情報記憶部
131 時空間位相情報記憶部
132 時空間位置情報記憶部
140 時空間周期照合部
141 時空間位相照合部
142 時空間差抽出部
150 一致判定部
160 制御部
170 時空間補正部
180 歩行状態推定部
190 判定部
200 歩行姿勢検出部
1010、1020 カメラ(画像シーケンス入力部)
1030 時計
1040 記憶装置
1050 処理装置
1060 表示装置
1070 入力装置
1080 ポインティングデバイス

Claims (7)

  1. 異なる画像シーケンスに含まれる人物同士が同一であるか否かを判定する人物判定装置であって、
    第1の画像シーケンス、及び、前記第1の画像シーケンスと異なる時刻又は異なるイメージセンサにて取得された第2の画像シーケンスの入力を受け付ける画像シーケンス入力手段と、
    入力された前記第1及び第2の画像シーケンスから、それぞれ、人物の歩行状態を示す画像シーケンスである第1及び第2の歩行シーケンスを抽出する歩行シーケンス抽出手段と、
    抽出された前記第1及び第2の歩行シーケンスから、それぞれ、人物の時間的又は空間的な歩行周期を示す情報である第1及び第2の時空間周期情報と人物の周期的な歩行動作における時間的又は空間的な位相情報である第1及び第2の時空間位相情報とを、人物の歩行についての周期的な動きを特定する情報である第1及び第2の歩行情報として抽出する歩行情報抽出手段と、
    抽出された前記第1及び第2の歩行情報にそれぞれ含まれる第1及び第2の時空間位相情報に基づいて、前記第1及び第2の画像シーケンスに含まれる人物が所定の歩行姿勢となる時刻または位置を比較することにより歩行情報を照合する歩行情報照合手段と、
    前記歩行情報照合手段による照合結果に基づいて、前記第1及び第2の画像シーケンスに含まれる人物同士が同一であるか否かを判定する判定手段とを備え、
    前記歩行情報照合手段は、
    前記第1の歩行情報に含まれる第1の時空間位相情報に基づいて、前記第1の画像シーケンスに含まれる人物の、前記第1の画像シーケンスと異なる時刻または位置における時空間位相情報を推定する位相情報推定部と、
    前記位相情報推定手段で推定された前記時空間位相情報および前記第2の時空間位相情報に基づいて、前記第1及び第2の画像シーケンスに含まれる人物が所定の歩行姿勢となる時刻または位置を比較することにより歩行情報を照合する歩行情報照合部とを有する
    ことを特徴とする人物判定装置。
  2. 異なる画像シーケンスに含まれる人物同士が同一であるか否かを判定する人物判定装置であって、
    第1の画像シーケンス、及び、前記第1の画像シーケンスと異なる時刻又は異なるイメージセンサにて取得された第2の画像シーケンスの入力を受け付ける画像シーケンス入力手段と、
    入力された前記第1及び第2の画像シーケンスから、それぞれ、人物の歩行状態を示す画像シーケンスである第1及び第2の歩行シーケンスを抽出する歩行シーケンス抽出手段と、
    抽出された前記第1及び第2の歩行シーケンスから、それぞれ、人物の時間的又は空間的な歩行周期を示す情報である第1及び第2の時空間周期情報と人物の周期的な歩行動作における時間的又は空間的な位相情報である第1及び第2の時空間位相情報とを、人物の歩行についての周期的な動きを特定する情報である第1及び第2の歩行情報として抽出する歩行情報抽出手段と、
    抽出された前記第1及び第2の歩行情報にそれぞれ含まれる第1及び第2の時空間位相情報に基づいて、同一の時刻または位置における前記第1及び第2の画像シーケンスに含まれる人物の歩行姿勢を比較することにより歩行情報を照合する歩行情報照合手段と、
    前記歩行情報照合手段による照合結果に基づいて、前記第1及び第2の画像シーケンスに含まれる人物同士が同一であるか否かを判定する判定手段とを備え、
    前記歩行情報照合手段は、
    前記第1の時空間歩行情報に含まれる時空間位相情報に基づいて、前記第1の画像シーケンスに含まれる人物の、前記第1の画像シーケンスと異なる時刻または位置における時空間位相情報を推定する位相情報推定部と、
    前記位相情報推定手段で推定された前記時空間位相情報および前記第2の時空間位相情報に基づいて、同一の時刻または位置における前記第1及び第2の画像シーケンスに含まれる人物の歩行姿勢を比較することにより歩行情報を照合する歩行情報照合部とを有する
    ことを特徴とする請求項に記載の人物判定装置。
  3. 異なる画像シーケンスに含まれる人物同士が同一であるか否かを判定する人物判定装置であって、
    第1の画像シーケンス、及び、前記第1の画像シーケンスと異なる時刻又は異なるイメージセンサにて取得された第2の画像シーケンスの入力を受け付ける画像シーケンス入力手段と、
    入力された前記第1及び第2の画像シーケンスから、それぞれ、人物の歩行状態を示す画像シーケンスである第1及び第2の歩行シーケンスを抽出する歩行シーケンス抽出手段と、
    抽出された前記第1及び第2の歩行シーケンスから、それぞれ、人物の時間的又は空間的な歩行周期を示す情報である第1及び第2の時空間周期情報と人物の周期的な歩行動作における時間的又は空間的な位相情報である第1及び第2の時空間位相情報とを、人物の歩行についての周期的な動きを特定する情報である第1及び第2の歩行情報として抽出する歩行情報抽出手段と、
    抽出された前記第1及び第2の歩行情報を照合する歩行情報照合手段と、
    前記歩行情報照合手段による照合結果に基づいて、前記第1及び第2の画像シーケンスに含まれる人物同士が同一であるか否かを判定する判定手段と、
    前記第1及び第2の画像シーケンスそれぞれにおける画像上の位置と撮影場所における位置との対応関係を示す補正情報を予め記憶する補正情報記憶手段と、
    前記補正情報記憶手段に記憶された補正情報に基づいて、前記歩行情報抽出手段による前記第1及び第2の歩行情報の抽出における時空間的な補正処理を行う補正手段とを備える
    ことを特徴とする人物判定装置。
  4. 前記補正情報記憶手段は、前記撮影場所における歩行面を一定距離の間隔で2次元的に区切る格子線を特定する情報を前記補正情報として記憶する
    ことを特徴とする請求項記載の人物判定装置。
  5. 異なる画像シーケンスに含まれる人物同士が同一であるか否かを判定する人物判定装置であって、
    画像シーケンス中に含まれる第1及び第2の人物の歩行状態を示す画像シーケンスである第1及び第2の歩行シーケンスを検出する歩行シーケンス検出手段と、
    前記第1の人物の歩行シーケンスから当該歩行シーケンスとは異なる時刻または位置における第1の人物の周期的な歩行運動における歩行姿勢の遷移を示す情報を推定する歩行姿勢遷移推定手段と、
    推定された前記第1の人物の歩行姿勢の遷移を示す情報と、前記第2の人物の歩行姿勢の遷移を示す情報との整合性を判定し、整合性を有する場合に、前記第1の人物と前記第2の人物とが同一であると判断する判断手段とを備える
    ことを特徴とする人物判定装置。
  6. 人物が撮像された画像シーケンスにおいて特定の人物を検索又は追跡する人物検索追跡装置であって、
    第1の画像シーケンス、及び、前記第1の画像シーケンスと異なる時刻又は異なるイメージセンサにて取得された第2の画像シーケンスの入力を受け付ける画像シーケンス入力手段と、
    入力された前記第1及び第2の画像シーケンスから、それぞれ、人物の歩行状態を示す画像シーケンスである第1及び第2の歩行シーケンスを抽出する歩行シーケンス抽出手段と、
    抽出された前記第1及び第2の歩行シーケンスから、それぞれ、人物の時間的又は空間的な歩行周期を示す情報である第1及び第2の時空間周期情報と人物の周期的な歩行動作における時間的又は空間的な位相情報である第1及び第2の時空間位相情報とを、人物の歩行についての周期的な動きを特定する情報である第1及び第2の歩行情報として抽出する歩行情報抽出手段と、
    抽出された前記第1及び第2の歩行情報を照合する歩行情報照合手段と、
    前記歩行情報照合手段による照合結果に基づいて、前記第1及び第2の画像シーケンスに含まれる人物同士が同一であるか否かを判定する判定手段とを備える人物判定装置と、
    前記人物判定装置が備える歩行情報照合手段によって前記第1及び第2の歩行情報が一致すると照合された場合に、前記第1及び第2の歩行情報に対応する前記第1及び第2の歩行シーケンス同士を対応づけて記憶する歩行シーケンス記憶手段と
    を備えることを特徴とする人物検索追跡装置。
  7. 人物が撮像された画像シーケンスにおいて特定の人物を検索又は追跡する人物検索追跡装置であって、
    第1の画像シーケンス、及び、前記第1の画像シーケンスと異なる時刻又は異なるイメージセンサにて取得された第2の画像シーケンスの入力を受け付ける画像シーケンス入力手段と、
    入力された前記第1及び第2の画像シーケンスから、それぞれ、人物の歩行状態を示す画像シーケンスである第1及び第2の歩行シーケンスを抽出する歩行シーケンス抽出手段と、
    抽出された前記第1及び第2の歩行シーケンスから、それぞれ、人物の時間的又は空間的な歩行周期を示す情報である第1及び第2の時空間周期情報と人物の周期的な歩行動作における時間的又は空間的な位相情報である第1及び第2の時空間位相情報とを、人物の歩行についての周期的な動きを特定する情報である第1及び第2の歩行情報として抽出する歩行情報抽出手段と、
    抽出された前記第1及び第2の歩行情報を照合する歩行情報照合手段と、
    前記歩行情報照合手段による照合結果に基づいて、前記第1及び第2の画像シーケンスに含まれる人物同士が同一であるか否かを判定する判定手段とを備える人物判定装置と、
    前記人物判定装置が備える画像シーケンス入力手段が受け付ける前記第1及び第2の画像シーケンスを表示する表示手段とを備え、
    前記表示手段は、前記第1及び第2の画像シーケンスに含まれる人物のうち、前記人物判定装置が備える判定手段によって同一と判定された人物を他の人物と区別するための強調表示をする
    ことを特徴とする人物検索追跡装置。
JP2006531421A 2004-08-03 2005-07-27 人物判定装置及び人物検索追跡装置 Expired - Fee Related JP3910629B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004227083 2004-08-03
JP2004227083 2004-08-03
PCT/JP2005/013769 WO2006013765A1 (ja) 2004-08-03 2005-07-27 人物判定装置及び人物検索追跡装置

Publications (2)

Publication Number Publication Date
JP3910629B2 true JP3910629B2 (ja) 2007-04-25
JPWO2006013765A1 JPWO2006013765A1 (ja) 2008-05-01

Family

ID=35787054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006531421A Expired - Fee Related JP3910629B2 (ja) 2004-08-03 2005-07-27 人物判定装置及び人物検索追跡装置

Country Status (4)

Country Link
US (1) US7397931B2 (ja)
JP (1) JP3910629B2 (ja)
CN (5) CN100474339C (ja)
WO (1) WO2006013765A1 (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3910629B2 (ja) * 2004-08-03 2007-04-25 松下電器産業株式会社 人物判定装置及び人物検索追跡装置
US8131022B2 (en) * 2004-08-31 2012-03-06 Panasonic Corporation Surveillance recorder and its method
JP4290164B2 (ja) * 2006-01-31 2009-07-01 キヤノン株式会社 識別領域を示す表示を画像と共に表示させる表示方法、コンピュータ装置に実行させるプログラム、および、撮像装置
JP4665933B2 (ja) * 2006-07-04 2011-04-06 セイコーエプソン株式会社 文書編集支援装置、プログラムおよび記憶媒体
JP4257615B2 (ja) * 2006-07-14 2009-04-22 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4263737B2 (ja) * 2006-11-09 2009-05-13 トヨタ自動車株式会社 歩行者検知装置
JP4337867B2 (ja) * 2006-12-01 2009-09-30 セイコーエプソン株式会社 文書編集支援装置、文書編集装置、プログラムおよび記憶媒体
JP4315991B2 (ja) * 2007-04-20 2009-08-19 本田技研工業株式会社 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム
US8432449B2 (en) * 2007-08-13 2013-04-30 Fuji Xerox Co., Ltd. Hidden markov model for camera handoff
JP2009053815A (ja) * 2007-08-24 2009-03-12 Nikon Corp 被写体追跡プログラム、および被写体追跡装置
JP4921335B2 (ja) * 2007-12-10 2012-04-25 キヤノン株式会社 ドキュメント処理装置及び検索方法
JP5211918B2 (ja) * 2008-07-30 2013-06-12 富士通株式会社 携帯端末装置及び認証管理方法
CN101350064B (zh) * 2008-08-29 2012-06-13 北京中星微电子有限公司 二维人体姿态估计方法及装置
CN101388114B (zh) * 2008-09-03 2011-11-23 北京中星微电子有限公司 一种人体姿态估计的方法和系统
JP4760918B2 (ja) * 2009-01-23 2011-08-31 カシオ計算機株式会社 撮像装置、被写体追従方法、及びプログラム
JP5029647B2 (ja) * 2009-04-08 2012-09-19 株式会社ニコン 被写体追尾装置、およびカメラ
JP5538781B2 (ja) * 2009-09-02 2014-07-02 キヤノン株式会社 画像検索装置及び画像検索方法
US11080513B2 (en) * 2011-01-12 2021-08-03 Gary S. Shuster Video and still image data alteration to enhance privacy
JP5960950B2 (ja) * 2011-03-29 2016-08-02 セコム株式会社 画像監視装置およびプログラム
CN102999152B (zh) * 2011-09-09 2016-06-29 康佳集团股份有限公司 一种手势动作识别方法和系统
WO2013103151A1 (ja) * 2012-01-04 2013-07-11 株式会社ニコン 電子機器、情報生成方法、及び位置推定方法
US9092675B2 (en) 2012-03-29 2015-07-28 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US9275285B2 (en) 2012-03-29 2016-03-01 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US8660307B2 (en) 2012-03-29 2014-02-25 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US8761442B2 (en) * 2012-03-29 2014-06-24 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
JP5912062B2 (ja) * 2012-05-24 2016-04-27 オリンパス株式会社 撮影機器及び動画像データの記録方法
KR102120864B1 (ko) * 2013-11-06 2020-06-10 삼성전자주식회사 영상 처리 방법 및 장치
CN104639517B (zh) * 2013-11-15 2019-09-17 阿里巴巴集团控股有限公司 利用人体生物特征进行身份验证的方法和装置
CN106104631B (zh) * 2014-03-11 2019-03-01 三菱电机株式会社 人物检测装置及人物检测方法
JP6526953B2 (ja) * 2014-09-12 2019-06-05 株式会社日立国際電気 物体識別方法
KR102015588B1 (ko) * 2015-07-16 2019-08-28 한화테크윈 주식회사 배회 경보 방법 및 장치
KR101732981B1 (ko) * 2015-10-29 2017-05-08 삼성에스디에스 주식회사 개인화 특성 분석 시스템 및 방법
US9911198B2 (en) 2015-12-17 2018-03-06 Canon Kabushiki Kaisha Method, system and apparatus for matching moving targets between camera views
JP6879296B2 (ja) 2016-03-31 2021-06-02 日本電気株式会社 画像検出装置、画像検出方法、及びプログラム
CN113903455A (zh) * 2016-08-02 2022-01-07 阿特拉斯5D公司 在保护隐私的同时识别人及/或识别并量化疼痛、疲劳、情绪及意图的系统及方法
JP6888950B2 (ja) * 2016-12-16 2021-06-18 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置、外界認識装置
JP6800820B2 (ja) * 2017-07-14 2020-12-16 パナソニック株式会社 人流分析方法、人流分析装置、及び人流分析システム
JP7325745B2 (ja) * 2017-10-12 2023-08-15 株式会社コンピュータシステム研究所 監視装置、監視プログラム、記憶媒体、および、監視方法
CN107730686A (zh) * 2017-11-01 2018-02-23 桐乡守敬应用技术研究院有限公司 一种生物特征解锁方法
JP7182778B2 (ja) * 2018-11-05 2022-12-05 公立大学法人大阪 歩容解析装置
TWI697914B (zh) * 2018-11-29 2020-07-01 宏碁股份有限公司 監測系統及其方法
WO2020115890A1 (ja) 2018-12-07 2020-06-11 日本電気株式会社 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP7020567B2 (ja) 2018-12-07 2022-02-16 日本電気株式会社 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP7207431B2 (ja) 2018-12-27 2023-01-18 日本電気株式会社 情報処理システム、情報処理装置、情報処理方法、およびプログラム
EP3905188A4 (en) 2018-12-27 2021-12-29 NEC Corporation Information processing device, information processing method, and program
CN109859322B (zh) * 2019-01-22 2022-12-06 广西大学 一种基于变形图的谱姿态迁移方法
WO2021130907A1 (ja) * 2019-12-25 2021-07-01 日本電気株式会社 推定装置、推定システム、推定方法、およびプログラム記録媒体
JP7198196B2 (ja) * 2019-12-26 2022-12-28 株式会社日立ハイテク 計測装置及び計測方法
US11315363B2 (en) * 2020-01-22 2022-04-26 Board Of Trustees Of Michigan State University Systems and methods for gait recognition via disentangled representation learning
WO2022030179A1 (ja) * 2020-08-05 2022-02-10 国立大学法人大阪大学 周期画像復元装置及び方法、識別装置及び方法、検証装置及び方法、特徴抽出装置、訓練方法、位相推定装置、並びに記憶媒体
JP7296538B2 (ja) * 2020-09-16 2023-06-23 株式会社シンギュラリティテック 人工知能による歩容認証のためのデータ前処理システム、方法、および、プログラム
JP2022064719A (ja) * 2020-10-14 2022-04-26 富士通クライアントコンピューティング株式会社 情報処理装置、情報処理システムおよび情報処理プログラム
WO2022201987A1 (ja) * 2021-03-23 2022-09-29 日本電気株式会社 画像解析装置、画像解析システム、画像解析方法及びプログラム
JP7193104B1 (ja) 2021-11-25 2022-12-20 株式会社アジラ 行動体同定システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2801362B2 (ja) * 1990-05-24 1998-09-21 日本電信電話株式会社 個人識別装置
US6205231B1 (en) * 1995-05-10 2001-03-20 Identive Corporation Object identification in a moving video image
US5885229A (en) * 1995-07-19 1999-03-23 Nippon Telegraph & Telephone Corp. Walking pattern processing method and system for embodying the same
US6263088B1 (en) * 1997-06-19 2001-07-17 Ncr Corporation System and method for tracking movement of objects in a scene
US7116323B2 (en) * 1998-05-27 2006-10-03 In-Three, Inc. Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images
US6542621B1 (en) * 1998-08-31 2003-04-01 Texas Instruments Incorporated Method of dealing with occlusion when tracking multiple objects and people in video sequences
JP2000182060A (ja) * 1998-12-21 2000-06-30 Nec Corp 個人識別装置及び個人識別方法
JP2002197437A (ja) * 2000-12-27 2002-07-12 Sony Corp 歩行検出システム、歩行検出装置、デバイス、歩行検出方法
US6525663B2 (en) * 2001-03-15 2003-02-25 Koninklijke Philips Electronics N.V. Automatic system for monitoring persons entering and leaving changing room
US20030123703A1 (en) * 2001-06-29 2003-07-03 Honeywell International Inc. Method for monitoring a moving object and system regarding same
US7035431B2 (en) * 2002-02-22 2006-04-25 Microsoft Corporation System and method for probabilistic exemplar-based pattern tracking
TW582168B (en) * 2002-03-01 2004-04-01 Huper Lab Co Ltd Method for abstracting multiple moving objects
JP4187448B2 (ja) * 2002-03-07 2008-11-26 富士通マイクロエレクトロニクス株式会社 画像における移動体追跡方法及び装置
JP2003346159A (ja) * 2002-05-28 2003-12-05 Oki Electric Ind Co Ltd 人物追跡方法及び人物追跡装置
US7113185B2 (en) * 2002-11-14 2006-09-26 Microsoft Corporation System and method for automatically learning flexible sprites in video layers
JP3947973B2 (ja) * 2003-02-14 2007-07-25 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP3910629B2 (ja) * 2004-08-03 2007-04-25 松下電器産業株式会社 人物判定装置及び人物検索追跡装置
JP2007241500A (ja) * 2006-03-07 2007-09-20 Toshiba Corp 顔認証装置および顔認証方法

Also Published As

Publication number Publication date
CN101398891A (zh) 2009-04-01
US7397931B2 (en) 2008-07-08
CN101398892B (zh) 2010-12-22
CN100474339C (zh) 2009-04-01
CN101398892A (zh) 2009-04-01
CN101398890B (zh) 2010-12-08
CN101398891B (zh) 2010-12-08
CN1842824A (zh) 2006-10-04
US20060120564A1 (en) 2006-06-08
WO2006013765A1 (ja) 2006-02-09
CN101344923A (zh) 2009-01-14
CN101344923B (zh) 2012-05-23
CN101398890A (zh) 2009-04-01
JPWO2006013765A1 (ja) 2008-05-01

Similar Documents

Publication Publication Date Title
JP3910629B2 (ja) 人物判定装置及び人物検索追跡装置
US20210343027A1 (en) Object tracking method and apparatus, storage medium and electronic device
CN102087702B (zh) 图像处理设备和图像处理方法
JP6847254B2 (ja) 歩行者追跡の方法および電子デバイス
US9384563B2 (en) Image processing device, method, and computer program product
JP5001260B2 (ja) オブジェクト追跡方法及びオブジェクト追跡装置
JP5148669B2 (ja) 位置検出装置、位置検出方法、及び位置検出プログラム
US20190340431A1 (en) Object Tracking Method and Apparatus
JP4645223B2 (ja) 顔追跡プログラムおよび顔追跡方法
JP2002048513A (ja) 位置検出装置、位置検出方法、及び位置検出プログラム
CN104853668A (zh) 用于眼睛和注视搜索的基于平铺图像的头部位置扫描
CN108875507B (zh) 行人跟踪方法、设备、系统和计算机可读存储介质
JP5634517B2 (ja) ビデオ映像の監視
KR101548639B1 (ko) 감시 카메라 시스템의 객체 추적장치 및 그 방법
JP4609076B2 (ja) 移動物体検出装置及び移動物体検出方法
US9256945B2 (en) System for tracking a moving object, and a method and a non-transitory computer readable medium thereof
JP3836814B2 (ja) 画像処理方法、画像処理装置、画像処理プログラム
CN109509212A (zh) 目标跟踪处理方法、电子设备
JP2015052999A (ja) 個人特徴抽出プログラム、個人特徴抽出装置、および個人特徴抽出方法
US20060279800A1 (en) Image processing apparatus, image processing method, and image processing program
US20200226787A1 (en) Information processing apparatus, information processing method, and program
JPH08167022A (ja) 画像監視装置
CN104980623A (zh) 检测方法及检测装置
JP2011043863A (ja) 対象領域判定・追跡装置、方法、プログラム及び対象領域判定装置
EP3461126B1 (en) Method for identifying state of athlete and device for identifying state of athlete

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070124

R150 Certificate of patent or registration of utility model

Ref document number: 3910629

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100202

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110202

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120202

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130202

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130202

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140202

Year of fee payment: 7

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees