JP5961123B2 - 人物検出追跡装置、人物検出追跡方法、および人物検出追跡プログラム - Google Patents

人物検出追跡装置、人物検出追跡方法、および人物検出追跡プログラム Download PDF

Info

Publication number
JP5961123B2
JP5961123B2 JP2013015304A JP2013015304A JP5961123B2 JP 5961123 B2 JP5961123 B2 JP 5961123B2 JP 2013015304 A JP2013015304 A JP 2013015304A JP 2013015304 A JP2013015304 A JP 2013015304A JP 5961123 B2 JP5961123 B2 JP 5961123B2
Authority
JP
Japan
Prior art keywords
person
frame
image data
part frame
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013015304A
Other languages
English (en)
Other versions
JP2014146238A (ja
Inventor
慎治 竹中
慎治 竹中
岩井 和彦
和彦 岩井
光子 藤田
光子 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2013015304A priority Critical patent/JP5961123B2/ja
Priority to US14/151,137 priority patent/US9349042B2/en
Publication of JP2014146238A publication Critical patent/JP2014146238A/ja
Application granted granted Critical
Publication of JP5961123B2 publication Critical patent/JP5961123B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像データから人物を検出し、連続する複数のフレームにわたって人物の部位を追跡する人物検出追跡装置、人物検出追跡方法および人物検出追跡プログラムに関する。
画像データから人物を検出し、その人物の部位を複数のフレームにわたって追跡する技術は、例えば、特許文献1に開示されている。特許文献1の技術は、フレームごとに、画像データから抽出した特徴と、予め学習しておいた人物の部位の特徴(例えば、輝度エッジ情報、色情報、またはテクスチャ情報など)とを照合する。この照合により、特許文献1の技術は、フレームごとに、部位が存在する可能性の高い領域(以下、「部位枠」という)を複数特定し、特定した部位枠間の相対的な位置関係を把握する。そして、特許文献1の技術は、複数のフレームにわたって特定した部位枠間の相対的な位置関係に基づいて、各部位を追跡する。
特開2004−206656号公報
しかしながら、特許文献1の技術は、部位枠間の相対的な位置関係のみに基づいて部位を追跡するため、以下の課題がある。
例えば、画像データ中の人物の服装が全身同色である場合には、色情報がどの部位も同一となり、部位枠間に特徴差がなくなる。この場合において、例えば、画像データ中の人物が歩行する場合には、各部位枠が胴体部へ収束する現象が発生する。その理由は、歩行の動作は胴体部に比べ脚部が大きく変化するので、輝度エッジ情報またはテクスチャ情報が、歩行の動きに影響を受けにくい胴体部へマッチングしやすいためである。
したがって、複数のフレームにわたって人物が歩行を継続した場合、特許文献1の技術は、各フレームにおいて各部位の位置を正確に特定することが難しくなる。その結果、特許文献1の技術は、実際の画像データと追跡結果との間で、人物の大きさおよび部位の位置にズレが生じてしまう、という課題がある。
本発明の目的は、実際の画像データと追跡結果との間において、人物の大きさおよび各部位の位置のズレを防止することである。
本発明の一態様に係る人物検出追跡装置は、人物全体の特徴を示す人物特徴データに基づいて、第1の画像データから、人物が存在する可能性の高い領域として人物枠を検出する人物枠検出部と、人物の部位の特徴を示す部位特徴データと、前記第1の画像データより過去の第2の画像データにおいて前記人物の部位が存在する可能性の高い領域として特定された部位枠とに基づいて、前記第1の画像データにおいて部位枠を特定する部位枠位置特定部と、前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正する部位枠位置補正部と、を備える。
本発明の一態様に係る人物検出追跡方法は、人物全体の特徴を示す人物特徴データに基づいて、第1の画像データから、人物が存在する可能性の高い領域として人物枠を検出するステップと、人物の部位の特徴を示す部位特徴データと、前記第1の画像データより過去の第2の画像データにおいて前記人物の部位が存在する可能性の高い領域として特定された部位枠とに基づいて、前記第1の画像データにおいて部位枠を特定するステップと、前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正するステップと、を有する。
本発明の一態様に係る人物検出追跡プログラムは、人物全体の特徴を示す人物特徴データに基づいて、第1の画像データから、人物が存在する可能性の高い領域として人物枠を検出する処理と、人物の部位の特徴を示す部位特徴データと、前記第1の画像データより過去の第2の画像データにおいて前記人物の部位が存在する可能性の高い領域として特定された部位枠とに基づいて、前記第1の画像データにおいて部位枠を特定する処理と、前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正する処理と、をコンピュータに実行させる。
本発明によれば、実際の画像データと追跡結果との間において、人物の大きさおよび各部位の位置のズレを防止することができる。
本発明の実施の形態1に係る人物検出追跡装置の構成例を示すブロック図 本発明の実施の形態1に係る人物検出追跡装置が行う各処理の例を説明する図 本発明の実施の形態1に係る人物検出追跡装置の動作例を示すフローチャート 本発明の実施の形態2に係る人物検出追跡装置の構成例を示すブロック図 本発明の実施の形態2に係る人物検出追跡装置が行う簡易姿勢推定処理の例を説明する図 本発明の実施の形態2に係る人物検出追跡装置の動作例を示すフローチャート
(実施の形態1)
本発明の実施の形態1について、図面を参照しながら説明する。
<人物検出追跡装置100の構成>
まず、本発明の実施の形態1に係る人物検出追跡装置100の構成例について、図1を参照して説明する。図1は、本実施の形態の人物検出追跡装置100の構成例を示す図である。
図1において、本実施の形態の人物検出追跡装置100は、人物枠検出部110と、部位追跡部120とを有する。部位追跡部120は、部位枠設定部121、部位枠位置特定部122、および部位枠位置補正部123を有する。
人物枠検出部110は、撮像部200から画像データを受け取る。撮像部200は、所定の監視対象領域を動画で撮影するカメラである。よって、人物枠検出部110は、撮像部200から、連続する複数のフレームの画像データを受け取る。この画像データの一例は、図2Aに示す。図2Aに示す画像データは、撮像部200が監視対象領域を撮影した画像データの1フレーム分である。図2Aにおいて、画像データは、例えば、直立姿勢の人物30が映っている。
そして、人物枠検出部110は、1フレーム分の画像データを受け取るごとに、その画像データと、予め学習済みの人物特徴データとを照合する。人物特徴データとは、人物全体の特徴を示すデータであり、例えば、輝度エッジ情報、色情報、またはテクスチャ情報などが挙げられる。また、人物特徴データは、人物の姿勢(例えば、直立姿勢)を示すデータである。なお、人物特徴データは、所定のデータベース等に予め格納されており、照合の際、人物枠検出部110により読み出される。また、人物特徴データを格納するデータベースは、人物検出部110の内部または外部のどちらに備えられてもよい。
上記照合の結果、画像データの中に人物特徴データに合致する領域がある場合、人物枠検出部110は、その領域を、人物が存在する可能性の高い領域(以下、「人物枠」という)として検出する。人物枠は、人物の絶対的な大きさおよび位置を示す。この人物枠の例は、図2Bに示す。図2Bにおいて、人物枠40は、人物30の全体を包含している。
ここで、人物枠検出部110は、部位枠設定部121からの部位枠設定終了通知(詳細は後述)の有無に基づいて、検出した人物枠に含まれる人物に対して、デフォルトの部位枠(詳細は後述)が設定済みであるか否かを判定する。換言すれば、人物枠検出部110は、検出した人物枠に含まれる人物の部位がすでに追跡を開始されているか否かを判定することになる。
上記判定の結果、デフォルトの部位枠が設定済みで、部位の追跡がすでに開始されている場合、人物枠検出部110は、1フレーム分の画像データと検出した人物枠を示す人物枠情報とを、部位追跡部120の部位枠位置特定部122へ送る。一方、上記判定の結果、デフォルトの部位枠が設定みでなく、部位の追跡がこれから開始される場合、人物枠検出部110は、1フレーム分の画像データと検出した人物枠を示す人物枠情報とを、部位追跡部120の部位枠設定部121へ送る。ここでいう人物枠情報は、例えば、人物枠を特定可能な座標を含む情報である。
なお、上述した通り、人物枠検出部110は、予め学習された人物特徴データを利用して人物枠を検出するため、いずれの人物特徴データとも合致しないこともある。よって、人物枠検出部110は、時間的に連続するフレームにおいて、間欠的にしか人物を検出できず、常に動いている人物を連続的に検出することが難しい。そこで、本実施の形態は、後述する部位枠位置特定部122を用いることで、人物枠検出部110が行う間欠的な人物検出を補間する。これにより、本実施の形態の人物検出追跡装置100は、連続する複数のフレームの全てにおいて、人物の検出および部位の追跡を可能としている。
部位枠設定部121は、人物枠検出部110から、1フレーム分の画像データおよび人物枠情報を受け取る。そして、部位枠設定部121は、人物枠情報が示す人物枠の範囲内において、デフォルトの部位枠を設定する。部位枠とは、人体を構成する部位が存在する可能性の高い領域である。例えば、部位枠設定部121は、人物枠を垂直方向に5等分し、頭部位、胸部位、腹部位、太腿部位、脚部位のそれぞれに対して、デフォルトの部位枠を設定する。これらデフォルトの部位枠の例は、図2Cに示す。図2Cにおいて、人物枠40(図示略)に含まれる人物30は、デフォルトの部位枠として、頭部位枠51、胸部位枠52、腹部位枠53、太腿部位枠54、脚部位枠55がそれぞれ設定されている。
部位枠設定部121は、デフォルトの部位枠の設定を終えると、その旨を示す部位枠設定終了通知を人物枠検出部110へ送る。また、部位枠設定部121は、設定したデフォルトの部位枠をそれぞれ示す部位枠情報を、部位枠位置特定部122へ送る。ここでいう部位枠情報は、例えば、各部位枠を特定可能な座標を含む情報である。
部位枠位置特定部122は、人物枠検出部110から、1フレーム分の画像データおよび人物枠情報を受け取る。この画像データの一例は、図2Dに示す。図2Dに示す画像データは、例えば、図2Aの画像データに続く1フレーム分の画像データである。図2Dにおいて、人物30は、図2Aに示す位置から矢印xに示す方向へ移動した位置に存在している。この人物30は、人物枠検出部110により人物枠41が検出されている。よって、部位枠位置特定部122が人物枠検出部110から受け取った人物枠情報は、人物枠41を示す情報である。
なお、部位枠位置特定部122が人物枠検出部110から受け取った1フレーム分の画像データは、以下、「現フレームの画像データ」(第1の画像データの一例)という。現フレームの画像データは、各部位の位置がまだ特定されていない画像データである。これに対し、現フレームの画像データより時間が前のフレームの画像データは、以下、「前フレームの画像データ」(第2の画像データの一例)という。前フレームの画像データは、各部位の位置がすでに特定された画像データである。したがって、本実施の形態において、図2Dの画像データは現フレームの画像データの一例として、図2Aの画像データは前フレームの画像データの一例として、説明する。
そして、部位枠位置特定部122は、算出範囲の設定、部位尤度の算出、部位枠位置の特定を順に行う。以下、これらの動作について、それぞれ説明する。なお、これらの動作は、部位ごとに行われるが、以下では、頭部位の例を説明する。
まず、部位枠位置特定部122は、人物枠情報および部位枠情報に基づいて、現フレームの画像データに対して算出範囲を設定する。算出範囲とは、現フレームの画像データの中で、部位の尤度を算出する範囲である。また、ここで用いられる部位枠情報は、部位枠設定部121から受け取った部位枠情報、または、部位枠位置特定部122自身が記憶した部位枠情報のいずれかである。すなわち、部位枠位置特定部122は、前フレームの画像データにおいて部位枠位置を特定しておらず、自分自身が部位枠情報を記憶していない場合、部位枠設定部121から受け取った部位枠情報を用いる。一方、部位枠位置特定部122は、前フレームの画像データにおいて部位枠位置を特定しており、自分自身が部位枠情報を記憶している場合、その部位枠情報を用いる。
ここで、算出範囲の設定について、具体例を用いて説明する。ここでは、部位枠設定部121から受け取った部位枠情報を用いる場合とする。
まず、部位枠位置特定部122は、人物枠情報が示す人物枠41と、部位枠情報が示す頭部位枠51との位置関係に基づいて、人物30の移動方向が右方向(矢印xの方向)であると判断する。
そして、部位枠位置特定部122は、頭部位枠51から右方向への所定範囲を、算出範囲として設定する。この算出範囲の一例は、図2Eに示す。図2Eにおいて、算出範囲60は、頭部位枠51を含み、かつ、頭部位枠51から上方向、下方向、右方向へそれぞれ拡大した範囲として設定されている。
このようにして、頭部位枠51に対して算出範囲60が設定される。
次に、部位枠位置特定部122は、算出範囲60において、頭部位枠51と同じ大きさの枠を所定距離ずつ移動させる度に、その枠で囲まれた領域の部位尤度を算出する。これにより、複数の部位尤度が算出される。部位尤度とは、前フレームの画像データにおける部位枠位置が、現フレームの画像データのどの位置に存在するのかの尤もらしさを表す指標である。部位尤度は、予め学習された部位特徴データに基づいて算出される。部位特徴データは、人物の部位の特徴を示すデータであり、例えば、色情報、輝度エッジ情報、またはテクスチャ情報が挙げられる。
次に、部位枠位置特定部122は、最大の部位尤度が算出された領域を、現フレームの画像データにおける部位枠として特定する。この部位枠の一例は、図2Eに示す。図2Eにおいて、領域71は、最大の部位尤度が算出され、かつ、部位枠位置特定部122により、現フレームの画像データにおける頭部位枠として特定された領域である。以下、領域71は、「頭部位枠71」という。
このようにして、図2Eに示す現フレームの画像データにおいて、頭部位枠の位置の特定が終了する。なお、部位枠位置特定部122は、上記同様の動作を行うことで、胸部位枠、腹部位枠、太腿部位枠、脚部位枠のそれぞれについても、図2Eに示す現フレームの画像データにおいて位置を特定する。したがって、連続する複数のフレームの画像データごとに部位枠位置特定部122が各部位枠の位置特定を行うことで、複数のフレームにわたって各部位枠の追跡が可能となる。
そして、部位枠位置特定部122は、特定した各部位枠を示す部位枠情報を記憶する。ここでいう部位枠情報は、例えば、特定した部位枠ごとの位置(すなわち、部位枠間の相対的な位置関係)を示す情報である。ここで記憶された部位枠情報は、上述した通り、次のフレームの画像データにおいて算出範囲の設定を行う際に用いられる。
また、部位枠位置特定部122は、記憶した部位枠情報とともに、現フレームの画像データおよび人物枠情報を、部位枠位置補正部123へ送る。ここでいう現フレームの画像データは、例えば、図2Eに示す画像全体を示す画像データである。また、ここでいう人物枠情報は、図2Dに示す人物枠41を示す人物枠情報である。
部位枠位置補正部123は、部位枠位置特定部122から、現フレームの画像データ、人物枠情報、および部位枠情報を受け取る。そして、部位枠位置補正部123は、現フレームの画像データにおいて、部位枠情報が示す各部位枠の位置が、人物枠情報が示す人物枠に合致するように補正する。この補正の一例は、図2Fに示す。図2Fにおいて、部位枠位置補正部123は、頭部位枠71、胸部位枠72、腹部位枠73、太腿部位枠74、脚部位枠75のそれぞれの位置を、人物枠41に合致するように補正する。
以上で、本実施の形態の人物検出追跡装置100の構成例についての説明を終える。
<人物検出追跡装置100の動作>
次に、本実施の形態の人物検出追跡装置100の動作例について、図3を参照して説明する。図3は、本実施の形態の人物検出追跡装置100の動作例を示すフロー図である。
ステップS1において、人物枠検出部110は、撮像部200から1フレーム分の画像データを受け取る。この1フレーム分の画像データは、例えば、図2Aに示す画像データまたは図2Dに示す画像データである。
ステップS2において、人物枠検出部110は、1フレーム分の画像データと、予め学習済みの人物特徴データとを照合し、画像データにおいて人物特徴データに合致する領域を、人物枠として検出する。この人物枠は、例えば、図2Bに示す人物枠40または図2Dに示す人物枠41である。
ステップS3において、人物枠検出部110は、部位枠設定部121からの部位枠設定終了通知の有無に基づいて、検出した人物枠に含まれる人物にデフォルトの部位枠が設定済みであるか否かを判定する。
ステップS3の判定の結果、デフォルトの部位枠が設定済みである場合(ステップS3:YES)、人物枠検出部110は、1フレーム分の画像データおよび人物枠情報を、部位枠位置特定部122へ送る。この1フレーム分の画像データおよび人物枠情報は、例えば、図2Dに示す画像データおよび人物枠41を示す人物枠情報である。そして、フローは、ステップS5へ進む。
一方、ステップS3の判定の結果、デフォルトの部位枠が設定みではない場合(ステップS3:NO)、人物枠検出部110は、1フレーム分の画像データおよび人物枠情報を、部位枠設定部121へ送る。この1フレーム分の画像データおよび人物枠情報は、例えば、図2Aに示す画像データおよび人物枠40を示す人物枠情報である。そして、フローは、ステップS4へ進む。
ステップS4において、部位枠設定部121は、1フレーム分の画像データにおいて、人物枠情報が示す人物枠の範囲内でデフォルトの部位枠を設定する。このデフォルトの部位枠は、例えば、図2Cに示す、頭部位枠51、胸部位枠52、腹部位枠53、太腿部位枠54、脚部位枠55である。その後、部位枠設定部121は、デフォルトの部位枠の設定を終えた旨を示す部位枠設定終了通知を人物枠検出部110へ送る。また、部位枠設定部121は、デフォルトの部位枠をそれぞれ示す部位枠情報を、部位枠位置特定部122へ送る。この部位枠情報は、例えば、図2Cに示す、頭部位枠51、胸部位枠52、腹部位枠53、太腿部位枠54、脚部位枠55をそれぞれ示す部位枠情報である。そして、フローは、ステップS1へ戻る。
ステップS5において、部位枠位置特定部122は、人物枠情報および部位枠情報に基づいて、1フレーム分の画像データ(現フレームの画像データ)に算出範囲を設定する。算出範囲は、部位ごとに1つ設定される。この算出範囲は、例えば、図2Eに示す算出範囲60である。
ステップS6において、部位枠位置特定部122は、算出範囲において、所定の部位枠と同じ大きさの枠を所定距離ずつ移動させる度に、その枠で囲まれた領域の部位尤度を算出する。これにより、複数の部位尤度が算出される。部位尤度は、部位ごとに複数算出される。
ステップS7において、部位枠位置特定部122は、算出範囲60において最も大きい部位尤度が算出された領域を、現フレームの画像データにおける部位枠として特定する。部位枠の特定は、部位ごとに行われる。この特定された部位枠は、例えば、図2Eに示す頭部位枠71である。この後、部位枠位置特定部122は、特定した各部位枠を示す部位枠情報を記憶する。この部位枠情報は、例えば、図2Fに示す、頭部位枠71、胸部位枠72、腹部位枠73、太腿部位枠74、脚部位枠75をそれぞれ示す部位枠情報である。また、部位枠位置特定部122は、記憶した部位枠情報とともに、現フレームの画像データおよび人物枠情報を、部位枠位置補正部123へ送る。ここでいう現フレームの画像データは、例えば、図2Eに示す画像全体を示す画像データである。また、ここでいう人物枠情報は、図2Dに示す人物枠41を示す人物枠情報である。
ステップS8において、部位枠位置補正部123は、現フレームの画像データにおいて、部位枠情報が示す各部位枠の位置が、人物枠情報が示す人物枠に合致するように補正する。この補正は、例えば、図2Fにおいて、頭部位枠71、胸部位枠72、腹部位枠73、太腿部位枠74、脚部位枠75のそれぞれの位置が、人物枠41に合致するように行われる。そして、フローは、ステップS1へ戻る。
以上で、本実施の形態の人物検出追跡装置100の動作例についての説明を終える。
このように、本実施の形態の人物検出追跡装置100は、1フレーム分の画像データごとに、人物の絶対的な大きさおよび位置を示す人物枠に基づいて、特定した部位枠間の相対的な位置関係を補正することを特徴とする。よって、人物検出追跡装置100は、部位枠間で尤度に差分のない(部位枠間に特徴差がない)場合でも、特定した各部位枠の位置が真値と剥離(例えば、各部位枠が人物の上半身に偏る現象が発生)することがない。したがって、人物検出追跡装置100は、実際の画像データと追跡結果との間において、人物の大きさおよび各部位の位置のズレを防止でき、精度良い追跡結果を得ることができる。さらに、人物検出追跡装置100は、得られた追跡結果を用いて人物の姿勢を推定する場合、その姿勢推定の精度を向上させることができる。
(実施の形態2)
本発明の実施の形態2について、図面を参照しながら説明する。本実施の形態は、各部位枠の位置特定の後で、人物の姿勢について簡易的な推定を行い、その推定結果に応じて各部位枠の位置補正を実施するか否かを決定する点が、上記実施の形態1と異なる。
<人物検出追跡装置101の構成>
まず、本実施の形態の人物検出追跡装置101の構成例について説明する。図4は、本実施の形態の人物検出追跡装置101の構成例を示す図である。図4に示す構成は、図1に示す構成と比較して、簡易姿勢推定部124を備える点が異なる。よって、以下では、図1に示す構成と異なる部分を中心に説明する。
簡易姿勢推定部124は、部位枠位置特定部122から、現フレームの画像データ、人物枠情報、および部位枠情報を受け取る。そして、簡易姿勢推定部124は、受け取った部位枠情報が示す各部位枠の相対的な位置関係に基づいて、現フレームの画像データにおける人物の姿勢を推定する。例えば、図5Aにおいて、頭部位枠、胸部位枠、腹部位枠、太腿部位枠、脚部位枠が画像データの縦軸方向に沿って一直線である位置関係に基づいて、簡易姿勢推定部124は、人物が直立姿勢であると推定する。一方で、例えば、図5Bにおいて、頭部位枠、腰部位枠、脚部位枠が「くの字」に折れ曲がっている位置関係に基づいて、簡易姿勢推定部124は、人物が前傾姿勢であると推定する。
簡易姿勢推定部124は、推定した姿勢(例えば、直立姿勢または前傾姿勢)を示す姿勢情報を、部位枠位置補正部123へ送る。このとき、簡易姿勢推定部124は、姿勢情報とともに、部位枠位置特定部122から受け取った、現フレームの画像データ、人物枠情報、および部位枠情報を、部位枠位置補正部123へ送る。
部位枠位置補正部123は、部位枠位置特定部122から、現フレームの画像データ、人物枠情報、部位枠情報、および姿勢情報を受け取る。そして、部位枠位置補正部123は、人物枠情報および姿勢情報に基づいて、推定された姿勢が人物枠に合っているか否かを判定する。換言すれば、部位枠位置補正部123は、人物枠情報が示す人物枠に該当する姿勢と、姿勢情報が示す姿勢とが相違しているか否かを判定する。例えば、部位枠位置補正部123は、人物枠情報が示す人物枠に該当する姿勢(以下、「人物枠の姿勢」という)が直立姿勢である場合、姿勢情報が示す姿勢(以下、「推定姿勢」という)が直立姿勢であるか否かを判定する。
上記判定の結果、推定姿勢が人物枠の姿勢に合っている場合、部位枠位置補正部123は、現フレームの画像データにおいて、部位枠情報が示す各部位枠の位置が、人物枠情報が示す人物枠に合致するように補正する。一方で、上記判定の結果、推定姿勢が人物枠の姿勢に合っていない場合、部位枠位置補正部123は、各部位枠の位置の補正を行わない。
以上で、本実施の形態の人物検出追跡装置101の構成例についての説明を終える。
<人物検出追跡装置101の動作>
次に、本実施の形態の人物検出追跡装置101の動作例について、図6を参照して説明する。図6は、本実施の形態の人物検出追跡装置101の動作例を示すフロー図である。図6に示すフローは、図3に示すフローと比較して、ステップS11およびS12を備える点が異なる。よって、以下では、図3に示すフローと異なる部分についてのみ説明する。
ステップS11において、簡易姿勢推定部124は、部位枠情報が示す各部位枠の相対的な位置関係に基づいて、現フレームの画像データにおける人物の姿勢を推定する。換言すれば、簡易姿勢推定部124は、人物の姿勢が、図5Aに示す直立姿勢であるか、または、図5Bに示す前傾姿勢であるかを推定する。そして、簡易姿勢推定部124は、推定結果を示す姿勢情報を、部位枠位置特定部122から受け取った、現フレームの画像データ、人物枠情報、および部位枠情報とともに、部位枠位置補正部123へ送る。
ステップS12において、部位枠位置補正部123は、姿勢情報が示す姿勢(推定姿勢)が、受け取った人物枠情報が示す人物枠に該当する姿勢(人物枠の姿勢)に合っているか否かを判定する。例えば、人物枠の姿勢が直立姿勢である場合、部位枠位置補正部123は、推定姿勢が直立姿勢であるか否かを判定する。
ステップS12の判定の結果、推定姿勢が人物枠の姿勢に合っている場合(ステップS12:YES)、フローは、ステップS8に進む。
ステップS8において、部位枠位置補正部123は、現フレームの画像データにおいて、部位枠情報が示す各部位枠の位置が、人物枠情報が示す人物枠に合致するように補正する。そして、フローは、ステップS1へ戻る。
ステップS12の判定の結果、推定姿勢が人物枠の姿勢に合っていない場合(ステップS12:NO)、部位枠位置補正部123は、部位枠情報が示す各部位枠の位置の補正を行わない。そして、フローは、ステップS1へ戻る。
以上で、本実施の形態の人物検出追跡装置101の動作例についての説明を終える。
このように、本実施の形態の人物検出追跡装置101は、簡易姿勢推定部124を備えることで、上記実施の形態1の効果に加えて、以下の作用、効果を得ることができる。すなわち、人物検出追跡装置101は、人物枠を用いた部位枠の位置補正を行う場合を、推定姿勢が人物枠の姿勢に合致する場合のみに限定する。換言すれば、人物検出追跡装置101は、姿勢推定が人物枠の姿勢に合致しない場合、人物枠を用いた部位枠の位置補正を行わない。これにより、人物検出追跡装置101は、実施の形態1に比べて、精度良く部位枠の位置補正を行うことができる。
<実施の形態の変形例>
以上、本実施の形態1、2について説明したが、上記説明は一例であり、種々の変形が可能である。以下、変形例について説明する。
実施の形態1、2において、人物枠の検出に用いる特徴(人物特徴データ)および部位枠の特定に用いる特徴(部位特徴データ)は、例として、色情報、輝度エッジ情報、またはテクスチャ情報のいずれかとした。しかし、実施の形態1、2では、それらの情報を任意に組み合わせて用いてもよい。
また、実施の形態1、2において、現フレームの画像データにおける各部位枠の特定は、最大の部位尤度が算出された領域としたが、これに限定されない。例えば、部位枠位置特定部122は、以下のように動作してもよい。まず、部位枠位置特定部122は、算出範囲において、部位尤度を算出した複数の領域のうち、部位尤度が規定の閾値以上の領域を複数選定する。次に、部位枠位置特定部122は、選定した領域それぞれについて、規定の位置(以下、「基準点」という)の座標を抽出する。次に、部位枠位置特定部122は、抽出した複数の基準点の座標の平均値を算出し、その平均値を新たな基準点の座標に決定する。次に、部位枠位置特定部122は、新たな基準点の座標に基づいた領域(部位尤度を算出する際の領域と同じ大きさ)を、現フレームの画像データにおける部位枠として特定する。このように、部位尤度が閾値以上である複数の領域の基準点の平均値を求めることにより、現フレームの画像データにおける部位枠を特定してもよい。
また、実施の形態1、2およびその変形例は、本発明をハードウェアで構成する場合を例にとって説明したが、本発明はハードウェアとの連係においてソフトウェアでも実現することも可能である。
以上、本開示の人物検出追跡装置は、人物全体の特徴を示す人物特徴データに基づいて、第1の画像データから、人物が存在する可能性の高い領域として人物枠を検出する人物枠検出部と、人物の部位の特徴を示す部位特徴データと、前記第1の画像データより過去の第2の画像データにおいて前記人物の部位が存在する可能性の高い領域として特定された部位枠とに基づいて、前記第1の画像データにおいて部位枠を特定する部位枠位置特定部と、前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正する部位枠位置補正部と、を備える。
また、本開示の人物検出追跡装置において、前記部位枠位置特定部により特定された部位枠の位置に基づいて、前記第1の画像データにおいて人物の姿勢を推定する簡易姿勢推定部をさらに備え、前記部位枠位置補正部は、前記簡易姿勢推定部により推定された人物の姿勢が前記人物枠に合致する場合、前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正する。
また、本開示の人物検出追跡装置において、前記部位枠位置補正部は、前記簡易姿勢推定部により推定された人物の姿勢が前記人物枠に合致しない場合、前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正しない。
また、本開示の人物検出追跡装置において、前記部位枠位置特定部は、前記第2の画像データにおいて特定された部位枠と、前記第1の画像データにおいて検出された人物枠とに基づいて、算出範囲を設定し、前記算出範囲内において、前記第2の画像データにおいて特定された部位枠と同じ大きさの領域ごとに、前記部位特徴データに基づいて、部位尤度を算出し、前記部位尤度に基づいて選定した領域を、前記第1の画像データにおける部位枠として特定する。
また、本開示の人物検出追跡装置において、前記第2の画像データにおいて部位枠が特定されていない場合、前記人物枠に基づいて、前記第1の画像データにおいてデフォルトの部位枠を設定する部位枠設定部をさらに備える。
また、本開示の人物検出追跡装置において、前記部位枠設定部は、前記人物枠を垂直方向に分割し、分割した各領域を前記デフォルトの部位枠として設定する。
また、本開示の人物検出追跡方法は、人物全体の特徴を示す人物特徴データに基づいて、第1の画像データから、人物が存在する可能性の高い領域として人物枠を検出するステップと、人物の部位の特徴を示す部位特徴データと、前記第1の画像データより過去の第2の画像データにおいて前記人物の部位が存在する可能性の高い領域として特定された部位枠とに基づいて、前記第1の画像データにおいて部位枠を特定するステップと、前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正するステップと、を有する。
また、本開示の人物検出追跡プログラムは、人物全体の特徴を示す人物特徴データに基づいて、第1の画像データから、人物が存在する可能性の高い領域として人物枠を検出する処理と、人物の部位の特徴を示す部位特徴データと、前記第1の画像データより過去の第2の画像データにおいて前記人物の部位が存在する可能性の高い領域として特定された部位枠とに基づいて、前記第1の画像データにおいて部位枠を特定する処理と、前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正する処理と、をコンピュータに実行させる。
本発明は、画像データから人物を検出し、連続する複数のフレームにわたって人物の部位を追跡する装置、方法およびプログラム等に有用である。
100、101 人物検出追跡装置
110 人物枠検出部
120 部位追跡部
121 部位枠設定部
122 部位枠位置特定部
123 部位枠位置補正部
124 簡易姿勢推定部
200 撮像部

Claims (8)

  1. 人物全体の特徴を示す人物特徴データに基づいて、第1の画像データから、人物が存在する可能性の高い領域として人物枠を検出する人物枠検出部と、
    人物の部位の特徴を示す部位特徴データと、前記第1の画像データより過去の第2の画像データにおいて前記人物の部位が存在する可能性の高い領域として特定された部位枠とに基づいて、前記第1の画像データにおいて部位枠を特定する部位枠位置特定部と、
    前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正する部位枠位置補正部と、
    を備える人物検出追跡装置。
  2. 前記部位枠位置特定部により特定された部位枠の位置に基づいて、前記第1の画像データにおいて人物の姿勢を推定する簡易姿勢推定部をさらに備え、
    前記部位枠位置補正部は、
    前記簡易姿勢推定部により推定された人物の姿勢が前記人物枠に合致する場合、前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正する、
    請求項1記載の人物検出追跡装置。
  3. 前記部位枠位置補正部は、
    前記簡易姿勢推定部により推定された人物の姿勢が前記人物枠に合致しない場合、前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正しない、
    請求項2記載の人物検出追跡装置。
  4. 前記部位枠位置特定部は、
    前記第2の画像データにおいて特定された部位枠と、前記第1の画像データにおいて検出された人物枠とに基づいて、算出範囲を設定し、
    前記算出範囲内において、前記第2の画像データにおいて特定された部位枠と同じ大きさの領域ごとに、前記部位特徴データに基づいて、部位尤度を算出し、
    前記部位尤度に基づいて選定した領域を、前記第1の画像データにおける部位枠として特定する、
    請求項1から3のいずれか1項に記載の人物検出追跡装置。
  5. 前記第2の画像データにおいて部位枠が特定されていない場合、前記人物枠に基づいて、前記第1の画像データにおいてデフォルトの部位枠を設定する部位枠設定部をさらに備える、
    請求項1から4のいずれか1項に記載の人物検出追跡装置。
  6. 前記部位枠設定部は、
    前記人物枠を垂直方向に分割し、分割した各領域を前記デフォルトの部位枠として設定する、
    請求項5記載の人物検出追跡装置。
  7. 人物全体の特徴を示す人物特徴データに基づいて、第1の画像データから、人物が存在する可能性の高い領域として人物枠を検出するステップと、
    人物の部位の特徴を示す部位特徴データと、前記第1の画像データより過去の第2の画像データにおいて前記人物の部位が存在する可能性の高い領域として特定された部位枠とに基づいて、前記第1の画像データにおいて部位枠を特定するステップと、
    前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正するステップと、
    を有する人物検出追跡方法。
  8. 人物全体の特徴を示す人物特徴データに基づいて、第1の画像データから、人物が存在する可能性の高い領域として人物枠を検出する処理と、
    人物の部位の特徴を示す部位特徴データと、前記第1の画像データより過去の第2の画像データにおいて前記人物の部位が存在する可能性の高い領域として特定された部位枠とに基づいて、前記第1の画像データにおいて部位枠を特定する処理と、
    前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正する処理と、
    をコンピュータに実行させる人物検出追跡プログラム。
JP2013015304A 2013-01-30 2013-01-30 人物検出追跡装置、人物検出追跡方法、および人物検出追跡プログラム Active JP5961123B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013015304A JP5961123B2 (ja) 2013-01-30 2013-01-30 人物検出追跡装置、人物検出追跡方法、および人物検出追跡プログラム
US14/151,137 US9349042B2 (en) 2013-01-30 2014-01-09 Human detection and tracking apparatus, human detection and tracking method, and human detection and tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013015304A JP5961123B2 (ja) 2013-01-30 2013-01-30 人物検出追跡装置、人物検出追跡方法、および人物検出追跡プログラム

Publications (2)

Publication Number Publication Date
JP2014146238A JP2014146238A (ja) 2014-08-14
JP5961123B2 true JP5961123B2 (ja) 2016-08-02

Family

ID=51222991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013015304A Active JP5961123B2 (ja) 2013-01-30 2013-01-30 人物検出追跡装置、人物検出追跡方法、および人物検出追跡プログラム

Country Status (2)

Country Link
US (1) US9349042B2 (ja)
JP (1) JP5961123B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6589321B2 (ja) * 2015-03-24 2019-10-16 富士通株式会社 システム、検索方法およびプログラム
JP6627680B2 (ja) * 2016-07-27 2020-01-08 株式会社Jvcケンウッド 人物検出装置、人物検出システム、人物検出方法及び人物検出プログラム
KR102500715B1 (ko) * 2016-07-28 2023-02-17 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
JP2020013220A (ja) * 2018-07-13 2020-01-23 株式会社神戸製鋼所 建設機械用の物体検出装置及び物体検出方法
CN110298318B (zh) * 2019-07-01 2023-09-29 北京中星微电子有限公司 人头人体联合检测方法、装置和电子设备
US20230206472A1 (en) * 2021-12-27 2023-06-29 bOMDIC Inc. Human body detection method and human body detection device, and computer readable storage medium

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4318465B2 (ja) * 2002-11-08 2009-08-26 コニカミノルタホールディングス株式会社 人物検出装置および人物検出方法
JP3775683B2 (ja) * 2003-08-21 2006-05-17 松下電器産業株式会社 人物検出装置および人物検出方法
US20070021199A1 (en) * 2005-07-25 2007-01-25 Ned Ahdoot Interactive games with prediction method
US8121356B2 (en) * 2006-09-15 2012-02-21 Identix Incorporated Long distance multimodal biometric system and method
US8131011B2 (en) * 2006-09-25 2012-03-06 University Of Southern California Human detection and tracking system
US8098891B2 (en) * 2007-11-29 2012-01-17 Nec Laboratories America, Inc. Efficient multi-hypothesis multi-human 3D tracking in crowded scenes
EP2521094B1 (en) * 2009-12-28 2018-02-14 Panasonic Intellectual Property Management Co., Ltd. Articulated region detection device and method for same
JP2012108785A (ja) * 2010-11-18 2012-06-07 Panasonic Corp 人数カウント装置、人数カウント方法及び人数カウントプログラム
US9117113B2 (en) * 2011-05-13 2015-08-25 Liberovision Ag Silhouette-based pose estimation
JP5498454B2 (ja) * 2011-09-15 2014-05-21 株式会社東芝 追跡装置、追跡方法およびプログラム
JP5263692B2 (ja) * 2011-11-09 2013-08-14 オプテックス株式会社 レーザースキャンセンサ
JP5886616B2 (ja) * 2011-11-30 2016-03-16 キヤノン株式会社 物体検出装置、物体検出装置の制御方法、およびプログラム
US9336456B2 (en) * 2012-01-25 2016-05-10 Bruno Delean Systems, methods and computer program products for identifying objects in video data
CN104424649B (zh) * 2013-08-21 2017-09-26 株式会社理光 检测运动物体的方法和系统

Also Published As

Publication number Publication date
US20140211994A1 (en) 2014-07-31
US9349042B2 (en) 2016-05-24
JP2014146238A (ja) 2014-08-14

Similar Documents

Publication Publication Date Title
JP5961123B2 (ja) 人物検出追跡装置、人物検出追跡方法、および人物検出追跡プログラム
US8879787B2 (en) Information processing device and information processing method
US8289402B2 (en) Image processing apparatus, image pickup apparatus and image processing method including image stabilization
JP5498454B2 (ja) 追跡装置、追跡方法およびプログラム
KR20180112090A (ko) 카메라의 포즈를 판단하기 위한 장치 및 방법
US9576191B2 (en) Posture estimation device, posture estimation method, and posture estimation program
RU2016137779A (ru) Слежение за взглядом на основе адаптивного гомографического сопоставления
US20140320682A1 (en) Image processing device
JP2010040037A5 (ja)
WO2018139461A1 (ja) 移動物体検出装置、移動物体検出方法及び記憶媒体
JP6579950B2 (ja) カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法
JP2015176253A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP2017129567A5 (ja)
CN110751685B (zh) 深度信息确定方法、确定装置、电子装置和车辆
IL175632A (en) Method, system and computer product for deriving three dimensional information progressively from a streaming video sequence
WO2016031573A1 (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2010050934A5 (ja)
JP2010206404A (ja) 画像監視装置
JP2009157581A (ja) 歩行者検出装置
JP2008288684A (ja) 人物検出装置及びプログラム
US20200226787A1 (en) Information processing apparatus, information processing method, and program
JP2010145219A (ja) 運動推定装置及びプログラム
JP2017020942A (ja) 推定装置及び推定プログラム
KR20150144179A (ko) 영상에서 대상체 부위의 위치를 추정하기 위한 방법 및 장치
JP2013037658A (ja) エッジ検出装置およびそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160624

R151 Written notification of patent or utility model registration

Ref document number: 5961123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151