JP7192582B2 - 物体追跡装置および物体追跡方法 - Google Patents

物体追跡装置および物体追跡方法 Download PDF

Info

Publication number
JP7192582B2
JP7192582B2 JP2019043759A JP2019043759A JP7192582B2 JP 7192582 B2 JP7192582 B2 JP 7192582B2 JP 2019043759 A JP2019043759 A JP 2019043759A JP 2019043759 A JP2019043759 A JP 2019043759A JP 7192582 B2 JP7192582 B2 JP 7192582B2
Authority
JP
Japan
Prior art keywords
image
frame image
fisheye
area
search area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019043759A
Other languages
English (en)
Other versions
JP2020149111A (ja
Inventor
郁奈 辻
清明 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2019043759A priority Critical patent/JP7192582B2/ja
Priority to PCT/JP2020/008147 priority patent/WO2020184207A1/ja
Priority to US17/434,953 priority patent/US11869199B2/en
Priority to CN202080017837.0A priority patent/CN113508420A/zh
Priority to DE112020001202.6T priority patent/DE112020001202T5/de
Publication of JP2020149111A publication Critical patent/JP2020149111A/ja
Application granted granted Critical
Publication of JP7192582B2 publication Critical patent/JP7192582B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)

Description

本発明は、魚眼カメラの画像を用いて物体を追跡する技術に関する。
ビルディングオートメーション(BA)やファクトリーオートメーション(FA)の分野において、画像センサにより人の「数」・「位置」・「動線」などを自動で計測し、照明や空調などの機器を最適制御するアプリケーションが必要とされている。このような用途では、できるだけ広い範囲の画像情報を取得するために、魚眼レンズ(フィッシュアイレンズ)を搭載した超広角のカメラ(魚眼カメラ、全方位カメラ、全天球カメラなどと呼ばれるが、いずれも意味は同じである。本明細書では「魚眼カメラ」の語を用いる。)を利用することが多い。
魚眼カメラで撮影された画像は大きく歪んでいる。それゆえ、魚眼カメラの画像(以後「魚眼画像」と呼ぶ。)から人体や顔などを検出または追跡する場合には、あらかじめ魚眼画像を平面展開することで歪みの少ない画像に補正した後に検出または追跡処理にかけるという方法が一般的である(特許文献1参照)。
特開2016-39539号公報
しかしながら、従来技術では次のような問題がある。一つは、魚眼画像を平面展開するという前処理が発生することで、全体の処理コストが大きくなるという問題である。これは、リアルタイムの処理を困難にし、機器制御の遅延を招く可能性があり、好ましくない。二つ目の問題は、魚眼カメラの真下など、ちょうど平面展開時の境界(画像の切れ目)の位置に存在する人や物体の像が、平面展開の処理によって大きく変形してしまったり、像が分断されてしまったりして、正しく検出または追跡できない恐れがあることである。
これらの問題を回避するため、本発明者らは、魚眼画像をそのまま(「平面展開せずに」という意味である。)追跡処理にかけるというアプローチを研究している。しかし、通常のカメラ画像に比べ、魚眼画像の場合は、画像の領域ごとに移動量が異なるため、追跡が困難となる。
本発明は上記実情に鑑みなされたものであって、魚眼画像から高速に且つ高精度に物体を追跡する技術を提供することを目的とする。
上記目的を達成するために本発明は、以下の構成を採用する。
本発明の第一側面は、追跡対象エリアの上方に設置された魚眼カメラにより得られた魚眼画像を用いて、前記追跡対象エリア内に存在する物体を追跡する物体追跡装置であって、フレーム間における前記物体の移動量に関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している記憶手段と、第1フレーム画像における前記物体の位置と、前記第1フレーム画像における前記物体の位置に対応する前記移動量に関する基準とに基づいて、前記第1フレーム画像の後の画像である第2フレーム画像における探索領域
の位置を決定する決定手段と、前記第2フレーム画像の前記探索領域の中から前記物体を探索することにより、前記第2フレーム画像における前記物体の位置を特定する探索手段と、を有することを特徴とする物体追跡装置を提供する。
「魚眼カメラ」は、魚眼レンズを搭載したカメラであり、通常のカメラに比べて超広角での撮影が可能なカメラである。全方位カメラや全天球カメラも魚眼カメラの一種である。魚眼カメラは、追跡対象エリアの上方から追跡対象エリアを見下ろすように設置されていればよい。典型的には魚眼カメラの光軸が鉛直下向きとなるように設置されるが、魚眼カメラの光軸が鉛直方向に対して傾いていても構わない。
本発明では、魚眼画像における物体の位置に応じた移動量を考慮して探索領域の位置を決定するという方法により高精度かつ高速にトラッキング(追跡)処理を行うことができる。魚眼カメラで追跡対象エリアを見下ろすように撮影した場合、魚眼カメラとの位置関係に依存して物体の見え方(写り方)が大きく変わる。それゆえ、一定の速度で移動する追跡対象を追跡する場合でも、魚眼カメラとの位置関係に依存して、魚眼画像内にける追跡対象の移動量が異なるという特性をもつ。すなわち、魚眼画像の中心は移動量が大きく、魚眼画像の端にいくにしたがって移動量が小さくなる。物体追跡装置は、このような魚眼画像の特性を考慮し、後のフレームの追跡対象を追跡する際に適切な位置になるように探索領域を決定する。また、魚眼画像を平面展開するなどの前処理が不要なため、より高速な処理が実現できる。
前記記憶手段は、前記探索領域のサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶しており、前記決定手段は、第1フレーム画像における前記物体の位置と、前記第1フレーム画像における前記物体の位置に対応する前記サイズに関する基準とに基づいて、前記第2フレーム画像における前記探索領域のサイズを決定してもよい。魚眼画像では、魚眼カメラとの位置関係に応じて物体の大きさが異なるという特性を持つ。物体追跡装置は、このような魚眼画像の特性を考慮し、後のフレームの追跡対象を追跡する際に適切なサイズの探索領域を決定する。
本発明の第二側面は、追跡対象エリアの上方に設置された魚眼カメラにより得られた魚眼画像を用いて、前記追跡対象エリア内に存在する物体を追跡する物体追跡装置であって、探索領域のサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している記憶手段と、第1フレーム画像における前記物体の位置と、前記第1フレーム画像における前記物体の位置に対応する前記サイズに関する基準とに基づいて、前記第1フレーム画像の後の画像である第2フレーム画像における探索領域のサイズを決定する決定手段と、前記第2フレーム画像の前記探索領域の中から前記物体を探索することにより、前記第2フレーム画像における前記物体の位置を特定する探索手段と、を有することを特徴とする物体追跡装置を提供する。
本発明では、魚眼画像における物体の位置に応じた物体の見え方(例えば、面積)を考慮して探索領域のサイズを決定するという方法により高精度かつ高速にトラッキング(追跡)処理を行うことができる。魚眼カメラで追跡対象エリアを見下ろすように撮影した場合、魚眼カメラとの位置関係に依存して物体の見え方(写り方)が大きく変わる。物体の写る大きさは、魚眼画像の中心が最も大きく、端にいくほど小さくなる。すなわち、魚眼画像は、画像中心を基準とした距離に依存して物体のサイズ(例えば、面積)が変化する(距離が遠くなるほどサイズが小さくなる)、という特性を有する。魚眼画像上の位置またはエリアごとの物体の面積についても、魚眼カメラの光学特性、魚眼カメラ10と追跡対象エリアの位置関係等を基に、幾何学的に計算(予測)することが可能である。物体追跡装置は、このような魚眼画像の特性を考慮し、後のフレームの追跡対象を追跡する際に適切なサイズになるように探索領域を決定する。また、魚眼画像を平面展開するなどの前
処理が不要なため、より高速な処理が実現できる。
前記サイズの基準は、魚眼画像の中心に近いエリアほどサイズが大きくなるように設定されてもよい。上述のように、魚眼画像において物体の写る大きさは、魚眼画像の中心が最も大きく、端にいくほど小さくなる。このような特性を考慮してサイズの基準を設定してもよい。
前記移動量の基準は、魚眼画像の中心に近いエリアほど移動量が大きくなるように設定されてもよい。上述のように、魚眼画像の中心は移動量が大きく、魚眼画像の端にいくにしたがって移動量が小さくなる。このような特性を考慮して移動量の基準を設定してもよい。
前記決定手段は、第1フレーム画像における前記物体の位置と、前記第1フレーム画像における前記物体の位置に対応する前記移動量に関する基準と、前記物体の移動方向とに基づいて、前記第2フレーム画像における探索領域の位置を決定してもよい。探索領域の位置を、第1フレームの画像における物体の位置と、当該位置に対応する移動量に関する基準に加えて、物体の移動方向に基づいて決定することで、より高精度かつ高速にトラッキング処理を行うことができる。すなわち、移動方向を考慮することで、探索範囲を狭めることができるため、高速に探索処理を行うことができる。また、探索範囲を狭めることにより、例えば、追跡対象以外の物体が探索領域に含まれる可能性を低くすることができるため、高精度に探索処理を行うことができる。
前記記憶手段は、画像の歪み度合いに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶し、前記決定手段は、第1フレーム画像における前記物体の位置と、前記第1フレーム画像における前記物体の位置に対応する前記移動量に関する基準と、前記物体の移動方向と、前記第1フレーム画像における前記物体の位置に対応する前記歪み度合いに関する基準とに基づいて、前記第2フレーム画像における探索領域の位置を決定してもよい。上述のように、実際の魚眼画像は歪んでいるため、例えば、追跡対象が魚眼画像の中心より上方を水平方向に移動する場合、魚眼画像において追跡対象は上に弧を描くカーブに沿って移動する。反対に、追跡対象が魚眼画像の中心より下方を水平方向に移動する場合、魚眼画像において追跡対象は下に弧を描くカーブに沿って移動する。そこで、物体追跡装置は、魚眼画像の歪みに応じて適切な位置に探索領域を決定することでトラッキング処理の高精度化および高速化をすることができる。
前記決定手段は、前記物体の移動方向と同じ方向の前記探索領域の位置は、前記第1フレーム画像における前記物体の位置と、前記第1フレーム画像より前のフレーム画像における前記物体の位置と、前記移動量に関する基準とに基づいて決定し、前記物体の移動方向と直交する方向の前記探索領域の位置は、前記物体の移動方向と同じ方向の前記探索領域の位置と、前記歪み度合いに関する基準とに基づいて決定してもよい。魚眼画像の歪みは、物体の移動方向に対して直交する方向に生じる。そのため、物体の移動方向に直交する方向の位置を、歪み度合いの基準に基づいて決定することで、探索領域の位置を精度よく決定することができる。
本発明の第三側面は、追跡対象エリアの上方に設置された魚眼カメラにより得られた魚眼画像を用いて、前記追跡対象エリア内に存在する物体を追跡する物体追跡方法であって、フレーム間における前記物体の移動量に関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している記憶手段を参照して、第1フレーム画像における前記物体の位置と、前記第1フレーム画像における前記物体の位置に対応する前記移動量に関する基準とに基づいて、前記第1フレーム画像の後の画像である第2フレーム画像における探索領域の位置を決定する決定ステップと、前記第2フレーム画像の前記探索領域の中か
ら前記物体を探索することにより、前記第2フレーム画像における前記物体の位置を特定する探索ステップと、を有することを特徴とする物体追跡方法を提供する。
本発明の第四側面は、追跡対象エリアの上方に設置された魚眼カメラにより得られた魚眼画像を用いて、前記追跡対象エリア内に存在する物体を追跡する物体追跡方法であって、探索領域のサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している記憶手段を参照して、第1フレーム画像における前記物体の位置と、前記第1フレーム画像における前記物体の位置に対応する前記サイズに関する基準とに基づいて、前記第1フレーム画像の後の画像である第2フレーム画像における探索領域のサイズを決定する決定ステップと、前記第2フレーム画像の前記探索領域の中から前記物体を探索することにより、前記第2フレーム画像における前記物体の位置を特定する探索ステップと、を有することを特徴とする物体追跡方法を提供する。
本発明は、上記手段の少なくとも一部を有する物体追跡装置として捉えてもよいし、追跡対象の物体を認識または検出する装置、あるいは画像処理装置や監視システムとして捉えてもよい。また、本発明は、上記処理の少なくとも一部を含む物体追跡方法、物体認識方法、物体検出方法、画像処理方法、監視方法として捉えてもよい。また、本発明は、かかる方法を実現するためのプログラムやそのプログラムを非一時的に記録した記録媒体として捉えることもできる。なお、上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。
本発明によれば、魚眼画像から高速に且つ高精度に物体を追跡することができる。
図1は、本発明に係る物体追跡装置の適用例を示す図である。 図2は、魚眼画像とバウンディングボックスの例を示す図である。 図3は、物体追跡装置を備える監視システムの構成を示す図である。 図4は、物体追跡処理のフローチャートである。 図5は、探索領域決定処理のフローチャートである。 図6は、移動量テーブルの例を示す図である。 図7は、探索領域の位置の例を示す図である。 図8は、サイズテーブルの例を示す図である。 図9は、探索領域の範囲の例を示す図である。 図10は、従来手法によるトラッキング処理の例を示す図である。 図11は、本手法によるトラッキング処理の例を示す図である。 図12は、魚眼画像の歪み度合いを示す図である。
<適用例>
図1を参照して、本発明に係る物体追跡装置の適用例を説明する。物体追跡装置1は、追跡対象エリア11の上方(例えば天井12など)に設置された魚眼カメラ10により得られた魚眼画像を解析して、追跡対象エリア11内に存在する物体13(例えば人など)を追跡(トラッキング)する装置である。この物体追跡装置1は、例えば、オフィスや工場などにおいて、追跡対象エリア11を通行する物体13の検出、認識、追跡などを行う。図1の例では、魚眼画像1~3から追跡対象の領域が矩形のバウンディングボックス14で示されている。バウンディングボックス14は、追跡対象の領域を表す閉図形あるいは枠線であり、例えば、追跡対象の領域を囲む多角形や楕円などをバウンディングボックス14として用いる。魚眼画像1~3は、それぞれフレームf[t-1]、フレームf[t](第1フレーム画像)、フレームf[t+1](第2フレーム画像)における魚眼画
像を示す。また、魚眼画像3では、フレームf[t+1]における探索対象の領域である探索領域15が示されている。探索領域15は、tフレーム以前の結果に基づいて決定される。物体追跡装置1の追跡結果は、外部装置に出力され、例えば、人数のカウント、照明や空調など各種機器の制御、不審者の監視などに利用される。
魚眼カメラ10で追跡対象エリア11を見下ろすように撮影した場合、魚眼カメラ10との位置関係に依存して人体の見え方(写り方)が大きく変わる。それゆえ、一定の速度で移動する追跡対象を追跡する場合でも、魚眼カメラ10との位置関係に依存して、魚眼画像内にける追跡対象の移動量が異なるという特性をもつ。すなわち、魚眼画像の中心は移動量が大きく、魚眼画像の端にいくにしたがって移動量が小さくなる。また、魚眼カメラ10との位置関係に応じて人体の大きさが異なるという特性を持つ。物体追跡装置1は、このような魚眼画像の特性を考慮し、次フレームの追跡対象を追跡する際に適切な探索領域を決定することによって、追跡処理の高速化および高精度化を図る点に特徴の一つを有する。また、物体追跡装置1は、魚眼画像をそのまま(つまり、平面展開や歪み補正などの前処理を行わずに)物体追跡処理に用いる点にも特徴の一つを有する。
<魚眼画像の特性>
図2は、魚眼カメラ10から取り込まれた魚眼画像の例を示す。画像座標系は、魚眼画像の左下のコーナーを原点(0,0)とし、横方向右側にx軸、縦方向上側にy軸をとる。
光軸が鉛直下向きになるように魚眼カメラ10を設置した場合、魚眼画像の中心には、魚眼カメラ10の真下に存在する人を頭頂部から観察した像が表れる。そして、魚眼画像の端にいくにしたがって俯角が小さくなり、人を斜め上方から観察した像が表れることとなる。また、魚眼画像中の人体は、足元が画像の中心側、頭部が画像の端側に位置し、かつ、画像の中心を通る放射状の線に略平行となるような角度で写る。また、魚眼画像の中心は比較的歪みが小さいが、魚眼画像の端にいくにしたがって画像の歪みが大きくなる。そのため、追跡対象が一定の速度で移動していても、魚眼画像のフレーム間における追跡対象の移動量は、画像の位置によって異なる。
符号14a~14fは、魚眼画像中の人体の領域を囲むように配置されたバウンディングボックスを示す。本実施形態では、画像処理の便宜から、x軸またはy軸と平行な四辺から構成される矩形のバウンディングボックスが用いられる。
また、図2に示すように、人体の写る大きさは、魚眼画像の中心が最も大きく、端にいくほど小さくなる。すなわち、魚眼画像は、画像中心を基準とした距離に依存してバウンディングボックスのサイズ(例えば、面積)が変化する(距離が遠くなるほどサイズが小さくなる)、という特性を有する。魚眼画像上の位置またはエリアごとのバウンディングボックスの面積についても、魚眼カメラ10の光学特性、魚眼カメラ10と追跡対象エリア11の位置関係、および、平均的な人体のサイズを基に、幾何学的に計算(予測)することが可能である。
(実施形態1)
<監視システム>
図3を参照して、本発明の実施形態を説明する。図3は、本発明の実施形態に係る物体追跡装置を適用した監視システムの構成を示すブロック図である。監視システム2は、概略、魚眼カメラ10と物体追跡装置1とを備えている。
魚眼カメラ10は、魚眼レンズを含む光学系と撮像素子(CCDやCMOSなどのイメージセンサ)を有する撮像装置である。魚眼カメラ10は、例えば図1に示すように、追
跡対象エリア11の天井12などに、光軸を鉛直下向きにした状態で設置され、追跡対象エリア11の全方位(360度)の画像を撮影するとよい。魚眼カメラ10は物体追跡装置1に対し有線(USBケーブル、LANケーブルなど)または無線(WiFiなど)で接続され、魚眼カメラ10で撮影された画像データは物体追跡装置1に取り込まれる。画像データはモノクロ画像、カラー画像のいずれでもよく、また画像データの解像度やフレームレートやフォーマットは任意である。本実施形態では、10fps(1秒あたり10枚)で取り込まれるモノクロ画像を用いることを想定している。
本実施形態の物体追跡装置1は、画像入力部20、探索領域決定部21、探索部22、人体検出部24、記憶部26、出力部27等を含む。
画像入力部20は、魚眼カメラ10から画像データを取り込む機能を有する。取り込まれた画像データは、探索領域決定部21および人体検出部24に引き渡される。この画像データは記憶部26に格納されてもよい。
探索領域決定部21は、追跡対象を探索するための領域である探索領域を決定する。探索領域は、一度検出した追跡対象を探索してトラッキングするために用いられる。探索部22は、上記の探索領域内で追跡対象物を探索するアルゴリズムを用いて、魚眼画像から追跡対象を探索する機能を有する。トラッキング辞書23は、トラッキング対象(追跡対象)の情報や特徴量が登録されている辞書である。
人体検出部24は、人体を検出するアルゴリズムを用いて、魚眼画像から人体等を検出する機能を有する。人体検出辞書25は、魚眼画像に表れる人体の画像特徴があらかじめ登録されている辞書である。
記憶部26は、魚眼画像、追跡結果などを記憶する機能を有する。出力部27は、魚眼画像や追跡結果などの情報を外部装置に出力する機能を有する。例えば、出力部27は、外部装置としてのディスプレイに情報を表示してもよいし、外部装置としてのコンピュータに情報を転送してもよいし、外部装置としての照明装置や空調やFA装置に対し情報や制御信号を送信してもよい。
物体追跡装置1は、例えば、CPU(プロセッサ)、メモリ、ストレージなどを備えるコンピュータにより構成することができる。その場合、図3に示す構成は、ストレージに格納されたプログラムをメモリにロードし、CPUが当該プログラムを実行することによって実現されるものである。かかるコンピュータは、パーソナルコンピュータ、サーバコンピュータ、タブレット端末、スマートフォンのような汎用的なコンピュータでもよいし、オンボードコンピュータのように組み込み型のコンピュータでもよい。あるいは、図3に示す構成の全部または一部を、ASICやFPGAなどで構成してもよい。あるいは、図3に示す構成の全部または一部を、クラウドコンピューティングや分散コンピューティングにより実現してもよい。
<物体追跡処理>
図4は、監視システム2による物体追跡処理のフローチャートである。図4に沿って物体追跡処理の全体的な流れを説明する。なお、図4のフローチャートは、1フレームの魚眼画像に対する処理を示している。10fpsで魚眼画像が入力される場合には、図4の処理が1秒間に10回実行されることとなる。
まず、画像入力部20が魚眼カメラ10から1フレームの魚眼画像を入力する(ステップS40)。背景技術の欄で述べたように、従来は、魚眼画像の歪みを補正した平面展開画像を作成した後、追跡や認識などの画像処理を行っていたが、本実施形態の監視システ
ム2では、魚眼画像をそのまま(歪んだまま)追跡や認識の処理に用いる。
次に、物体追跡装置1は、トラッキングを行っている対象(トラッキング対象と称する。)があるか否かを判断する(ステップS41)。ここでは、現在のフレームより前に、追跡対象が存在している場合に「トラッキング対象あり」と判断される。トラッキング対象がある場合(S41-Yes)は、探索領域決定部21は、次フレームにおける探索領域を決定する(ステップS42)。探索領域を決定する処理の詳細は後述する。そして、探索部22は、上記探索領域において、追跡対象を探索することによりトラッキングを行う(ステップS43)。
トラッキング手法として、例えば、フレーム間での色特徴や形状特徴の類似度に基づいてトラッキング対象の領域を推定する方法などを用いることができる。具体的には、テンプレートマッチング、Mean-Shift、パーティクルフィルタ、SURF Trackingなどどのようなアルゴリズムを用いてもよい。本実施形態では、追跡対象として人の全身を対象としているが、これに限らず、上半身など体の一部を対象としてもよい。そして、探索部22はトラッキング対象が見つかったか否かを判断する(ステップS44)。トラッキング対象が見つかった場合(S44-Yes)は、探索部22は、トラッキング結果を記憶部26に格納する(ステップS45)。トラッキング対象が見つからなかった場合(S44-No)は、それまでトラッキングしていた結果の削除を行う(ステップS46)。ここで、トラッキング対象が見つからなかった場合とは、例えば、トラッキング対象が魚眼カメラの撮影範囲の外に移動した場合が挙げられる。
次に、人体検出部24が魚眼画像から人体を検出する(ステップS47)。魚眼画像内に複数の人が存在する場合には、複数の人体が検出される。また、多くの場合、人体ではない物体(例えば、扇風機、デスクチェア、コート掛けなど、形状や色が人体と紛らわしい物)が検出される場合もある。検出結果には、例えば、検出された人体等の領域を示すバウンディングボックスの情報が含まれるとよい。バウンディングボックスの情報は、例えば、バウンディングボックスの中心座標(x,y)(人体等の検出位置に相当)、高さh、幅wを含むとよい。検出結果は、記憶部26に格納される。なお、トラッキング対象がない場合(S41-No)には、ステップS47以降の処理が実行される。
なお、人体検出にはどのようなアルゴリズムを用いてもよい。例えば、HoGやHaar-likeなどの画像特徴とブースティングを組み合わせた識別器を用いてもよいし、ディープラーニング(例えば、R-CNN、Fast R-CNN、YOLO、SSDなど)による人体認識を用いてもよい。本実施形態では、人体として人の全身を検出しているが、これに限らず、上半身など体の一部を検出対象としてもよい。
次に、物体追跡装置1は、トラッキング結果と検出結果とをマージする(ステップS48)。マージされた結果は、例えば、記憶部26に保存される。物体追跡装置1で検出処理を行う理由として、前フレームまでに追跡対象ではなかった物体が新たに魚眼画像に現れた場合に、検出処理に基づいて追跡対象ごとに識別番号(ID)を付し、次のフレームの処理においてトラッキング対象とするためである。なお、ステップS47、S48の検出処理は、フレームごとに行わずに、数フレームごとに行われてもよい。最後に、出力部27が、追跡結果等を外部装置に出力する(ステップS49)。以上で1フレームの魚眼画像に対する処理が終了する。
本実施形態の物体追跡処理によれば、魚眼画像をそのまま解析し、魚眼画像からダイレクトに物体追跡を行う。したがって、魚眼画像の平面展開や歪み補正といった前処理を省略でき、高速な物体追跡処理が可能である。また、本実施形態では、魚眼カメラとの位置関係に応じて、探索範囲を決定することによって、高精度なトラッキングが実現できる。
<探索領域決定処理(S42)>
探索領域決定部21による探索領域を決定する処理の具体例を説明する。
図5は、探索領域決定処理のフローチャートである。まず、探索領域決定部21は、探索領域の位置を算出する(ステップS50)。位置は、例えば、探索領域の中心座標とすることができる。そして、探索領域決定部21は、探索領域のサイズを算出する(ステップS51)。最後に、上記の位置およびサイズに基づいて、探索領域決定部21は、探索領域を決定する(ステップS52)。ステップ50、S51の処理の詳細について説明する。
(1)探索領域の位置算出処理(S50)
前述のように、魚眼画像は、画像中心からの距離に依存してフレーム間における追跡対象の移動量が変化する、という特性を有する。この特性は計算によりあらかじめ数値化できる。図6は、魚眼画像を6×6の36個の小エリアに分割し、小エリアごとの移動量の基準値を計算した例である。このように求めた小エリアごとの移動量の基準値を定義したテーブルを、例えば、記憶部26に格納しておくとよい。図6に示すように、画像中心をとおりx軸およびy軸にそれぞれ平行なA軸およびB軸を考えたとき、移動量はA軸およびB軸に関して対称な変化を示す。この対称性を利用し、例えば、記憶部26には1つの象限分の3×3のテーブルを格納してもよい。これによりメモリ容量を削減することができる。
図6に示す移動量テーブルと、フレームf[t-1]における追跡対象の位置およびフレームf[t]における追跡対象の位置とに基づいて、フレームf[t+1]の追跡対象の予測位置を算出する(式1)。本実施形態では、当該算出した追跡対象の予測位置を探索領域の位置とする。式1において、(x,y)は、各フレームにおける追跡対象の位置を示す。追跡対象の位置(x,y)は、例えば、バウンディングボックスの中心座標とするとよい。また、式1において、αは上記の移動量テーブルに基づく値である。例えば、フレームf[t]における追跡対象の位置(x,y)が魚眼画像の中心付近である場合、αは1.5である。
Figure 0007192582000001
図7は、上述の式1を用いて算出された探索領域の位置(追跡対象の予測位置)の例を示す図である。図7の例では、フレームf[t]の位置および図6の移動量テーブルに応じてαは1.4である。魚眼画像の中心に向かうほど追跡対象の移動量が大きくなるので、図7に示す通り、フレームf[t-1]とf[t]間に比べて、フレームf[t+1]とf[t]間の移動量が大きくなるように、フレームf[t+1]における追跡対象の予測位置を求めている。
(2)探索領域のサイズ算出処理(S51)
前述のように、魚眼画像は、画像中心からの距離に依存してバウンディングボックスの面積(サイズ)が変化する、という特性を有する。この特性は計算によりあらかじめ数値化できる。図8は、魚眼画像を6×6の36個の小エリアに分割し、小エリアごとの面積(ピクセル数)を計算した例である。このように求めた小エリアごとのサイズ(例えば、面積)の基準値を定義したテーブルを記憶部26に格納しておけばよい。図8に示すように、サイズの基準値は画像中心に関して対称な変化を示す。この対称性を利用し、例えば、記憶部26には1つの象限分の3×3のテーブルを格納してもよい。これによりメモリ容量を削減することができる。
図8に示すサイズテーブルと、フレームf[t]におけるバウンディングボックスのサイズとに基づいて、フレームf[t+1]における探索領域のサイズを算出する(式2)。式2において、w、hは、それぞれフレームf[t]における追跡対象に対応するバウンディングボックスの水平方向のサイズ、垂直方向のサイズを示す。また、area_w、area_hは、それぞれフレームf[t+1]における探索領域の水平方向のサイズ、垂直方向のサイズを示す。また、式2において、βは上記のサイズテーブルに基づく値である。例えば、フレームf[t]の座標(x,y)が魚眼画像の中心付近である場合、βは3.0である。なお、フレームf[t-1]のバウンディングボックスのサイズも考慮して、式1と同様に探索領域のサイズを求めてもよい。
Figure 0007192582000002
図9は、上述の式2を用いて算出された探索領域のサイズの例を示す図である。図9の例では、フレームf[t]の位置(例えば、バウンディングボックスの中心位置)および図8の移動量テーブルに応じてβは2.5である。魚眼画像の中心に向かうほど追跡対象のサイズが大きくなるので、フレームf[t+1]の探索領域のサイズを大きくしている。なお、上述の式1によって求まるフレームf[t+1]における位置および図8の移動量テーブルに応じてβを決定してもよい。
<本実施形態の有利な効果>
本実施形態の監視システムでは、魚眼カメラのトラッキング処理において、探索領域を魚眼画像の特性に応じて決定することで、トラッキング処理の高速化および高精度化を図ることができる。
高精度化について例を示す。従来手法では、魚眼画像の中心付近の追跡対象(図10A)について、移動量の増減を考慮していない。そのため、次フレームにおいて追跡対象が探索領域15の外に出てしまう虞がある(図10B)。本手法では、魚眼画像の中心付近の追跡対象(図11A)について、移動量の増減を考慮して探索領域15のサイズを大きくしている。そのため、追跡対象が探索領域15の外に出てしまう可能性を低減し、高精度にトラッキングを行うことができる(図11B)。
高速化について例を示す。従来手法では、魚眼画像の中心から離れた追跡対象(図10C)について、サイズの大小を考慮していない。そのため、次フレームにおいて追跡対象に対応するバウンディングボックスのサイズが小さいにも関わらず、大きな探索領域15を設けた場合に処理コストが必要以上に高くなっていた(図10D)。本手法では、魚眼画像の中心から離れた追跡対象(図11C)について、位置に応じたサイズの探索領域15を対象に探索処理(トラッキング処理)を行っている。そのため、効率よく探索処理を行うことができ、処理の高速化を図ることができる(図11D)。
また、追跡対象が複数存在する場合の例について示す。従来手法では、魚眼画像の近接した箇所に複数の追跡対象が存在する場合(図10E)、次のフレームにおいて、複数の追跡対象における探索領域15aおよび探索領域15bが重なることにより、追跡対象が入れ替わる虞があった(図10F)。本手法では、魚眼画像の近接した箇所に複数の追跡対象が存在する場合(図11E)でも、次フレームにおける追跡対象の予測位置およびサイズを考慮して適切に探索領域を決定している。そのため、追跡対象における探索領域が重なる可能性を低減し、高精度化を図ることができる(図11F)。
(実施形態2)
上述の実施形態1では、追跡対象が直線状に移動する場合、魚眼画像においても直線状に移動するものとして探索領域の位置を求める方法について説明した。しかし、図2を用いて説明したとおり、実際の魚眼画像は歪んでいる。そのため、例えば、追跡対象が魚眼画像の中心より上方を水平方向に移動する場合、魚眼画像において追跡対象は上に弧を描くカーブに沿って移動する。反対に、追跡対象が魚眼画像の中心より下方を水平方向に移動する場合、魚眼画像において追跡対象は下に弧を描くカーブに沿って移動する。そこで、実施形態2では、上述の探索領域の位置を算出する処理(S50)において、魚眼画像の歪みに応じて位置を算出する。なお、実施形態2における監視システムの構成は、実施形態1と同様のため説明は省略する。また、実施形態2における監視システムの処理は、実施形態2と異なる処理のみ説明し、同様の処理については、説明を省略する。
前述のように、魚眼画像は、画像中心からの距離に依存して歪み度合いが変化する、という特性を有する。この特性は計算によりあらかじめ数値化できる。図12の実線は、魚眼画像を6×6の36個の小エリアに分割し、小エリアごとの垂直方向の歪み度合いを2次関数で示した例である。図12の破線は、小エリアごとの水平方向の歪み度合いを2次関数で示した例である。
図12に示すように、歪み度合いは、移動方向と直交する方向に離れるほど歪み度合いが大きくなる。このように求めた小エリアごとの歪み度合いの基準を定義した垂直歪みテーブルおよび水平歪みテーブルを、例えば、記憶部26に格納しておくとよい。当該テーブルは、追跡対象の移動方向と直交する方向の歪み度合いを定義したテーブルと捉えることもできる。実際には、テーブルには各小エリアに対応するpおよびqの値(たとえば、p1、q1)を格納しておくとよい。なお、実施形態1と同様に、上記テーブルは各軸に関して対称な変化を示す。この対称性を利用し、例えば、記憶部26には1つの象限分の3×3のテーブルを格納してもよい。これによりメモリ容量を削減することができる。
なお、本実施形態の歪み度合いは、移動方向と直交する方向の歪み度合いと捉えることもできる。具体的には、移動方向と同じ方向における探索領域の位置は実施形態1と同様に求める。そして、移動方向と直交する方向における探索領域の位置は、当該移動方向における探索領域の位置と、歪み度合いに関する基準値とに基づいて決定してもよい。なお、所定の方向に直交する方向の歪み度合いの基準値を用いて、物体がどの方向に移動する場合も当該基準値を用いて探索領域の位置を決定してもよい。
上記の歪みテーブルと、フレームf[t-1]における追跡対象の位置およびフレームf[t]における追跡対象の位置とに基づいて、フレームf[t+1]における追跡対象の予測位置を算出する。追跡対象が水平方向に移動する場合は、フレームf[t+1]における探索領域の水平方向の位置x[t+1]は実施形態1と同様にして求める。そして、フレームf[t+1]における探索領域の垂直方向の位置y[t+1]は小エリアに対応する関数に基づいて求める(式3)。また、追跡対象が垂直方向に移動する場合は、フレームf[t+1]における探索領域の垂直方向の位置y[t+1]は実施形態1と同様にして求める。そして、フレームf[t+1]における探索領域の水平方向の位置x[t+1]は小エリアに対応する関数に基づいて求める(式4)。本処理では、例として2次関数を用いたが、魚眼画像の歪み度合いを考慮した関数であればよい。
Figure 0007192582000003

Figure 0007192582000004
(その他)
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。例えば、図6や図8に示したテーブルの値、上記実施形態で示した閾値などはいずれも説明のための例示にすぎない。また、上記実施形態では、矩形のバウンディングボックスを例示したが、矩形以外の形態(多角形、楕円、自由図形など)のバウンディングボックスを用いてもよい。
また、現在のフレームにおける物体の位置と、移動量の基準値と、物体の移動方向とに基づいて探索領域の位置を求めてもよい。なお、上述の実施形態では、現在のフレームにおける物体の位置と、現在のフレームより前のフレームにおける物体の位置とに基づいて移動方向を求める例を説明したが、移動方向の求め方は特に限定されない。
現在のフレームにおける物体の位置と、移動量の基準値とに基づいて探索領域の位置を求めてもよい。上述のように、魚眼画像の中心は移動量が大きく、魚眼画像の端にいくにしたがって移動量が小さくなる。このような魚眼画像の特性を考慮して後のフレームの追跡対象を追跡する際に適切な位置(範囲と捉えることもできる)になるように探索領域を決定することもできるためである。
また、上述の実施形態では、探索領域の決定において物体の位置に対応する移動量に関する基準値およびサイズに関する基準値を用いる例について説明したが、移動量の基準値、サイズの基準値の一方のみを用いて探索領域を決定してもよい。例えば、探索領域のサイズを一定にする場合は、上述の移動量の基準値のみを用いて探索領域を決定する。また、例えば、移動量を一定にする場合は、上述のサイズの基準値のみを用いて探索領域を決定する。サイズの基準値のみを用いて探索領域を決定する場合の探索領域の位置の決定方法は種々の方法を用いればよい。例えば、フレームf[t-1]とf[t]の間の追対象の移動量および移動方向に基づいて求めてもよく、フレームf[t]の追跡対象の位置を探索領域の位置として用いてもよい。
また、探索領域の形状をアスペクト比の基準に基づいて可変にしてもよい。魚眼画像上の位置に応じて、魚眼カメラから物体を視たときの俯角や方位角が変わるため、物体のアスペクト比が変化するからである。例えば、アスペクト比の基準は、魚眼画像の中央エリアおよび中央エリアに対し斜め45度にあるエリアでは、探索領域の形状が略正方形となり、中央エリアの上側および下側のエリアでは、探索領域の形状が縦長の長方形となり、前記中央エリアの左側および右側のエリアでは、探索領域が横長の長方形となる、ように設定されていてもよい。
(付記1)
(1)追跡対象エリア(11)の上方に設置された魚眼カメラ(10)により得られた魚眼画像を用いて、前記追跡対象エリア(11)内に存在する物体(13)を追跡する物体追跡装置(1)であって、
フレーム間における前記物体(13)の移動量に関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している記憶手段(26)と、
第1フレーム画像における前記物体(13)の位置と、前記第1フレーム画像における前記物体(13)の位置に対応する前記移動量に関する基準とに基づいて、前記第1フレ
ーム画像の後の画像である第2フレーム画像における探索領域(15)の位置を決定する決定手段(21)と、
前記第2フレーム画像の前記探索領域(15)の中から前記物体(13)を探索することにより、前記第2フレーム画像における前記物体(13)の位置を特定する探索手段(22)と、
を有することを特徴とする物体追跡装置(1)。
(2)追跡対象エリア(11)の上方に設置された魚眼カメラ(10)により得られた魚眼画像を用いて、前記追跡対象エリア(11)内に存在する物体(13)を追跡する物体追跡装置(1)であって、
探索領域(15)のサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している記憶手段(26)と、
第1フレーム画像における前記物体(13)の位置と、前記第1フレーム画像における前記物体(13)の位置に対応する前記サイズに関する基準とに基づいて、前記第1フレーム画像の後の画像である第2フレーム画像における探索領域(15)のサイズを決定する決定手段(21)と、
前記第2フレーム画像の前記探索領域(15)の中から前記物体(13)を探索することにより、前記第2フレーム画像における前記物体(13)の位置を特定する探索手段(22)と、
を有することを特徴とする物体追跡装置(1)。
(3)追跡対象エリア(11)の上方に設置された魚眼カメラ(10)により得られた魚眼画像を用いて、前記追跡対象エリア(11)内に存在する物体(13)を追跡する物体追跡方法であって、
フレーム間における前記物体(13)の移動量に関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している記憶手段(26)を参照して、第1フレーム画像における前記物体(13)の位置と、前記第1フレーム画像における前記物体(13)の位置に対応する前記移動量に関する基準とに基づいて、前記第1フレーム画像の後の画像である第2フレーム画像における探索領域(15)の位置を決定する決定ステップ(S42)と、
前記第2フレーム画像の前記探索領域(15)の中から前記物体(13)を探索することにより、前記第2フレーム画像における前記物体(13)の位置を特定する探索ステップ(S43)と、
を有することを特徴とする物体追跡方法。
(4)追跡対象エリア(11)の上方に設置された魚眼カメラ(10)により得られた魚眼画像を用いて、前記追跡対象エリア(11)内に存在する物体(13)を追跡する物体追跡方法であって、
探索領域(15)のサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している記憶手段(26)を参照して、第1フレーム画像における前記物体(13)の位置と、前記第1フレーム画像における前記物体(13)の位置に対応する前記サイズに関する基準とに基づいて、前記第1フレーム画像の後の画像である第2フレーム画像における探索領域(15)のサイズを決定する決定ステップ(S42)と、
前記第2フレーム画像の前記探索領域(15)の中から前記物体(13)を探索することにより、前記第2フレーム画像における前記物体(13)の位置を特定する探索ステップ(S43)と、
を有することを特徴とする物体追跡方法。
1:物体追跡装置
2:監視システム
10:魚眼カメラ
11:追跡対象エリア
12:天井
13:物体

Claims (11)

  1. 追跡対象エリアの上方に設置された魚眼カメラにより得られた魚眼画像を用いて、前記追跡対象エリア内に存在する物体を追跡する物体追跡装置であって、
    フレーム間における前記物体の移動量に関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している記憶手段と、
    第1フレーム画像における前記物体の位置と、前記第1フレーム画像における前記物体の位置に対応する前記移動量に関する基準とに基づいて、前記第1フレーム画像の後の画像である第2フレーム画像における探索領域の位置を決定する決定手段と、
    前記第2フレーム画像の前記探索領域の中から前記物体を探索することにより、前記第2フレーム画像における前記物体の位置を特定する探索手段と、
    を有することを特徴とする物体追跡装置。
  2. 前記記憶手段は、前記探索領域のサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶しており、
    前記決定手段は、第1フレーム画像における前記物体の位置と、前記第1フレーム画像における前記物体の位置に対応する前記サイズに関する基準とに基づいて、前記第2フレーム画像における前記探索領域のサイズを決定する、
    ことを特徴とする請求項1に記載の物体追跡装置。
  3. 追跡対象エリアの上方に設置された魚眼カメラにより得られた魚眼画像を用いて、前記追跡対象エリア内に存在する物体を追跡する物体追跡装置であって、
    探索領域のサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している記憶手段と、
    第1フレーム画像における前記物体の位置と、前記第1フレーム画像における前記物体の位置に対応する前記サイズに関する基準とに基づいて、前記第1フレーム画像の後の画像である第2フレーム画像における探索領域のサイズを決定する決定手段と、
    前記第2フレーム画像の前記探索領域の中から前記物体を探索することにより、前記第2フレーム画像における前記物体の位置を特定する探索手段と、
    を有することを特徴とする物体追跡装置。
  4. 前記サイズの基準は、魚眼画像の中心に近いエリアほどサイズが大きくなるように設定されている、
    ことを特徴とする請求項2または3に記載の物体追跡装置。
  5. 前記移動量の基準は、魚眼画像の中心に近いエリアほど移動量が大きくなるように設定されている、
    ことを特徴とする請求項1または2に記載の物体追跡装置。
  6. 前記決定手段は、第1フレーム画像における前記物体の位置と、前記第1フレーム画像における前記物体の位置に対応する前記移動量に関する基準と、前記物体の移動方向とに基づいて、前記第2フレーム画像における探索領域の位置を決定する、
    ことを特徴とする請求項1、2、または5のいずれか一項に記載の物体追跡装置。
  7. 前記記憶手段は、画像の歪み度合いに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶し、
    前記決定手段は、第1フレーム画像における前記物体の位置と、前記第1フレーム画像における前記物体の位置に対応する前記移動量に関する基準と、前記物体の移動方向と、前記第1フレーム画像における前記物体の位置に対応する前記歪み度合いに関する基準とに基づいて、前記第2フレーム画像における探索領域の位置を決定する、
    ことを特徴とする請求項1、2、5、または6のいずれか一項に記載の物体追跡装置。
  8. 前記決定手段は、
    前記物体の移動方向と同じ方向の前記探索領域の位置は、前記第1フレーム画像における前記物体の位置と、前記第1フレーム画像より前のフレーム画像における前記物体の位置と、前記移動量に関する基準とに基づいて決定し、
    前記物体の移動方向と直交する方向の前記探索領域の位置は、前記物体の移動方向と同じ方向の前記探索領域の位置と、前記歪み度合いに関する基準とに基づいて決定する、
    ことを特徴とする請求項7に記載の物体追跡装置。
  9. 追跡対象エリアの上方に設置された魚眼カメラにより得られた魚眼画像を用いて、前記追跡対象エリア内に存在する物体を追跡する物体追跡方法であって、
    フレーム間における前記物体の移動量に関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している記憶手段を参照して、第1フレーム画像における前記物体の位置と、前記第1フレーム画像における前記物体の位置に対応する前記移動量に関する基準とに基づいて、前記第1フレーム画像の後の画像である第2フレーム画像における探索領域の位置を決定する決定ステップと、
    前記第2フレーム画像の前記探索領域の中から前記物体を探索することにより、前記第2フレーム画像における前記物体の位置を特定する探索ステップと、
    を有することを特徴とする物体追跡方法。
  10. 追跡対象エリアの上方に設置された魚眼カメラにより得られた魚眼画像を用いて、前記追跡対象エリア内に存在する物体を追跡する物体追跡方法であって、
    探索領域のサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している記憶手段を参照して、第1フレーム画像における前記物体の位置と、前記第1フレーム画像における前記物体の位置に対応する前記サイズに関する基準とに基づいて、前記第1フレーム画像の後の画像である第2フレーム画像における探索領域のサイズを決定する決定ステップと、
    前記第2フレーム画像の前記探索領域の中から前記物体を探索することにより、前記第2フレーム画像における前記物体の位置を特定する探索ステップと、
    を有することを特徴とする物体追跡方法。
  11. 請求項9または10に記載の物体追跡方法の各ステップをコンピュータに実行させるためのプログラム。
JP2019043759A 2019-03-11 2019-03-11 物体追跡装置および物体追跡方法 Active JP7192582B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019043759A JP7192582B2 (ja) 2019-03-11 2019-03-11 物体追跡装置および物体追跡方法
PCT/JP2020/008147 WO2020184207A1 (ja) 2019-03-11 2020-02-27 物体追跡装置および物体追跡方法
US17/434,953 US11869199B2 (en) 2019-03-11 2020-02-27 Object tracking device and object tracking method
CN202080017837.0A CN113508420A (zh) 2019-03-11 2020-02-27 物体追踪装置以及物体追踪方法
DE112020001202.6T DE112020001202T5 (de) 2019-03-11 2020-02-27 Objektverfolgungsvorrichtung und Objektverfolgungsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019043759A JP7192582B2 (ja) 2019-03-11 2019-03-11 物体追跡装置および物体追跡方法

Publications (2)

Publication Number Publication Date
JP2020149111A JP2020149111A (ja) 2020-09-17
JP7192582B2 true JP7192582B2 (ja) 2022-12-20

Family

ID=72427882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019043759A Active JP7192582B2 (ja) 2019-03-11 2019-03-11 物体追跡装置および物体追跡方法

Country Status (5)

Country Link
US (1) US11869199B2 (ja)
JP (1) JP7192582B2 (ja)
CN (1) CN113508420A (ja)
DE (1) DE112020001202T5 (ja)
WO (1) WO2020184207A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2021203870A1 (en) * 2020-12-29 2022-07-14 Sensetime International Pte. Ltd. Method and apparatus for detecting associated objects
JP7439784B2 (ja) * 2021-03-12 2024-02-28 オムロン株式会社 画像処理装置および画像処理方法
CN117296079A (zh) * 2021-05-13 2023-12-26 松下知识产权经营株式会社 物体探测装置以及方法
JP2022177651A (ja) * 2021-05-18 2022-12-01 オムロン株式会社 画像認識装置、画像認識装置の方法、および画像認識装置プログラム
CN113792670B (zh) * 2021-09-16 2023-03-10 中国电子科技集团公司第五十四研究所 一种自适应重构的高精度机载目标识别方法
US11963516B2 (en) * 2022-03-28 2024-04-23 Pumpkii Inc. System and method for tracking objects with a pet companion robot device
JP7365729B1 (ja) 2022-10-06 2023-10-20 株式会社アジラ 姿勢推定システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013001941A1 (ja) 2011-06-27 2013-01-03 日本電気株式会社 物体検知装置、物体検知方法および物体検知プログラム

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4048511B2 (ja) * 1998-03-13 2008-02-20 富士通株式会社 魚眼レンズカメラ装置及びその画像歪み補正方法
JP4516665B2 (ja) * 2000-05-19 2010-08-04 パナソニック株式会社 監視装置
JP2004362399A (ja) * 2003-06-06 2004-12-24 Nissan Motor Co Ltd 物体追跡装置
JP4874150B2 (ja) * 2007-03-30 2012-02-15 セコム株式会社 移動物体追跡装置
JP4497236B2 (ja) * 2008-08-11 2010-07-07 オムロン株式会社 検出用情報登録装置、電子機器、検出用情報登録装置の制御方法、電子機器の制御方法、検出用情報登録装置制御プログラム、電子機器の制御プログラム
WO2011108043A1 (ja) * 2010-03-04 2011-09-09 パナソニック株式会社 画像表示装置及び画像表示方法
JP5488076B2 (ja) * 2010-03-15 2014-05-14 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム
JP5859958B2 (ja) * 2010-11-11 2016-02-16 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像処理装置、画像処理方法、およびプログラム
JP5895624B2 (ja) * 2012-03-14 2016-03-30 オムロン株式会社 画像処理装置、画像処理方法、制御プログラムおよび記録媒体
JP2014042160A (ja) * 2012-08-22 2014-03-06 Ntt Docomo Inc 表示端末、動体検知の対象領域の設定方法及びプログラム
EP2998934B1 (en) * 2013-05-16 2020-08-05 Sony Corporation Image processing device, image processing method, and program
JP2014225108A (ja) * 2013-05-16 2014-12-04 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
CN105659287B (zh) * 2013-08-28 2018-08-17 株式会社理光 图像处理装置、图像处理方法和成像系统
US9405974B2 (en) * 2013-11-13 2016-08-02 Xerox Corporation System and method for using apparent size and orientation of an object to improve video-based tracking in regularized environments
EP2988248B1 (en) * 2014-07-22 2019-09-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method, information processing apparatus, information processing method, and program
JP6381353B2 (ja) 2014-08-08 2018-08-29 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
EP3280976B1 (en) * 2015-04-10 2019-11-20 Robert Bosch GmbH Object position measurement with automotive camera using vehicle motion data
JP2016212784A (ja) * 2015-05-13 2016-12-15 株式会社リコー 画像処理装置、画像処理方法
US10277858B2 (en) * 2015-10-29 2019-04-30 Microsoft Technology Licensing, Llc Tracking object of interest in an omnidirectional video
JP6641163B2 (ja) * 2015-12-02 2020-02-05 日本放送協会 オブジェクト追跡装置及びそのプログラム
JP6942940B2 (ja) * 2016-03-14 2021-09-29 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
WO2017217411A1 (ja) * 2016-06-17 2017-12-21 日本電気株式会社 画像処理装置、画像処理方法、及び記憶媒体
JP2018036444A (ja) * 2016-08-31 2018-03-08 アイシン精機株式会社 表示制御装置
JP6938237B2 (ja) * 2017-06-21 2021-09-22 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2018235300A1 (ja) * 2017-06-23 2018-12-27 日本電気株式会社 物体検知装置、物体検知方法、及びコンピュータ読み取り可能な記録媒体
JP7030451B2 (ja) * 2017-08-18 2022-03-07 セコム株式会社 画像処理装置
CN107730438A (zh) * 2017-08-23 2018-02-23 广州市九安光电技术股份有限公司 一种基于鱼眼镜头的动态物体跟踪方法和系统
WO2019049331A1 (ja) * 2017-09-08 2019-03-14 株式会社ソニー・インタラクティブエンタテインメント キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法
WO2019069469A1 (ja) * 2017-10-06 2019-04-11 日本電気株式会社 物体検知装置、物体検知方法、及びコンピュータ読み取り可能な記録媒体
JP6991045B2 (ja) * 2017-11-30 2022-01-12 キヤノン株式会社 画像処理装置、画像処理装置の制御方法
JP7059054B2 (ja) * 2018-03-13 2022-04-25 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
WO2019215979A1 (ja) * 2018-05-10 2019-11-14 ソニー株式会社 画像処理装置、車載装置、画像処理方法及びプログラム
CN108717704B (zh) * 2018-05-15 2021-05-28 珠海全志科技股份有限公司 基于鱼眼图像的目标跟踪方法、计算机装置及计算机可读存储介质
JP7028729B2 (ja) * 2018-06-22 2022-03-02 株式会社 日立産業制御ソリューションズ 物体追跡装置、物体追跡システム、および物体追跡方法
US20210309149A1 (en) * 2018-07-26 2021-10-07 Nec Corporation Driving support device and driving support method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013001941A1 (ja) 2011-06-27 2013-01-03 日本電気株式会社 物体検知装置、物体検知方法および物体検知プログラム

Also Published As

Publication number Publication date
US11869199B2 (en) 2024-01-09
DE112020001202T5 (de) 2021-12-09
WO2020184207A1 (ja) 2020-09-17
CN113508420A (zh) 2021-10-15
US20220172374A1 (en) 2022-06-02
JP2020149111A (ja) 2020-09-17

Similar Documents

Publication Publication Date Title
JP7192582B2 (ja) 物体追跡装置および物体追跡方法
KR101687530B1 (ko) 촬상 시스템에 있어서의 제어방법, 제어장치 및 컴퓨터 판독 가능한 기억매체
JP7272024B2 (ja) 物体追跡装置、監視システムおよび物体追跡方法
US20160217326A1 (en) Fall detection device, fall detection method, fall detection camera and computer program
JP7334432B2 (ja) 物体追跡装置、監視システムおよび物体追跡方法
JP7188067B2 (ja) 人検出装置および人検出方法
JP7255173B2 (ja) 人検出装置および人検出方法
CN108369739B (zh) 物体检测装置和物体检测方法
US11948363B2 (en) Person detection device and person detection method
JP2018088049A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2010231350A (ja) 人物識別装置、そのプログラム、及び、その方法
WO2021084972A1 (ja) 物体追跡装置および物体追跡方法
US20170278254A1 (en) Moving-object counter apparatus, moving-object counting method, and non-transitory computer readable medium
JP7338174B2 (ja) 物体検出装置および物体検出方法
WO2021157213A1 (ja) 画像処理装置および画像処理方法
JP2019176261A (ja) 画像処理装置
JP2011259044A (ja) 画像処理装置、方法
JP2010041416A (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び、撮像装置
WO2020044448A1 (ja) 物体識別装置、物体識別方法およびプログラム記憶媒体
JP2016201637A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221121

R150 Certificate of patent or registration of utility model

Ref document number: 7192582

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150