JP6495705B2 - 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム - Google Patents

画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム Download PDF

Info

Publication number
JP6495705B2
JP6495705B2 JP2015059573A JP2015059573A JP6495705B2 JP 6495705 B2 JP6495705 B2 JP 6495705B2 JP 2015059573 A JP2015059573 A JP 2015059573A JP 2015059573 A JP2015059573 A JP 2015059573A JP 6495705 B2 JP6495705 B2 JP 6495705B2
Authority
JP
Japan
Prior art keywords
image
time
unit
target object
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015059573A
Other languages
English (en)
Other versions
JP2016181743A (ja
Inventor
麻由 奥村
麻由 奥村
友樹 渡辺
友樹 渡辺
豪 田崎
豪 田崎
剛志 高谷
剛志 高谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015059573A priority Critical patent/JP6495705B2/ja
Priority to US15/075,309 priority patent/US10075652B2/en
Publication of JP2016181743A publication Critical patent/JP2016181743A/ja
Application granted granted Critical
Publication of JP6495705B2 publication Critical patent/JP6495705B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明の実施形態は、画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システムに関する。
互いに視野を共有しない複数のカメラ間で対象を対応付けて対象を追跡する技術が、従来から知られている。例えば、各カメラについて、撮影領域に置かれた、色または分光反射率が既知の被写体を撮像して得た画像情報から分光分布情報を取得する。このように取得した各分光分布情報を用いることで、光源環境に依存すること無く、カメラ間で対象を対応付けることができる。
特開2008−236437号公報
Tomoki Watanabe, Satoshi Ito and Kentaro Yokoi: "Co-occurrence Histograms of Oriented Gradients for Human Detection", IPSJ Transactions on Computer Vision and Applications, Vol. 2, pp.39-47. (2010) . Zdenek Kalal, Krystian Mikolajczyk and Jiri Matas: "Tracking-Learning-Detection", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 6, NO. 1, JANUARY 2010. 槇原 靖, 佐川 立昌, 向川 康博, 越後 富夫, 八木 康史, ``周波数領域における方向変換モデルを用いた歩容認証'', 情報処理学会論文誌コンピュータビジョンとイメージメディア, Vol. 48, No. SIG 1(CVIM 17), pp. 78-87, Feb. 2007. 奥村 麻由, 槇原 靖, 八木 康史, 中村 慎介, 森島 繁生, ``視聴者参加型デジタルエンタテインメントのためのオンライン歩容個性計測'', 画像の認識・理解シンポジウム(MIRU2009)論文集, pp. 1336-1343, 松江, 7月, 2009.
従来技術によれば、色または分光反射率が既知の被写体を用意する必要があり、さらに、この被写体を各カメラで撮影して分光分布情報をカメラ毎に収集する必要がある。そのため、カメラ台数が多い場合などは情報収集が容易ではなく、対象を高精度に追跡することが困難になるおそれがあるという問題点があった。
本発明が解決する課題は、複数カメラを用いてより高精度に対象を追跡可能とする画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システムを提供することにある。
第1の実施形態の画像処理装置は、複数の撮像装置から取得される各時系列画像に撮像される対象物体の位置を追跡する。画像処理装置は、記憶部に、時系列画像を撮像装置からの距離に応じて分割した領域毎に特徴値の分布を記憶する。画像処理装置は、時系列画像から領域単位で特徴値に対応する観測値を抽出し、抽出した観測値の領域が対応する分布における偏差値に基づき特徴量を取得する。画像処理装置は、特徴量を用いて、追跡された対象物体を、複数の撮像装置から取得された複数の時系列画像間で対応付ける。
図1は、各実施形態に共通して適用可能な画像処理システムの一例の構成を示すブロック図である。 図2は、第1の実施形態に係るカメラの設置場所を説明するための図である。 図3は、第1の実施形態に係る画像処理装置の一例の構成を示すブロック図である。 図4は、第1の実施形態に係る画像処理装置の機能を説明するための一例の機能ブロック図である。 図5は、第1の実施形態に係る画像処理を示す一例のフローチャートである。 図6は、フレーム画像の例を示す図である。 図7は、各実施形態に係る分割領域の決定方法の例について概略的に説明するための図である。 図8は、各実施形態に係る分割領域の決定方法の別の例について概略的に説明するための図である。 図9は、複数の対象物体が含まれるフレーム画像の例を示す図である。 図10は、複数の時系列画像を説明するための図である。 図11は、対象物体が人である場合の高さおよびアスペクト比について説明するための図である。 図12は、歩行周期および歩幅について概略的に説明するための図である。 図13は、歩行周期および歩幅について概略的に説明するための図である。 図14は、各実施形態に係る、各特徴値の分布の例を示す図である。 図15は、第2の実施形態に係る画像処理装置の一例の構成を示すブロック図である。 図16は、第2の実施形態に係る画像処理を示す一例のフローチャートである。 図17は、第2の実施形態に係る画像処理を示す一例のフローチャートである。
以下、実施形態に係る画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システムについて説明する。
(各実施形態に共通の構成)
図1は、各実施形態に共通して適用可能な画像処理システムの一例の構成を示す。図1において、画像処理システムは、各実施形態に共通して適用可能な画像処理装置10と、複数のカメラ111、112、113、…とを備える。
各カメラ111、112、113、…は、それぞれ撮像方向および撮像範囲を固定として時系列に沿って複数のタイミングで撮像した画像である時系列画像を出力する。時系列画像は、例えば、所定の時間間隔で撮像したフレーム画像を含む動画像である。また、各カメラ111、112、113、…は、例えば、屋内や屋外に、それぞれ観察対象を俯瞰する角度で設置される。各カメラ111、112、113、…の撮像範囲は、互いに重複する部分を持つ必要はない。
各カメラ111、112、113、…は、例えば可視光を撮像するカメラが用いられる。これに限らず、各カメラ111、112、113、…は、赤外線を撮像する赤外線カメラを用いてもよい。また、各カメラ111、112、113、…の水平面での撮像方向は、特に限定されない。例えば、図2に例示されるように、各カメラ111、112、113、…を互いに異なる向きを撮像するように配置してもよい。図2の例の場合、矢印21で示される方向に進む観察対象2は、各カメラ111、112、113、…により、それぞれ正面、側面および背面から撮像されることになる。
観察対象2は、時系列に沿って位置が移動する移動物体であり、例えば人物である。以下、観察対象2となる移動物体を、対象物体と呼ぶ。
各カメラ111、112、113、…から出力された各時系列画像は、画像処理装置10に供給される。画像処理装置10は、各カメラ111、112、113、…から供給された各時系列画像に対して画像処理を行い、各時系列画像間で同一対象物体の画像を対応付け、同一対象物体を時系列上で追跡する。
ここで、第1の実施形態に係る画像処理装置10は、特徴値の分布を示す情報を各カメラ111、112、113、…について記憶している。画像処理装置10は、各カメラ111、112、113、…から供給された各時系列画像に含まれる対象物体から特徴値に対応する各観測値を抽出し、抽出した各観測値の記憶された特徴値の分布における偏差値をそれぞれ算出し、求めた偏差値に基づき特徴量をそれぞれ求める。画像処理装置10は、各時系列画像から抽出した対象物体について求めた特徴量を用いて対象物体を各時系列画像間で対応付けて、追跡する。
また、画像処理装置10は、各カメラ111、112、113、…について、特徴値の分布を示す情報を、フレーム画像を例えば撮像距離に応じて分割した各分割領域毎に記憶する。そして、画像処理装置10は、各カメラ111、112、113、…から供給された各時系列画像のフレーム画像から分割領域を単位として観測値を抽出し、記憶された分布のうち分割領域が対応する分布における偏差値を算出する。
これにより、各カメラ111、112、113、…により撮像された各時系列画像間で、高精度に対象物体を追跡することが可能となる。このとき、対象物体の対応付けを、各時系列画像による各フレーム画像を撮像距離に応じて分割した分割領域を単位として行うため、各カメラ111、112、113、…間でのキャリブレーションを行う必要が無い。
図3は、各実施形態に共通し適用可能な画像処理装置10の一例の構成を示す。画像処理装置10は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、ストレージ104と、入出力I/F105と、通信I/F106と、表示制御部107と、カメラI/F109とを備え、これら各部がバス100により互いに通信可能に接続される。画像処理装置10は、このように、一般的なコンピュータと同様な構成にて実現可能である。
CPU101は、ROM102やストレージ104に予め記憶されるプログラムに従い、RAM103をワークメモリとして動作して、この画像処理装置10の全体の動作を制御する。ストレージ104は、ハードディスクドライブや不揮発性の半導体メモリ(フラッシュメモリ)であり、CPU101が動作するためのプログラムや、種々のデータが記憶される。
入出力I/F105は、例えばUSB(Universal Serial Bus)であり、外部機器との間でデータの送受信を行うためのインターフェイスである。キーボードやポインティングデバイス(マウスなど)の入力デバイスをこの入出力I/F105に接続することができる。また、CD(Compact Disk)やDVD(Digital Versatile Disk)といったディスク記憶媒体の読み出しなどを行うドライブ装置をこの入出力I/F105に接続してもよい。通信I/F106は、LAN(Local Area Network)やインターネットなどのネットワークに対する通信を制御する。表示制御部107は、CPU101によりプログラムに従い生成された表示制御信号を、LCD(Liquid Crystal Display)などを表示デバイスとして用いた表示装置108が表示可能な表示信号に変換して出力する。
カメラI/F109は、カメラ111、112、113、…から出力される各画像信号を取り込み、上述した、時系列に沿った複数のフレーム画像を含む、カメラ111、112、113、…による各時系列画像としてバス100に対して出力する。
(第1の実施形態)
図4は、第1の実施形態に係る画像処理装置10aの機能を説明するための一例の機能ブロック図である。図4において、画像処理装置10aは、画像取得部120と、追跡部122と、観測値抽出部123と、特徴量取得部124aと、分布記憶部125aと、連結部126と、出力部127とを備える。
画像取得部120は、各カメラ111、112、113、…から供給された各時系列画像からフレーム画像を取得する。また、画像取得部120は、フレーム画像を取得したカメラを特定する識別情報(画像識別情報と呼ぶ)を取得する。画像取得部120は、フレーム画像に画像識別情報を付加して、追跡部122に供給する。
追跡部122は、画像取得部120から供給されたフレーム画像に撮像された対象物体を検出し、対象物体の画像のフレーム画像内での位置を各フレーム間で追跡する。なお、以下では、特に記載の無い限り、「対象物体の画像」を単に「対象物体」と呼ぶ。追跡部122は、追跡結果である対象物体の各フレーム画像内での位置を示す情報を、対象物体を識別する移動体識別情報を付加して観測値抽出部123に供給する。
分布記憶部125aは、例えばストレージ104またはRAM103に対応し、フレーム画像内において対象物体を評価する特徴値の分布を示す情報を、各カメラ111、112、113、…毎に記憶する。このとき、分布記憶部125aは、フレーム画像を分割した領域毎に、特徴値の分布を示す情報を記憶する。
観測値抽出部123は、対象のフレーム画像内の対象物体から、特徴値に対応する観測値を抽出する。ここで、観測値抽出部123は、上述した領域を単位として、領域内に含まれる対象物体から観測値の抽出を行う。観測値抽出部123は、観測値に移動体識別情報を付加して特徴量取得部124aに供給する。
特徴量取得部124aは、分布記憶部125aに記憶される特徴値の領域毎の分布を示す情報と、観測値抽出部123から供給された特徴値に対応する観測値とを用いて、分布における観測値の偏差値を算出し、算出した偏差値を特徴ベクトルとする特徴量を取得する。特徴量取得部124aは、取得した特徴量を、移動体識別情報を付加して連結部126に供給する。
連結部126は、特徴量取得部124aで取得された特徴量に基づき、各対象物体の追跡結果を、各カメラ111、112、113、…から取得された各時系列画像間で対応付ける。対応付けた結果を示す情報は、出力部127に供給される。
出力部127は、対応付けられた結果を示す情報を出力して例えばユーザに提示する。一例として、出力部127は、各時系列画像に含まれる対象物体に対して、連結部126で対応付けられた移動体識別情報を付加して表示する画像を生成することが考えられる。この画像は、例えば表示装置108に表示されることで、ユーザに提示される。
画像取得部120、追跡部122、観測値抽出部123、特徴量取得部124a、分布記憶部125a、連結部126および出力部127は、上述したCPU101上で動作する画像処理プログラムにより実現される。これに限らず、画像取得部120、追跡部122、観測値抽出部123、特徴量取得部124a、分布記憶部125a、連結部126および出力部127のうち一部または全部を、互いに協働して動作するハードウェアにより構成してもよい。
なお、画像取得部120は、図4に例示されるように、画像処理装置10に1つが設けられてもよいし、各カメラ111、112、113、…毎に設けられてもよい。これに限らず、画像取得部120、追跡部122、観測値抽出部123、特徴量取得部124aおよび分布記憶部125aを各カメラ111、112、113、…毎に設けてもよい。さらに、画像取得部120、追跡部122、観測値抽出部123、特徴量取得部124aおよび分布記憶部125aを各カメラ111、112、113、…に内蔵させる構成も可能である。
図5は、第1の実施形態に係る画像処理装置10aにおける画像処理を示す一例のフローチャートである。この図5のフローチャートを用いて、第1の実施形態に係る画像処理について概略的に説明する。なお、以下では、対象物体が人であるものとして説明する。勿論、対象物体は、人に限られず、顔や手足などの人の各部分でもよいし、人以外の他の動物でもよい。さらに、対象物体は、自動車や自転車などの機械でもよい。
この図5のフローチャートによる処理の実行に先立って、各カメラ111、112、113、…により取得される各時系列画像のフレーム画像が、それぞれ所定に分割される。
各実施形態に共通して適用されるフレーム画像の分割方法について説明する。図6は、例えばカメラ111により撮像される時系列画像のフレーム画像200の例を示す。ここで、カメラ111が観察対象(対象物体)を俯瞰するように設置される場合、フレーム画像200の上端側ではより遠距離を撮像し、下端側ではより近距離を撮像することになる。そのため、同一の対象物体を被写体とする場合であっても、当該対象物体のカメラ111に対する距離に応じて、当該対象物体の大きさがフレーム画像200内で変化する。
より具体的には、図6に示されるように、同一の対象物体がカメラ111に近付くように移動する場合、当該対象物体の画像は、フレーム画像200内で上端側から下端側に移動し、且つ、移動に伴い画像の大きさが徐々に大きくなる。この様子を、図6に画像21010、21011および21012として示す。この場合、同一の対象物体から取得される観測値が、当該対象物体のフレーム画像200内での大きさに応じて変動することが考えられる。
そこで、各実施形態では、フレーム画像200を、撮像距離に応じて分割し、分割した領域を単位として、対象物体の観測値を取得するようにする。このとき、各領域に同一の対象物体がそれぞれ含まれたと仮定した場合に、各領域に対する各対象物体の相対的な高さが略一定となるように、フレーム画像200を分割する。
図6の例では、フレーム画像200が水平方向に3分割され、領域20110、20111および20112が形成されている。各領域20110、20111および20112は、フレーム画像200において、カメラ111が最も遠距離を撮像する上端から、最も近距離を撮像する下端に向けて、順次高さが高くなるように形成されている。
図7を用いて、各実施形態に係る分割領域の決定方法の例について概略的に説明する。例えば、図7(a)に示されるように、画角αのカメラ11を設置高さH(床面からの高さ)、撮像方向を床面に対する撮像角度θで設置した場合の、カメラ11による床面の撮像範囲を、所望数の領域に等分する。図7(a)の例では、撮像範囲が位置Aおよび位置Bで3等分されている。この場合、図7(b)に示されるように、フレーム画像200内において位置Aおよび位置Bに対応する位置でフレーム画像200を水平方向に分割し、領域20120、20121および20122を形成する。
このような、フレーム画像200の分割を、各カメラ111、112、113、…による時系列画像のフレーム画像毎に行う。このような、各カメラ111、112、113、…のフレーム画像200の分割位置を示す情報は、観測値抽出部123および分布記憶部125aに予め設定される。
上述では、フレーム画像200を、単純に、カメラ111からの撮像距離に応じて分割しているが、これはこの例に限定されない。例えば、図8に別の例として示されるように、フレーム画像200内における対象物体の移動方向の変化に応じてフレーム画像200を分割してもよい。すなわち、対象物体の移動方向が所定以上に変化する位置で、フレーム画像200を分割する。
同一の対象物体がカメラ111の撮像方向に対して左右に移動方向を変化させながら、且つ、カメラ111に近付くように移動する場合、当該対象物体の画像は、フレーム画像200内で上端側から下端側に移動すると共に左右に移動し、且つ、上端から下端に移動に伴い画像の大きさが徐々に大きくなる。この様子を、図8に画像21030、21031、21032および21033として示す。
図8の例では、対象物体は、カメラ111に近付く方向に移動しつつ、画像21030の位置から左方向への移動を開始し、画像21031の位置で移動方向を右方向に変え、さらに、画像21032の位置で移動方向を左方向に変えている。そこで、図8の例では、カメラ111の撮像方向に対する距離に加え、移動方向の変化点で、フレーム画像200を水平方向に分割し、領域20130、20131、20132および20133を形成している。
一例として、店舗などのような、対象物体の移動方向が変化することを予め予測できるような場合に、フレーム画像200の分割位置として、移動方向の変化点をさらに適用することが考えられる。
図5のフローチャートの説明に戻り、ステップS10で、画像処理装置10aにおいて、画像取得部120は、各カメラ111、112、113、…から供給された各時系列画像からフレーム画像を取得し、取得した各フレーム画像にカメラ111、112、113、…を識別するための画像識別情報をそれぞれ付加する。画像取得部120で取得されたフレーム画像は、追跡部122に供給される。
なお、図5のフローチャートにおいて、ステップS11〜ステップS14までの処理は、各カメラ111、112、113、…から供給された各時系列画像から取得した各フレーム画像について実行される。以下では、説明のため、カメラ111から取得した時系列画像およびフレーム画像を例にとって説明を行う。
次のステップS11で、追跡部122は、画像取得部120で取得されたフレーム画像から対象物体を検出し、検出した対象物体のフレーム画像内での位置を、同一時系列画像内の各フレーム画像間で追跡する。次のステップS12で、観測値抽出部123は、ステップS10で画像取得部120により取得されたフレーム画像から、対象物体の観測値を抽出する。このとき、観測値抽出部123は、フレーム画像を分割した各領域毎に観測値の抽出を行う。
次のステップS13で、特徴量取得部124aは、分布記憶部125aから、カメラ111に対応するフレーム画像を分割した領域毎に算出された、特徴値の分布を示す情報をそれぞれ取得する。
なお、図5のフローチャートでは、ステップS12およびステップS13の処理が順次に実行されるように示されているが、これはこの例に限定されない。例えば、ステップS12およびステップS13は並列的に実行してもよいし、ステップS12およびステップS13の処理の順序を入れ替えてもよい。
次のステップS14で、特徴量取得部124aは、ステップS13で分布記憶部125aから取得した特徴値の分布を示す情報を用いて、ステップS12で観測値抽出部123により抽出された各観測値の偏差値を求める。そして、特徴量取得部124aは、求めた偏差値を特徴ベクトルとする特徴量を取得する。
次のステップS15で、画像処理装置10aは、連結部126により、特徴量取得部124aにより取得された、各カメラ111、112、113、…に対応する各特徴量の照合を行う。連結部126は、この各特徴量の照合の結果に基づき、各カメラ111、112、113、…から供給された各時系列画像間で対象物体を対応付ける。
次のステップS16で、出力部127は、ステップS15での照合処理の結果を出力する。例えば、出力部127は、照合結果に従い、各時系列画像に対して、各時系列画像に含まれる対象物体中の同一の対象物体を識別する識別情報を付加して出力する。
(第1の実施形態の処理の詳細)
次に、第1の実施形態の画像処理装置10aによる画像処理を、上述の図5のフローチャートを参照して、より詳細に説明する。ステップS10で、画像取得部120は、各カメラ111、112、113、…から供給された各時系列画像を取得し、取得した各時系列画像に対して、供給元の各カメラ111、112、113、…を識別するための画像識別情報を付加する。画像取得部120は、それぞれ画像識別情報が付加された時系列画像を追跡部122に供給する。
ステップS11で、追跡部122は、ステップS10で画像取得部120により取得された、各カメラ111、112、113、…に撮像された各時系列画像に含まれる各フレーム画像から対象物体を検出し、検出された対象物体を時系列画像内のフレーム画像間で追跡する。以下では、説明のため、特に記載の無い限り、各カメラ111、112、113、…のうちカメラ111から取得した時系列画像に注目して説明を行う。
追跡部122は、例えば下記の方法を用いて、フレーム画像から対象物体を検出する。図9に例示されるように、3の対象物体20a、20bおよび20cがフレーム画像200に含まれるものとする。各対象物体20a、20bおよび20cが人であるものとし、追跡部122は、フレーム画像200に検出窓領域を設定し、検出窓領域内の画像から特徴量を算出する。例えば、追跡部122は、特徴量として、検出窓領域内の輝度の勾配と強度とをヒストグラム化したHOG(Histograms of Oriented Gradients)特徴量を算出することが考えられる。これに限らず、追跡部122は、HOG特徴量を識別性能の面で改良したCoHOG(Co-occurrence HOG)特徴量(非特許文献1参照)を算出してもよい。
追跡部122は、例えば、上述のようにして算出した特徴量を用いて検出窓領域内の画像が対象物体であるか否かを識別して、対象物体を検出する。検出した対象物体の時系列画像内での追跡には、例えば非特許文献2で開示されている技術を用いてもよい。
追跡部122は、追跡した結果取得された、対象物体の各フレーム画像内での位置を示す情報を、対象物体を識別する移動体識別情報を付加して観測値抽出部123に供給する。図9の例では、フレーム画像200から検出された対象物体20a、20bおよび20cに、それぞれ移動体識別情報としてID=01、02および03が付加されている。
ここで、追跡部122は、図10に例示されるように、複数のカメラ111、112、113、…からの各時系列画像について、それぞれフレーム画像間での対象物体の追跡を行う。図10の例では、画像識別情報をカメラIDとして示し、例えばカメラ111、112および113から取得された各時系列画像のカメラIDを、それぞれカメラID=A01、A02およびA03としている。
図10(a)に例示されるように、カメラID=A01の時系列画像では、時間t0、t1、t2、t3でそれぞれ取得されるフレーム画像2000、2001、2002、2003に対象物体20bが含まれていることが示されている。また、図10(b)に例示されるように、カメラID=A02の時系列画像では、上述の時間t0より前の、時間t-4、t-3、t-2、t-1でそれぞれ取得されるフレーム画像200-4、200-3、200-2、200-1に対象物体20bが含まれていることが示されている。同様に、図10(c)に例示されるように、カメラID=A03の時系列画像では、上述の時間t3より後の、時間t5、t6、t7、t8でそれぞれ取得されるフレーム画像2005、2006、2007、2008に対象物体20bが含まれていることが示されている。このように、各カメラにおいて、同一の対象物体20bが異なるタイミングで撮像されている可能性がある。
なお、カメラID=A01、ID=A02およびID=A03それぞれの時系列画像に含まれる各対象物体20bは、連結部126による各時系列画像間での対応付けがなされていない状態では、同一の対象物体20bとは認識されない。したがって、カメラID=A01、ID=A02およびID=A03それぞれの時系列画像に含まれる各対象物体20bに対して、それぞれ異なるID=02、ID=12およびID=22が付加される。
観測値抽出部123は、フレーム画像を上述のように分割した各領域に対象物体が含まれる場合、この対象物体(対象物体の画像)から観測値を抽出する(図5のステップS12)。観測値抽出部123は、抽出した観測値を、画像識別情報および移動体識別情報を付加して特徴量取得部124aに供給する。
観測値抽出部123が抽出する観測値は、分布記憶部125aに分布が記憶されている特徴値に対応する観測値である。特徴値は、例えば対象物体(対象物体の画像)のフレーム画像内における高さ、アスペクト比、移動速度、動作周期、単位動作間隔、色のうち少なくとも1つを含む。
高さは、対象物体の画像のフレーム画像内での高さであり、例えば画素数で表される。また、アスペクト比は、対象物体の画像を含む最小の矩形の高さと幅との比である。図11を用いて、対象物体が人である場合の高さ(身長)およびアスペクト比について説明する。図11において、人の画像220に対し、両腕部を除いた全身を含む最小の矩形221を考える。観測値抽出部123は、この矩形221の高さhを特徴値における高さとし、高さhと幅wとの比をアスペクト比として抽出する。以下では、アスペクト比=w/hとする。
移動速度は、追跡部122による対象物体の追跡結果に基づき算出する。観測値抽出部123は、対象物体の移動速度を、例えばカメラ111から供給された時系列画像の場合、上述したカメラ111の設置高さH、撮像角度θおよび画角αと、当該対象物体が含まれるフレーム画像数と、当該対象物体の各フレーム画像内での座標とに基づき算出することができる。
動作周期は、対象物体が、当該対象物体内での所定の動作を伴い移動する場合の、当該動作の周期である。また、単位動作間隔は、当該動作周期の1周期に対応する距離である。対象物体が人である場合、動作周期および単位動作間隔は、例えばそれぞれ歩行周期および歩幅である。
図12および図13を用いて、歩行周期および歩幅について概略的に説明する。図12は、人の歩行において右足および左足が着地したことによる足跡の例を示す。また、図13は、人230が進行方向に向けて歩行する際の、人230の動作の例を概略的に示す。図13において、右方向に向けた矢印は、時間の経過を示す。すなわち、図13は、人230が右足231と左足232とを交互に動かして移動する様子を、時系列に沿って動作を例えばフレーム画像単位で分解して示すものである(ステップS100〜ステップS108)。
歩行周期は、図12に示されるように、右足および左足のうち同じ側の足が着地する間隔(距離)に対応するものとする。観測値抽出部123は、歩行周期を、図13に例示されるように、右足231と左足232とが交互に動作する画像の周期として検出できる。図13の例では、ステップS100〜ステップS106、ステップS101〜ステップS107などシルエットが対応する画像に基づき歩行周期を検出できる。例えば、歩行周期は、時系列画像中の対象人物のシルエットの正規化自己相関が最大となるフレーム数として、非特許文献3で開示されている技術を用いて抽出することができる。
また、歩幅は、右足と左足とが最も開いた際の、右足と左足との間の距離に相当するものとする。図12の例では、歩幅は、右足が着地した足跡と、次に左足が着地した足跡との間の、進行方向に向けた距離となっている。観測値抽出部123は、歩幅を、非特許文献4で開示されている技術を用いて、足を最も開いたフレーム画像(例えば図13のステップS100、ステップS103、ステップS106のフレーム画像)を検出し、そのフレームにおける左右の足の間の画素数を用いて抽出することができる。また、歩幅を、歩行周期と画面内における移動距離とに基づき算出することもできる。
色は、対象物体のフレーム画像内での色であり、例えばR(Red)、G(Green)およびB(Blue)の各値で表すことができる。観測値抽出部123は、例えば、対象物体の画像に含まれる各画素のR、GおよびBの各値をそれぞれ取得して集計することで、対象物体の色を示す情報を取得できる。
対象物体が人である場合、色は、肌の色、および、人全体の色のカラーバランスとして取得することができる。観測値抽出部123は、例えば、対象物体に対して顔検出を行って、検出した顔部分に含まれる画素のR、GおよびBの各値に基づき明度を算出し、算出された明度を肌の色として用いることができる。
また例えば、観測値抽出部123は、対象物体の画像に含まれる画素のR、GおよびBの各値をそれぞれ集計して正規化することで、対象物体のカラーバランスを求めることができる。この場合、カラーバランスは、R、GおよびB各値の比として求めることが考えられる。これに限らず、観測値抽出部123は、対象物体の画像に含まれる画素のR、GおよびBの各値に基づき色相を求めるようにしてもよい。この場合、カラーバランスは、色相を示す1つの値として求めることが可能である。
なお、観測値抽出部123は、対象物体がフレーム画像を分割した領域の境界を跨いでフレーム画像に含まれる場合には、対象物体が境界の両側の領域に含まれる割合に基づき、当該対象物体が何方の領域に含まれると見做すかを判定することが考えられる。
分布記憶部125aは、各特徴値について、特徴値の各値に対する、当該各値の出現頻度の分布を示す情報を、フレーム画像が分割された領域毎に記憶している。特徴量取得部124aは、分布記憶部125aから、各特徴値の分布を示す情報を取得する(図5のステップS13)。図14(a)〜図14(c)は、各特徴値の分布の例を示す図であって、各図において縦軸は、確率密度を示す。
図14(a)は、肌の色の分布の例を示す。図14(a)において、横軸が肌色に関する明度の偏差値T1を示し、例えば右方向に向けて明度が高くなる。図14(b)は、身長(高さ)の分布の例を示す。図14(b)において、横軸が身長の偏差値T2を示し、例えば右方向に向けて高身長となる。また、図14(c)は、アスペクト比の分布の例を示す。図14(c)において、例えば右方向に向けてアスペクト比が大きくなる。
なお、ここでは、説明のため、各特徴値の分布が正規分布であり、各分布が平均を示すパラメータμと、分散の平方根を示すパラメータσとで表されるものとする。
特徴量取得部124aは、分布記憶部125aから取得した各特徴値の分布に対して観測値抽出部123から供給された各観測値を適用して、各観測値の偏差値を算出する(図5のステップS14)。観測値xの、分布における偏差値T(x)は、下記の式(1)により算出できる。
T(x)=(x−μ)/σ+50 …(1)
例えば、特徴量取得部124aは、図14(a)〜図14(c)に示されるように、ある対象物体について、肌色に関する明度の偏差値T1(x1)=45.0、身長の偏差値T2(x2)=65.0、アスペクト比偏差値T3(x3)=40.0として偏差値をそれぞれ算出したものとする。特徴量取得部124aは、こうして各特徴値について算出された各観測値の偏差値T1(x1)、T2(x2)およびT3(x3)を特徴ベクトルとする特徴量を取得する。
特徴量取得部124aは、各カメラ111、112、113、…からの各時系列画像に基づき上述のようにして取得した各特徴量を、画像識別情報および移動体識別情報を付加して連結部126に供給する。
連結部126は、特徴量取得部124aから供給された各カメラ111、112、113、…からの各時系列画像に基づく各特徴量の類似度を算出し、各特徴量間で対応付けが可能か否かを判定する。連結部126は、類似度を、特徴量間のL1ノルムやバタチャリア(Bhattacharyya)距離を用いて求めることができる。
また、連結部126は、各特徴量から、含まれる時系列画像の異なる2つの特徴量を抽出して1つに纏めて識別器で識別した出力結果に基づき、対応付けが可能か否かを判定してもよい。識別器は、例えばSVM(Support Vector Machine)を用いることができる。連結部126は、例えば、1の第1の特徴量に対して、第1の特徴量と含まれる時系列画像の異なる複数の第2の特徴量それぞれの類似度を算出し、算出した類似度が最大の組み合わせとなる第2の特徴量が第1の特徴量に対応付けられると判定することができる。これに限らず、連結部126は、類似度が閾値以上となる特徴量の組み合わせが対応付くと判定してもよい。
連結部126は、上述のようにして求めた、各時系列画像間での特徴量の対応付け結果を、移動体識別情報に基づき対象物体の対応付け結果として、出力部127を介して外部に出力することができる。
このように、第1の実施形態に係る画像処理装置10aによれば、各カメラ111、112、113、…について、撮像距離などに基づきフレーム画像を分割した領域毎に特徴値の分布を示す情報を持つ。画像処理装置10aは、対象となるフレーム画像において、対象物体が含まれる領域内の特徴値の分布に対する対象物体の観測値の相対値を特徴量として用いて、各カメラ111、112、113、…による各時系列画像間での対象物体の対応付けを行っている。そのため、各カメラ111、112、113、…間でのキャリブレーションを行うことなく、高精度なカメラ間の対応付けを実行することが可能となる。
(第2の実施形態)
次に、第2の実施形態について説明する。図15は、第2の実施形態に係る画像処理装置10bの一例の構成を示す。なお、図15において、上述の図4と共通する部分には同一の符号を付して、詳細な説明を省略する。また、第2の実施形態は、図1を用いて説明した画像処理システムをそのまま適用できる。
図15に示される画像処理装置10bは、図4に示した画像処理装置10aに対して分布更新部128が追加されると共に、図4の特徴量取得部124aおよび分布記憶部125aの機能の一部が変更されて、特徴量取得部124bおよび分布記憶部125bとなっている。第2の実施形態では、分布更新部128が、特徴量取得部124bが取得した各観測値に基づき分布記憶部125bに記憶される分布情報を更新する。また、分布記憶部125bは、初期状態で、各特徴値の初期の分布を示す情報を、各カメラ111、112、113、…による各フレーム画像をそれぞれ分割した各領域毎に、予め記憶している。初期の分布を示す情報(以下、初期分布の情報)は、例えば、特徴量の標準的な分布を示す情報である。
図16および図17のフローチャートを用いて、第2の実施形態に係る画像処理について説明する。なお、図16および図17のフローチャートにおいて、上述した図5のフローチャートと一致する処理には同一の符号を付して、詳細な説明を省略する。また、以下では、説明のため、カメラ111から取得した時系列画像およびフレーム画像を例にとって説明を行う。
図16は、第2の実施形態に係る画像処理装置10bにおける、初期状態での画像処理を示す一例のフローチャートである。例えば、このフローチャートによる処理は、画像処理装置10bが設置されてから最初に起動されることで実行される。これに限らず、このフローチャートによる処理を、画像処理装置10bの諸設定がリセットされた後に最初に起動された場合に実行するようにしてもよい。
図16のフローチャートによる各処理は、ステップS10〜ステップS16までは、上述した図5のフローチャートと同様にして実行される。
すなわち、ステップS10で、画像取得部120は、カメラ111から供給された時系列画像からフレーム画像を取得し、次のステップS11で、追跡部122は、取得されたフレーム画像から対象物体を検出する。ここで検出された対象物体は、カメラ111の時系列画像から、画像処理装置10bの起動後に最初に検出された対象物体となる。
ステップS12で、観測値抽出部123は、フレーム画像から検出された対象物体の観測値を、フレーム画像を分割した領域毎に抽出する。ステップS13で、特徴量取得部124bは、分布記憶部125bから、カメラ111に対応するフレーム画像を分割した領域毎に記憶された各初期分布の情報を取得する。なお、ステップS12およびステップS13の処理は、順次に実行する例に限られず、並列的に実行してもよいし、処理の順序を入れ替えてもよい。
次のステップS14で、特徴量取得部124bは、ステップS13で分布記憶部125bから取得した特徴値の分布を示す情報を用いて、ステップS12で観測値抽出部123により抽出された各観測値の偏差値を求める。そして、特徴量取得部124bは、求めた偏差値を特徴ベクトルとする特徴量を取得する。
以上のステップS10〜ステップS14の処理が、各カメラ111、112、113、…から出力された各時系列画像に対して実行される。
次のステップS15で、連結部126は、特徴量取得部124bにより取得された、各カメラ111、112、113、…に対応する各特徴量の照合を行い、各時系列画像間で対象物体を対応付ける。そして、次のステップS16で、出力部127が、ステップS15による照合の結果を出力する。
なお、ステップS16およびステップS20の処理は、順次に実行する例に限られず、並列的に実行してもよいし、処理の順序を入れ替えてもよい。
次のステップS20で、特徴量取得部124bは、ステップS14で求められた各測定値の偏差値を分布更新部128に渡す。分布更新部128は、特徴量取得部124bから渡された各偏差値に基づき、分布記憶部125bに記憶される各初期分布をシフトさせる。例えば、分布更新部128は、ある特徴値の初期分布において、観測値が分布の中心に位置するように、分布をシフトさせる。
図17は、第2の実施形態に係る画像処理装置10bにおける、上述の図16のフローチャートによる処理が終了した後に実行される画像処理を示す一例のフローチャートである。ステップS10〜ステップS16の処理は、上述の図16のフローチャートと同一であるので、ここでの説明を省略する。
図17のフローチャートの場合、ステップS16で出力部127が照合結果の出力を行った後、処理がステップS21に移行される。ステップS21で、分布更新部128は、分布記憶部125bに記憶される、フレーム画像の領域毎における特徴値の分布を示す情報を、ステップS12で取得した観測値を用いて更新する。なお、この場合においても、ステップS16およびステップS21の処理は、順次に実行する例に限られず、並列的に実行してもよいし、処理の順序を入れ替えてもよい。
このように、第2の実施形態によれば、分布記憶部125bに記憶される、特徴値の分布を示す情報を、対象物体から抽出した観測値を用いて更新している。そのため、各カメラ111、112、113、…から出力される各時系列画像から検出される対象物体それぞれによる各観測値の傾向が、例えば時間帯によって大きく異なる場合であっても、対象物体の各時系列画像間での対応付けを高精度に実行することが可能である。
また、第2の実施形態においても、画像処理装置10bは、対象となるフレーム画像において、対象物体が含まれる領域内の特徴値の分布に対する対象物体の観測値の相対値を特徴量として用いて、各カメラ111、112、113、…による各時系列画像間での対象物体の対応付けを行っている。そのため、各カメラ111、112、113、…間でのキャリブレーションを行うことなく、高精度なカメラ間の対応付けを実行することが可能となる。
なお、上述では、図16のフローチャートにおいて、カメラ111の時系列画像から、画像処理装置10bの起動後に最初に検出された対象物体の観測値を用いて、分布記憶部125bに記憶される初期分布をシフトさせるように説明したが、これはこの例に限定されない。
例えば、起動後最初に検出された対象物体の観測値の初期分布おける偏差値が、極端に大きいまたは小さい場合が考えられる。このような場合、当該観測値に基づきシフトされた分布が偏った分布になってしまい、各時系列画像間での対象物体の対応付けにおいて高い精度が得られない可能性がある。この場合、分布更新部128は、例えば、ステップS14で算出される観測値の偏差値に対して閾値判定を行い、予め定められた範囲内の偏差値となる観測値のみを用いて、分布記憶部125bに記憶される初期分布のシフトを行うことが考えられる。
これに限らず、分布更新部128は、分布記憶部125bに記憶される初期分布のシフトを、起動後に検出された複数の対象物体の各観測値に基づき実行することも考えられる。例えば、分布更新部128は、起動後に検出された所定数の対象物体の観測値の平均値を求め、この平均値を用いて分布記憶部125bに記憶される初期分布のシフトを行う。
また、上述では、分布更新部128は、フレーム画像から検出された対象物体の観測値に基づき分布記憶部125bに記憶される初期分布をシフトしているが、これはこの例に限定されない。例えば、分布更新部128は、ユーザにより設定された値に従い、分布記憶部125bに記憶される初期分布のシフトを行うようにしてもよい。
(他の実施形態)
なお、各実施形態に係る画像処理を実行するための画像処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供される。これに限らず、画像処理プログラムを、ROM102に予め記憶させて提供してもよい。
さらに、各実施形態に係る画像処理を実行するための画像処理プログラムを、インターネットなどの通信ネットワークに接続されたコンピュータ上に格納し、通信ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、各実施形態および変形例に係る画像処理を実行するための画像処理プログラムを、インターネットなどの通信ネットワーク経由で提供または配布するように構成してもよい。
各実施形態および変形例に係る画像処理を実行するための画像処理プログラムは、第1の実施形態の場合、例えば上述した各部(画像取得部120、追跡部122、観測値抽出部123、特徴量取得部124a、連結部126および出力部127)を含むモジュール構成となっており、実際のハードウェアとしてはCPU101が例えばストレージ104から当該画像処理プログラムを読み出して実行することにより上記各部が主記憶装置(例えばRAM103)上にロードされ、各部が主記憶装置上に生成されるようになっている。
なお、本実施形態は、上述したそのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
10,10a,10b 画像処理装置
111,112,113 カメラ
101 CPU
109 カメラI/F
120 画像取得部
122 追跡部
123 観測値抽出部
124a,124b 特徴量取得部
125a,125b 分布記憶部
126 連結部
127 出力部
128 分布更新部
200,200-4,200-3,200-2,200-1,2000,2001,2002,2003,2005,2006,2007,2008 フレーム画像
20110,20111,20112,20120,20121,20122,20130,20131,20132,20133 領域

Claims (10)

  1. 複数の撮像装置からそれぞれ時系列画像を取得する画像取得部と、
    前記時系列画像に撮像される対象物体の位置を追跡する追跡部と、
    前記時系列画像を撮像装置からの距離に応じて分割した領域毎に特徴値の分布を記憶する記憶部と、
    前記時系列画像から前記領域単位で前記特徴値に対応する観測値を抽出する抽出部と、
    前記観測値の前記領域が対応する前記分布における偏差値に基づき特徴量を取得する特徴量取得部と、
    前記特徴量を用いて、前記追跡部により追跡された前記対象物体を、前記複数の撮像装置から取得された複数の時系列画像間で対応付ける連結部と
    を備える画像処理装置。
  2. 前記特徴量取得部は、
    複数種類の前記特徴値にそれぞれ対応する前記観測値それぞれの前記偏差値をベクトルとする前記特徴量を取得する
    請求項1に記載の画像処理装置。
  3. 前記記憶部は、
    さらに、前記時系列画像における前記対象物体の移動方向の変化に応じて前記時系列画像を分割した領域毎に特徴値の分布を記憶する
    請求項1または請求項2に記載の画像処理装置。
  4. 前記観測値に応じて前記記憶部に記憶される前記分布を更新する更新部をさらに備える
    請求項1乃至請求項3の何れか1項に記載の画像処理装置。
  5. 前記記憶部は、
    初期分布を予め記憶し、
    前記更新部は、
    初期状態において抽出された前記観測値に応じて前記初期分布をシフトさせる
    請求項4に記載の画像処理装置。
  6. 前記特徴値は、
    前記対象物体の、高さ、アスペクト比、移動速度、動作周期、基本動作間隔および色情報のうち少なくとも1つを含む
    請求項1乃至請求項5の何れか1項に記載の画像処理装置。
  7. 前記複数の撮像装置は、互いに異なる撮像範囲を持つ
    請求項1乃至請求項6の何れか1項に記載の画像処理装置。
  8. 複数の撮像装置からそれぞれ時系列画像を取得する画像取得ステップと、
    前記時系列画像に撮像される対象物体の位置を追跡する追跡ステップと、
    それぞれ特徴値の分布が記憶される、前記時系列画像を撮像装置からの距離に応じて分割した領域単位で、前記時系列画像から前記特徴値に対応する観測値を抽出する抽出ステップと、
    前記領域毎の特徴値の分布のうち、前記観測値の該領域が対応する該分布における偏差値に基づき特徴量を取得する特徴量取得ステップと、
    前記特徴量を用いて、前記追跡ステップにより追跡された前記対象物体を、前記複数の撮像装置から取得された複数の時系列画像間で対応付ける連結ステップと
    を備える画像処理方法。
  9. 複数の撮像装置からそれぞれ時系列画像を取得する画像取得ステップと、
    前記時系列画像に撮像される対象物体の位置を追跡する追跡ステップと、
    それぞれ特徴値の分布が記憶される、前記時系列画像を撮像装置からの距離に応じて分割した領域単位で、前記時系列画像から前記特徴値に対応する観測値を抽出する抽出ステップと、
    前記領域毎の特徴値の分布のうち、前記観測値の該領域が対応する該分布における偏差値に基づき特徴量を取得する特徴量取得ステップと、
    前記特徴量を用いて、前記追跡ステップにより追跡された前記対象物体を、前記複数の撮像装置から取得された複数の時系列画像間で対応付ける連結ステップと
    をコンピュータに実行させるための画像処理プログラム。
  10. 複数の撮像装置と、
    前記複数の撮像装置からそれぞれ時系列画像を取得する画像取得部と、
    前記時系列画像に撮像される対象物体の位置を追跡する追跡部と、
    前記時系列画像を撮像装置からの距離に応じて分割した領域毎に特徴値の分布を記憶する記憶部と、
    前記時系列画像から前記領域単位で前記特徴値に対応する観測値を抽出する抽出部と、
    前記観測値の前記領域が対応する前記分布における偏差値に基づき特徴量を取得する特徴量取得部と、
    前記特徴量を用いて、前記追跡部により追跡された前記対象物体を、前記複数の撮像装置から取得された複数の時系列画像間で対応付ける連結部と、
    前記複数の時系列画像間で対応付けられた前記対象物体を示す情報を提示する提示部と
    を備える画像処理システム。
JP2015059573A 2015-03-23 2015-03-23 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム Active JP6495705B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015059573A JP6495705B2 (ja) 2015-03-23 2015-03-23 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム
US15/075,309 US10075652B2 (en) 2015-03-23 2016-03-21 Image processing device for tracking a target object and image processing method, computer program product, and image processing system for same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015059573A JP6495705B2 (ja) 2015-03-23 2015-03-23 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム

Publications (2)

Publication Number Publication Date
JP2016181743A JP2016181743A (ja) 2016-10-13
JP6495705B2 true JP6495705B2 (ja) 2019-04-03

Family

ID=56974199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015059573A Active JP6495705B2 (ja) 2015-03-23 2015-03-23 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム

Country Status (2)

Country Link
US (1) US10075652B2 (ja)
JP (1) JP6495705B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6495705B2 (ja) * 2015-03-23 2019-04-03 株式会社東芝 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム
KR101732981B1 (ko) * 2015-10-29 2017-05-08 삼성에스디에스 주식회사 개인화 특성 분석 시스템 및 방법
JP6659524B2 (ja) 2016-11-18 2020-03-04 株式会社東芝 移動体追跡装置、表示装置および移動体追跡方法
JP6833617B2 (ja) 2017-05-29 2021-02-24 株式会社東芝 移動体追跡装置、移動体追跡方法およびプログラム
CN107820010B (zh) * 2017-11-17 2020-11-06 英业达科技有限公司 摄影计数装置
US10914191B2 (en) 2018-05-04 2021-02-09 Raytheon Technologies Corporation System and method for in situ airfoil inspection
US10928362B2 (en) 2018-05-04 2021-02-23 Raytheon Technologies Corporation Nondestructive inspection using dual pulse-echo ultrasonics and method therefor
US10943320B2 (en) 2018-05-04 2021-03-09 Raytheon Technologies Corporation System and method for robotic inspection
US10685433B2 (en) * 2018-05-04 2020-06-16 Raytheon Technologies Corporation Nondestructive coating imperfection detection system and method therefor
US10958843B2 (en) 2018-05-04 2021-03-23 Raytheon Technologies Corporation Multi-camera system for simultaneous registration and zoomed imagery
US10902664B2 (en) 2018-05-04 2021-01-26 Raytheon Technologies Corporation System and method for detecting damage using two-dimensional imagery and three-dimensional model
US11079285B2 (en) 2018-05-04 2021-08-03 Raytheon Technologies Corporation Automated analysis of thermally-sensitive coating and method therefor
US11268881B2 (en) 2018-05-04 2022-03-08 Raytheon Technologies Corporation System and method for fan blade rotor disk and gear inspection
JP7259732B2 (ja) * 2019-12-23 2023-04-18 横河電機株式会社 配信サーバ、方法およびプログラム
CN112507315B (zh) * 2021-02-05 2021-06-18 红石阳光(北京)科技股份有限公司 基于智慧大脑的人员通行检测系统

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7688349B2 (en) * 2001-12-07 2010-03-30 International Business Machines Corporation Method of detecting and tracking groups of people
WO2004004320A1 (en) * 2002-07-01 2004-01-08 The Regents Of The University Of California Digital processing of video images
CA2505831C (en) * 2002-11-12 2014-06-10 Intellivid Corporation Method and system for tracking and behavioral monitoring of multiple objects moving through multiple fields-of-view
JP4448304B2 (ja) 2003-09-11 2010-04-07 セコム株式会社 顔検知装置
WO2007044044A2 (en) * 2004-12-21 2007-04-19 Sarnoff Corporation Method and apparatus for tracking objects over a wide area using a network of stereo sensors
JP4700477B2 (ja) * 2005-11-15 2011-06-15 株式会社日立製作所 移動体監視システムおよび移動体特徴量算出装置
US20080123900A1 (en) * 2006-06-14 2008-05-29 Honeywell International Inc. Seamless tracking framework using hierarchical tracklet association
JP4881766B2 (ja) * 2007-03-06 2012-02-22 パナソニック株式会社 カメラ間連結関係情報生成装置
JP4991356B2 (ja) 2007-03-20 2012-08-01 株式会社東芝 画像処理装置、画像処理方法および画像処理用プログラム
JP2010068466A (ja) 2008-09-12 2010-03-25 Toshiba Corp 移動体追跡装置及び移動体追跡方法
JP5478928B2 (ja) * 2009-03-31 2014-04-23 綜合警備保障株式会社 人物同定装置、人物同定方法、及び人物同定プログラム
US8503727B2 (en) * 2009-07-22 2013-08-06 Omron Corporation Monitoring camera terminal
US20120069192A1 (en) * 2009-10-20 2012-03-22 Qing-Hu Li Data Processing System and Method
AU2009243528B2 (en) * 2009-12-04 2013-08-01 Canon Kabushiki Kaisha Location-based signature selection for multi-camera object tracking
IL204089A (en) * 2010-02-21 2014-06-30 Elbit Systems Ltd A method and system for detection and tracking based on frequency multiplicity and multiplicity
US9002057B2 (en) * 2011-03-22 2015-04-07 Alcatel Lucent Collaborative camera services for distributed real-time object analysis
US20130128050A1 (en) * 2011-11-22 2013-05-23 Farzin Aghdasi Geographic map based control
JP5843288B2 (ja) 2012-04-19 2016-01-13 Kddi株式会社 情報提示システム
US9418428B2 (en) * 2012-07-02 2016-08-16 Nec Corporation Position management device, position management system, position management method, and position management program
JP6273685B2 (ja) * 2013-03-27 2018-02-07 パナソニックIpマネジメント株式会社 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
US8913791B2 (en) * 2013-03-28 2014-12-16 International Business Machines Corporation Automatically determining field of view overlap among multiple cameras
JP6243827B2 (ja) * 2014-11-28 2017-12-06 本田技研工業株式会社 画像解析装置、画像特徴情報データベース作成方法並びに意匠類否判定装置及び方法
JP6495705B2 (ja) * 2015-03-23 2019-04-03 株式会社東芝 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム

Also Published As

Publication number Publication date
US10075652B2 (en) 2018-09-11
JP2016181743A (ja) 2016-10-13
US20160284098A1 (en) 2016-09-29

Similar Documents

Publication Publication Date Title
JP6495705B2 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム
JP2020107349A (ja) 物体追跡システム、物体追跡方法、プログラム
US8254630B2 (en) Subject extracting method and device by eliminating a background region using binary masks
JP6655878B2 (ja) 画像認識方法及び装置、プログラム
KR101173802B1 (ko) 대상물 추적 장치, 대상물 추적 방법, 및 제어 프로그램이 기록된 기록 매체
JP6139447B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10089527B2 (en) Image-processing device, image-capturing device, and image-processing method
US9047673B2 (en) Apparatus and method for extracting target, and recording medium storing program for performing the method
JP5166102B2 (ja) 画像処理装置及びその方法
JP5878924B2 (ja) 画像処理装置、撮像装置および画像処理方法
JP2010176380A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
US20170177970A1 (en) Image processing method, image processing apparatus, image processing system, production apparatus, and recording medium
JP5656768B2 (ja) 画像特徴量抽出装置およびそのプログラム
JP2017076288A (ja) 情報処理装置、情報処理方法及びプログラム
Yang et al. Multiple marker tracking in a single-camera system for gait analysis
JP4625949B2 (ja) 物体追跡方法および物体追跡装置ならびにプログラム
KR20200050553A (ko) 움직임 추적 시스템 및 방법
JP2013232060A (ja) 画像認識装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
JP4565273B2 (ja) 被写体追跡装置、およびカメラ
JP6028972B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
KR101313879B1 (ko) 기울기 히스토그램을 이용한 사람 검출 추적 시스템 및 방법
JP2018109824A (ja) 電子制御装置、電子制御システムおよび電子制御方法
JP5983033B2 (ja) 位置関係判定プログラム、位置関係判定方法および位置関係判定装置
KR101202215B1 (ko) 위치가중 또는 영역확장 2차원 모멘트 모델링을 이용한 스트랩다운 이중 모드 영상탐색기의 가중치 기반 표적 결정 시스템
US20160364604A1 (en) Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190307

R151 Written notification of patent or utility model registration

Ref document number: 6495705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151