JP6139447B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP6139447B2
JP6139447B2 JP2014058924A JP2014058924A JP6139447B2 JP 6139447 B2 JP6139447 B2 JP 6139447B2 JP 2014058924 A JP2014058924 A JP 2014058924A JP 2014058924 A JP2014058924 A JP 2014058924A JP 6139447 B2 JP6139447 B2 JP 6139447B2
Authority
JP
Japan
Prior art keywords
time
target object
image
series
series image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014058924A
Other languages
English (en)
Other versions
JP2015184810A (ja
Inventor
麻由 奥村
麻由 奥村
友樹 渡辺
友樹 渡辺
学 西山
学 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014058924A priority Critical patent/JP6139447B2/ja
Publication of JP2015184810A publication Critical patent/JP2015184810A/ja
Application granted granted Critical
Publication of JP6139447B2 publication Critical patent/JP6139447B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、画像処理装置、画像処理方法および画像処理プログラムに関する。
互いに視野を共有しない複数のカメラ間で対象を追跡する技術が、従来から知られている。例えば、対象フレームと移動物体のオクルージョンの無い全体形状とを比較して、移動物体にオクルージョンが存在する場合には、移動物体の非遮蔽領域を用いて対応付けを行うことで、移動物体の追跡を高精度で実行可能とした技術が知られている。
特開2007−142527号公報
Tomoki Watanabe, Satoshi Ito and Kentaro Yokoi: "Co-occurrence Histograms of Oriented Gradients for Human Detection", IPSJ Transactions on Computer Vision and Applications, Vol. 2, pp.39-47. (2010) . Zdenek Kalal, Krystian Mikolajczyk and Jiri Matas: "Tracking-Learning-Detection", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 6, NO. 1, JANUARY 2010. B.Prosser, S.Gong and T.Xiang: "Multi-camera Matching using Bi-Directional Cumulative Brightness Transfer Functions" BMVC(2008).
ところで、追跡対象は、常にカメラに対して同じ方向を向いているとは限らない。例えば複数のカメラの設置向きの違いや、追跡対象の移動方向の違いなどにより、追跡対象がカメラに映っている向きが異なる場合がある。しかしながら、従来技術による追跡技術は、追跡対象以外の物体による遮蔽が存在する場合には有効であるが、このような、追跡対象がカメラに映っている向きが異なる場合には、対応が困難であるという問題点があった。
本発明が解決する課題は、複数カメラを用いてより高精度に対象を追跡可能とする画像処理装置、画像処理方法および画像処理プログラムを提供することにある。
第1の実施形態の画像処理装置は、複数の撮像装置からそれぞれ時系列画像を取得し、時系列画像に撮像される対象物体の位置を追跡し、時系列画像から対象物体の移動方向を取得する。画像処理装置は、対象物体の方向の基準となる予め定めた基準方向と、移動方向とから、複数の撮像装置から取得された複数の時系列画像のうち第1の時系列画像に撮像される第1の対象物体と、複数の時系列画像のうち第2の時系列画像に撮像される第2の対象物体とが、第1の時系列画像および第2の時系列画像に共通して含まれる、第1の対象物体および第2の対象物体上の共通領域を取得する。画像処理装置は、共通領域に対応する画像から特徴量を抽出し、特徴量を用いて、追跡部による追跡結果の、複数の撮像装置から取得された複数の時系列画像間での対応付けを行う。
図1は、第1の実施形態に適用可能な画像処理システムの一例の構成を示すブロック図である。 図2は、第1の実施形態に係るカメラの設置場所を説明するための図である。 図3は、第1の実施形態に係る画像処理装置の一例の構成を示すブロック図である。 図4は、第1の実施形態に係る画像処理装置の機能を説明するための一例の機能ブロック図である。 図5は、第1の実施形態に係る画像処理を示す一例のフローチャートである。 図6は、複数の対象物体が含まれるフレーム画像の例を示す図である。 図7は、複数の時系列画像を説明するための図である。 図8は、第1の実施形態に係る、対象物体の移動方向の取得の例について説明するための図である。 図9は、第1の実施形態に係る、人である対象物体に対応するモデルの例を示す図である。 図10は、第1の実施形態に係る、共通領域の選定方法を説明するための図である。 図11は、第1の実施形態に係るモデルを上面から見た例を示す図である。 図12は、第2の実施形態に係る画像処理装置の機能を説明するための一例の機能ブロック図である。 図13は、第2の実施形態に係る画像処理を示す一例のフローチャートである。 図14は、色補正に用いる変換関数の例を示す図である。
以下、実施形態に係る画像処理装置、画像処理方法および画像処理プログラムについて説明する。
(第1の実施形態)
図1は、第1の実施形態に適用可能な画像処理システムの一例の構成を示す。図1において、画像処理システムは、第1の実施形態に係る画像処理装置10と、複数のカメラ111、112、113、…とを備える。
各カメラ111、112、113、…は、それぞれ同一の方向および撮像範囲で時系列に沿って複数のタイミングで撮像した画像である時系列画像を出力する。時系列画像は、例えば、所定の時間間隔で撮像したフレーム画像を含む動画像である。また、各カメラ111、112、113、…は、例えば、屋内や屋外に、それぞれ観察対象を俯瞰する角度で設置される。各カメラ111、112、113、…の撮像範囲は、互いに重複する部分を持つ必要はない。
各カメラ111、112、113、…は、例えば可視光を撮像するカメラが用いられる。これに限らず、各カメラ111、112、113、…は、赤外線を撮像する赤外線カメラを用いてもよい。また、各カメラ111、112、113、…の水平面での撮像方向は、特に限定されない。例えば、図2に例示されるように、各カメラ111、112、113、…を互いに異なる向きを撮像するように配置してもよい。図2の例の場合、矢印21で示される方向に進む観察対象2は、各カメラ111、112、113、…により、それぞれ正面、側面および背面から撮像されることになる。
観察対象2は、時系列に沿って位置が移動する移動物体であり、例えば人物である。以下、観察対象2となる移動物体を、対象物体と呼ぶ。
各カメラ111、112、113、…から出力された各時系列画像は、画像処理装置10に供給される。画像処理装置10は、各カメラ111、112、113、…から供給された各時系列画像に対して画像処理を行い、各時系列画像間で同一対象物体の画像を対応付け、同一対象物体を時系列上で追跡する。このとき、第1の実施形態に係る画像処理装置10は、各カメラ111、112、113、…から供給された各時系列画像間に共通して含まれる対象物体の画像の領域を、立体モデルを用いて推定する。そして、画像処理装置10は、この推定された領域を用いて対象物体を各時系列画像間で対応付けて、追跡する。
これにより、各カメラ111、112、113、…の撮像方向や対象物体の移動方向が異なり、各時系列画像に異なる向きの当該対象物体の画像が含まれる場合であっても、高精度に対象物体を追跡することが可能となる。
図3は、第1の実施形態に係る画像処理装置10の一例の構成を示す。画像処理装置10は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、ストレージ104と、入出力I/F105と、通信I/F106と、表示制御部107と、カメラI/F109とを備え、これら各部がバス100により互いに通信可能に接続される。画像処理装置10は、このように、一般的なコンピュータと同様な構成にて実現可能である。
CPU101は、ROM102やストレージ104に予め記憶されるプログラムに従い、RAM103をワークメモリとして動作して、この画像処理装置10の全体の動作を制御する。ストレージ104は、ハードディスクドライブや不揮発性の半導体メモリ(フラッシュメモリ)であり、CPU101が動作するためのプログラムや、種々のデータが記憶される。
入出力I/F105は、例えばUSB(Universal Serial Bus)であり、外部機器との間でデータの送受信を行うためのインターフェイスである。キーボードやポインティングデバイス(マウスなど)の入力デバイスをこの入出力I/F105に接続することができる。また、CD(Compact Disk)やDVD(Digital Versatile Disk)といったディスク記憶媒体の読み出しなどを行うドライブ装置をこの入出力I/F105に接続してもよい。通信I/F106は、LAN(Local Area Network)やインターネットなどのネットワークに対する通信を制御する。表示制御部107は、CPU101によりプログラムに従い生成された表示制御信号を、LCD(Liquid Crystal Display)などを表示デバイスとして用いた表示装置108が表示可能な表示信号に変換して出力する。
カメラI/F109は、カメラ111、112、113、…から出力される各画像信号を取り込み、上述した、時系列に沿った複数のフレーム画像を含む、カメラ111、112、113、…による各時系列画像としてバス100に対して出力する。
図4は、第1の実施形態に係る画像処理装置10の機能を説明するための一例の機能ブロック図である。図4において、画像処理装置10は、画像取得部120と、記憶部121と、追跡部122と、移動方向取得部123と、領域選定部124と、特徴量抽出部125と、連結部126と、出力部127とを備える。なお、画像取得部120は、図4に例示されるように、画像処理装置10に1つが設けられてもよいし、各カメラ111、112、113、…毎に設けられてもよい。
画像取得部120は、各カメラ111、112、113、…から供給された各時系列画像を取得する。また、画像取得部120は、時系列画像を取得したカメラを特定する識別情報(画像識別情報と呼ぶ)を取得する。画像取得部120は、時系列画像に画像識別情報を付加して、追跡部122および記憶部121に供給する。記憶部121は、供給された時系列画像を画像識別情報と対応付けてRAM103やストレージ104に記憶する。
追跡部122は、画像取得部120から供給された時系列画像に含まれる各フレーム画像に撮像される対象物体を検出し、対象物体の画像のフレーム画像内での位置を各フレーム間で追跡する。なお、以下では、特に記載の無い限り、「対象物体の画像」を単に「対象物体」と呼ぶ。追跡部122は、追跡結果である対象物体の各フレーム画像内での位置を示す情報を、対象物体を識別する移動体識別情報を付加して移動方向取得部123に供給する。
移動方向取得部123は、追跡部122から供給された各フレーム画像に含まれる対象物体の移動方向を推定して取得する。移動方向取得部123は、対象物体について取得した移動方向を、画像識別情報および移動体識別情報と対応付けて領域選定部124に供給し、記憶部121に記憶させる。
領域選定部124は、対象物体に対して予め定めた基準となる基準方向と、移動方向取得部123が取得した移動方向とに基づき、例えばカメラ111から取得された第1の時系列画像に撮像される第1の対象物体と、カメラ112から取得された第2の時系列画像に撮像される第2の対象物体とで共通する、第1の対象物体および第2の対象物体上の領域を推定し、推定された領域を共通領域として選定する。
特徴量抽出部125は、領域選定部124で選定された共通領域を、上述の第1の対象物体および第2の対象物体にそれぞれ適用して、共通領域内の画像から特徴量を抽出する。特徴量抽出部125は、抽出した特徴量を、対象物体の移動体識別情報と、時系列画像の画像識別情報とに対応付けて連結部126に供給する。
連結部126は、特徴量抽出部125で抽出された特徴量に基づき、各対象物体の追跡結果を、各カメラ111、112、113、…から取得された各時系列画像間で対応付ける。対応付けた結果を示す情報は、記憶部121に記憶されると共に、出力部127に供給される。
出力部127は、対応付けられた結果を示す情報を出力する。一例として、出力部127は、各時系列画像に含まれる対象物体の画像に対して、連結部126で対応付けられた移動体識別情報を付加して表示する画像を生成することが考えられる。この画像は、例えば表示装置108に表示される。
画像取得部120、記憶部121、追跡部122、移動方向取得部123、領域選定部124、特徴量抽出部125、連結部126および出力部127は、上述したCPU101上で動作する画像処理プログラムにより実現される。これに限らず、画像取得部120、記憶部121、追跡部122、移動方向取得部123、領域選定部124、特徴量抽出部125、連結部126および出力部127のうち一部または全部を、互いに協働して動作するハードウェアにより構成してもよい。
図5は、第1の実施形態に係る画像処理装置10における画像処理を示す一例のフローチャートである。この図5のフローチャートを用いて、第1の実施形態に係る画像処理について概略的に説明する。なお、以下では、対象物体が人であるものとして説明する。勿論、対象物体は、人に限られず、顔や手足などの人の各部分でもよいし、人以外の他の動物でもよい。さらに、対象物体は、自動車や自転車などの機械でもよい。
ステップS10で、画像取得部120は、各カメラ111、112、113、…から供給された各時系列画像を取得し、取得した各時系列画像にカメラ111、112、113、…を識別するための画像識別情報をそれぞれ付加する。画像取得部120で取得された時系列画像は、画像識別情報と対応付けて記憶部121により記憶されると共に、追跡部122に供給される。
次のステップS11で、追跡部122は、画像取得部120で取得された時系列画像から対象物体を検出し、検出した対象物体の時系列画像内での位置を、同一時系列画像内の各フレーム画像間で追跡する。次のステップS12で、移動方向取得部123は、ステップS11で追跡部122により取得された対象物体の同一の時系列画像内の各フレーム間での位置に基づき、対象物体の移動方向を推定して取得する。
次のステップS13で、領域選定部124は、第1の時系列画像に撮像される第1の対象物体と、第2の時系列画像に撮像される第2の対象物体とで共通する、第1の対象物体および第2の対象物体上の領域である共通領域を選定する。
次のステップS14で、特徴量抽出部125は、ステップS13で共通領域が選定されたか否かを判定する。特徴量抽出部125は、共通領域が選定されたと判定した場合、処理をステップS15に移行させ、選定された共通領域を対応する各対象物体に適用してそれぞれ特徴量を抽出する。一方、特徴量抽出部125は、共通領域が選定されなかったと判定した場合、処理をステップS16に移行させ、各対象物体の全体からそれぞれ特徴量を抽出する。
ステップS15またはステップS16で特徴量が抽出されると、処理がステップS17に移行される。ステップS17で、連結部126は、注目する時系列画像の対象物体毎に、他の時系列画像の対象物体と特徴量を照合する。連結部126は、各時系列画像間で類似度の高い特徴量に係る対象物体を同一の物体であると見做して対応付け、各時系列画像を連結する。次のステップS18で、連結部126は、ステップS17での時系列画像間での対象物体の対応付け結果を、時系列画像、移動方向、移動体識別情報および画像識別情報に対応付けて記憶部121に記憶させる。
次のステップS19で、出力部127は、一連の画像処理の結果を出力する。例えば、出力部127は、各時系列画像に対して、各時系列画像に含まれる対象物体中の同一の対象物体を識別する識別情報を付加して出力する。
(第1の実施形態の処理の詳細)
次に、第1の実施形態の画像処理装置10による画像処理を、上述の図5のフローチャートを参照して、より詳細に説明する。ステップS10で、画像取得部120は、各カメラ111、112、113、…から供給された各時系列画像を取得し、取得した各時系列画像に対して、供給元の各カメラ111、112、113、…を識別するための画像識別情報を付加する。画像取得部120は、それぞれ画像識別情報が付加された時系列画像を記憶部12に記憶させると共に、追跡部122に供給する。
ステップS11で、追跡部122は、ステップS10で画像取得部120により取得された、各カメラ111、112、113、…に撮像された各時系列画像に含まれる各フレーム画像から対象物体を検出し、検出された対象物体を時系列画像内のフレーム画像間で追跡する。以下では、説明のため、特に記載の無い限り、各カメラ111、112、113、…のうちカメラ111から取得した時系列画像に注目して説明を行う。
追跡部122は、例えば下記の方法を用いて、フレーム画像から対象物体を検出する。図6に例示されるように、3の対象物体20a、20bおよび20cがフレーム画像200に含まれるものとする。各対象物体20a、20bおよび20cが人であるものとし、追跡部122は、フレーム画像200に検出窓領域を設定し、検出窓領域内の画像から特徴量を算出する。例えば、追跡部122は、特徴量として、検出窓領域内の輝度の勾配と強度とをヒストグラム化したHOG(Histograms of Oriented Gradients)特徴量を算出することが考えられる。これに限らず、追跡部122は、HOG特徴量を識別性能の面で改良したCoHOG(Co-occurrence HOG)特徴量(非特許文献1参照)を算出してもよい。
追跡部122は、例えば、上述のようにして算出した特徴量を用いて検出窓領域内の画像が対象物体であるか否かを識別して、対象物体を検出する。検出した対象物体の時系列画像内での追跡には、例えば非特許文献2で開示されている技術を用いてもよい。
追跡部122は、追跡した結果取得された、対象物体の各フレーム画像内での位置を示す情報を、対象物体を識別する移動体識別情報を付加して移動方向取得部123に供給する。図6の例では、フレーム画像200から検出された対象物体20a、20bおよび20cに、それぞれ移動体識別情報としてID=01、02および03が付加されている。
ここで、追跡部122は、図7に例示されるように、複数のカメラ111、112、113、…からの各時系列画像について、それぞれフレーム画像間での対象物体の追跡を行う。図7の例では、画像識別情報をカメラIDとして示し、例えばカメラ111、112および113から取得された各時系列画像のカメラIDを、それぞれカメラID=A01、A02およびA03としている。
図7(a)に例示されるように、カメラID=A01の時系列画像では、時間t0、t1、t2、t3でそれぞれ取得されるフレーム画像2000、2001、2002、2003に対象物体20bが含まれていることが示されている。また、図7(b)に例示されるように、カメラID=A02の時系列画像では、上述の時間t0より前の、時間t-4、t-3、t-2、t-1でそれぞれ取得されるフレーム画像200-4、200-3、200-2、200-1に対象物体20bが含まれていることが示されている。同様に、図7(c)に例示されるように、カメラID=A03の時系列画像では、上述の時間t3より後の、時間t5、t6、t7、t8でそれぞれ取得されるフレーム画像2005、2006、2007、2008に対象物体20bが含まれていることが示されている。このように、各カメラにおいて、同一の対象物体20bが異なるタイミングで撮像されている可能性がある。
なお、カメラID=A01、ID=A02およびID=A03それぞれの時系列画像に含まれる各対象物体20bは、連結部126による各時系列画像間での対応付けがなされていない状態では、同一の対象物体20bとは認識されない。したがって、カメラID=A01、ID=A02およびID=A03それぞれの時系列画像に含まれる各対象物体20bに対して、それぞれ異なるID=02、ID=12およびID=22が付加される。
移動方向取得部123は、各フレーム画像間での対象物体の移動方向を推定して取得する(図5のステップS12)。移動方向取得部123は、画像取得部120により取得された時系列画像に含まれる注目フレーム画像の前および後の少なくとも一方の、予め定めた所定フレーム数のフレーム画像における対象物体の位置の変遷や、対象物体の向きの少なくとも1以上の情報を用いて、当該対象物体の移動方向を推定する。
より具体的には、移動方向取得部123は、上述の追跡部122による対象物体の追跡結果に示される、当該対象物体のフレーム画像間での移動軌跡を用いて、移動方向を推定することができる。これに限らず、移動方向取得部123は、追跡部122による対象物体の追跡結果に基づく、当該対象物体を包含する任意の形状、例えば矩形の中心座標や、四隅または任意の角の座標の変遷を用いて、移動方向を推定することも可能である。
図8を用いて、第1の実施形態に係る、移動方向取得部123による対象物体20の移動方向の取得の例について説明する。なお、図8において、フレーム画像200の左上隅を座標の原点とし、右方向に向けてx座標が増加し、下方向に向けてy座標が増加するものとする。
第1の例として、移動方向取得部123は、フレーム画像内での対象物体20の位置が、注目フレームを含む注目フレームの前後の所定フレーム数のフレームに亘り、x座標が一定でy座標のみ増加している場合、対象物体20は、カメラに向かって移動し(図8中の矢印211参照)、且つ、カメラに向かって正面を向いていると推定する。
第2の例として、移動方向取得部123は、フレーム画像200内での対象物体20の位置が、注目フレームを含む注目フレームの前後の所定フレーム数のフレームに亘り、x座標のみが減少しy座標が一定である場合、対象物体20は、カメラに向かって右方向に移動し(図8中の矢印213参照)、且つ、カメラに向かって右方向を向いていると推定する。
第3の例として、移動方向取得部123は、フレーム画像200内での対象物体20の位置が、注目フレームを含む注目フレームの前後の所定フレーム数のフレームに亘り、x座標が一定でy座標のみが減少している場合、対象物体20は、カメラから離れる方向に移動し(図8中の矢印210参照)、且つ、カメラに向かって背面を向いていると推定する。
第4の例として、移動方向取得部123は、フレーム画像200内での対象物体20の位置が、注目フレームを含む注目フレームの前後の所定フレーム数のフレームに亘り、x座標のみが増加しy座標が一定である場合、対象物体20は、カメラに向かって左方向に移動し(図8中の矢印214参照)、且つ、カメラに向かって左方向を向いていると推定する。
上述では、移動方向取得部123が対象物体20の移動方向として、カメラに向かって前後左右の4方向の移動方向を推定するように説明したが、これはこの例に限定されない。すなわち、移動方向取得部123は、フレーム画像200内での対象物体20の位置のx座標およびy座標の変化量から、対象物体20の移動方向を30°、60°など任意の角度でより詳細に推定することも可能である。
また、上述では、移動方向取得部123は、対象物体20の移動方向を、注目フレームの前後の予め定めた所定フレーム数のフレーム画像を用いて推定しているが、これはこの例に限定されない。すなわち、移動方向取得部123は、対象物体20の移動方向の推定に、注目フレームに対して時間的に後の所定フレーム数のフレーム画像を用いてよいし、注目フレームに対して時間的に前の所定フレーム数のフレーム画像を用いてもよい。
なお、移動方向取得部123は、移動方向を推定する所定フレーム数の間に、閾値以上の移動方向の変化を検出した場合、変化の前後で対象物体が異なるものと判定することができる。
上述では、移動方向取得部123は、対象物体20が移動方向を向いているものと推定しているが、これはこの例に限定されない。移動方向取得部123は、例えば、任意のフレームにおける対象物体の画像から特徴量を抽出し、特徴量に基づき方向別の対象物体を用いて学習した識別器を用いて各方向を向いている確からしさを算出することができる。
この場合、識別器としては、SVM(Support Vector Machine)を用いることができる。移動方向取得部123は、識別器を用いて算出した各方向を向いている確からしさに対して閾値判定を行い、対象物体がどの方向を向いているかを判定する。各方向の確からしさを算出するための特徴量としては、具体的には、例えば、非特許文献1に開示されているCoHOG特徴量を適用することができる。
移動方向取得部123は、上述のようにして対象物体について推定した移動方向を、当該対象物体を識別する移動体識別情報と、移動方向を推定するために用いた時系列画像に含まれる各フレーム画像200と、当該時系列画像を識別するための画像識別情報とに対応付けて記憶部121に記憶させる。
領域選定部124は、記憶部121に記憶される移動体識別情報毎に、例えばカメラ111から取得された、注目する時系列画像である第1の時系列画像に撮像された第1の対象物体に対応する移動方向と、カメラ112から取得された第2の時系列画像に撮像された第2の対象物体に対応する移動方向とを比較する。領域選定部124は、この移動方向の比較の結果に基づき、第1の時系列画像および第2の時系列画像において、第1の対象物体と第2の対象物体とで共通して含まれる第1の対象物体および第2の対象物体上の領域を、予め定めたモデルを用いて推定する。領域選定部124は、推定したこの領域を、第1の対象物体および第2の対象物体それぞれの特徴量を抽出するための共通領域として選定する(図5のステップS13)。
領域選定部124は、第1の対象物体に対応する移動方向を例えば移動方向取得部123から取得することができる。また、領域選定部124は、第2の対象物体に対応する移動方向を例えば記憶部121から取得することができる。
図9〜図11を用いて、領域選定部124によるモデルを用いた、特徴量を抽出するための共通領域の選定方法について説明する。図9は、第1の実施形態に係る、人である対象物体に対応するモデルの例を示す。第1の実施形態では、図9に例示されるようにモデル300として立体形状である円筒を用いている。モデルの形状は、この例に限定されず、対象物体の形状を抽象化した形状であれば、例えば直方体、楕円体、球体など他の立体形状であってもよい。
特徴量抽出を行う領域の選定においては、モデル300に対して予め基準方向を決めておき、モデル300がカメラの正面に対して基準方向を向けた場合に、モデル300上のどの範囲がフレーム画像に含まれるかを定義しておく。第1の実施形態では、基準方向をモデル300の正面方向として定める。そして、対象物体がカメラの前で正面を向いた場合に、モデル300がカメラによるフレーム画像に含まれる範囲が、モデル300の正面すなわち基準方向の角度を0°とした場合に、カメラに対して左右両側の60°ずつの範囲310と定める。
なお、範囲310は、反時計回りに角度の増加を定義する場合、正面の0°に対して60°と300°とがなす劣角の範囲となる。以降、角度が反時計回りに増加するものとし、角度範囲は、2の角度で示される劣角の範囲をいうものとする。
次に、領域選定部124は、例えばカメラ111から取得された、注目する第1の時系列画像に含まれる第1の対象物体の移動方向と、例えばカメラ112から取得された第2の時系列画像に含まれる第2の対象物体の移動方向とを比較して、第1の時系列画像および第2の時系列画像において、第1の対象物体と第2の対象物体とが共通して含まれる、第1の対象物体および第2の対象物体上の領域を、モデル300上で定める。
一例として、第1の対象物体の移動方向が正面、第2の対象物体の移動方向が右方向である場合について、図10を用いて考える。図10(a)〜図10(c)は、モデル300を俯瞰して示している。
正面を向いている第1の対象物体については、図10(a)に例示されるように、モデル300上の60°〜300°の範囲310が第1の時系列画像に含まれる。一方、第2の対象物体は、右方向に移動しているため、正面が第2の時系列画像において左方向を向いている。そのため、図10(b)に例示されるように、第2の時系列画像に含まれる範囲310は、モデル300の30°〜150°の範囲となる。したがって、第1の時系列画像および第2の時系列画像において、第1の対象物体および第2の対象物体が共通して含まれる、第1の対象物体および第2の対象物体上の共通領域は、図10(c)に例示されるように、モデル300の30°〜60°の範囲321となる。
図11は、第1の実施形態に係るモデル300を上面から見た例を示す。図11において、モデル300の基準方向がカメラ11の方向を向いている場合、モデル300が時系列画像に含まれる範囲310は、基準方向に対して60°〜300°(基準方向の両側に60°)の範囲となる。一方、モデル300の基準方向がカメラ11に対して右方向を向いている場合、時系列画像上では基準方向が左方向を向いているように映り、モデル300が時系列画像に含まれる範囲310は、基準方向に対して30°〜150°の範囲となる。この、範囲310および範囲320に共通する範囲321が、第1の対象物体および第2の対象物体上の、第1の時系列画像および第2の時系列画像に共通して含まれる共通領域であると推定される。
領域選定部124は、例えば、閾値以上の広さで範囲321が取得された場合に、当該範囲321を、後述する特徴量抽出部125で特徴量を抽出するための領域として選定する。領域選定部124は、共通領域の選定を、第1の時系列画像および第2の時系列画像それぞれの所定のフレーム画像、例えば移動方向の取得に用いた最後のフレーム画像に注目して行うことができる。
領域選定部124は、第1の時系列画像に撮像される各対象物体について、第2の時系列画像に撮像される各第2の対象物体との間でそれぞれ共通領域を選定する。
第1の実施形態では、特徴量抽出部125は、この範囲321を、範囲321を導出した第1の対象物体および第2の対象物体にそれぞれ適用し、範囲321に含まれる画像を用いて、第1の対象物体および第2の対象物体それぞれの特徴量を抽出する。
特徴量抽出部125は、領域選定部124で共通領域が選定された場合、共通領域からの距離に応じて重み付けを行い、第1の対象物体および第2の対象物体それぞれに対応する画像から特徴量を抽出する(図5のステップS15)。特徴量抽出部125は、例えば、人の個人性を表すのに直観的で有効な値を特徴量として抽出する。このような特徴量の例としては、任意の色空間における色ヒストグラムを用いることができる。これに限らず、特徴量として、服の模様などのテクスチャ情報を用いてもよい。特徴量は、例えば、複数のパラメータを持つ多次元の値として抽出される。
特徴量抽出部125は、第1の時系列画像に撮像される第1の対象物体それぞれと、第2の時系列画像に撮像される第2の対象物体それぞれとに対して共通領域をそれぞれ適用し、第1の時系列画像および第2の時系列画像に撮像される各対象物体について、それぞれ特徴量を抽出する。
連結部126は、特徴量抽出部125にて共通領域を適用した対象物体の各組について、抽出された各特徴量に基づき類似度を算出し、対応付けが可能か否かを判定する。連結部126は、類似度を、特徴量間のL1ノルムやバタチャリア(Bhattacharyya)距離を用いて求めることができる。
また、連結部126は、共通領域を適用した対象物体の組の2の特徴量を1に纏めて識別器で識別した出力結果に基づき、対応付けが可能か否かを判定してもよい。識別器は、例えばSVMを用いることができる。連結部126は、例えば、1の第1の対象物体に対して複数の第2の対象物体それぞれの類似度を算出し、算出した類似度が最大の組み合わせとなる第2の対象物体が第1の対象物体に対応付けられると判定することができる。これに限らず、連結部126は、類似度が閾値以上となる対象物体の組み合わせが対応付くと判定してもよい。
連結部126は、上述のようにして求めた、各時系列画像間での対象物体同士の対応付けの結果を出力部127を介して外部に出力することができる。また、連結部126は、各時系列画像間での対象物体同士の対応付けの結果を、記憶部121に記憶している、対応付けがなされた対象物体に対応する移動体識別情報と、時系列画像と、移動方向と、当該時系列画像を取得したカメラを識別する画像識別情報とに追加または更新する。
例えば、図7を参照し、カメラID=A01、A02およびA03でそれぞれ識別される各時系列画像に含まれる、移動体識別情報ID=02、12および22の各対象物体20bが互いに対応付けられる場合、「ID12=ID02」、「ID22=ID02」など、互いの対応付け関係を示す情報が記憶部121に追加されて記憶される。連結部126は、さらなる処理によりこの対応付け関係を示す情報が変更された場合、記憶部121の記憶内容を更新する。
このように、第1の実施形態の画像処理装置10によれば、対象物体の移動方向の情報を用いて、異なるカメラにより取得された画像間に共通して含まれる共通領域を推定する。そして、推定された共通領域を用いて異なるカメラにより取得された画像間で対象物体の画像を対応付けるようにしている。これにより、第1の実施形態では、各カメラの設置方向や対象物体の移動方向がカメラ毎に異なり、対象物体の画像の時系列画像に含まれる方向が、時系列画像毎に異なる場合であっても、対象物体の追跡をより高精度に実行することが可能となる。
(第1の実施形態の変形例)
次に、第1の実施形態の変形例について説明する。上述した第1の実施形態では、記憶部121に対して、各時系列画像と、各カメラすなわち各時系列画像を識別する画像識別情報と、時系列画像に含まれる対象物体を識別する移動体識別情報と、移動体識別情報により識別される対象物体の移動方向とを対応付けて記憶している。
これに対して、第1の実施形態の変形例は、記憶部121に対して、上述の時系列画像の代わりに、対象物体全体に対応する画像から抽出した特徴量を記憶する。例えば、図4の構成に対して、追跡部122で検出された対象物体全体に対応する画像の特徴量を抽出する他の特徴量抽出部を追加する。他の特徴量抽出部は、追跡部122で検出された対象物体の全体に対応する画像から特徴量を抽出し、移動体識別情報を対応付けて記憶部121に記憶させる。
領域選定部124は、移動方向取得部123により取得され記憶部121に記憶された対象物体の移動方向に基づき、上述したモデル300を用いて共通領域を選定する。特徴量抽出部125は、記憶部121に記憶される対象物体全体の特徴量から、共通領域に重み付けを行った特徴量を抽出する。これに限らず、特徴量抽出部125は、記憶部121に記憶される対象物体全体の特徴量のうち、共通領域に含まれる特徴量を抽出してもよい。
この方法を用いても、上述した第1の実施形態と同様に、対象物体の移動方向の情報を用いて、異なるカメラにより取得された画像間に共通して含まれる共通領域を推定し、推定された共通領域を用いて異なるカメラにより取得された画像間で対象物体を対応付けて、高精度に対象物体の追跡が実行可能である。また、記憶部121に時系列画像を記憶しないため、記憶部121の容量を節約できる。
(第2の実施形態)
次に、第2の実施形態について説明する。図12は、第2の実施形態に係る画像処理装置10’の機能を説明するための一例の機能ブロック図である。なお、図12において、上述の図4と共通する部分には同一の符号を付して、詳細な説明を省略する。第2の実施形態に係る画像処理装置10’は、図4で示した第1の実施形態に係る画像処理装置10に対して色補正部130が追加されている。
第2の実施形態では、画像取得部120が各カメラ111、112、113、…から取得した各時系列画像間で、色調を揃えるようにする。図12の例では、領域選定部124と特徴量抽出部125との間に色補正部130が設けられ、色補正部130により、領域選定部124で選定された共通領域に含まれる画像、あるいは、対象物体全体の色調を、時系列画像間で揃える。
すなわち、カメラ111、112、113、…の設置方法や設置場所によっては、各カメラ111、112、113、…で同一の被写体を撮像した場合であっても、それぞれ異なる色調の時系列画像が取得される場合が有り得る。例えば、各カメラ111、112、113、…を、それぞれ色温度が異なる照明の部屋に設置されるような場合や、各カメラ111、112、113、…の一部が屋内、他が屋外に設置されるような場合、取得される時系列画像の色調がカメラの設置場所によって異なってしまう。
第2の実施形態では、各カメラ111、112、113、…から取得される時系列画像に対して色補正を施し、各時系列画像の色調を、各カメラ111、112、113、…のうち何れか1のカメラで取得される時系列画像の色調に揃える。ここでは、カメラ111で取得される時系列画像を基準とし、他のカメラ112、113、…で取得される時系列画像の色調を、色補正部130での色補正により、カメラ111で取得される時系列画像の色調に揃えるものとする。
図13は、第2の実施形態に係る画像処理装置10’における画像処理を示す一例のフローチャートである。なお、図13において、上述した図5と共通する部分には同一の符号を付して、詳細な説明を省略する。図13に例示されるように、第2の実施形態では、ステップS14での共通領域が存在するか否かの判定の後に、色補正部130による色補正を行い(ステップS25またはステップS26)、その後、色補正が行われた画像を用いて、ステップS15またはステップS16による特徴量の抽出処理が行われる。
より具体的な例としては、ステップS14で共通領域が存在すると判定された場合、処理がステップS25に移行される。ステップS25で、色補正部130は、例えば第1の対象物体および第2の対象物体の、共通領域が適用された範囲の画像に対して、予め取得された基準の画像の色調に揃えるように色補正処理を施す。次のステップS15で、特徴量抽出部125は、第1の対象物体および第2の対象物体に対し、色補正が施された共通領域内の画像の特徴量を抽出する。
一方、ステップS14で共通領域が存在しないと判定された場合、処理がステップS26に移行される。ステップS26で、色補正部130は、例えば第1の対象物体および第2の対象物体それぞれの全体に対して、予め取得された基準の画像の色調に揃えるように色補正処理を施す。次のステップS16で、特徴量抽出部125は、それぞれ色補正が施された第1の対象物体および第2の対象物体から特徴量を抽出する。
画像間の色補正は、例えば非特許文献3に開示される技術を適用することができる。非特許文献3によれば、予め、各カメラ111、112、113、…により同一の被写体を撮像し、各カメラ111、112、113、…間における同一被写体の色の違いを、図14に例示されるような変換関数(輝度伝達関数cfij)として学習しておく。図14において、輝度伝達関数cfijを示す特性線330は、例えば、第1のカメラおよび第2のカメラでそれぞれ取得された第1の画像の輝度Yaと第2の画像の輝度Ybとの対応関係を示す。
このように、第2の実施形態によれば、各カメラ111、112、113、…から取得された画像間で色調を揃える色補正を行うようにしている。そのため、各カメラ111、112、113、…の設置環境において色温度などが異なる場合であっても、対象物体の追跡をより高精度に実行することができる。
(他の実施形態)
なお、各実施形態および変形例に係る画像処理を実行するための画像処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供される。これに限らず、画像処理プログラムを、ROM102に予め記憶させて提供してもよい。
さらに、各実施形態および変形例に係る画像処理を実行するための画像処理プログラムを、インターネットなどの通信ネットワークに接続されたコンピュータ上に格納し、通信ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、各実施形態および変形例に係る画像処理を実行するための画像処理プログラムを、インターネットなどの通信ネットワーク経由で提供または配布するように構成してもよい。
各実施形態および変形例に係る画像処理を実行するための画像処理プログラムは、例えば、上述した各部(画像取得部120、記憶部121、追跡部122、移動方向取得部123、領域選定部124、特徴量抽出部125、連結部126および出力部127、第2の実施形態においては色補正部130をさらに含む)を含むモジュール構成となっており、実際のハードウェアとしてはCPU101が例えばストレージ104から当該画像処理プログラムを読み出して実行することにより上記各部が主記憶装置(例えばRAM103)上にロードされ、各部が主記憶装置上に生成されるようになっている。
なお、本実施形態は、上述したそのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
10,10’ 画像処理装置
11、111、112、113 カメラ
20,20a,20b,20c 対象物体
101 CPU
109 カメラI/F
120 画像取得部
121 記憶部
122 追跡部
123 移動方向取得部
124 領域選定部
125 特徴量抽出部
126 連結部
127 出力部
130 色補正部
200,200-4,200-3,200-2,200-1,2000,2001,2002,2003,2005,2006,2007,2008 フレーム画像
300 モデル

Claims (8)

  1. 複数の撮像装置からそれぞれ時系列画像を取得する画像取得部と、
    前記時系列画像に撮像される対象物体の位置を追跡する追跡部と、
    前記時系列画像から前記対象物体の移動方向を取得する移動方向取得部と、
    対象物体の方向の基準となる予め定めた基準方向と、前記移動方向とから、複数の撮像装置から取得された複数の時系列画像のうち第1の時系列画像に撮像される第1の対象物体と、該複数の時系列画像のうち第2の時系列画像に撮像される第2の対象物体とが、該第1の時系列画像および該第2の時系列画像に共通して含まれる、該第1の対象物体および該第2の対象物体上の共通領域を取得する領域選定部と、
    前記共通領域に対応する画像から特徴量を抽出し、該特徴量を用いて、前記追跡部による追跡結果の、前記複数の撮像装置から取得された複数の時系列画像間での対応付けを行う連結部と
    を有する
    ことを特徴とする画像処理装置。
  2. 前記移動方向取得部は、
    前記時系列画像に含まれるフレーム画像のうち対象フレーム画像に対して時系列上で前後のうち少なくとも前の所定数の該フレーム画像における、前記対象物体を追跡した追跡結果の、該対象物体の遷移情報と、前記時系列画像に撮像される対象物体を包含する外接矩形の遷移情報と、方向識別器により識別された識別結果とのうち少なくとも1を用いて前記移動方向を取得する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記領域選定部は、
    前記基準方向と、前記撮像装置の正面で前記対象物体が前記基準方向に移動した場合に取得された前記時系列画像に撮像される該対象物体の領域に対応する領域とを予め定めたモデルを用いて、前記共通領域を取得する
    ことを特徴とする請求項1または請求項2に記載の画像処理装置。
  4. 前記連結部は、
    前記時系列画像に含まれる前記対象物体の全体から抽出した第1の特徴量と、前記共通領域から抽出した第2の特徴量とを比較した比較結果に基づき重み付けを行った該第2の特徴量を用いて前記対応付けを行う
    ことを特徴とする請求項1乃至請求項3の何れか1項に記載の画像処理装置。
  5. 前記連結部は、
    前記共通領域から抽出した特徴量を用いて前記対応付けを行う
    ことを特徴とする請求項1乃至請求項3の何れか1項に記載の画像処理装置。
  6. 前記第1の時系列画像に対して、色調を前記第2の時系列画像による色調に変換する補正を行う色補正部をさらに有し、
    前記領域選定部は、
    前記色補正部で色調が変換された前記第1の時系列画像を用いて前記共通領域を取得する
    ことを特徴とする請求項1乃至請求項5の何れか1項に記載の画像処理装置。
  7. 複数の撮像装置からそれぞれ時系列画像を取得する画像取得ステップと、
    前記時系列画像に撮像される対象物体の位置を追跡する追跡ステップと、
    前記時系列画像から前記対象物体の移動方向を取得する移動方向取得ステップと、
    対象物体の方向の基準となる予め定めた基準方向と、前記移動方向とから、複数の撮像装置から取得された複数の時系列画像のうち第1の時系列画像に撮像される第1の対象物体と、該複数の時系列画像のうち第2の時系列画像に撮像される第2の対象物体とが、該第1の時系列画像および該第2の時系列画像に共通して含まれる、該第1の対象物体および該第2の対象物体上の共通領域を取得する領域選定ステップと、
    前記共通領域に対応する画像から特徴量を抽出し、該特徴量を用いて、前記追跡ステップによる追跡結果の、前記複数の撮像装置から取得された複数の時系列画像間での対応付けを行う連結ステップと
    を有する
    ことを特徴とする画像処理方法。
  8. 複数の撮像装置からそれぞれ時系列画像を取得する画像取得ステップと、
    前記時系列画像に撮像される対象物体の位置を追跡する追跡ステップと、
    前記時系列画像から前記対象物体の移動方向を取得する移動方向取得ステップと、
    対象物体の方向の基準となる予め定めた基準方向と、前記移動方向とから、複数の撮像装置から取得された複数の時系列画像のうち第1の時系列画像に撮像される第1の対象物体と、該複数の時系列画像のうち第2の時系列画像に撮像される第2の対象物体とが、該第1の時系列画像および該第2の時系列画像に共通して含まれる、該第1の対象物体および該第2の対象物体上の共通領域を取得する領域選定ステップと、
    前記共通領域に対応する画像から特徴量を抽出し、該特徴量を用いて、前記追跡ステップによる追跡結果の、前記複数の撮像装置から取得された複数の時系列画像間での対応付けを行う連結ステップと
    をコンピュータに実行させるための画像処理プログラム。
JP2014058924A 2014-03-20 2014-03-20 画像処理装置、画像処理方法および画像処理プログラム Active JP6139447B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014058924A JP6139447B2 (ja) 2014-03-20 2014-03-20 画像処理装置、画像処理方法および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014058924A JP6139447B2 (ja) 2014-03-20 2014-03-20 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2015184810A JP2015184810A (ja) 2015-10-22
JP6139447B2 true JP6139447B2 (ja) 2017-05-31

Family

ID=54351297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014058924A Active JP6139447B2 (ja) 2014-03-20 2014-03-20 画像処理装置、画像処理方法および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6139447B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6546057B2 (ja) * 2015-09-28 2019-07-17 Kddi株式会社 複数のカメラ間での人物の追跡装置、追跡方法及びプログラム
US10349013B2 (en) 2015-10-27 2019-07-09 Sony Corporation Information processing apparatus, information processing method, and program
JP6840957B2 (ja) * 2016-09-01 2021-03-10 株式会社リコー 画像類似度算出装置、画像処理装置、画像処理方法、及び記録媒体
WO2018073848A1 (ja) 2016-10-19 2018-04-26 日本電気株式会社 画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体
JP7231996B2 (ja) 2018-08-02 2023-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法および情報処理システム
WO2020241034A1 (ja) * 2019-05-30 2020-12-03 アースアイズ株式会社 監視システム及び監視方法
JP6579411B1 (ja) * 2019-05-30 2019-09-25 アースアイズ株式会社 介護設備又は病院用の監視システム及び監視方法
GB2618757B (en) * 2021-03-18 2024-05-29 Mitsubishi Electric Corp Image processing device and image processing method
CN113873144B (zh) * 2021-08-25 2023-03-24 浙江大华技术股份有限公司 图像抓拍方法、图像抓拍装置及计算机可读存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3926059B2 (ja) * 1999-05-12 2007-06-06 日本電気株式会社 画像照合装置及びその画像照合方法並びにその制御プログラムを記録した記録媒体
JP2006093955A (ja) * 2004-09-22 2006-04-06 Matsushita Electric Ind Co Ltd 映像処理装置
JP5117424B2 (ja) * 2008-03-31 2013-01-16 富士フイルム株式会社 画像処理システム、画像処理方法、およびプログラム
JP2010252015A (ja) * 2009-04-15 2010-11-04 Panasonic Corp 画像合成装置、画像合成方法およびプログラム
JP2011133984A (ja) * 2009-12-22 2011-07-07 Panasonic Corp 動作特徴抽出装置および動作特徴抽出方法
JP5349367B2 (ja) * 2010-02-26 2013-11-20 セコム株式会社 移動物体追跡装置
JP5999105B2 (ja) * 2012-01-17 2016-09-28 ソニー株式会社 情報処理装置および方法、並びにプログラム
US9135798B2 (en) * 2012-09-01 2015-09-15 Honda Motor Co., Ltd. Vehicle periphery monitoring device
JP6221390B2 (ja) * 2013-06-18 2017-11-01 富士通株式会社 画像処理装置、プログラム、および画像処理方法

Also Published As

Publication number Publication date
JP2015184810A (ja) 2015-10-22

Similar Documents

Publication Publication Date Title
JP6139447B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10075652B2 (en) Image processing device for tracking a target object and image processing method, computer program product, and image processing system for same
JP6428266B2 (ja) 色補正装置、色補正方法および色補正用プログラム
JP6007682B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR102356448B1 (ko) 이미지 합성 방법 및 그 전자 장치
TWI701609B (zh) 影像物件追蹤方法及其系統與電腦可讀取儲存媒體
Nie et al. Single/cross-camera multiple-person tracking by graph matching
US10600191B2 (en) System and method for tracking multiple objects
US20120288140A1 (en) Method and system for selecting a video analysis method based on available video representation features
WO2011161579A1 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
JP6157165B2 (ja) 視線検出装置及び撮像装置
KR20140015892A (ko) 영상 정합 장치 및 방법
JP6292540B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP2013228930A (ja) 被写体領域検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
JP6924064B2 (ja) 画像処理装置およびその制御方法、ならびに撮像装置
JPWO2014010203A1 (ja) 転倒検知装置および転倒検知方法、転倒検知カメラ、並びにコンピュータ・プログラム
JP5656768B2 (ja) 画像特徴量抽出装置およびそのプログラム
JP2016123044A (ja) 被写体追跡装置、その制御方法およびプログラム
US10140503B2 (en) Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus
KR101355976B1 (ko) 시공간 특징점 정합을 이용한 객체 추적방법 및 그 장치
JP2016081095A (ja) 被写体追跡装置、その制御方法、撮像装置、表示装置及びプログラム
WO2019078310A1 (ja) 顔三次元形状推定装置、顔三次元形状推定方法、及び、非一時的なコンピュータ可読媒体
JP5702663B2 (ja) 顔画像認識装置及び顔画像認識プログラム
Austvoll et al. Region covariance matrix-based object tracking with occlusions handling
JP5643147B2 (ja) 動きベクトル検出装置、動きベクトル検出方法及び動きベクトル検出プログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170427

R151 Written notification of patent or utility model registration

Ref document number: 6139447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151