JP2015184810A - Image processing apparatus, image processing method, and image processing program - Google Patents
Image processing apparatus, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2015184810A JP2015184810A JP2014058924A JP2014058924A JP2015184810A JP 2015184810 A JP2015184810 A JP 2015184810A JP 2014058924 A JP2014058924 A JP 2014058924A JP 2014058924 A JP2014058924 A JP 2014058924A JP 2015184810 A JP2015184810 A JP 2015184810A
- Authority
- JP
- Japan
- Prior art keywords
- time
- image
- target object
- series
- series image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法および画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program.
互いに視野を共有しない複数のカメラ間で対象を追跡する技術が、従来から知られている。例えば、対象フレームと移動物体のオクルージョンの無い全体形状とを比較して、移動物体にオクルージョンが存在する場合には、移動物体の非遮蔽領域を用いて対応付けを行うことで、移動物体の追跡を高精度で実行可能とした技術が知られている。 A technique for tracking an object between a plurality of cameras that do not share a field of view is conventionally known. For example, by comparing the target frame and the overall shape of the moving object without occlusion, if there is occlusion in the moving object, the moving object is tracked by performing association using the non-occluded area of the moving object. There is known a technology that makes it possible to execute this with high accuracy.
ところで、追跡対象は、常にカメラに対して同じ方向を向いているとは限らない。例えば複数のカメラの設置向きの違いや、追跡対象の移動方向の違いなどにより、追跡対象がカメラに映っている向きが異なる場合がある。しかしながら、従来技術による追跡技術は、追跡対象以外の物体による遮蔽が存在する場合には有効であるが、このような、追跡対象がカメラに映っている向きが異なる場合には、対応が困難であるという問題点があった。 By the way, the tracking target does not always face the same direction with respect to the camera. For example, the direction in which the tracking target is reflected on the camera may be different due to a difference in the installation direction of a plurality of cameras or a difference in the movement direction of the tracking target. However, the tracking technique according to the conventional technique is effective when there is occlusion by an object other than the tracking target, but it is difficult to cope with the case where the tracking target is reflected in a different direction. There was a problem that there was.
本発明が解決する課題は、複数カメラを用いてより高精度に対象を追跡可能とする画像処理装置、画像処理方法および画像処理プログラムを提供することにある。 The problem to be solved by the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of tracking an object with higher accuracy using a plurality of cameras.
第1の実施形態の画像処理装置は、複数の撮像装置からそれぞれ時系列画像を取得し、時系列画像に撮像される対象物体の位置を追跡し、時系列画像から対象物体の移動方向を取得する。画像処理装置は、対象物体の方向の基準となる予め定めた基準方向と、移動方向とから、複数の撮像装置から取得された複数の時系列画像のうち第1の時系列画像に撮像される第1の対象物体と、複数の時系列画像のうち第2の時系列画像に撮像される第2の対象物体とが、第1の時系列画像および第2の時系列画像に共通して含まれる、第1の対象物体および第2の対象物体上の共通領域を取得する。画像処理装置は、共通領域に対応する画像から特徴量を抽出し、特徴量を用いて、追跡部による追跡結果の、複数の撮像装置から取得された複数の時系列画像間での対応付けを行う。 The image processing apparatus according to the first embodiment acquires time-series images from a plurality of imaging devices, tracks the position of the target object captured in the time-series image, and acquires the moving direction of the target object from the time-series image. To do. The image processing device captures a first time-series image among a plurality of time-series images acquired from a plurality of imaging devices from a predetermined reference direction serving as a reference for the direction of the target object and a moving direction. The first target object and the second target object captured in the second time-series image among the plurality of time-series images are included in common in the first time-series image and the second time-series image. The common area on the first target object and the second target object is acquired. The image processing device extracts a feature amount from an image corresponding to the common region, and uses the feature amount to associate a tracking result by the tracking unit between a plurality of time-series images acquired from a plurality of imaging devices. Do.
以下、実施形態に係る画像処理装置、画像処理方法および画像処理プログラムについて説明する。 Hereinafter, an image processing apparatus, an image processing method, and an image processing program according to an embodiment will be described.
(第1の実施形態)
図1は、第1の実施形態に適用可能な画像処理システムの一例の構成を示す。図1において、画像処理システムは、第1の実施形態に係る画像処理装置10と、複数のカメラ111、112、113、…とを備える。
(First embodiment)
FIG. 1 shows a configuration of an example of an image processing system applicable to the first embodiment. 1, the image processing system includes an
各カメラ111、112、113、…は、それぞれ同一の方向および撮像範囲で時系列に沿って複数のタイミングで撮像した画像である時系列画像を出力する。時系列画像は、例えば、所定の時間間隔で撮像したフレーム画像を含む動画像である。また、各カメラ111、112、113、…は、例えば、屋内や屋外に、それぞれ観察対象を俯瞰する角度で設置される。各カメラ111、112、113、…の撮像範囲は、互いに重複する部分を持つ必要はない。 Each of the cameras 11 1 , 11 2 , 11 3 ,... Outputs a time-series image that is an image captured at a plurality of timings along the time-series in the same direction and imaging range. The time series image is, for example, a moving image including frame images captured at a predetermined time interval. In addition, each of the cameras 11 1 , 11 2 , 11 3 ,. The imaging ranges of the cameras 11 1 , 11 2 , 11 3 ,... Do not need to have overlapping portions.
各カメラ111、112、113、…は、例えば可視光を撮像するカメラが用いられる。これに限らず、各カメラ111、112、113、…は、赤外線を撮像する赤外線カメラを用いてもよい。また、各カメラ111、112、113、…の水平面での撮像方向は、特に限定されない。例えば、図2に例示されるように、各カメラ111、112、113、…を互いに異なる向きを撮像するように配置してもよい。図2の例の場合、矢印21で示される方向に進む観察対象2は、各カメラ111、112、113、…により、それぞれ正面、側面および背面から撮像されることになる。
As each camera 11 1 , 11 2 , 11 3 ,..., For example, a camera that captures visible light is used. It is not limited to this, each of the cameras 11 1, 11 2, 11 3, ... may be an infrared camera that captures infrared rays. Further, each of the cameras 11 1, 11 2, 11 3, ... imaging direction in the horizontal plane of not particularly limited. For example, as illustrated in FIG. 2, the cameras 11 1 , 11 2 , 11 3 ,... May be arranged so as to capture images in different directions. In the case of the example in FIG. 2, the
観察対象2は、時系列に沿って位置が移動する移動物体であり、例えば人物である。以下、観察対象2となる移動物体を、対象物体と呼ぶ。
The
各カメラ111、112、113、…から出力された各時系列画像は、画像処理装置10に供給される。画像処理装置10は、各カメラ111、112、113、…から供給された各時系列画像に対して画像処理を行い、各時系列画像間で同一対象物体の画像を対応付け、同一対象物体を時系列上で追跡する。このとき、第1の実施形態に係る画像処理装置10は、各カメラ111、112、113、…から供給された各時系列画像間に共通して含まれる対象物体の画像の領域を、立体モデルを用いて推定する。そして、画像処理装置10は、この推定された領域を用いて対象物体を各時系列画像間で対応付けて、追跡する。
Each time-series image output from each camera 11 1 , 11 2 , 11 3 ,... Is supplied to the
これにより、各カメラ111、112、113、…の撮像方向や対象物体の移動方向が異なり、各時系列画像に異なる向きの当該対象物体の画像が含まれる場合であっても、高精度に対象物体を追跡することが可能となる。 Thereby, even if the imaging direction of each camera 11 1 , 11 2 , 11 3 ,... And the moving direction of the target object are different, and each time-series image includes an image of the target object in a different direction, It becomes possible to track the target object with high accuracy.
図3は、第1の実施形態に係る画像処理装置10の一例の構成を示す。画像処理装置10は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、ストレージ104と、入出力I/F105と、通信I/F106と、表示制御部107と、カメラI/F109とを備え、これら各部がバス100により互いに通信可能に接続される。画像処理装置10は、このように、一般的なコンピュータと同様な構成にて実現可能である。
FIG. 3 shows an exemplary configuration of the
CPU101は、ROM102やストレージ104に予め記憶されるプログラムに従い、RAM103をワークメモリとして動作して、この画像処理装置10の全体の動作を制御する。ストレージ104は、ハードディスクドライブや不揮発性の半導体メモリ(フラッシュメモリ)であり、CPU101が動作するためのプログラムや、種々のデータが記憶される。
The
入出力I/F105は、例えばUSB(Universal Serial Bus)であり、外部機器との間でデータの送受信を行うためのインターフェイスである。キーボードやポインティングデバイス(マウスなど)の入力デバイスをこの入出力I/F105に接続することができる。また、CD(Compact Disk)やDVD(Digital Versatile Disk)といったディスク記憶媒体の読み出しなどを行うドライブ装置をこの入出力I/F105に接続してもよい。通信I/F106は、LAN(Local Area Network)やインターネットなどのネットワークに対する通信を制御する。表示制御部107は、CPU101によりプログラムに従い生成された表示制御信号を、LCD(Liquid Crystal Display)などを表示デバイスとして用いた表示装置108が表示可能な表示信号に変換して出力する。
The input / output I /
カメラI/F109は、カメラ111、112、113、…から出力される各画像信号を取り込み、上述した、時系列に沿った複数のフレーム画像を含む、カメラ111、112、113、…による各時系列画像としてバス100に対して出力する。
The camera I /
図4は、第1の実施形態に係る画像処理装置10の機能を説明するための一例の機能ブロック図である。図4において、画像処理装置10は、画像取得部120と、記憶部121と、追跡部122と、移動方向取得部123と、領域選定部124と、特徴量抽出部125と、連結部126と、出力部127とを備える。なお、画像取得部120は、図4に例示されるように、画像処理装置10に1つが設けられてもよいし、各カメラ111、112、113、…毎に設けられてもよい。
FIG. 4 is a functional block diagram illustrating an example of functions of the
画像取得部120は、各カメラ111、112、113、…から供給された各時系列画像を取得する。また、画像取得部120は、時系列画像を取得したカメラを特定する識別情報(画像識別情報と呼ぶ)を取得する。画像取得部120は、時系列画像に画像識別情報を付加して、追跡部122および記憶部121に供給する。記憶部121は、供給された時系列画像を画像識別情報と対応付けてRAM103やストレージ104に記憶する。
The
追跡部122は、画像取得部120から供給された時系列画像に含まれる各フレーム画像に撮像される対象物体を検出し、対象物体の画像のフレーム画像内での位置を各フレーム間で追跡する。なお、以下では、特に記載の無い限り、「対象物体の画像」を単に「対象物体」と呼ぶ。追跡部122は、追跡結果である対象物体の各フレーム画像内での位置を示す情報を、対象物体を識別する移動体識別情報を付加して移動方向取得部123に供給する。
The
移動方向取得部123は、追跡部122から供給された各フレーム画像に含まれる対象物体の移動方向を推定して取得する。移動方向取得部123は、対象物体について取得した移動方向を、画像識別情報および移動体識別情報と対応付けて領域選定部124に供給し、記憶部121に記憶させる。
The movement
領域選定部124は、対象物体に対して予め定めた基準となる基準方向と、移動方向取得部123が取得した移動方向とに基づき、例えばカメラ111から取得された第1の時系列画像に撮像される第1の対象物体と、カメラ112から取得された第2の時系列画像に撮像される第2の対象物体とで共通する、第1の対象物体および第2の対象物体上の領域を推定し、推定された領域を共通領域として選定する。
特徴量抽出部125は、領域選定部124で選定された共通領域を、上述の第1の対象物体および第2の対象物体にそれぞれ適用して、共通領域内の画像から特徴量を抽出する。特徴量抽出部125は、抽出した特徴量を、対象物体の移動体識別情報と、時系列画像の画像識別情報とに対応付けて連結部126に供給する。
The feature
連結部126は、特徴量抽出部125で抽出された特徴量に基づき、各対象物体の追跡結果を、各カメラ111、112、113、…から取得された各時系列画像間で対応付ける。対応付けた結果を示す情報は、記憶部121に記憶されると共に、出力部127に供給される。
Based on the feature amount extracted by the feature
出力部127は、対応付けられた結果を示す情報を出力する。一例として、出力部127は、各時系列画像に含まれる対象物体の画像に対して、連結部126で対応付けられた移動体識別情報を付加して表示する画像を生成することが考えられる。この画像は、例えば表示装置108に表示される。
The
画像取得部120、記憶部121、追跡部122、移動方向取得部123、領域選定部124、特徴量抽出部125、連結部126および出力部127は、上述したCPU101上で動作する画像処理プログラムにより実現される。これに限らず、画像取得部120、記憶部121、追跡部122、移動方向取得部123、領域選定部124、特徴量抽出部125、連結部126および出力部127のうち一部または全部を、互いに協働して動作するハードウェアにより構成してもよい。
The
図5は、第1の実施形態に係る画像処理装置10における画像処理を示す一例のフローチャートである。この図5のフローチャートを用いて、第1の実施形態に係る画像処理について概略的に説明する。なお、以下では、対象物体が人であるものとして説明する。勿論、対象物体は、人に限られず、顔や手足などの人の各部分でもよいし、人以外の他の動物でもよい。さらに、対象物体は、自動車や自転車などの機械でもよい。
FIG. 5 is a flowchart illustrating an example of image processing in the
ステップS10で、画像取得部120は、各カメラ111、112、113、…から供給された各時系列画像を取得し、取得した各時系列画像にカメラ111、112、113、…を識別するための画像識別情報をそれぞれ付加する。画像取得部120で取得された時系列画像は、画像識別情報と対応付けて記憶部121により記憶されると共に、追跡部122に供給される。
In step S10, the
次のステップS11で、追跡部122は、画像取得部120で取得された時系列画像から対象物体を検出し、検出した対象物体の時系列画像内での位置を、同一時系列画像内の各フレーム画像間で追跡する。次のステップS12で、移動方向取得部123は、ステップS11で追跡部122により取得された対象物体の同一の時系列画像内の各フレーム間での位置に基づき、対象物体の移動方向を推定して取得する。
In the next step S11, the
次のステップS13で、領域選定部124は、第1の時系列画像に撮像される第1の対象物体と、第2の時系列画像に撮像される第2の対象物体とで共通する、第1の対象物体および第2の対象物体上の領域である共通領域を選定する。
In the next step S13, the
次のステップS14で、特徴量抽出部125は、ステップS13で共通領域が選定されたか否かを判定する。特徴量抽出部125は、共通領域が選定されたと判定した場合、処理をステップS15に移行させ、選定された共通領域を対応する各対象物体に適用してそれぞれ特徴量を抽出する。一方、特徴量抽出部125は、共通領域が選定されなかったと判定した場合、処理をステップS16に移行させ、各対象物体の全体からそれぞれ特徴量を抽出する。
In the next step S14, the feature
ステップS15またはステップS16で特徴量が抽出されると、処理がステップS17に移行される。ステップS17で、連結部126は、注目する時系列画像の対象物体毎に、他の時系列画像の対象物体と特徴量を照合する。連結部126は、各時系列画像間で類似度の高い特徴量に係る対象物体を同一の物体であると見做して対応付け、各時系列画像を連結する。次のステップS18で、連結部126は、ステップS17での時系列画像間での対象物体の対応付け結果を、時系列画像、移動方向、移動体識別情報および画像識別情報に対応付けて記憶部121に記憶させる。
When the feature amount is extracted in step S15 or step S16, the process proceeds to step S17. In step S <b> 17, for each target object of the time series image to be noticed, the connecting
次のステップS19で、出力部127は、一連の画像処理の結果を出力する。例えば、出力部127は、各時系列画像に対して、各時系列画像に含まれる対象物体中の同一の対象物体を識別する識別情報を付加して出力する。
In the next step S19, the
(第1の実施形態の処理の詳細)
次に、第1の実施形態の画像処理装置10による画像処理を、上述の図5のフローチャートを参照して、より詳細に説明する。ステップS10で、画像取得部120は、各カメラ111、112、113、…から供給された各時系列画像を取得し、取得した各時系列画像に対して、供給元の各カメラ111、112、113、…を識別するための画像識別情報を付加する。画像取得部120は、それぞれ画像識別情報が付加された時系列画像を記憶部12に記憶させると共に、追跡部122に供給する。
(Details of processing of the first embodiment)
Next, image processing by the
ステップS11で、追跡部122は、ステップS10で画像取得部120により取得された、各カメラ111、112、113、…に撮像された各時系列画像に含まれる各フレーム画像から対象物体を検出し、検出された対象物体を時系列画像内のフレーム画像間で追跡する。以下では、説明のため、特に記載の無い限り、各カメラ111、112、113、…のうちカメラ111から取得した時系列画像に注目して説明を行う。
In step S11, the
追跡部122は、例えば下記の方法を用いて、フレーム画像から対象物体を検出する。図6に例示されるように、3の対象物体20a、20bおよび20cがフレーム画像200に含まれるものとする。各対象物体20a、20bおよび20cが人であるものとし、追跡部122は、フレーム画像200に検出窓領域を設定し、検出窓領域内の画像から特徴量を算出する。例えば、追跡部122は、特徴量として、検出窓領域内の輝度の勾配と強度とをヒストグラム化したHOG(Histograms of Oriented Gradients)特徴量を算出することが考えられる。これに限らず、追跡部122は、HOG特徴量を識別性能の面で改良したCoHOG(Co-occurrence HOG)特徴量(非特許文献1参照)を算出してもよい。
The
追跡部122は、例えば、上述のようにして算出した特徴量を用いて検出窓領域内の画像が対象物体であるか否かを識別して、対象物体を検出する。検出した対象物体の時系列画像内での追跡には、例えば非特許文献2で開示されている技術を用いてもよい。
For example, the
追跡部122は、追跡した結果取得された、対象物体の各フレーム画像内での位置を示す情報を、対象物体を識別する移動体識別情報を付加して移動方向取得部123に供給する。図6の例では、フレーム画像200から検出された対象物体20a、20bおよび20cに、それぞれ移動体識別情報としてID=01、02および03が付加されている。
The
ここで、追跡部122は、図7に例示されるように、複数のカメラ111、112、113、…からの各時系列画像について、それぞれフレーム画像間での対象物体の追跡を行う。図7の例では、画像識別情報をカメラIDとして示し、例えばカメラ111、112および113から取得された各時系列画像のカメラIDを、それぞれカメラID=A01、A02およびA03としている。
Here, as illustrated in FIG. 7, the
図7(a)に例示されるように、カメラID=A01の時系列画像では、時間t0、t1、t2、t3でそれぞれ取得されるフレーム画像2000、2001、2002、2003に対象物体20bが含まれていることが示されている。また、図7(b)に例示されるように、カメラID=A02の時系列画像では、上述の時間t0より前の、時間t-4、t-3、t-2、t-1でそれぞれ取得されるフレーム画像200-4、200-3、200-2、200-1に対象物体20bが含まれていることが示されている。同様に、図7(c)に例示されるように、カメラID=A03の時系列画像では、上述の時間t3より後の、時間t5、t6、t7、t8でそれぞれ取得されるフレーム画像2005、2006、2007、2008に対象物体20bが含まれていることが示されている。このように、各カメラにおいて、同一の対象物体20bが異なるタイミングで撮像されている可能性がある。
As illustrated in FIG. 7A, in a time-series image with camera ID = A01,
なお、カメラID=A01、ID=A02およびID=A03それぞれの時系列画像に含まれる各対象物体20bは、連結部126による各時系列画像間での対応付けがなされていない状態では、同一の対象物体20bとは認識されない。したがって、カメラID=A01、ID=A02およびID=A03それぞれの時系列画像に含まれる各対象物体20bに対して、それぞれ異なるID=02、ID=12およびID=22が付加される。
Note that the target objects 20b included in the time series images of the camera ID = A01, ID = A02, and ID = A03 are the same in a state where the time series images are not associated by the connecting
移動方向取得部123は、各フレーム画像間での対象物体の移動方向を推定して取得する(図5のステップS12)。移動方向取得部123は、画像取得部120により取得された時系列画像に含まれる注目フレーム画像の前および後の少なくとも一方の、予め定めた所定フレーム数のフレーム画像における対象物体の位置の変遷や、対象物体の向きの少なくとも1以上の情報を用いて、当該対象物体の移動方向を推定する。
The movement
より具体的には、移動方向取得部123は、上述の追跡部122による対象物体の追跡結果に示される、当該対象物体のフレーム画像間での移動軌跡を用いて、移動方向を推定することができる。これに限らず、移動方向取得部123は、追跡部122による対象物体の追跡結果に基づく、当該対象物体を包含する任意の形状、例えば矩形の中心座標や、四隅または任意の角の座標の変遷を用いて、移動方向を推定することも可能である。
More specifically, the movement
図8を用いて、第1の実施形態に係る、移動方向取得部123による対象物体20の移動方向の取得の例について説明する。なお、図8において、フレーム画像200の左上隅を座標の原点とし、右方向に向けてx座標が増加し、下方向に向けてy座標が増加するものとする。
An example of acquisition of the movement direction of the
第1の例として、移動方向取得部123は、フレーム画像内での対象物体20の位置が、注目フレームを含む注目フレームの前後の所定フレーム数のフレームに亘り、x座標が一定でy座標のみ増加している場合、対象物体20は、カメラに向かって移動し(図8中の矢印211参照)、且つ、カメラに向かって正面を向いていると推定する。
As a first example, the moving
第2の例として、移動方向取得部123は、フレーム画像200内での対象物体20の位置が、注目フレームを含む注目フレームの前後の所定フレーム数のフレームに亘り、x座標のみが減少しy座標が一定である場合、対象物体20は、カメラに向かって右方向に移動し(図8中の矢印213参照)、且つ、カメラに向かって右方向を向いていると推定する。
As a second example, the movement
第3の例として、移動方向取得部123は、フレーム画像200内での対象物体20の位置が、注目フレームを含む注目フレームの前後の所定フレーム数のフレームに亘り、x座標が一定でy座標のみが減少している場合、対象物体20は、カメラから離れる方向に移動し(図8中の矢印210参照)、且つ、カメラに向かって背面を向いていると推定する。
As a third example, the movement
第4の例として、移動方向取得部123は、フレーム画像200内での対象物体20の位置が、注目フレームを含む注目フレームの前後の所定フレーム数のフレームに亘り、x座標のみが増加しy座標が一定である場合、対象物体20は、カメラに向かって左方向に移動し(図8中の矢印214参照)、且つ、カメラに向かって左方向を向いていると推定する。
As a fourth example, the movement
上述では、移動方向取得部123が対象物体20の移動方向として、カメラに向かって前後左右の4方向の移動方向を推定するように説明したが、これはこの例に限定されない。すなわち、移動方向取得部123は、フレーム画像200内での対象物体20の位置のx座標およびy座標の変化量から、対象物体20の移動方向を30°、60°など任意の角度でより詳細に推定することも可能である。
In the above description, the movement
また、上述では、移動方向取得部123は、対象物体20の移動方向を、注目フレームの前後の予め定めた所定フレーム数のフレーム画像を用いて推定しているが、これはこの例に限定されない。すなわち、移動方向取得部123は、対象物体20の移動方向の推定に、注目フレームに対して時間的に後の所定フレーム数のフレーム画像を用いてよいし、注目フレームに対して時間的に前の所定フレーム数のフレーム画像を用いてもよい。
In the above description, the moving
なお、移動方向取得部123は、移動方向を推定する所定フレーム数の間に、閾値以上の移動方向の変化を検出した場合、変化の前後で対象物体が異なるものと判定することができる。
When the movement
上述では、移動方向取得部123は、対象物体20が移動方向を向いているものと推定しているが、これはこの例に限定されない。移動方向取得部123は、例えば、任意のフレームにおける対象物体の画像から特徴量を抽出し、特徴量に基づき方向別の対象物体を用いて学習した識別器を用いて各方向を向いている確からしさを算出することができる。
In the above description, the moving
この場合、識別器としては、SVM(Support Vector Machine)を用いることができる。移動方向取得部123は、識別器を用いて算出した各方向を向いている確からしさに対して閾値判定を行い、対象物体がどの方向を向いているかを判定する。各方向の確からしさを算出するための特徴量としては、具体的には、例えば、非特許文献1に開示されているCoHOG特徴量を適用することができる。
In this case, an SVM (Support Vector Machine) can be used as the discriminator. The moving
移動方向取得部123は、上述のようにして対象物体について推定した移動方向を、当該対象物体を識別する移動体識別情報と、移動方向を推定するために用いた時系列画像に含まれる各フレーム画像200と、当該時系列画像を識別するための画像識別情報とに対応付けて記憶部121に記憶させる。
The moving
領域選定部124は、記憶部121に記憶される移動体識別情報毎に、例えばカメラ111から取得された、注目する時系列画像である第1の時系列画像に撮像された第1の対象物体に対応する移動方向と、カメラ112から取得された第2の時系列画像に撮像された第2の対象物体に対応する移動方向とを比較する。領域選定部124は、この移動方向の比較の結果に基づき、第1の時系列画像および第2の時系列画像において、第1の対象物体と第2の対象物体とで共通して含まれる第1の対象物体および第2の対象物体上の領域を、予め定めたモデルを用いて推定する。領域選定部124は、推定したこの領域を、第1の対象物体および第2の対象物体それぞれの特徴量を抽出するための共通領域として選定する(図5のステップS13)。
領域選定部124は、第1の対象物体に対応する移動方向を例えば移動方向取得部123から取得することができる。また、領域選定部124は、第2の対象物体に対応する移動方向を例えば記憶部121から取得することができる。
The
図9〜図11を用いて、領域選定部124によるモデルを用いた、特徴量を抽出するための共通領域の選定方法について説明する。図9は、第1の実施形態に係る、人である対象物体に対応するモデルの例を示す。第1の実施形態では、図9に例示されるようにモデル300として立体形状である円筒を用いている。モデルの形状は、この例に限定されず、対象物体の形状を抽象化した形状であれば、例えば直方体、楕円体、球体など他の立体形状であってもよい。
A common region selection method for extracting feature amounts using a model by the
特徴量抽出を行う領域の選定においては、モデル300に対して予め基準方向を決めておき、モデル300がカメラの正面に対して基準方向を向けた場合に、モデル300上のどの範囲がフレーム画像に含まれるかを定義しておく。第1の実施形態では、基準方向をモデル300の正面方向として定める。そして、対象物体がカメラの前で正面を向いた場合に、モデル300がカメラによるフレーム画像に含まれる範囲が、モデル300の正面すなわち基準方向の角度を0°とした場合に、カメラに対して左右両側の60°ずつの範囲310と定める。
In selecting a region for feature extraction, a reference direction is determined in advance for the
なお、範囲310は、反時計回りに角度の増加を定義する場合、正面の0°に対して60°と300°とがなす劣角の範囲となる。以降、角度が反時計回りに増加するものとし、角度範囲は、2の角度で示される劣角の範囲をいうものとする。
Note that the
次に、領域選定部124は、例えばカメラ111から取得された、注目する第1の時系列画像に含まれる第1の対象物体の移動方向と、例えばカメラ112から取得された第2の時系列画像に含まれる第2の対象物体の移動方向とを比較して、第1の時系列画像および第2の時系列画像において、第1の対象物体と第2の対象物体とが共通して含まれる、第1の対象物体および第2の対象物体上の領域を、モデル300上で定める。
Next, the
一例として、第1の対象物体の移動方向が正面、第2の対象物体の移動方向が右方向である場合について、図10を用いて考える。図10(a)〜図10(c)は、モデル300を俯瞰して示している。
As an example, a case where the moving direction of the first target object is the front and the moving direction of the second target object is the right direction will be considered with reference to FIG. 10A to 10C show the
正面を向いている第1の対象物体については、図10(a)に例示されるように、モデル300上の60°〜300°の範囲310が第1の時系列画像に含まれる。一方、第2の対象物体は、右方向に移動しているため、正面が第2の時系列画像において左方向を向いている。そのため、図10(b)に例示されるように、第2の時系列画像に含まれる範囲310は、モデル300の30°〜150°の範囲となる。したがって、第1の時系列画像および第2の時系列画像において、第1の対象物体および第2の対象物体が共通して含まれる、第1の対象物体および第2の対象物体上の共通領域は、図10(c)に例示されるように、モデル300の30°〜60°の範囲321となる。
For the first target object facing the front, a
図11は、第1の実施形態に係るモデル300を上面から見た例を示す。図11において、モデル300の基準方向がカメラ11の方向を向いている場合、モデル300が時系列画像に含まれる範囲310は、基準方向に対して60°〜300°(基準方向の両側に60°)の範囲となる。一方、モデル300の基準方向がカメラ11に対して右方向を向いている場合、時系列画像上では基準方向が左方向を向いているように映り、モデル300が時系列画像に含まれる範囲310は、基準方向に対して30°〜150°の範囲となる。この、範囲310および範囲320に共通する範囲321が、第1の対象物体および第2の対象物体上の、第1の時系列画像および第2の時系列画像に共通して含まれる共通領域であると推定される。
FIG. 11 shows an example in which the
領域選定部124は、例えば、閾値以上の広さで範囲321が取得された場合に、当該範囲321を、後述する特徴量抽出部125で特徴量を抽出するための領域として選定する。領域選定部124は、共通領域の選定を、第1の時系列画像および第2の時系列画像それぞれの所定のフレーム画像、例えば移動方向の取得に用いた最後のフレーム画像に注目して行うことができる。
For example, when the
領域選定部124は、第1の時系列画像に撮像される各対象物体について、第2の時系列画像に撮像される各第2の対象物体との間でそれぞれ共通領域を選定する。
The
第1の実施形態では、特徴量抽出部125は、この範囲321を、範囲321を導出した第1の対象物体および第2の対象物体にそれぞれ適用し、範囲321に含まれる画像を用いて、第1の対象物体および第2の対象物体それぞれの特徴量を抽出する。
In the first embodiment, the feature
特徴量抽出部125は、領域選定部124で共通領域が選定された場合、共通領域からの距離に応じて重み付けを行い、第1の対象物体および第2の対象物体それぞれに対応する画像から特徴量を抽出する(図5のステップS15)。特徴量抽出部125は、例えば、人の個人性を表すのに直観的で有効な値を特徴量として抽出する。このような特徴量の例としては、任意の色空間における色ヒストグラムを用いることができる。これに限らず、特徴量として、服の模様などのテクスチャ情報を用いてもよい。特徴量は、例えば、複数のパラメータを持つ多次元の値として抽出される。
When the common region is selected by the
特徴量抽出部125は、第1の時系列画像に撮像される第1の対象物体それぞれと、第2の時系列画像に撮像される第2の対象物体それぞれとに対して共通領域をそれぞれ適用し、第1の時系列画像および第2の時系列画像に撮像される各対象物体について、それぞれ特徴量を抽出する。
The feature
連結部126は、特徴量抽出部125にて共通領域を適用した対象物体の各組について、抽出された各特徴量に基づき類似度を算出し、対応付けが可能か否かを判定する。連結部126は、類似度を、特徴量間のL1ノルムやバタチャリア(Bhattacharyya)距離を用いて求めることができる。
The linking
また、連結部126は、共通領域を適用した対象物体の組の2の特徴量を1に纏めて識別器で識別した出力結果に基づき、対応付けが可能か否かを判定してもよい。識別器は、例えばSVMを用いることができる。連結部126は、例えば、1の第1の対象物体に対して複数の第2の対象物体それぞれの類似度を算出し、算出した類似度が最大の組み合わせとなる第2の対象物体が第1の対象物体に対応付けられると判定することができる。これに限らず、連結部126は、類似度が閾値以上となる対象物体の組み合わせが対応付くと判定してもよい。
Further, the linking
連結部126は、上述のようにして求めた、各時系列画像間での対象物体同士の対応付けの結果を出力部127を介して外部に出力することができる。また、連結部126は、各時系列画像間での対象物体同士の対応付けの結果を、記憶部121に記憶している、対応付けがなされた対象物体に対応する移動体識別情報と、時系列画像と、移動方向と、当該時系列画像を取得したカメラを識別する画像識別情報とに追加または更新する。
The
例えば、図7を参照し、カメラID=A01、A02およびA03でそれぞれ識別される各時系列画像に含まれる、移動体識別情報ID=02、12および22の各対象物体20bが互いに対応付けられる場合、「ID12=ID02」、「ID22=ID02」など、互いの対応付け関係を示す情報が記憶部121に追加されて記憶される。連結部126は、さらなる処理によりこの対応付け関係を示す情報が変更された場合、記憶部121の記憶内容を更新する。
For example, referring to FIG. 7, the target objects 20b of the mobile object identification information ID = 02, 12 and 22 included in the respective time-series images identified by the camera ID = A01, A02 and A03 are associated with each other. In this case, information indicating the mutual association relationship such as “ID12 = ID02” and “ID22 = ID02” is added to the
このように、第1の実施形態の画像処理装置10によれば、対象物体の移動方向の情報を用いて、異なるカメラにより取得された画像間に共通して含まれる共通領域を推定する。そして、推定された共通領域を用いて異なるカメラにより取得された画像間で対象物体の画像を対応付けるようにしている。これにより、第1の実施形態では、各カメラの設置方向や対象物体の移動方向がカメラ毎に異なり、対象物体の画像の時系列画像に含まれる方向が、時系列画像毎に異なる場合であっても、対象物体の追跡をより高精度に実行することが可能となる。
As described above, according to the
(第1の実施形態の変形例)
次に、第1の実施形態の変形例について説明する。上述した第1の実施形態では、記憶部121に対して、各時系列画像と、各カメラすなわち各時系列画像を識別する画像識別情報と、時系列画像に含まれる対象物体を識別する移動体識別情報と、移動体識別情報により識別される対象物体の移動方向とを対応付けて記憶している。
(Modification of the first embodiment)
Next, a modification of the first embodiment will be described. In the first embodiment described above, each time-series image, image identification information that identifies each camera, that is, each time-series image, and a moving body that identifies a target object included in the time-series image are stored in the
これに対して、第1の実施形態の変形例は、記憶部121に対して、上述の時系列画像の代わりに、対象物体全体に対応する画像から抽出した特徴量を記憶する。例えば、図4の構成に対して、追跡部122で検出された対象物体全体に対応する画像の特徴量を抽出する他の特徴量抽出部を追加する。他の特徴量抽出部は、追跡部122で検出された対象物体の全体に対応する画像から特徴量を抽出し、移動体識別情報を対応付けて記憶部121に記憶させる。
On the other hand, the modification of 1st Embodiment memorize | stores the feature-value extracted from the image corresponding to the whole target object with respect to the memory |
領域選定部124は、移動方向取得部123により取得され記憶部121に記憶された対象物体の移動方向に基づき、上述したモデル300を用いて共通領域を選定する。特徴量抽出部125は、記憶部121に記憶される対象物体全体の特徴量から、共通領域に重み付けを行った特徴量を抽出する。これに限らず、特徴量抽出部125は、記憶部121に記憶される対象物体全体の特徴量のうち、共通領域に含まれる特徴量を抽出してもよい。
The
この方法を用いても、上述した第1の実施形態と同様に、対象物体の移動方向の情報を用いて、異なるカメラにより取得された画像間に共通して含まれる共通領域を推定し、推定された共通領域を用いて異なるカメラにより取得された画像間で対象物体を対応付けて、高精度に対象物体の追跡が実行可能である。また、記憶部121に時系列画像を記憶しないため、記憶部121の容量を節約できる。
Even if this method is used, as in the first embodiment described above, using the information on the moving direction of the target object, the common area included in common between images acquired by different cameras is estimated and estimated. It is possible to track the target object with high accuracy by associating the target object between the images acquired by different cameras using the common area. Further, since no time-series images are stored in the
(第2の実施形態)
次に、第2の実施形態について説明する。図12は、第2の実施形態に係る画像処理装置10’の機能を説明するための一例の機能ブロック図である。なお、図12において、上述の図4と共通する部分には同一の符号を付して、詳細な説明を省略する。第2の実施形態に係る画像処理装置10’は、図4で示した第1の実施形態に係る画像処理装置10に対して色補正部130が追加されている。
(Second Embodiment)
Next, a second embodiment will be described. FIG. 12 is a functional block diagram illustrating an example of functions of the
第2の実施形態では、画像取得部120が各カメラ111、112、113、…から取得した各時系列画像間で、色調を揃えるようにする。図12の例では、領域選定部124と特徴量抽出部125との間に色補正部130が設けられ、色補正部130により、領域選定部124で選定された共通領域に含まれる画像、あるいは、対象物体全体の色調を、時系列画像間で揃える。
In the second embodiment, the
すなわち、カメラ111、112、113、…の設置方法や設置場所によっては、各カメラ111、112、113、…で同一の被写体を撮像した場合であっても、それぞれ異なる色調の時系列画像が取得される場合が有り得る。例えば、各カメラ111、112、113、…を、それぞれ色温度が異なる照明の部屋に設置されるような場合や、各カメラ111、112、113、…の一部が屋内、他が屋外に設置されるような場合、取得される時系列画像の色調がカメラの設置場所によって異なってしまう。 That is, the camera 11 1, 11 2, 11 3, ... Depending on the installation method and location of the cameras 11 1, 11 2, 11 3, even ... in a case where imaging of the same object, different color tones, respectively It is possible that the time-series images are acquired. For example, each camera 11 1 , 11 2 , 11 3 ,... Is installed in a room with a different color temperature, or a part of each camera 11 1 , 11 2 , 11 3 ,. When others are installed outdoors, the color tone of the acquired time-series image differs depending on the installation location of the camera.
第2の実施形態では、各カメラ111、112、113、…から取得される時系列画像に対して色補正を施し、各時系列画像の色調を、各カメラ111、112、113、…のうち何れか1のカメラで取得される時系列画像の色調に揃える。ここでは、カメラ111で取得される時系列画像を基準とし、他のカメラ112、113、…で取得される時系列画像の色調を、色補正部130での色補正により、カメラ111で取得される時系列画像の色調に揃えるものとする。 In the second embodiment, color correction is performed on the time-series images acquired from the cameras 11 1 , 11 2 , 11 3 ,..., And the color tone of each time-series image is changed to each camera 11 1 , 11 2 ,. 11 3 ,... Are aligned with the color tone of the time-series image acquired by any one of the cameras. Here, the time series image acquired by the camera 11 1 is used as a reference, and the color tone of the time series image acquired by the other cameras 11 2 , 11 3 ,. Align to the color tone of the time-series image acquired in 1 .
図13は、第2の実施形態に係る画像処理装置10’における画像処理を示す一例のフローチャートである。なお、図13において、上述した図5と共通する部分には同一の符号を付して、詳細な説明を省略する。図13に例示されるように、第2の実施形態では、ステップS14での共通領域が存在するか否かの判定の後に、色補正部130による色補正を行い(ステップS25またはステップS26)、その後、色補正が行われた画像を用いて、ステップS15またはステップS16による特徴量の抽出処理が行われる。
FIG. 13 is a flowchart illustrating an example of image processing in the
より具体的な例としては、ステップS14で共通領域が存在すると判定された場合、処理がステップS25に移行される。ステップS25で、色補正部130は、例えば第1の対象物体および第2の対象物体の、共通領域が適用された範囲の画像に対して、予め取得された基準の画像の色調に揃えるように色補正処理を施す。次のステップS15で、特徴量抽出部125は、第1の対象物体および第2の対象物体に対し、色補正が施された共通領域内の画像の特徴量を抽出する。
As a more specific example, if it is determined in step S14 that a common area exists, the process proceeds to step S25. In step S <b> 25, the
一方、ステップS14で共通領域が存在しないと判定された場合、処理がステップS26に移行される。ステップS26で、色補正部130は、例えば第1の対象物体および第2の対象物体それぞれの全体に対して、予め取得された基準の画像の色調に揃えるように色補正処理を施す。次のステップS16で、特徴量抽出部125は、それぞれ色補正が施された第1の対象物体および第2の対象物体から特徴量を抽出する。
On the other hand, if it is determined in step S14 that no common area exists, the process proceeds to step S26. In step S <b> 26, the
画像間の色補正は、例えば非特許文献3に開示される技術を適用することができる。非特許文献3によれば、予め、各カメラ111、112、113、…により同一の被写体を撮像し、各カメラ111、112、113、…間における同一被写体の色の違いを、図14に例示されるような変換関数(輝度伝達関数cfij)として学習しておく。図14において、輝度伝達関数cfijを示す特性線330は、例えば、第1のカメラおよび第2のカメラでそれぞれ取得された第1の画像の輝度Yaと第2の画像の輝度Ybとの対応関係を示す。
For example, the technique disclosed in
このように、第2の実施形態によれば、各カメラ111、112、113、…から取得された画像間で色調を揃える色補正を行うようにしている。そのため、各カメラ111、112、113、…の設置環境において色温度などが異なる場合であっても、対象物体の追跡をより高精度に実行することができる。 As described above, according to the second embodiment, color correction is performed so as to align the color tone between images acquired from the cameras 11 1 , 11 2 , 11 3 ,. Therefore, even if the color temperature is different in the installation environment of each camera 11 1 , 11 2 , 11 3 ,..., The target object can be tracked with higher accuracy.
(他の実施形態)
なお、各実施形態および変形例に係る画像処理を実行するための画像処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供される。これに限らず、画像処理プログラムを、ROM102に予め記憶させて提供してもよい。
(Other embodiments)
An image processing program for executing image processing according to each embodiment and modification is a file in an installable format or an executable format, and is a computer such as a CD (Compact Disk) or a DVD (Digital Versatile Disk). It is provided by being recorded on a readable recording medium. However, the present invention is not limited to this, and the image processing program may be stored in the
さらに、各実施形態および変形例に係る画像処理を実行するための画像処理プログラムを、インターネットなどの通信ネットワークに接続されたコンピュータ上に格納し、通信ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、各実施形態および変形例に係る画像処理を実行するための画像処理プログラムを、インターネットなどの通信ネットワーク経由で提供または配布するように構成してもよい。 Furthermore, an image processing program for executing image processing according to each embodiment and modification is stored on a computer connected to a communication network such as the Internet and provided by being downloaded via the communication network. May be. In addition, an image processing program for executing image processing according to each embodiment and modification may be configured to be provided or distributed via a communication network such as the Internet.
各実施形態および変形例に係る画像処理を実行するための画像処理プログラムは、例えば、上述した各部(画像取得部120、記憶部121、追跡部122、移動方向取得部123、領域選定部124、特徴量抽出部125、連結部126および出力部127、第2の実施形態においては色補正部130をさらに含む)を含むモジュール構成となっており、実際のハードウェアとしてはCPU101が例えばストレージ104から当該画像処理プログラムを読み出して実行することにより上記各部が主記憶装置(例えばRAM103)上にロードされ、各部が主記憶装置上に生成されるようになっている。
The image processing program for executing the image processing according to each embodiment and modification includes, for example, the above-described units (
なお、本実施形態は、上述したそのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 In addition, this embodiment is not limited to the above-mentioned as it is, and can implement | achieve by modifying a component in the range which does not deviate from the summary in an implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
10,10’ 画像処理装置
11、111、112、113 カメラ
20,20a,20b,20c 対象物体
101 CPU
109 カメラI/F
120 画像取得部
121 記憶部
122 追跡部
123 移動方向取得部
124 領域選定部
125 特徴量抽出部
126 連結部
127 出力部
130 色補正部
200,200-4,200-3,200-2,200-1,2000,2001,2002,2003,2005,2006,2007,2008 フレーム画像
300 モデル
10, 10 ′ Image processing apparatus 11, 11 1 , 11 2 , 11 3
109 Camera I / F
120
Claims (8)
前記時系列画像に撮像される対象物体の位置を追跡する追跡部と、
前記時系列画像から前記対象物体の移動方向を取得する移動方向取得部と、
対象物体の方向の基準となる予め定めた基準方向と、前記移動方向とから、複数の撮像装置から取得された複数の時系列画像のうち第1の時系列画像に撮像される第1の対象物体と、該複数の時系列画像のうち第2の時系列画像に撮像される第2の対象物体とが、該第1の時系列画像および該第2の時系列画像に共通して含まれる、該第1の対象物体および該第2の対象物体上の共通領域を取得する領域選定部と、
前記共通領域に対応する画像から特徴量を抽出し、該特徴量を用いて、前記追跡部による追跡結果の、前記複数の撮像装置から取得された複数の時系列画像間での対応付けを行う連結部と
を有する
ことを特徴とする画像処理装置。 An image acquisition unit for acquiring time-series images from each of a plurality of imaging devices;
A tracking unit that tracks the position of the target object captured in the time-series image;
A moving direction acquisition unit that acquires the moving direction of the target object from the time-series image;
A first target imaged in a first time-series image among a plurality of time-series images acquired from a plurality of imaging devices based on a predetermined reference direction serving as a reference for the direction of the target object and the moving direction. An object and a second target object captured in the second time-series image among the plurality of time-series images are included in common in the first time-series image and the second time-series image. An area selection unit for acquiring a common area on the first target object and the second target object;
A feature amount is extracted from an image corresponding to the common area, and the tracking result by the tracking unit is associated between a plurality of time-series images acquired from the plurality of imaging devices using the feature amount. An image processing apparatus comprising: a connecting portion.
前記時系列画像に含まれるフレーム画像のうち対象フレーム画像に対して時系列上で前後のうち少なくとも前の所定数の該フレーム画像における、前記対象物体を追跡した追跡結果の、該対象物体の遷移情報と、前記時系列画像に撮像される対象物体を包含する外接矩形の遷移情報と、方向識別器により識別された識別結果とのうち少なくとも1を用いて前記移動方向を取得する
ことを特徴とする請求項1に記載の画像処理装置。 The moving direction acquisition unit
Transition of the target object as a result of tracking the target object in a predetermined number of the frame images at least before and after the target frame image in the time series among the frame images included in the time-series image The moving direction is acquired using at least one of information, transition information of a circumscribed rectangle including a target object captured in the time series image, and an identification result identified by a direction identifier. The image processing apparatus according to claim 1.
前記基準方向と、前記撮像装置の正面で前記対象物体が前記基準方向に移動した場合に取得された前記時系列画像に撮像される該対象物体の領域に対応する領域とを予め定めたモデルを用いて、前記共通領域を取得する
ことを特徴とする請求項1または請求項2に記載の画像処理装置。 The region selection unit is
A model in which the reference direction and a region corresponding to the region of the target object captured in the time-series image acquired when the target object moves in the reference direction in front of the imaging device The image processing apparatus according to claim 1, wherein the common area is acquired.
前記時系列画像に含まれる前記対象物体の全体から抽出した第1の特徴量と、前記共通領域から抽出した第2の特徴量とを比較した比較結果に基づき重み付けを行った該第2の特徴量を用いて前記対応付けを行う
ことを特徴とする請求項1乃至請求項3の何れか1項に記載の画像処理装置。 The connecting portion is
The second feature weighted based on a comparison result comparing the first feature amount extracted from the entire target object included in the time-series image and the second feature amount extracted from the common region. The image processing apparatus according to claim 1, wherein the association is performed using a quantity.
前記共通領域から抽出した特徴量を用いて前記対応付けを行う
ことを特徴とする請求項1乃至請求項3の何れか1項に記載の画像処理装置。 The connecting portion is
The image processing apparatus according to any one of claims 1 to 3, wherein the association is performed using a feature amount extracted from the common area.
前記領域選定部は、
前記色補正部で色調が変換された前記第1の時系列画像を用いて前記共通領域を取得する
ことを特徴とする請求項1乃至請求項5の何れか1項に記載の画像処理装置。 A color correction unit that performs correction for converting the color tone into the color tone of the second time-series image with respect to the first time-series image;
The region selection unit is
The image processing apparatus according to claim 1, wherein the common area is acquired using the first time-series image whose color tone has been converted by the color correction unit.
前記時系列画像に撮像される対象物体の位置を追跡する追跡ステップと、
前記時系列画像から前記対象物体の移動方向を取得する移動方向取得ステップと、
対象物体の方向の基準となる予め定めた基準方向と、前記移動方向とから、複数の撮像装置から取得された複数の時系列画像のうち第1の時系列画像に撮像される第1の対象物体と、該複数の時系列画像のうち第2の時系列画像に撮像される第2の対象物体とが、該第1の時系列画像および該第2の時系列画像に共通して含まれる、該第1の対象物体および該第2の対象物体上の共通領域を取得する領域選定ステップと、
前記共通領域に対応する画像から特徴量を抽出し、該特徴量を用いて、前記追跡ステップによる追跡結果の、前記複数の撮像装置から取得された複数の時系列画像間での対応付けを行う連結ステップと
を有する
ことを特徴とする画像処理方法。 An image acquisition step of acquiring a time-series image from each of a plurality of imaging devices;
A tracking step of tracking the position of the target object imaged in the time-series image;
A moving direction acquisition step of acquiring a moving direction of the target object from the time-series image;
A first target imaged in a first time-series image among a plurality of time-series images acquired from a plurality of imaging devices based on a predetermined reference direction serving as a reference for the direction of the target object and the moving direction. An object and a second target object captured in the second time-series image among the plurality of time-series images are included in common in the first time-series image and the second time-series image. A region selecting step for obtaining a common region on the first target object and the second target object;
A feature amount is extracted from an image corresponding to the common area, and the tracking result obtained by the tracking step is associated with a plurality of time-series images acquired from the plurality of imaging devices using the feature amount. And a connecting step.
前記時系列画像に撮像される対象物体の位置を追跡する追跡ステップと、
前記時系列画像から前記対象物体の移動方向を取得する移動方向取得ステップと、
対象物体の方向の基準となる予め定めた基準方向と、前記移動方向とから、複数の撮像装置から取得された複数の時系列画像のうち第1の時系列画像に撮像される第1の対象物体と、該複数の時系列画像のうち第2の時系列画像に撮像される第2の対象物体とが、該第1の時系列画像および該第2の時系列画像に共通して含まれる、該第1の対象物体および該第2の対象物体上の共通領域を取得する領域選定ステップと、
前記共通領域に対応する画像から特徴量を抽出し、該特徴量を用いて、前記追跡ステップによる追跡結果の、前記複数の撮像装置から取得された複数の時系列画像間での対応付けを行う連結ステップと
をコンピュータに実行させるための画像処理プログラム。 An image acquisition step of acquiring a time-series image from each of a plurality of imaging devices;
A tracking step of tracking the position of the target object imaged in the time-series image;
A moving direction acquisition step of acquiring a moving direction of the target object from the time-series image;
A first target imaged in a first time-series image among a plurality of time-series images acquired from a plurality of imaging devices based on a predetermined reference direction serving as a reference for the direction of the target object and the moving direction. An object and a second target object captured in the second time-series image among the plurality of time-series images are included in common in the first time-series image and the second time-series image. A region selecting step for obtaining a common region on the first target object and the second target object;
A feature amount is extracted from an image corresponding to the common area, and the tracking result obtained by the tracking step is associated with a plurality of time-series images acquired from the plurality of imaging devices using the feature amount. An image processing program for causing a computer to execute the connecting step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014058924A JP6139447B2 (en) | 2014-03-20 | 2014-03-20 | Image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014058924A JP6139447B2 (en) | 2014-03-20 | 2014-03-20 | Image processing apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015184810A true JP2015184810A (en) | 2015-10-22 |
JP6139447B2 JP6139447B2 (en) | 2017-05-31 |
Family
ID=54351297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014058924A Active JP6139447B2 (en) | 2014-03-20 | 2014-03-20 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6139447B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017068375A (en) * | 2015-09-28 | 2017-04-06 | Kddi株式会社 | Device, method and program for tracking person using plural cameras |
WO2017073252A1 (en) * | 2015-10-27 | 2017-05-04 | ソニー株式会社 | Information processing device, information processing method and program |
JP2018036960A (en) * | 2016-09-01 | 2018-03-08 | 株式会社リコー | Image similarity level calculation device, image processing device, image processing method and recording medium |
WO2020241034A1 (en) * | 2019-05-30 | 2020-12-03 | アースアイズ株式会社 | Monitoring system and monitoring method |
JP2020194493A (en) * | 2019-05-30 | 2020-12-03 | アースアイズ株式会社 | Monitoring system for nursing-care apparatus or hospital and monitoring method |
US10885641B2 (en) | 2016-10-19 | 2021-01-05 | Nec Corporation | Image processing device, stationary object tracking system, image processing method, and recording medium |
US11023775B2 (en) | 2018-08-02 | 2021-06-01 | Panasonic Intellectual Property Corporation Of America | Information processing method and information processing system |
CN113873144A (en) * | 2021-08-25 | 2021-12-31 | 浙江大华技术股份有限公司 | Image capturing method, image capturing apparatus, and computer-readable storage medium |
JPWO2022195790A1 (en) * | 2021-03-18 | 2022-09-22 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000322577A (en) * | 1999-05-12 | 2000-11-24 | Nec Corp | Device and method for collating image and recording medium with its control program recorded thereon |
JP2006093955A (en) * | 2004-09-22 | 2006-04-06 | Matsushita Electric Ind Co Ltd | Video processing apparatus |
JP2009268065A (en) * | 2008-03-31 | 2009-11-12 | Fujifilm Corp | Image processing system, image processing method, and program |
JP2010252015A (en) * | 2009-04-15 | 2010-11-04 | Panasonic Corp | Image composition device, image composition method and program |
JP2011133984A (en) * | 2009-12-22 | 2011-07-07 | Panasonic Corp | Motion feature extraction device and motion feature extraction method |
JP2011180684A (en) * | 2010-02-26 | 2011-09-15 | Secom Co Ltd | Moving-object tracking device |
WO2013108686A1 (en) * | 2012-01-17 | 2013-07-25 | ソニー株式会社 | Information processing device and method, and program |
JP2014050100A (en) * | 2012-09-01 | 2014-03-17 | Honda Motor Co Ltd | Vehicle periphery-monitoring device |
JP2015002547A (en) * | 2013-06-18 | 2015-01-05 | 富士通株式会社 | Image processing apparatus, program, and image processing method |
-
2014
- 2014-03-20 JP JP2014058924A patent/JP6139447B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000322577A (en) * | 1999-05-12 | 2000-11-24 | Nec Corp | Device and method for collating image and recording medium with its control program recorded thereon |
JP2006093955A (en) * | 2004-09-22 | 2006-04-06 | Matsushita Electric Ind Co Ltd | Video processing apparatus |
JP2009268065A (en) * | 2008-03-31 | 2009-11-12 | Fujifilm Corp | Image processing system, image processing method, and program |
JP2010252015A (en) * | 2009-04-15 | 2010-11-04 | Panasonic Corp | Image composition device, image composition method and program |
JP2011133984A (en) * | 2009-12-22 | 2011-07-07 | Panasonic Corp | Motion feature extraction device and motion feature extraction method |
JP2011180684A (en) * | 2010-02-26 | 2011-09-15 | Secom Co Ltd | Moving-object tracking device |
WO2013108686A1 (en) * | 2012-01-17 | 2013-07-25 | ソニー株式会社 | Information processing device and method, and program |
JP2014050100A (en) * | 2012-09-01 | 2014-03-17 | Honda Motor Co Ltd | Vehicle periphery-monitoring device |
JP2015002547A (en) * | 2013-06-18 | 2015-01-05 | 富士通株式会社 | Image processing apparatus, program, and image processing method |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017068375A (en) * | 2015-09-28 | 2017-04-06 | Kddi株式会社 | Device, method and program for tracking person using plural cameras |
WO2017073252A1 (en) * | 2015-10-27 | 2017-05-04 | ソニー株式会社 | Information processing device, information processing method and program |
CN108141572A (en) * | 2015-10-27 | 2018-06-08 | 索尼公司 | Information processing equipment, information processing method and program |
US10349013B2 (en) | 2015-10-27 | 2019-07-09 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP2018036960A (en) * | 2016-09-01 | 2018-03-08 | 株式会社リコー | Image similarity level calculation device, image processing device, image processing method and recording medium |
US11288817B2 (en) | 2016-10-19 | 2022-03-29 | Nec Corporation | Image processing device, stationary object tracking system, image processing method, and recording medium |
US11049260B2 (en) | 2016-10-19 | 2021-06-29 | Nec Corporation | Image processing device, stationary object tracking system, image processing method, and recording medium |
US10885641B2 (en) | 2016-10-19 | 2021-01-05 | Nec Corporation | Image processing device, stationary object tracking system, image processing method, and recording medium |
US11023775B2 (en) | 2018-08-02 | 2021-06-01 | Panasonic Intellectual Property Corporation Of America | Information processing method and information processing system |
JP2020194493A (en) * | 2019-05-30 | 2020-12-03 | アースアイズ株式会社 | Monitoring system for nursing-care apparatus or hospital and monitoring method |
WO2020241034A1 (en) * | 2019-05-30 | 2020-12-03 | アースアイズ株式会社 | Monitoring system and monitoring method |
JPWO2022195790A1 (en) * | 2021-03-18 | 2022-09-22 | ||
WO2022195790A1 (en) * | 2021-03-18 | 2022-09-22 | 三菱電機株式会社 | Image processing device and image processing method |
JP7274068B2 (en) | 2021-03-18 | 2023-05-15 | 三菱電機株式会社 | Image processing device and image processing method |
GB2618757A (en) * | 2021-03-18 | 2023-11-15 | Mitsubishi Electric Corp | Image processing device and image processing method |
GB2618757B (en) * | 2021-03-18 | 2024-05-29 | Mitsubishi Electric Corp | Image processing device and image processing method |
CN113873144A (en) * | 2021-08-25 | 2021-12-31 | 浙江大华技术股份有限公司 | Image capturing method, image capturing apparatus, and computer-readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6139447B2 (en) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6139447B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US10075652B2 (en) | Image processing device for tracking a target object and image processing method, computer program product, and image processing system for same | |
JP6428266B2 (en) | COLOR CORRECTION DEVICE, COLOR CORRECTION METHOD, AND COLOR CORRECTION PROGRAM | |
JP6007682B2 (en) | Image processing apparatus, image processing method, and program | |
US10853927B2 (en) | Image fusion architecture | |
US20190191098A1 (en) | Object tracking apparatus, object tracking method, and non-transitory computer-readable storage medium for storing program | |
KR102356448B1 (en) | Method for composing image and electronic device thereof | |
TWI701609B (en) | Method, system, and computer-readable recording medium for image object tracking | |
Nie et al. | Single/cross-camera multiple-person tracking by graph matching | |
US10600191B2 (en) | System and method for tracking multiple objects | |
US20120288140A1 (en) | Method and system for selecting a video analysis method based on available video representation features | |
Ghanem et al. | Robust video registration applied to field-sports video analysis | |
EP2591460A1 (en) | Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation | |
US20200311890A1 (en) | Image fusion processing module | |
JP6292540B2 (en) | Information processing system, information processing method, and program | |
KR20140015892A (en) | Apparatus and method for alignment of images | |
JP6157165B2 (en) | Gaze detection device and imaging device | |
JP2013228930A (en) | Subject area detection device, method and program for controlling the same, imaging device and display device | |
JP6924064B2 (en) | Image processing device and its control method, and image pickup device | |
JPWO2014010203A1 (en) | Fall detection device, fall detection method, fall detection camera, and computer program | |
JP5656768B2 (en) | Image feature extraction device and program thereof | |
JP2018186397A (en) | Information processing device, image monitoring system, information processing method, and program | |
US10140503B2 (en) | Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus | |
KR101355976B1 (en) | Method and apparatus for object tracking using stereo feature matching | |
WO2019078310A1 (en) | Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20151102 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170427 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6139447 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |