JP2016024534A - Moving body tracking device, moving body tracking method, and computer program - Google Patents
Moving body tracking device, moving body tracking method, and computer program Download PDFInfo
- Publication number
- JP2016024534A JP2016024534A JP2014146677A JP2014146677A JP2016024534A JP 2016024534 A JP2016024534 A JP 2016024534A JP 2014146677 A JP2014146677 A JP 2014146677A JP 2014146677 A JP2014146677 A JP 2014146677A JP 2016024534 A JP2016024534 A JP 2016024534A
- Authority
- JP
- Japan
- Prior art keywords
- correlation
- image
- partial areas
- partial
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、動画像に含まれる移動体を追跡、あるいは照合する技術分野に関する。特に、本発明は、背景変動の大きな混雑環境において、例えば、監視カメラや車載カメラ等により撮像された動画像に含まれる人物などの移動体の追跡技術に関する。 The present invention relates to a technical field for tracking or collating a moving object included in a moving image. In particular, the present invention relates to a tracking technique for a moving body such as a person included in a moving image captured by a monitoring camera, an in-vehicle camera, or the like in a congested environment with a large background fluctuation.
近年、画像処理技術は、情報化社会が進む中で様々な分野において活用されている。例えば、特許文献1は、画像処理技術を用いて道路上の交通量を監視する画像追跡装置について開示する。この画像追跡装置は、テンプレートとして設定した画像をブロックに分割する。そして、画像追跡装置は、分割したブロック毎に、照合の対象である照合画像を走査することにより、当該ブロックとそのブロックに対応する領域(対応領域)との相関値を求める。画像追跡装置は、求めた相関値のうち、良い相関値を示すブロックのみを、テンプレートと走査領域との間の相関値として出力する。このように、特許文献1には、追跡対象周辺の背景が変化した場合や前景の障害物によって追跡対象が隠れた場合であっても、頑健な照合を可能とする手法が提案されている。 In recent years, image processing technology has been utilized in various fields as the information society advances. For example, Patent Literature 1 discloses an image tracking device that monitors traffic on a road using an image processing technique. This image tracking apparatus divides an image set as a template into blocks. Then, the image tracking apparatus obtains a correlation value between the block and a region (corresponding region) corresponding to the block by scanning a collation image that is a collation target for each divided block. The image tracking apparatus outputs only the block showing a good correlation value among the obtained correlation values as the correlation value between the template and the scanning region. As described above, Patent Document 1 proposes a technique that enables robust matching even when the background around the tracking target changes or when the tracking target is hidden by an obstacle in the foreground.
また、特許文献2は、画像における移動物体の追跡方法及び装置に関する技術を開示する。この追跡装置は、より少ない時系列に撮像された動画像を用いて移動体を追跡することができる。 Patent Document 2 discloses a technique related to a method and apparatus for tracking a moving object in an image. This tracking device can track a moving object using moving images captured in a smaller time series.
ところで、画像処理技術には、例えば、動画像に含まれる人物や車などといった特定の移動体を追跡する技術が存在する。この技術は、当該動画像を構成する画像(画像フレーム)に含まれる移動体を表す領域を指定する(以下、本願では、「テンプレート」と称する)。そして、当該技術は、時系列な複数の画像によって構成される動画像において、当該画像と異なる別の時刻に取得された画像から同一の物体(移動体)が映る領域を照合する。しかしながら、当該技術では、テンプレート内部の画像と、照合画像とにおいて追跡対象の領域を表す画像(以下、「追跡対象画像」と称する)の変化に対して、ロバスト性を担保しつつ、正しい領域を照合することが課題とされている。 By the way, as an image processing technique, there is a technique for tracking a specific moving body such as a person or a car included in a moving image, for example. In this technique, a region representing a moving body included in an image (image frame) constituting the moving image is designated (hereinafter referred to as “template” in the present application). Then, in the moving image composed of a plurality of time-series images, the technology collates a region where the same object (moving body) appears from an image acquired at a different time from the image. However, in this technique, a correct region is obtained while ensuring robustness against a change in an image representing a tracking target region (hereinafter referred to as a “tracking target image”) in the image inside the template and the collation image. Collation is an issue.
特許文献1には、追跡対象周辺の背景が変化した場合や前景に障害物を含むような追跡対象が隠れた場合であっても、頑健に照合する手法が開示されている。しかしながら、当該手法は、背景や追跡対象の隠れた部分を除いた追跡対象画像の形状や明るさなどを変化させないことを前提としている。そのため、例えば、歩行者のように姿勢を絶えず変化させながら移動するような非剛体(移動体)を照合する場合に、当該手法では、非剛体を表す動画像に対して正しく照合(あるいは追跡)を行うことが困難である。また、特許文献2に開示された技術では、同様に、この問題を解決することができない。 Japanese Patent Application Laid-Open No. 2004-151620 discloses a method for robust matching even when the background around the tracking target changes or when the tracking target including an obstacle is hidden in the foreground. However, this method is premised on not changing the shape or brightness of the tracking target image excluding the background and the hidden portion of the tracking target. Therefore, for example, when collating a non-rigid body (moving body) that moves while constantly changing its posture like a pedestrian, this method correctly collates (or tracks) a moving image representing the non-rigid body. Is difficult to do. Similarly, the technique disclosed in Patent Document 2 cannot solve this problem.
本発明は、歩行者のような絶えず変形を伴う非剛体を含む動画像において背景変化や非剛体の隠れ(オクルージョン)が生じた場合であっても、その動画像を頑健に照合可能な移動体追跡システム等を提供することを主たる目的とする。 The present invention provides a moving object that can robustly collate the moving image even when a background change or non-rigid hiding (occlusion) occurs in a moving image including a non-rigid body that is constantly deformed, such as a pedestrian. The main purpose is to provide a tracking system.
上記の課題を達成すべく、本発明の一態様に係る移動体追跡装置は、以下の構成を備えることを特徴とする。 In order to achieve the above object, a mobile tracking device according to an aspect of the present invention is characterized by including the following configuration.
即ち、本発明の一態様に係る移動体追跡装置は、
照合又は追跡対象である移動体を表す第1の画像領域と、照合すべき興味領域を表す第2の画像領域とをそれぞれ部分領域に分割する分割手段と、
前記第1及び第2の画像領域間において部分領域同士の相関を求める相関演算手段と、
前記求めた部分領域同士の相関のうち、該部分領域同士の組合せに対し与えられた重要度に従い特定の部分領域同士の組合せを選定し、その選定した特定の部分領域同士の相関を統合することによって、前記第1及び第2の画像領域間の相関を求める統合相関演算手段とを備える。
That is, the mobile tracking device according to one aspect of the present invention is
A dividing unit that divides each of the first image region representing the moving object to be collated or tracked and the second image region representing the region of interest to be collated into partial regions;
Correlation calculating means for obtaining a correlation between partial areas between the first and second image areas;
Of the correlations between the obtained partial areas, a combination of specific partial areas is selected according to the importance given to the combination of the partial areas, and the correlation between the selected specific partial areas is integrated. And an integrated correlation calculating means for obtaining a correlation between the first and second image regions.
また、同目的を達成すべく、本発明の一態様に係る移動体追跡方法は、以下の構成を備えることを特徴とする。 In order to achieve the object, a moving body tracking method according to an aspect of the present invention includes the following configuration.
即ち、本発明の一態様に係る移動体追跡方法は、
電子制御装置によって、
照合又は追跡対象である移動体を表す第1の画像領域と、照合すべき興味領域を表す第2の画像領域とをそれぞれ部分領域に分割し、
前記第1及び第2の画像領域間において部分領域同士の相関を求め、
前記求めた部分領域同士の相関のうち、該部分領域同士の組合せに対し与えられた重要度に従い特定の部分領域同士の組合せを選定し、その選定した特定の部分領域同士の相関を統合することによって、前記第1及び第2の画像領域間の相関を求める。
That is, the moving body tracking method according to an aspect of the present invention includes:
By electronic control unit,
A first image area representing a mobile object to be collated or tracked and a second image area representing an area of interest to be collated are each divided into partial areas;
Obtaining a correlation between partial areas between the first and second image areas;
Of the correlations between the obtained partial areas, a combination of specific partial areas is selected according to the importance given to the combination of the partial areas, and the correlation between the selected specific partial areas is integrated. To obtain a correlation between the first and second image regions.
なお、同目的は、上記の各構成を有する移動体追跡装置及び移動体追跡方法を、コンピュータによって実現するコンピュータ・プログラム、及びそのコンピュータ・プログラムが格納されている、読み取り可能な記憶媒体によっても達成される。 The object is also achieved by a computer program for realizing the mobile object tracking device and the mobile object tracking method having the above-described configurations by a computer, and a readable storage medium storing the computer program. Is done.
本発明によれば、歩行者のような絶えず変形を伴う非剛体を含む動画像において背景変化や非剛体のオクルージョンが生じた場合であっても、その動画像を頑健に照合可能な移動体追跡システム等を提供することができる。 According to the present invention, even when a background change or non-rigid occlusion occurs in a moving image including a non-rigid body that is constantly deformed, such as a pedestrian, the moving object tracking that can robustly match the moving image A system or the like can be provided.
以下、本発明の実施形態について図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<第1の実施形態>
図1は、本発明の第1の実施形態における移動体追跡システム1の構成例を模式的に示すブロック図である。図1を参照すると、移動体追跡システム1は、画像出力装置20と、電子制御装置10と、端末装置30と、を備える。移動体追跡システム1は、撮影画像に基づいて検出対象である移動体の動きを追跡するシステムである。
<First Embodiment>
FIG. 1 is a block diagram schematically showing a configuration example of a moving body tracking system 1 according to the first embodiment of the present invention. Referring to FIG. 1, the moving body tracking system 1 includes an image output device 20, an electronic control device 10, and a terminal device 30. The moving body tracking system 1 is a system that tracks the movement of a moving body that is a detection target based on a captured image.
以下の説明において、移動体は、例えば、歩行者、先行車両等である。 In the following description, the moving body is, for example, a pedestrian or a preceding vehicle.
画像出力装置20は、少なくとも画像情報を、電子制御装置10に対して出力する装置である。図1に示す画像出力装置20は、例えば、カメラデバイスを模している。このカメラデバイスは、リアルタイムで画像を撮像する装置(以下、本願では、「撮像装置」と称する)である。また、カメラデバイスは、撮影対象の画像を連続的に取得する。撮像装置には、例えば、NTSC(National Television Standards Committee)形式やPAL(Phase Alternating Line)形式を出力するビデオカメラ等を用いることができる。 The image output device 20 is a device that outputs at least image information to the electronic control device 10. The image output apparatus 20 illustrated in FIG. 1 is a camera device, for example. This camera device is an apparatus that captures an image in real time (hereinafter referred to as an “imaging apparatus” in the present application). In addition, the camera device continuously acquires images to be captured. For example, a video camera that outputs an NTSC (National Television Standards Committee) format or a PAL (Phase Alternating Line) format can be used as the imaging device.
なお、画像出力装置20は、記憶媒体に保存された画像情報を読み出してNTSC出力やPAL出力、その他電子制御装置10が読み取ることのできる画像形式に変換して出力するような画像キャプチャ装置でもよい。この場合の画像出力装置20は、電子制御装置10のCPU(Central Processing Unit)11内部において動作するソフトウェアプログラムとして実現することもできる。また、画像出力装置20は、固定カメラに限定されず、移動カメラでもよい。本実施形態を例に説明する本発明は、例えば、パンチルトカメラを用いた監視システム、車載カメラによるドライバー支援、移動ロボットの環境認識、等の幅広い用途に応用が可能である。 The image output device 20 may be an image capture device that reads image information stored in a storage medium, converts it into an NTSC output, PAL output, or other image format that can be read by the electronic control device 10 and outputs the image format. . The image output device 20 in this case can also be realized as a software program that operates inside a CPU (Central Processing Unit) 11 of the electronic control device 10. The image output device 20 is not limited to a fixed camera, and may be a moving camera. The present invention described by taking this embodiment as an example can be applied to a wide range of applications such as a monitoring system using a pan / tilt camera, driver assistance using a vehicle-mounted camera, environment recognition of a mobile robot, and the like.
端末装置30は、電子制御装置10を操作し、電子制御装置10の内部状態や出力をモニタリングするユーザインターフェースとして動作する。端末装置30は、入力画像や、認識領域、登録されている認識対象のリストをユーザに示すシンボル等を提示するディスプレイ等である。また、端末装置30は、画像認識の開始及び終了、認識対象の指定、ディスプレイに提示する提示情報の選択等、電子制御装置10への指令を入力する入力デバイス(例えば、スイッチボード、キーボード、マウス、タッチパネル等)である。 The terminal device 30 operates as a user interface that operates the electronic control device 10 and monitors the internal state and output of the electronic control device 10. The terminal device 30 is a display or the like that presents an input image, a recognition area, a symbol indicating a registered list of recognition targets, and the like. Further, the terminal device 30 is an input device (for example, a switch board, a keyboard, a mouse, etc.) that inputs commands to the electronic control device 10 such as start and end of image recognition, designation of a recognition target, selection of presentation information to be presented on a display, , Touch panel, etc.).
なお、説明の便宜上、移動体追跡システム1は、端末装置30を有する構成を例に説明するが、本実施形態を例に説明する本発明は、前述した構成には限定されない。移動体追跡システム1は、端末装置30を有さない構成において本発明を実現することも可能である(以下の実施形態においても同様)。 For convenience of explanation, the mobile tracking system 1 will be described by taking a configuration having the terminal device 30 as an example, but the present invention described by taking this embodiment as an example is not limited to the configuration described above. The mobile body tracking system 1 can also implement the present invention in a configuration that does not include the terminal device 30 (the same applies to the following embodiments).
この他に、端末装置30は、移動体追跡システム1が得た情報を入力として利用する装置(不図示)を接続することができる。当該装置の機能は、電子制御装置10のCPU11内部において動作するソフトウェアプログラムとして実現することもできる。 In addition, the terminal device 30 can be connected to a device (not shown) that uses information obtained by the mobile tracking system 1 as an input. The function of the device can also be realized as a software program that operates inside the CPU 11 of the electronic control device 10.
電子制御装置10は、画像中の移動体を認識する情報処理を行うコンピュータである。電子制御装置10は、画像出力装置20から送られる画像情報に応じて、所定のプログラムに基づき、画像中に含まれる認識対象とした特定のカテゴリに属する移動体(例えば、歩行者、先行車両等)を表す領域を特定する情報処理を行う。 The electronic control device 10 is a computer that performs information processing for recognizing a moving object in an image. The electronic control device 10 is based on the image information sent from the image output device 20, and based on a predetermined program, the mobile body (for example, a pedestrian, a preceding vehicle, etc.) belonging to a specific category to be recognized included in the image Information processing for specifying the area representing) is performed.
電子制御装置10は、中央演算装置(CPU)11と、記憶装置(Mem:Memory)12と、記憶装置(DB:database)13と、インターフェース(Interface:I/F)14と、インターフェース15と、を有する。図1において、説明の便宜上、記憶装置(Mem)12と記憶装置(DB)13とは、分けて記載している。しかしながら、これらは、一つの記憶デバイスとして実現してもよい。 The electronic control unit 10 includes a central processing unit (CPU) 11, a storage device (Mem: Memory) 12, a storage device (DB: database) 13, an interface (Interface: I / F) 14, an interface 15, Have In FIG. 1, for convenience of explanation, the storage device (Mem) 12 and the storage device (DB) 13 are shown separately. However, these may be realized as one storage device.
インターフェース14は、中央演算装置11、記憶装置(Mem)12及び記憶装置(DB)13と、画像出力装置20との間において情報の授受を仲介する装置である。図1において、一例として、インターフェース14は、画像出力装置20と中央演算装置11とが接続されている。しかしながら、インターフェース14は、記憶装置(Mem)12及び記憶装置(DB)13と直接接続されてもよい。 The interface 14 is a device that mediates exchange of information among the central processing unit 11, the storage device (Mem) 12, the storage device (DB) 13, and the image output device 20. In FIG. 1, as an example, the interface 14 is connected to the image output device 20 and the central processing unit 11. However, the interface 14 may be directly connected to the storage device (Mem) 12 and the storage device (DB) 13.
インターフェース15は、電子制御装置10の内部で行なわれた情報処理の結果を外部に接続した端末装置30に引き渡す場合、あるいは端末装置30から入力される電子制御装置10への指令入力を受け取る場合に情報の仲介装置としての役割を果たす。 The interface 15 passes the result of information processing performed inside the electronic control device 10 to the terminal device 30 connected to the outside, or receives a command input from the terminal device 30 to the electronic control device 10. Serves as an information broker.
記憶装置(Mem)12は、一時的なデータを記憶する装置である。記憶装置(Mem)12は、中央演算装置11と電気的に接続されている。 The storage device (Mem) 12 is a device that stores temporary data. The storage device (Mem) 12 is electrically connected to the central processing unit 11.
記憶装置(DB)13は、主にデータベース(DB)を記憶する装置である。記憶装置(DB)13は、中央演算装置11と電気的に接続されている。なお、説明の便宜上、図1において、記憶装置(Mem)12及び記憶装置(DB)13は、電子制御装置10に内蔵された構成を例に説明する。しかしながら本発明に係る実施形態は、係る構成に限定されない。これらの装置は、外部の記憶装置でもよい。 The storage device (DB) 13 is a device that mainly stores a database (DB). The storage device (DB) 13 is electrically connected to the central processing unit 11. For convenience of explanation, in FIG. 1, the storage device (Mem) 12 and the storage device (DB) 13 will be described by taking a configuration built in the electronic control device 10 as an example. However, the embodiment according to the present invention is not limited to such a configuration. These devices may be external storage devices.
中央演算装置11は、情報処理を行う装置である。中央演算装置11は、インターフェース14、インターフェース15、記憶装置(Mem)12、及び記憶装置(DB)13と電気的に接続されている。中央演算装置11は、画像出力装置20からインターフェース14を介して入力された画像情報に基づいて、記憶装置(Mem)12及び記憶装置(DB)13に記憶された情報を参照しながら、対象となる移動体等の画像領域を照合、あるいは追跡する情報処理を行う。なお、以下の説明では、説明の便宜上、当該画像領域の照合を「画像照合」と称し、そして、当該画像領域の追跡を「画像追跡」と称する。 The central processing unit 11 is a device that performs information processing. The central processing unit 11 is electrically connected to an interface 14, an interface 15, a storage device (Mem) 12, and a storage device (DB) 13. The central processing unit 11 refers to the information stored in the storage device (Mem) 12 and the storage device (DB) 13 based on the image information input from the image output device 20 via the interface 14. Information processing for collating or tracking an image area such as a moving object is performed. In the following description, for convenience of explanation, the matching of the image area is referred to as “image matching”, and the tracking of the image area is referred to as “image tracking”.
ここでは、より具体的に、画像照合(画像追跡)について説明する。以下の説明では、前提として、照合又は追跡の対象(照合対象又は追跡対象)を表す画像を含む参照画像(テンプレート画像、第1の画像領域)が与えられることとする。画像照合(画像追跡)は、当該テンプレート画像と異なる別のシーンの画像(テスト画像)において照合又は追跡対象を表す領域を推定することである。なお、参照画像とテスト画像とは、例えば、動画像のような時系列に連続する画像である。 Here, image collation (image tracking) will be described more specifically. In the following description, it is assumed that a reference image (template image, first image region) including an image representing a target of verification or tracking (a verification target or a tracking target) is given. Image collation (image tracking) is to estimate a region representing a collation or tracking target in an image (test image) of another scene different from the template image. Note that the reference image and the test image are images that are continuous in time series, such as a moving image.
また、係るテンプレート画像は、元の画像から照合又は追跡対象を中心とする最小の矩形領域を切り出した部分画像を表す領域などとして定義することができる。 Further, such a template image can be defined as a region representing a partial image obtained by cutting out a minimum rectangular region centered on a target to be collated or tracked from an original image.
なお、以下の説明では、テンプレート画像とテスト画像とにおいて時系列的な連続性を前提としない場合は、単に、画像照合、あるいは画像検索と呼ばれる。そして、過去に取得したテンプレート画像と、それより後の(つまり、近傍の)時刻に取得した画像との照合を時系列的に繰り返す場合に、ここでは、画像追跡とする。 In the following description, when time series continuity is not assumed between the template image and the test image, it is simply referred to as image collation or image search. In this case, image tracking is used when collating a template image acquired in the past with an image acquired at a later (that is, near) time in time series.
以下の説明では、上述した画像照合、および画像追跡のどちらの応用でも有効なテンプレート画像(第1の画像領域)とテスト画像に含まれる興味領域(第2の画像領域)との照合方法について扱う。 In the following description, a method for collating a template image (first image region) and a region of interest (second image region) included in a test image that are effective in both applications of image collation and image tracking described above will be described. .
また、本実施の形態においては認識対象として主に歩行者が例となる。ただし、本発明は認識対象を歩行者に限定するものではない。本発明は、形状の変化を伴いながら移動する移動体の追跡において有効な手法を提供する。 In this embodiment, pedestrians are mainly examples of recognition targets. However, the present invention does not limit the recognition target to pedestrians. The present invention provides an effective technique for tracking a moving object that moves with a change in shape.
なお、以下の説明では、テスト画像に含まれる興味領域を、ROI(Region of interest)画像と称する(以下、各実施形態においても同様)。 In the following description, the region of interest included in the test image is referred to as a ROI (Region of Interest) image (hereinafter, the same applies to each embodiment).
図2は、本発明の第1の実施形態における移動体追跡システム1の構成例を示すブロック図である。 FIG. 2 is a block diagram illustrating a configuration example of the moving body tracking system 1 according to the first embodiment of the present invention.
電子制御装置10は、中央演算装置11においてソフトウェアプログラムを実行することで、図2にブロックで示す各部の機能を実現する。電子制御装置10において実現される各部の機能は、個々の装置、又は機能部もしくは電子回路として実現されてもよい。また、当該装置内に供給されるソフトウェアプログラムは、読み書き可能な記憶装置(Mem)12及び記憶装置(DB)13等の記憶デバイスに格納すればよい。 The electronic control unit 10 executes the software program in the central processing unit 11 to realize the functions of the respective units shown by blocks in FIG. The function of each unit realized in the electronic control device 10 may be realized as an individual device, a functional unit, or an electronic circuit. The software program supplied to the apparatus may be stored in a storage device such as a readable / writable storage device (Mem) 12 and storage device (DB) 13.
また、前記の場合において、当該電子制御装置10内へのソフトウェアプログラムの供給方法は、現在では一般的な手順を採用することができる。例えば、CD−ROM(Compact Disc Read Only Memory)等の各種記憶媒体を介して当該装置内にインストールする方法や、インターネット等の通信回線を介して外部よりダウンロードする方法等である。そして、このような場合において、本発明は、係るソフトウェアプログラムを構成するコード、或いはそのコードが格納された記憶媒体によって構成されると捉えることができる。 In the above case, the software program supply method into the electronic control apparatus 10 can employ a general procedure at present. For example, there are a method of installing in the apparatus via various storage media such as a CD-ROM (Compact Disc Read Only Memory), a method of downloading from the outside via a communication line such as the Internet, and the like. In such a case, the present invention can be considered to be configured by a code constituting the software program or a storage medium storing the code.
図2を参照すると、電子制御装置10は、クラスタ抽出部(分割部)101と、クラスタ間相関演算部102と、統合相関演算部103と、を有する。 Referring to FIG. 2, the electronic control device 10 includes a cluster extraction unit (dividing unit) 101, an inter-cluster correlation calculation unit 102, and an integrated correlation calculation unit 103.
これら機能部は、全体で機能することによりテンプレート画像とROI画像との間の相関値(類似度、又は一致度と言い換えてもよい)を演算する。また、システム全体では、テスト画像に含まれる1つ以上のROI画像に対して当該相関値演算を適用する。そして、システム全体としては、もっとも高い相関値を持つ位置を照合領域として決定する等、最終的な照合領域の判断に用いることができる。これらの機能はそれぞれ概略つぎのように動作する。 These functional units function as a whole to calculate a correlation value (which may be referred to as similarity or coincidence) between the template image and the ROI image. In the entire system, the correlation value calculation is applied to one or more ROI images included in the test image. And as a whole system, it can use for judgment of a final collation area, such as determining a position with the highest correlation value as a collation area. Each of these functions generally operates as follows.
クラスタ抽出部101は、テンプレート画像、およびテスト画像において選択されたROI画像のそれぞれの画像領域に対して、部分領域に分割する領域分割を実行する。 The cluster extraction unit 101 executes region division for dividing each image region of the template image and the ROI image selected in the test image into partial regions.
クラスタリングの手段は、例えば、既存のK平均法(k−means)、階層的クラスタリング及びGraph−cut等の手段を用いてもよい。 As the clustering means, for example, an existing K-means (k-means), hierarchical clustering, Graph-cut, or the like may be used.
クラスタリングは、一般に、データ内部の要素(一つのデータ、若しくは全体のサブセットになるグループ)同士の距離(または類似度)を定義する。次に、クラスタリングは、距離が近い(または類似度が高い)要素を同一のグループとする。その一方で、クラスタリングは、距離が遠い(または類似度が低い)要素を別のグループとするようなグループ分けを実行することが知られている。 Clustering generally defines the distance (or similarity) between elements within data (one data or a group that is a subset of the whole). Next, clustering makes elements that are close in distance (or high in similarity) into the same group. On the other hand, clustering is known to perform grouping in which elements that are far away (or have a low similarity) are grouped together.
K平均法は、分割数を示すK個分の重心を初期値として与えた後に、各要素を最近傍の重心に関連付ける。そして、K平均法は、各重心を関連付けられた要素の平均値で更新する。K平均法は、これら手続きを重心の変動が収束するまで続ける。これにより、K平均法は、K個のクラスタに要素をグループ分けすることができる。 In the K-average method, K centroids indicating the number of divisions are given as initial values, and then each element is associated with the nearest centroid. The K-average method updates each centroid with the average value of the associated elements. The K-means method continues these procedures until the change in the center of gravity converges. Thereby, the K-average method can group elements into K clusters.
階層的クラスタリングは、距離の近いグループから順に同一のグループにまとめる手続きを、最終的に全ての要素が一つのグループに統合されるまで続けることによりグループ分類の樹形図を作成する手法である。 Hierarchical clustering is a method of creating a tree diagram of group classification by continuing the procedure of grouping into the same group in order from the closest group until all elements are finally integrated into one group.
Graph−cut系統の諸手法では、分割する境界選択の問題を、エネルギを最小化する最小化問題として解く。 In the methods of the Graph-cut system, the problem of selecting a boundary to be divided is solved as a minimization problem that minimizes energy.
クラスタリングに用いる要素同士の距離(あるいは類似度)の定義は、画像に含まれる座標距離(ユークリッド距離、画素距離)、輝度や色の近さ、時系列画像間のピクセル同士の対応である動きベクトル(オプティカルフローなど)の類似性、等の特徴の類似性(あるいは非類似性)を用いることができる。より具体的に、一例として、クラスタ抽出部101は、テンプレート画像、およびROI画像においてピクセル間の動きを表すフローベクトルの類似性を含む基準に基づいて、テンプレート画像及びROI画像を、部分領域に分割する構成を採用してもよい。 The definition of the distance (or similarity) between elements used for clustering is the coordinate distance (Euclidean distance, pixel distance) included in the image, the proximity of brightness and color, and the motion vector that is the correspondence between pixels between time-series images. Similarity (or non-similarity) of features such as similarity (such as optical flow) can be used. More specifically, as an example, the cluster extraction unit 101 divides the template image and the ROI image into partial regions based on the template image and a criterion including similarity of flow vectors representing movement between pixels in the ROI image. You may employ | adopt the structure to do.
また、上述した手段だけでなく、クラスタの抽出には、既存の画像セグメンテーション手法を用いることができる。例えば、当該手法としては、オプティカルフローによる動きベクトルを長期的に連結することにより求めた軌道を用いて、軌道の差分と画像に含まれる幾何学的な距離とからピクセル同士の距離を定義し、人物と背景などの領域分離を実現する。 In addition to the above-described means, an existing image segmentation technique can be used for cluster extraction. For example, as the method, the distance between pixels is defined from the difference between the trajectory and the geometric distance included in the image using the trajectory obtained by long-term linking motion vectors by optical flow, Realize area separation such as person and background.
クラスタ間相関演算部102は、前記クラスタ抽出部101において取得されたクラスタ毎に、テンプレート画像から得たクラスタとROI画像から得たクラスタとの間の相関値を演算する。 The inter-cluster correlation calculation unit 102 calculates a correlation value between the cluster obtained from the template image and the cluster obtained from the ROI image for each cluster acquired by the cluster extraction unit 101.
ここでは、分割要素について説明する。以下の説明では、テンプレート画像、ROI画像の全体領域をそれぞれA、およびBとする。以下の説明では、テンプレート画像の全体領域をテンプレート領域(A)と称し、ROI画像の全体領域をROI領域(B)と称する。そして、領域AがM個に分割され、領域BがN個に分割された場合に、それぞれの分割要素は次のように定義することができる。即ち、
A={A1,A2,・・・,AM|M≧1} ・・・・・(1)、
B={B1,B2,・・・,BN|N≧1} ・・・・・(2)。
Here, the division element will be described. In the following description, the entire areas of the template image and the ROI image are A and B, respectively. In the following description, the entire area of the template image is referred to as a template area (A), and the entire area of the ROI image is referred to as an ROI area (B). When the region A is divided into M pieces and the region B is divided into N pieces, the respective divided elements can be defined as follows. That is,
A = {A 1 , A 2 ,..., A M | M ≧ 1} (1),
B = {B 1 , B 2 ,..., B N | N ≧ 1} (2).
クラスタ間相関演算部102では、テンプレート画像の領域AとROI画像の領域Bとの任意のクラスタ要素(以下、単に、「クラスタ」、「要素」とも記す)の組合せ(Ai,Bj)の相関値R(Ai,Bj)の演算を行う。 In the inter-cluster correlation calculation unit 102, a combination (A i , B j ) of an arbitrary cluster element (hereinafter also simply referred to as “cluster” or “element”) of the region A of the template image and the region B of the ROI image. The correlation value R (A i , B j ) is calculated.
なお、一般に(Ai,Bj)の領域形状は、完全には一致しない。そのため、相関演算は、互いの領域形状の違いに非依存な特徴を取り出した特徴ベクトルの比較によって行う。 In general, the region shape of (A i , B j ) does not completely match. For this reason, the correlation calculation is performed by comparing feature vectors obtained by extracting features that are independent of the difference in the shape of each region.
ここで、特徴ベクトルには、例えば、各領域内部における画素の色や勾配方向などの種類別の割合を計算した正規化ヒストグラムを用いることができる。また、特徴ベクトル同士の相関には、Bhattacharyya係数などのベクトル類似度の指標、正規化相関、ユークリッド距離及びチェビチェフ距離などの各種距離指標を用いることができる。 Here, as the feature vector, for example, a normalized histogram obtained by calculating a ratio for each type such as a pixel color and a gradient direction in each region can be used. In addition, for correlation between feature vectors, vector similarity indices such as Bhattacharya coefficients, various correlation indices such as normalized correlation, Euclidean distance, and Chebychev distance can be used.
ここで、正規化相関値Corr(値域:[−1,+1])や距離Dist(値域:[0,+∞])は、例えば、次式のように0から1の値を取る類似度Rに変換することで、指標を統一することができる。 Here, the normalized correlation value Corr (range: [−1, +1]) and the distance Dist (value range: [0, + ∞]) are, for example, similarity R that takes a value from 0 to 1 as in the following equation: By converting to, the index can be unified.
R(Ai,Bj)=exp[−Dist(Ai,Bj)] ・・・・・(3)、
R(Ai,Bj)=2*Corr(Ai,Bj)−1.0 ・・・・・(4)、
ここで、expは、自然対数である。また、*は、積算である。
R (A i , B j ) = exp [−Dist (A i , B j )] (3),
R (A i , B j ) = 2 * Corr (A i , B j ) −1.0 (4),
Here, exp is a natural logarithm. * Is an integration.
なお、相関を求める要素の組合せ(Ai,Bj)は、全要素の組合せにおいて総当たりで相関を求めることが可能なように選択してもよい。他方、当該選択は、要素の組合せ条件を絞り込むことで、計算コストを抑えることもできる。 Note that the combination (A i , B j ) of the elements for which the correlation is obtained may be selected so that the correlation can be obtained for the brute force in all the combinations of the elements. On the other hand, the selection can also reduce the calculation cost by narrowing down the combination conditions of the elements.
以下の説明では、一例として、幾何学的な類似性(幾何学的類似性)に基づく組合せの絞込みの手法について説明する。 In the following description, a method for narrowing down combinations based on geometric similarity (geometric similarity) will be described as an example.
係る組合せの絞込みには、下記手法が考えられる。即ち、
(1)領域A、Bを重ねたときに互いに重なりをもつ要素同士のみを選択する領域の重なりの有無による絞込み、
(2)または領域A、Bの相対的な重なりの面積比率が閾値を超える要素に絞る重なり率による絞込み及び
(3)要素同士の面積の比が閾値を超えないもののみに絞る面積比による絞込み。
The following methods can be considered to narrow down such combinations. That is,
(1) Narrowing by the presence / absence of overlapping of regions for selecting only elements that overlap each other when the regions A and B are overlapped,
(2) Or, narrowing down by overlap ratio that narrows down to elements whose relative overlap area ratio of regions A and B exceeds the threshold, and (3) narrowing down by area ratio that narrows down to only those whose ratio of the area between elements does not exceed the threshold. .
これらは、クラスタ間の幾何学的な類似性の評価に基づく組合せの絞込みの条件を表す例である。この幾何学的な類似性は、上述した重なり率、面積比、あるいはそれらの組合せ等によって定義することができる。即ち、幾何学的類似性は、重なり率及び面積比の少なくとも何れかによって定義することができる。 These are examples representing conditions for narrowing down combinations based on the evaluation of geometric similarity between clusters. This geometric similarity can be defined by the above-described overlap ratio, area ratio, or a combination thereof. That is, the geometric similarity can be defined by at least one of an overlap ratio and an area ratio.
領域の重なり率は、例えば、次式(5)によって定義できる。また、面積比は、例えば、次式(6)によって定義できる。ただし、式(5)及び(6)に示すarea(X)は、領域Xの面積を表すものとする。
・・・・・(5)、
・・・・・(6)。
The overlapping ratio of the regions can be defined by the following equation (5), for example. Moreover, an area ratio can be defined by following Formula (6), for example. However, area (X) shown in the equations (5) and (6) represents the area of the region X.
(5),
(6).
重なり率と面積比とを用いた幾何学的類似性は、例えば、次式(7)によって定義できる。ただし、式(7)に示すαは、面積比に対する重みである。*は、積算である。 The geometric similarity using the overlap ratio and the area ratio can be defined by the following equation (7), for example. However, (alpha) shown in Formula (7) is a weight with respect to an area ratio. * Is an integration.
(幾何学的類似性)affg(Ai,Bj)=(1−α)*(重なり率)+α*(面積比)
・・・・・(7)
(Geometric similarity) aff g (A i , B j ) = (1−α) * (overlap ratio) + α * (area ratio)
(7)
このように、クラスタ間相関演算部102は、上述したaffg(Ai,Bj)のようなクラスタ間の類似性評価値が閾値を超える組合せにあらかじめ絞り込むことによって、クラスタ間における相関の演算コストを低減することができる。即ち、クラスタ間相関演算部102は、幾何学的類似性の評価に基づいて、部分領域同士の組合せを選定することによって、当該演算コストを低減することができる。なお、当該組合せを絞り込む処理は、図6に示すフローチャートを参照して詳細に後述する。 As described above, the inter-cluster correlation calculation unit 102 calculates the correlation between the clusters by narrowing down in advance to a combination in which the similarity evaluation value between the clusters exceeds the threshold, such as the above-described aff g (A i , B j ). Cost can be reduced. That is, the inter-cluster correlation calculation unit 102 can reduce the calculation cost by selecting a combination of partial areas based on the evaluation of geometric similarity. The process for narrowing down the combination will be described in detail later with reference to the flowchart shown in FIG.
また、クラスタ間相関演算部102は、照合対象がテンプレート画像、およびROI画像の中央または略中央に位置する前景領域であるという仮定に基づき、各画像の中心と各クラスタの中心との間の距離に反比例する重みを相関値に与えることで、中心に位置するクラスタ同士の相関を重視するように構成することもできる。なお、以下の説明では、説明の便宜上、中央または略中央を、単に、「中央」と記す。 In addition, the inter-cluster correlation calculation unit 102 calculates the distance between the center of each image and the center of each cluster based on the assumption that the comparison target is the template image and the foreground region located at the center or approximately the center of the ROI image. By giving a weight inversely proportional to the correlation value to the correlation value, it is possible to place importance on the correlation between clusters located at the center. In the following description, the center or the approximate center is simply referred to as “center” for convenience of description.
より具体的に、例えば、より低演算量で相関の演算を行うことを目的として、以下の説明では、照合対象がテンプレート画像、およびROI画像の中央に位置する前景領域であると仮定した場合について説明する。まず、クラスタ抽出部101は、クラスタ分割を行う。次に、クラスタ間相関演算部102は、分割したクラスタのうち、最も中心に近いクラスタのみを選択して相関を演算することができる。 More specifically, for example, for the purpose of performing correlation calculation with a lower calculation amount, in the following description, it is assumed that the comparison target is a template image and a foreground region located in the center of the ROI image. explain. First, the cluster extraction unit 101 performs cluster division. Next, the inter-cluster correlation calculation unit 102 can select only the cluster closest to the center from among the divided clusters and calculate the correlation.
この場合の相関値は、統合相関演算部103を介さずにこの時点で一つに定まる。そのため、統合相関演算部103では、クラスタ間相関演算部102で得た相関値を、テンプレート画像とROI画像との2画像間の相関値として採用する。 The correlation value in this case is determined to be one at this point without going through the integrated correlation calculation unit 103. For this reason, the integrated correlation calculation unit 103 employs the correlation value obtained by the inter-cluster correlation calculation unit 102 as a correlation value between two images of the template image and the ROI image.
また、相関を演算するクラスタの選択基準となる各画像の中心とクラスタの中心との間の距離は、クラスタの中心座標と画像中心との単純なユークリッド距離を用いることができる。この他に、当該選択基準には、クラスタの面積が閾値以上のものに限定する条件を付加するようにしてもよい。もしくは当該選択基準は、それら中心間の距離の大きさに正の相関があり、且つクラスタの領域面積の大きさに負の相関のあるような指標を定義し、それらを最小とするクラスタを選定するようにしてもよい。 Further, as the distance between the center of each image and the center of the cluster, which is a selection criterion for the cluster for calculating the correlation, a simple Euclidean distance between the center coordinates of the cluster and the image center can be used. In addition, a condition that limits the area of the cluster to a threshold value or more may be added to the selection criterion. Alternatively, the selection criterion defines an index that has a positive correlation with the size of the distance between the centers and a negative correlation with the size of the area of the cluster, and selects a cluster that minimizes them. You may make it do.
このようなクラスタの選択に関わるエネルギ(クラスタ選択エネルギ)Ecluster(i)は、一例として、下記のように定義することができる。
・・・・・(8)
The energy (cluster selection energy) E cluster (i) related to such cluster selection can be defined as follows as an example.
(8)
式(8)において、各パラメータは、以下の通り、
・i:クラスタのインデックス、
・d(i):クラスタとテンプレート画像、もしくはROI画像との中心間の画像上の距離、
・area(i):クラスタ面積及び
・k:距離に対する面積の重み係数、である。
In equation (8), each parameter is as follows:
I: cluster index,
D (i): the distance on the image between the centers of the cluster and the template image or the ROI image,
Area (i): cluster area, and k: area weighting factor with respect to distance.
このように、クラスタ間相関演算部102は、例えば、代表となるクラスタ(代表クラスタ)を1つに絞らず、上記エネルギの小さい順に複数のクラスタを選定することもできる。 In this way, the inter-cluster correlation calculation unit 102 can select a plurality of clusters in the order of increasing energy, for example, without limiting the number of representative clusters (representative clusters) to one.
統合相関演算部103は、クラスタ間相関演算部102おいて取得された各クラスタ間の相関値を用いて、テンプレート画像全体とROI画像全体との間の相関値を決定する。 The integrated correlation calculation unit 103 determines the correlation value between the entire template image and the entire ROI image using the correlation value between the clusters acquired by the inter-cluster correlation calculation unit 102.
前記取得された各クラスタ間の相関値は、各クラスタの組合せの全体に対する寄与率や相関の値、画像に含まれる位置関係等で決まる重要度によって取捨選択され、且つ重み付けて統合される。 The acquired correlation values between the clusters are selected according to the degree of importance determined by the contribution rate to the entire combination of the clusters, the correlation value, the positional relationship included in the image, and the like, and are integrated by weighting.
例えば、統合相関演算部103は、クラスタ間相関演算部102において取得されたクラスタ間の相関Rij=R(Ai,bj)のうち、テンプレート画像側の各要素(i)に対して最大の相関値をとるROI画像側の要素との特定のクラスタ同士(部分領域)の組合せR(i,j)を選択する。統合相関演算部103は、選択した組合せの相関値に基づき求めたテンプレート画像側の全要素に対する平均値(最大クラスタ間の相関平均)を、各クラスタ全体の相関値Rallとして次式(9)のように定義することができる。
・・・・・(9)
For example, the integrated correlation calculation unit 103 sets the maximum for each element (i) on the template image side among the correlations R ij = R (A i , b j ) between the clusters acquired by the inter-cluster correlation calculation unit 102. A combination R (i, j) of specific clusters (partial regions) with an element on the ROI image side that takes the correlation value is selected. The integrated correlation calculation unit 103 uses the average value (correlation average between the largest clusters) for all the elements on the template image side obtained based on the correlation value of the selected combination as the correlation value R all of each cluster as the following equation (9). Can be defined as follows.
(9)
これは、相関値の大きさを基準に、クラスタ要素の重複した組合せの値を一つずつに絞り、選択後の各クラスタの組に対する相関値は同一の重みとした、最も単純に統合相関を演算する方法である。 This is based on the magnitude of the correlation value, narrowing down the values of overlapping combinations of cluster elements one by one, and the correlation value for each set of clusters after selection is the same weight. It is a method of calculation.
統合相関演算は、平均値の代わりに、クラスタ要素の重複を除いた後の各クラスタの組合せ毎の重要度に応じた重み付け平均を取ってもよい。その場合に、相関値Rallは、例えば、次式(10)に示す「重み付け最大クラスタ間の相関平均」として定義することができる。
・・・・・(10)
In the integrated correlation calculation, instead of the average value, a weighted average corresponding to the importance for each combination of clusters after the duplication of cluster elements is removed may be taken. In this case, the correlation value R all can be defined as, for example, “correlation average between weighted maximum clusters” shown in the following equation (10).
(10)
ここで、クラスタ間の組(i,j)の重みwijは、例えば、テンプレート領域(A)における要素(i)の面積比Wijとして式(11)などによって定義することができる。このとき、式(12)に示す関係が成立している。
・・・・・(11)、
・・・・・(12)。
Here, the weight w ij of the pair (i, j) between the clusters can be defined by, for example, Expression (11) as the area ratio W ij of the element (i) in the template region (A). At this time, the relationship shown in Expression (12) is established.
(11),
(12).
あるいは、係る重みwijは、演算に用いる他のクラスタの組全体の総和面積に対するクラスタの組(i,j)の面積比Wijとして式(13)に示すように定義する。
・・・・・(13)
ただし、C={(Ak,Bl)}は、前記組合せの重複や、後述の閾値処理などを経て演算に用いるように選定された2画像間におけるクラスタの組合せの集合である。
Alternatively, the weight w ij is defined as an area ratio W ij of the cluster set (i, j) to the total area of the entire other cluster set used in the calculation, as shown in Expression (13).
(13)
However, C = {(A k , B l )} is a set of combinations of clusters between two images selected to be used for computation through the above-described combination overlap and threshold processing described later.
上述した統合相関演算では、クラスタ間の相関が閾値を超えない要素の組の値を除外することができる。 In the integrated correlation calculation described above, the value of a set of elements whose correlation between clusters does not exceed the threshold value can be excluded.
例えば、相関値Rallは、ある要素(i)に対応する最大相関値(maxj∈(1,N)(Rij))が閾値THcrを下回るとき0、それ以外では1をとる関数Kijを用いて、次式(14)に示す「重み付け最大クラスタ間の相関平均+外れ値除外」として定義することができる。
・・・・・(14)
For example, the correlation value R all is a function K that takes 0 when the maximum correlation value (max j∈ (1, N) (R ij )) corresponding to a certain element (i) is lower than the threshold value TH cr and 1 otherwise. Using ij , it can be defined as “correlation average between weighted maximum clusters + excluded outlier” shown in the following equation (14).
(14)
ただし、全てのクラスタ間の相関が閾値以下になるような場合には、係る関数Kijは、例外として0にしなければならない。一般に、ほとんどのクラスタ間の相関の組が閾値以下になるような場合に、そのROI画像とテンプレート画像とは、照合すべきではない。 However, when the correlation between all the clusters is less than or equal to the threshold value, the function K ij must be set to 0 as an exception. Generally, when the set of correlations between most clusters is below a threshold value, the ROI image and the template image should not be collated.
よって、閾値を下回る要素の割合が閾値を下回る場合には、相関値Rallの値は、0とすることが望ましい。例えば、相関値Rallの値は、閾値THcrを超えるクラスタの組の比率(以下の式(15)に示す有効クラスタ率)が閾値THaclを下回る場合に、0とする。
・・・・・(15)
Therefore, when the ratio of elements below the threshold is below the threshold, the value of the correlation value R all is desirably 0. For example, the value of the correlation value R all is set to 0 when the ratio of clusters that exceed the threshold TH cr (effective cluster ratio shown in the following equation (15)) is lower than the threshold TH acl .
(15)
この場合、有効なクラスタ率は、0から1の値をとる。そのため、閾値THaclは、0から1の任意の値を設定すればよい。設定の目安として、閾値THaclは、テンプレート画像における領域内部の認識対象を表す画像領域が占める比率を基準に、それより低い比率を設定すればよい。 In this case, the effective cluster ratio takes a value from 0 to 1. Therefore, the threshold value TH acl may be set to any value from 0 to 1. As a reference for setting, the threshold TH acl may be set to a lower ratio based on the ratio of the image area representing the recognition target inside the area in the template image.
このように本実施の形態に係る移動体追跡システム1によれば、歩行者のような絶えず変形を伴う非剛体を含む動画像において背景変化や非剛体のオクルージョンが生じた場合であっても、その動画像を頑健に照合することができる。即ち、移動体追跡システム1によれば、背景の変化に加え、照合の対象(追跡対象)である非剛体の見かけの形状変化に頑健な照合が可能となる。その理由は、以下に述べる通りである。 As described above, according to the moving body tracking system 1 according to the present embodiment, even when a background change or non-rigid occlusion occurs in a moving image including a non-rigid body with constant deformation such as a pedestrian, The moving images can be collated robustly. That is, according to the moving body tracking system 1, it is possible to perform robust matching against an apparent shape change of a non-rigid body that is a target of verification (tracking target) in addition to a change of the background. The reason is as described below.
移動体追跡システム1は、画像領域の照合を行う際、その領域を不定形の小領域に分割する。そして、移動体追跡システム1は、分割した小領域単位で(クラスタ間)相関値を求め、それらの結果を統合して全体の領域同士の(統合)相関値を求めることができるからである。即ち、移動体追跡システム1は、クラスタ毎に求められた相関値を取捨選択することによって、全体の相関値を求めることができるからである。 When the moving object tracking system 1 collates image areas, the moving object tracking system 1 divides the area into irregular small areas. This is because the mobile tracking system 1 can obtain a correlation value (between clusters) in units of divided small areas and integrate the results to obtain a (integrated) correlation value between the entire areas. That is, the mobile tracking system 1 can obtain the overall correlation value by selecting the correlation values obtained for each cluster.
また、移動体追跡システム1は、低いクラスタ間の相関値しか得られない、および変化した背景領域に相当する領域の相関結果を、統合相関値を求める際に反映させない。即ち、移動体追跡システム1は、非剛体の形状変化に影響されることなく、テンプレート画像とROI画像とから非剛体の特徴を抽出及び照合した結果を得ることができる。これにより、移動体追跡システム1は、背景変化によるテンプレート領域と正しい対応領域との間における相関値の低下を抑制することができるためである。また、移動体追跡システム1は、小領域同士の相関演算を固定された格子領域単位ではなく入力画像の特徴に基づいてクラスタリングされた小領域(クラスタ)で行うことにより、対象の形状変化に対し柔軟に小領域を定義することができるためである。 Further, the moving body tracking system 1 can obtain only the correlation value between the low clusters, and does not reflect the correlation result of the area corresponding to the changed background area when obtaining the integrated correlation value. That is, the moving body tracking system 1 can obtain the result of extracting and collating the features of the non-rigid body from the template image and the ROI image without being affected by the shape change of the non-rigid body. Thereby, the moving body tracking system 1 can suppress a decrease in the correlation value between the template region and the correct corresponding region due to the background change. In addition, the moving body tracking system 1 performs the correlation calculation between the small areas on the small area (cluster) clustered on the basis of the feature of the input image instead of the fixed lattice area unit. This is because a small area can be defined flexibly.
(具体例)
次に、上述した本発明の第1の実施形態に係る移動体追跡システム1を基本とする具体例について説明する。以下の説明においては、本具体例に係る特徴的な部分を中心に説明する。その際、上述した各実施形態と同様な構成については、同一の参照番号を付すことにより、重複する説明は省略する。
(Concrete example)
Next, a specific example based on the mobile tracking system 1 according to the first embodiment of the present invention described above will be described. In the following description, the characteristic part according to this example will be mainly described. At this time, the same reference numerals are assigned to the same configurations as those in the above-described embodiments, and duplicate descriptions are omitted.
本発明の具体例における移動体追跡システム1について、図2乃至図7を参照して説明する。説明の便宜上、一例として、以下の説明では、移動体追跡システム1が画像領域を照合する際の動作について説明する。 A moving body tracking system 1 according to a specific example of the present invention will be described with reference to FIGS. For convenience of explanation, as an example, in the following explanation, an operation when the mobile tracking system 1 collates image areas will be explained.
図3は、第1の実施形態の具体例における移動体追跡システム1の各機能部における動作を示す図である。 FIG. 3 is a diagram illustrating an operation in each functional unit of the mobile tracking system 1 in the specific example of the first embodiment.
図3を参照すると、クラスタ抽出部101は、時刻(t−1)に取得された入力画像のテンプレート画像、および時刻(t)に取得されたテスト画像(以下、「照合画像」とも記す)に含まれるROI画像をそれぞれクラスタの集合に領域分割する。 Referring to FIG. 3, the cluster extraction unit 101 uses the template image of the input image acquired at time (t−1) and the test image acquired at time (t) (hereinafter also referred to as “collation image”). Each ROI image included is divided into a set of clusters.
なお、追跡の場合には、クラスタ抽出部101は、時刻(t)に取得された追跡結果領域、および時刻(t+1)に取得されたテスト画像に含まれるROI画像をそれぞれクラスタの集合に領域分割する。 In the case of tracking, the cluster extraction unit 101 divides the ROI image included in the tracking result area acquired at time (t) and the test image acquired at time (t + 1) into a set of clusters. To do.
次に、クラスタ間相関演算部102は、抽出されたテンプレート領域のクラスタの集合(A)、およびROI領域のクラスタの集合(B)のそれぞれの組合せにおいて相関値R(Ai,Bj)を演算する。 Next, the inter-cluster correlation calculation unit 102 calculates a correlation value R (A i , B j ) for each combination of the extracted template area cluster set (A) and ROI area cluster set (B). Calculate.
統合相関演算部103は、各クラスタの組合せに対し、それぞれ相関値を最大化する特定のクラスタの組合わせパタンを選択する。統合相関演算部103は、選択したパタンの相関値のうち、閾値以下の相関値を棄却する閾値処理を経て、残った相関値を重み付け平均等により統合する。統合相関演算部103は、統合により得た値を2画像間の統合相関値として採用する。 The integrated correlation calculation unit 103 selects a specific cluster combination pattern that maximizes the correlation value for each cluster combination. The integrated correlation calculation unit 103 integrates the remaining correlation values by weighted averaging or the like through a threshold process for rejecting correlation values equal to or lower than the threshold value among the correlation values of the selected pattern. The integrated correlation calculation unit 103 employs a value obtained by the integration as an integrated correlation value between the two images.
図4は、第1の実施形態の具体例における移動体追跡システム1の機能部のうち、クラスタ間相関演算部102と統合相関演算部103との動作を示す図である。 FIG. 4 is a diagram illustrating operations of the inter-cluster correlation calculation unit 102 and the integrated correlation calculation unit 103 among the functional units of the mobile tracking system 1 in the specific example of the first embodiment.
図4に示す紙面左側の図は、求められた各クラスタ間の相関値のうち、そのクラスタ毎に最大値となるクラスタの組合せが選択された態様を概念的に例示する図である。また、図4に示す紙面右側の図は、閾値処理により、相関の低いクラスタの組合せを排除した態様を概念的に例示する図である。 The diagram on the left side of the drawing shown in FIG. 4 is a diagram conceptually illustrating an aspect in which a combination of clusters having the maximum value is selected for each cluster among the obtained correlation values between the clusters. 4 is a diagram conceptually illustrating an aspect in which a combination of clusters having low correlation is excluded by threshold processing.
この例では、クラスタ間相関演算部102は、全クラスタ間の組合せに対し相関値を求める。そして、クラスタ間相関演算部102は、求めた各クラスタ間の相関値のうち、クラスタ毎に最大の相関値のみを残す。クラスタ間相関演算部102は、残された相関値のうち、あらかじめ設定された閾値(例えば、ここでは0.4)を超える相関値のみを残す。即ち、クラスタ間相関演算部102は、閾値処理により、相関の低いクラスタの組を排除する。 In this example, the inter-cluster correlation calculation unit 102 obtains a correlation value for a combination between all clusters. Then, the inter-cluster correlation calculation unit 102 leaves only the maximum correlation value for each cluster among the obtained correlation values between the clusters. The inter-cluster correlation calculation unit 102 leaves only the correlation values that exceed a preset threshold value (for example, 0.4 here) among the remaining correlation values. That is, the inter-cluster correlation calculation unit 102 eliminates a set of clusters having a low correlation by threshold processing.
統合相関演算部103は、クラスタ間相関演算部102によって残されたクラスタの組合せの相関値に基づく統計値(平均値など)を元に統合相関値を演算する。即ち、残った相関値は、それぞれのクラスタの組合せに与えられた重みに応じて平均化する等の統合相関値の演算に用いられる。 The integrated correlation calculation unit 103 calculates an integrated correlation value based on a statistical value (such as an average value) based on the correlation value of the cluster combination left by the inter-cluster correlation calculation unit 102. That is, the remaining correlation values are used for calculation of integrated correlation values such as averaging according to the weights given to the combinations of the clusters.
この例では、選択されたクラスタの組の集合をCと定義する。
C={(A1,B1),(A3,B3),(A4,B5),(A5,B1)}
・・・・・(16)
In this example, a set of selected cluster sets is defined as C.
C = {(A 1 , B 1 ), (A 3 , B 3 ), (A 4 , B 5 ), (A 5 , B 1 )}
(16)
また、ここでは、Cに含まれる各クラスタの組(Ai,Bj)の全体に対する次式(17)に示す面積比Wijを重みとする重み付け平均によって統合相関値Rallを求める例を式(18)に示している。
・・・・・(17)、
・・・・・(18)。
Further, here, an example in which the integrated correlation value R all is obtained by a weighted average using the area ratio W ij shown in the following equation (17) as a weight with respect to the entire set (A i , B j ) of each cluster included in C. This is shown in equation (18).
(17),
(18).
このように、移動体追跡システム1は、選択的に求めたクラスタ間の相関値を統合した相関値(統合相関値Rall)によってテンプレート画像に対する照合画像上のROI画像の類似性の評価を行う。これにより、移動体追跡システム1は、対象である非剛体の形状変化や背景が変化した場合であっても、正しい領域が頑健に高い相関値をとることができる。その結果、移動体追跡システム1では、正しい領域照合、あるいは画像追跡が行われることが期待できる。 As described above, the mobile tracking system 1 evaluates the similarity of the ROI image on the collation image with respect to the template image based on the correlation value (integrated correlation value R all ) obtained by integrating the correlation values obtained selectively. . Thereby, even if the moving body tracking system 1 is a case where the shape change and the background of the non-rigid body which are objects are changed, the correct area | region can take a high correlation value robustly. As a result, in the mobile body tracking system 1, it can be expected that correct area collation or image tracking is performed.
(動作)
本発明の具体例に係る移動体追跡システム1の動作について図面を参照して詳細に説明する。
(Operation)
The operation of the mobile tracking system 1 according to a specific example of the present invention will be described in detail with reference to the drawings.
図5は、第1の実施形態の具体例における移動体追跡システム1の機能部が行う処理の流れを示す概念図である。 FIG. 5 is a conceptual diagram showing a flow of processing performed by the functional unit of the mobile tracking system 1 in the specific example of the first embodiment.
図5を参照すると、まず、クラスタ抽出部101は、認識の対象を含む移動体画像(入力画像)から抽出されたテンプレート領域(A)と、照合の対象となるテスト画像から抽出されたROI領域(B)とを入力として、それぞれの領域を小領域(クラスタ)に分割する(Step1)。 Referring to FIG. 5, first, the cluster extracting unit 101 first extracts a template area (A) extracted from a moving body image (input image) including a recognition target and an ROI area extracted from a test image to be verified. Using (B) as an input, each area is divided into small areas (clusters) (Step 1).
次に、クラスタ間相関演算部102は、分割されたテンプレート領域(A)と、ROI領域(B)との小領域の組合せ毎に、相関値を演算する(Step2)。 Next, the inter-cluster correlation calculation unit 102 calculates a correlation value for each combination of small regions of the divided template region (A) and ROI region (B) (Step 2).
最後に、統合相関演算部103は、Step2において演算されたクラスタ間の相関を集計して、テンプレート領域(A)と、ROI領域(B)との相関値の最終結果を演算する(Step3)。 Finally, the integrated correlation calculation unit 103 calculates the final result of the correlation value between the template area (A) and the ROI area (B) by summing up the correlation between clusters calculated in Step 2 (Step 3).
以上が、第1の実施形態の具体例に係る移動体追跡システム1における動作の概略である。 The above is the outline of the operation in the mobile tracking system 1 according to the specific example of the first embodiment.
次に、以下の説明では、図5のStep2に示す動作に、さらに、相関演算を行う組を絞り込む処理を加える場合の動作について説明する。 Next, in the following description, an operation in the case of adding a process of narrowing down the group for performing the correlation calculation to the operation shown in Step 2 of FIG. 5 will be described.
図6は、前記Step2において、相関演算を行う組を絞り込む処理を加える場合の詳細な動作の一例を模式的に示すフローチャートである。 FIG. 6 is a flowchart schematically showing an example of a detailed operation in the case where a process for narrowing down the group for performing the correlation calculation is added in Step 2.
図6を参照すると、まず、クラスタ間相関演算部102は、テンプレート領域(A)と、ROI領域(B)とから要素(小領域)の組合せを選択する(Step201)。クラスタ間相関演算部102は、選択した要素の組に対して、幾何学的類似性の評価を行う(Step202)。その結果、クラスタ間相関演算部102は、その値が閾値を超えるかどうかを判定する(Step203)。 Referring to FIG. 6, first, the inter-cluster correlation calculation unit 102 selects a combination of elements (small regions) from the template region (A) and the ROI region (B) (Step 201). The inter-cluster correlation calculation unit 102 evaluates geometric similarity with respect to the selected set of elements (Step 202). As a result, the inter-cluster correlation calculation unit 102 determines whether or not the value exceeds the threshold value (Step 203).
クラスタ間相関演算部102は、当該値が閾値を超えないと判別した場合に、処理をStep205に進める(Step203において「NO」)。即ち、クラスタ間相関演算部102は、Step204をスキップする。 When the inter-cluster correlation calculation unit 102 determines that the value does not exceed the threshold value, the inter-cluster correlation calculation unit 102 advances the process to Step 205 (“NO” in Step 203). That is, the inter-cluster correlation calculation unit 102 skips Step 204.
一方で、クラスタ間相関演算部102は、当該値が閾値を超えると判別した場合には、処理をStep204に進める(Step203において「YES」)。クラスタ間相関演算部102は、クラスタ間の相関を演算する(Step204)。 On the other hand, when it is determined that the value exceeds the threshold value, the inter-cluster correlation calculation unit 102 advances the process to Step 204 (“YES” in Step 203). The inter-cluster correlation calculation unit 102 calculates the correlation between the clusters (Step 204).
最後に、クラスタ間相関演算部102は、全要素の組合せについて選択が行われたかどうか判定する。クラスタ間相関演算部102は、全要素の組合せについて選択が終了したと判別した場合に、処理を終了する(Step205において「YES」)。一方で、クラスタ間相関演算部102は、全要素の組合せについて選択が終了していないと判別した場合には、処理をStep201に戻す(Step205において「NO」)。即ち、クラスタ間相関演算部102は、未選択の要素の組に対してStep201から順に処理を実行する。 Finally, the inter-cluster correlation calculation unit 102 determines whether selection has been performed for all element combinations. When the inter-cluster correlation calculation unit 102 determines that the selection has been completed for all the combinations of elements, the inter-cluster correlation calculation unit 102 ends the processing (“YES” in Step 205). On the other hand, if the inter-cluster correlation calculation unit 102 determines that the selection has not been completed for all combinations of elements, the process returns to Step 201 ("NO" in Step 205). In other words, the inter-cluster correlation calculation unit 102 sequentially performs processing on the unselected element set from Step 201.
次に、以下の説明では、図5のStep2に示す動作に、各画像(入力画像及びテスト画像)の中心からの距離と面積の大きさとによって一つの代表クラスタを選択し、その代表クラスタの組のみを用いて相関演算を行う場合の動作について説明する。 Next, in the following description, one representative cluster is selected according to the distance from the center of each image (input image and test image) and the size of the area in the operation shown in Step 2 of FIG. The operation in the case of performing the correlation calculation using only the above will be described.
図7は、前記Step2の内部において、選択された代表クラスタの組のみを用いて相関演算を行う場合の詳細な動作の一例を模式的に示すフローチャートである。 FIG. 7 is a flowchart schematically showing an example of detailed operation in the case where the correlation calculation is performed using only the set of selected representative clusters in Step 2.
図7を参照すると、クラスタ間相関演算部102は、分割されたテンプレート領域(A)、およびROI領域(B)のそれぞれにおいて、全クラスタの選択エネルギを演算する(Step201A)。次に、クラスタ間相関演算部102は、それぞれ最小のエネルギをとるクラスタを選択する(Step202A)。クラスタ間相関演算部102は、選択したそれらのクラスタ同士の相関を演算する(Step203A)。 Referring to FIG. 7, the inter-cluster correlation calculation unit 102 calculates the selection energy of all clusters in each of the divided template area (A) and ROI area (B) (Step 201A). Next, the inter-cluster correlation calculation unit 102 selects a cluster that takes the minimum energy (Step 202A). The inter-cluster correlation calculation unit 102 calculates the correlation between the selected clusters (Step 203A).
上記のような構成を採用することにより、移動体追跡システム1は、背景の変化や対象形状の変化に頑健な画像領域の照合が可能となる。 By adopting the configuration as described above, the mobile tracking system 1 can collate image regions that are robust against changes in the background and changes in the target shape.
以上、実施形態及び具体例を参照して本発明を説明してきたが、本発明は上記実施形態及び具体例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 The present invention has been described above with reference to the embodiments and specific examples. However, the present invention is not limited to the above-described embodiments and specific examples. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
1 移動体追跡システム
10 電子制御装置
11 中央演算装置
12 記憶装置(Mem)
13 記憶装置(DB)
14 インターフェース
15 インターフェース
20 画像出力装置
30 端末装置
101 クラスタ抽出部
102 クラスタ間相関演算部
103 統合相関演算部
DESCRIPTION OF SYMBOLS 1 Mobile body tracking system 10 Electronic controller 11 Central processing unit 12 Memory | storage device (Mem)
13 Storage device (DB)
DESCRIPTION OF SYMBOLS 14 Interface 15 Interface 20 Image output apparatus 30 Terminal device 101 Cluster extraction part 102 Inter-cluster correlation calculating part 103 Integrated correlation calculating part
Claims (10)
前記第1及び第2の画像領域間において部分領域同士の相関を求める相関演算手段と、
前記求めた部分領域同士の相関のうち、該部分領域同士の組合せに対し与えられた重要度に従い特定の部分領域同士の組合せを選定し、その選定した特定の部分領域同士の相関を統合することによって、前記第1及び第2の画像領域間の相関を求める統合相関演算手段と、
を備えることを特徴とする移動体追跡装置。 A dividing unit that divides each of the first image region representing the moving object to be collated or tracked and the second image region representing the region of interest to be collated into partial regions;
Correlation calculating means for obtaining a correlation between partial areas between the first and second image areas;
Of the correlations between the obtained partial areas, a combination of specific partial areas is selected according to the importance given to the combination of the partial areas, and the correlation between the selected specific partial areas is integrated. Integrated correlation calculation means for obtaining a correlation between the first and second image regions;
A moving body tracking device comprising:
前記部分領域の中心と、その部分領域に分割された前記第1又は第2の画像領域の中心との間の距離に反比例する重みに基づき前記相関の値を求め、該相関値が閾値を超えた前記部分領域同士の組合せの前記相関を求める
ことを特徴とする請求項1に記載の移動体追跡装置。 The correlation calculation means includes
The correlation value is obtained based on a weight inversely proportional to the distance between the center of the partial area and the center of the first or second image area divided into the partial area, and the correlation value exceeds a threshold value. The mobile body tracking device according to claim 1, wherein the correlation of the combinations of the partial areas is obtained.
前記第1及び第2の画像領域のそれぞれの部分領域の集合に対し、前記部分領域の中心と、その部分領域に分割された前記第1又は第2の画像領域の中心との間の距離の大きさに正の相関があり、且つ前記部分領域の面積の大きさに負の相関があるエネルギ関数を定義し、該エネルギ関数に基づき求められた値が最も小さい値をとる前記部分領域同士の一つの組合せ、もしくは前記値が小さい順となるように前記部分領域同士の複数の組合せを選定すると共に、該選定された部分領域同士の組合せの前記相関を求める
ことを特徴とする請求項1に記載の移動体追跡装置。 The correlation calculation means includes
For each set of partial areas of the first and second image areas, the distance between the center of the partial area and the center of the first or second image area divided into the partial areas. An energy function having a positive correlation in size and a negative correlation in the area size of the partial regions is defined, and the values obtained based on the energy function are the smallest values of the partial regions. The single correlation or a plurality of combinations of the partial areas are selected so that the values are in ascending order, and the correlation of the combinations of the selected partial areas is obtained. The mobile tracking device described.
前記第1及び第2の画像領域のそれぞれの部分領域の集合に対し、前記部分領域同士の重なり率及び重なりの面積比の少なくとも何れかの幾何学的類似性の評価に基づいて、前記部分領域同士の組合せを選定すると共に、該選定された部分領域同士の組合せの前記相関を求める
ことを特徴とする請求項1に記載の移動体追跡装置。 The correlation calculation means includes
Based on the evaluation of the geometric similarity of at least one of the overlapping ratio and the overlapping area ratio between the partial areas, for each set of partial areas of the first and second image areas, the partial areas The mobile tracking apparatus according to claim 1, wherein a combination of the selected partial areas is selected and the correlation of the selected partial areas is determined.
前記相関演算手段によって求めた前記画像領域同士の組合せにおける前記相関の集合のうち、前記相関の値が閾値を超える前記特定の画像領域同士の組合せを選定する
ことを特徴とする請求項1乃至請求項4の何れかに記載の移動体追跡装置。 The integrated correlation calculation means includes
The combination of the specific image regions whose correlation value exceeds a threshold value is selected from the set of correlations in the combination of the image regions obtained by the correlation calculation means. Item 5. The moving object tracking device according to any one of Items 4 to 6.
前記相関を求める際に用いた前記部分領域同士の組合せに対する前記特定の部分領域の組合せの面積比率によって決まる重みに応じて、前記選定した特定の画像領域同士の相関を統合する
ことを特徴とする請求項1乃至請求項5の何れかに記載の移動体追跡装置。 The integrated correlation calculation means includes
The correlation between the selected specific image regions is integrated according to a weight determined by an area ratio of the combination of the specific partial regions with respect to the combination of the partial regions used when obtaining the correlation. The mobile body tracking device according to any one of claims 1 to 5.
全ての前記選定した特定の部分領域の組合せの総和面積に対する前記特定の部分領域の組合せの面積比率によって決まる重みに応じて、前記選定した特定の画像領域同士の相関を統合する
ことを特徴とする請求項1乃至請求項5の何れかに記載の移動体追跡装置。 The integrated correlation calculation means includes
The correlation between the selected specific image regions is integrated according to a weight determined by an area ratio of the combination of the specific partial regions to the total area of the combinations of all the selected specific partial regions. The mobile body tracking device according to any one of claims 1 to 5.
前記第1及び第2の画像領域においてピクセル間の動きを表すフローベクトルの類似性を含む基準に基づき前記第1及び第2の画像領域を部分領域に分割する
ことを特徴とする請求項1乃至請求項7の何れかに記載の移動体追跡装置。 The dividing means includes
The first and second image regions are divided into partial regions based on a criterion including similarity of flow vectors representing movement between pixels in the first and second image regions. The moving body tracking device according to claim 7.
照合又は追跡対象である移動体を表す第1の画像領域と、照合すべき興味領域を表す第2の画像領域とをそれぞれ部分領域に分割し、
前記第1及び第2の画像領域間において部分領域同士の相関を求め、
前記求めた部分領域同士の相関のうち、該部分領域同士の組合せに対し与えられた重要度に従い特定の部分領域同士の組合せを選定し、その選定した特定の部分領域同士の相関を統合することによって、前記第1及び第2の画像領域間の相関を求める、
ことを特徴とする移動体追跡方法。 By electronic control unit,
A first image area representing a mobile object to be collated or tracked and a second image area representing an area of interest to be collated are each divided into partial areas;
Obtaining a correlation between partial areas between the first and second image areas;
Of the correlations between the obtained partial areas, a combination of specific partial areas is selected according to the importance given to the combination of the partial areas, and the correlation between the selected specific partial areas is integrated. To obtain a correlation between the first and second image regions,
The moving body tracking method characterized by this.
前記第1及び第2の画像領域間において部分領域同士の相関を求める機能と、
前記求めた部分領域同士の相関のうち、該部分領域同士の組合せに対し与えられた重要度に従い特定の部分領域同士の組合せを選定し、その選定した特定の部分領域同士の相関を統合することによって、前記第1及び第2の画像領域間の相関を求める機能と、を
コンピュータに実現させることを特徴とするコンピュータ・プログラム。 A function of dividing a first image area representing a mobile object to be collated or tracked and a second image area representing an area of interest to be collated into partial areas;
A function of obtaining a correlation between partial areas between the first and second image areas;
Of the correlations between the obtained partial areas, a combination of specific partial areas is selected according to the importance given to the combination of the partial areas, and the correlation between the selected specific partial areas is integrated. A computer program for causing a computer to realize a function of obtaining a correlation between the first and second image areas.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014146677A JP6384167B2 (en) | 2014-07-17 | 2014-07-17 | MOBILE BODY TRACKING DEVICE, MOBILE BODY TRACKING METHOD, AND COMPUTER PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014146677A JP6384167B2 (en) | 2014-07-17 | 2014-07-17 | MOBILE BODY TRACKING DEVICE, MOBILE BODY TRACKING METHOD, AND COMPUTER PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016024534A true JP2016024534A (en) | 2016-02-08 |
JP6384167B2 JP6384167B2 (en) | 2018-09-05 |
Family
ID=55271265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014146677A Active JP6384167B2 (en) | 2014-07-17 | 2014-07-17 | MOBILE BODY TRACKING DEVICE, MOBILE BODY TRACKING METHOD, AND COMPUTER PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6384167B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017174305A (en) * | 2016-03-25 | 2017-09-28 | Kddi株式会社 | Object tracking device, method, and program |
CN110276348A (en) * | 2019-06-20 | 2019-09-24 | 腾讯科技(深圳)有限公司 | A kind of image position method, device, server and storage medium |
JP2021083771A (en) * | 2019-11-28 | 2021-06-03 | 株式会社日立製作所 | Medical image processing device, medical image analysis device and standard image creation program |
WO2021235364A1 (en) * | 2020-05-22 | 2021-11-25 | 富士フイルム株式会社 | Surface pressure analysis device, method, and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002267441A (en) * | 2001-03-07 | 2002-09-18 | Fuji Heavy Ind Ltd | Stereo matching apparatus and monitor |
JP2006053756A (en) * | 2004-08-11 | 2006-02-23 | Tokyo Institute Of Technology | Object detector |
JP2009075868A (en) * | 2007-09-20 | 2009-04-09 | Toshiba Corp | Apparatus, method, and program for detecting object from image |
WO2011086803A1 (en) * | 2010-01-12 | 2011-07-21 | 日本電気株式会社 | Image matching system, image matching method, computer program |
WO2012098853A1 (en) * | 2011-01-20 | 2012-07-26 | 日本電気株式会社 | Flow line detection process data distribution system, flow line detection process data distribution method, and program |
JP2012185655A (en) * | 2011-03-04 | 2012-09-27 | Fujitsu Ltd | Image processing system, image processing method and image processing program |
JP2013232091A (en) * | 2012-04-27 | 2013-11-14 | Fujitsu Ltd | Approaching object detection device, approaching object detection method and approaching object detection computer program |
-
2014
- 2014-07-17 JP JP2014146677A patent/JP6384167B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002267441A (en) * | 2001-03-07 | 2002-09-18 | Fuji Heavy Ind Ltd | Stereo matching apparatus and monitor |
JP2006053756A (en) * | 2004-08-11 | 2006-02-23 | Tokyo Institute Of Technology | Object detector |
JP2009075868A (en) * | 2007-09-20 | 2009-04-09 | Toshiba Corp | Apparatus, method, and program for detecting object from image |
WO2011086803A1 (en) * | 2010-01-12 | 2011-07-21 | 日本電気株式会社 | Image matching system, image matching method, computer program |
WO2012098853A1 (en) * | 2011-01-20 | 2012-07-26 | 日本電気株式会社 | Flow line detection process data distribution system, flow line detection process data distribution method, and program |
JP2012185655A (en) * | 2011-03-04 | 2012-09-27 | Fujitsu Ltd | Image processing system, image processing method and image processing program |
JP2013232091A (en) * | 2012-04-27 | 2013-11-14 | Fujitsu Ltd | Approaching object detection device, approaching object detection method and approaching object detection computer program |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017174305A (en) * | 2016-03-25 | 2017-09-28 | Kddi株式会社 | Object tracking device, method, and program |
CN110276348A (en) * | 2019-06-20 | 2019-09-24 | 腾讯科技(深圳)有限公司 | A kind of image position method, device, server and storage medium |
CN110276348B (en) * | 2019-06-20 | 2022-11-25 | 腾讯科技(深圳)有限公司 | Image positioning method, device, server and storage medium |
JP2021083771A (en) * | 2019-11-28 | 2021-06-03 | 株式会社日立製作所 | Medical image processing device, medical image analysis device and standard image creation program |
CN112967168A (en) * | 2019-11-28 | 2021-06-15 | 株式会社日立制作所 | Medical image processing apparatus, medical image analysis apparatus, and standard image creation program |
JP7325310B2 (en) | 2019-11-28 | 2023-08-14 | 富士フイルムヘルスケア株式会社 | Medical image processing device, medical image analysis device, and standard image creation program |
CN112967168B (en) * | 2019-11-28 | 2024-03-29 | 富士胶片医疗健康株式会社 | Medical image processing device, medical image analysis device, and computer program product including standard image creation program |
WO2021235364A1 (en) * | 2020-05-22 | 2021-11-25 | 富士フイルム株式会社 | Surface pressure analysis device, method, and program |
JPWO2021235364A1 (en) * | 2020-05-22 | 2021-11-25 |
Also Published As
Publication number | Publication date |
---|---|
JP6384167B2 (en) | 2018-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11393103B2 (en) | Target tracking method, device, system and non-transitory computer readable medium | |
KR102560308B1 (en) | System and method for exterior search | |
US20230117712A1 (en) | Feature density object classification, systems and methods | |
JP7282851B2 (en) | Apparatus, method and program | |
US9898677B1 (en) | Object-level grouping and identification for tracking objects in a video | |
KR102465532B1 (en) | Method for recognizing an object and apparatus thereof | |
Harville et al. | Fast, integrated person tracking and activity recognition with plan-view templates from a single stereo camera | |
KR20180128350A (en) | Information processing apparatus, information processing method, and storage medium | |
CN103488294B (en) | A kind of Non-contact gesture based on user's interaction habits controls to map method of adjustment | |
WO2003032143A2 (en) | Vision-based pointer tracking method and apparatus | |
JP5598751B2 (en) | Motion recognition device | |
WO2018154709A1 (en) | Movement learning device, skill discrimination device, and skill discrimination system | |
US12087040B2 (en) | Information processing device, information processing method, and program recording medium | |
JP6384167B2 (en) | MOBILE BODY TRACKING DEVICE, MOBILE BODY TRACKING METHOD, AND COMPUTER PROGRAM | |
JP2012221162A (en) | Object detection device and program | |
JPWO2012046426A1 (en) | Object detection apparatus, object detection method, and object detection program | |
KR101542206B1 (en) | Method and system for tracking with extraction object using coarse to fine techniques | |
US20210034915A1 (en) | Method and apparatus for object re-identification | |
JP2015049702A (en) | Object recognition device, object recognition method, and program | |
JP2012226403A (en) | Image area tracking device, image area tracking method, and computer program | |
JP7302741B2 (en) | Image selection device, image selection method, and program | |
Hammer et al. | 2D hand tracking with motion information, skin color classification and aggregated channel features | |
Mohatta | Egocentric Realtime Gesture Recognition | |
Lee et al. | Tracking and Face Recognition of Multiple People Based on GMM, LKT and PCA | |
Nair et al. | Multi-modal low cost mobile indoor surveillance system on the Robust Artificial Intelligence-based Defense Electro Robot (RAIDER) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170615 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180424 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180710 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180723 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6384167 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |