JP2010211398A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2010211398A
JP2010211398A JP2009055401A JP2009055401A JP2010211398A JP 2010211398 A JP2010211398 A JP 2010211398A JP 2009055401 A JP2009055401 A JP 2009055401A JP 2009055401 A JP2009055401 A JP 2009055401A JP 2010211398 A JP2010211398 A JP 2010211398A
Authority
JP
Japan
Prior art keywords
image
feature point
block
data
next tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009055401A
Other languages
Japanese (ja)
Other versions
JP5126124B2 (en
Inventor
Akihiro Yamaguchi
晃弘 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2009055401A priority Critical patent/JP5126124B2/en
Publication of JP2010211398A publication Critical patent/JP2010211398A/en
Application granted granted Critical
Publication of JP5126124B2 publication Critical patent/JP5126124B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of making an image process to be performed in high speed by accelerating calculation of motion detection when the motion detection of an image block which includes a plurality of frames is performed. <P>SOLUTION: A feature point map 15 is searched into a raster direction, then a table block corresponding to an identification number of a motion information table 17 is found out by using the identification number of a feature point when the feature point exists at the place. Since a next tracking block ID (namely, the number indicating the table block to be processed next) is memorized in the table block, data (feature point coordinate and next tracking coordinate) of the table block which is indicated by the next tracking block ID is utilized, then a next tracking coordinate and a motion vector can be calculated. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像の特徴点の移動状態に基づいて画像を処理する画像処理装置に関する。   The present invention relates to an image processing apparatus that processes an image based on a moving state of image feature points.

従来より、車両の周囲の画像を撮影して処理する画像処理装置として、動画の動きベクトルを利用する装置が知られている。この動きベクトルを検出する方法としては、動きベクトルの誤検出を減らすため、一度画像メモリに格納した画像から特徴点を決定し、その特徴点を取り囲むテンプレート画像が、1フレーム後の画像上のどこに移動したかを示す動きベクトルを算出する方法が提案されている(例えば、特許文献1、2、3参照)。   2. Description of the Related Art Conventionally, as an image processing device that captures and processes an image around a vehicle, a device that uses a motion vector of a moving image is known. As a method of detecting this motion vector, in order to reduce false detection of a motion vector, a feature point is determined from an image once stored in an image memory, and a template image surrounding the feature point is located anywhere on the image after one frame. There has been proposed a method for calculating a motion vector indicating whether or not it has moved (for example, see Patent Documents 1, 2, and 3).

これらの従来技術は、各画像ブロック(動き検出する画像の単位)上で特徴点を抽出し、その特徴点を利用して動きベクトルを算出するものである。
また、近年では、本発明者によって、動きベクトルの算出を速めて、画像処理を高速化するための技術が提案されている(特許文献4参照)。
These prior arts extract feature points on each image block (unit of image for motion detection), and calculate motion vectors using the feature points.
In recent years, the present inventor has proposed a technique for speeding up image processing by speeding up calculation of motion vectors (see Patent Document 4).

この技術は、画像取り込み時に生成する特徴点マップに基づいて、ラスタ方向に画像ブロックのデータ転送を最適化することで、高速処理を実現するものである。詳しくは、特徴点マップ上の特徴点間の距離に応じてデータの転送方法を切り替えるものである。   This technique realizes high-speed processing by optimizing data transfer of image blocks in the raster direction based on a feature point map generated at the time of image capture. Specifically, the data transfer method is switched according to the distance between the feature points on the feature point map.

特開平8−242453号公報JP-A-8-242453 特開平9−55943号公報JP-A-9-55943 特開平9−55944号公報JP-A-9-55944 特開2008−192060号公報JP 2008-192060 A

前記引用文献4の技術では、2フレーム間の動きについて述べているので、この技術を複数フレームに跨る特徴点を含む画像ブロックの動き検出する場合を考えると、動き情報テーブル(特徴点座標と動きベクトルの算出結果が格納されているテーブル)に、次追跡の開始点を記憶しておくことが考えられる。   Since the technique of the cited document 4 describes the motion between two frames, considering the case of detecting the motion of an image block including a feature point across a plurality of frames using this technique, a motion information table (feature point coordinates and motion) is used. It is conceivable to store the starting point of the next tracking in a table in which the vector calculation result is stored.

しかし、動き情報テーブルには、ラスタ方向の順番に次追跡の開始点が格納されていないので、ラスタ方向にデータ転送できるように、次追跡の座標を探索する必要があり、この探索時間が高速化のボトルネックになることが考えられる。   However, since the start point of the next tracking is not stored in the order of the raster direction in the motion information table, it is necessary to search for the coordinates of the next tracking so that the data can be transferred in the raster direction. It can be considered as a bottleneck in the process.

本発明は、上記問題点を解決するためになされたものであり、複数フレームに跨る画像ブロックの動き検出する場合に、その動き検出の算出を速めて、画像処理を高速化できる画像処理装置を提供することを目的とする。   The present invention has been made in order to solve the above-described problems, and an image processing apparatus capable of speeding up image processing by accelerating calculation of motion detection when detecting motion of an image block across a plurality of frames. The purpose is to provide.

(1)上記課題を解決するためになされた請求項1の画像処理装置は、過去の画像上の特徴となる画素である特徴点を抽出して、その特徴点を含む所定の大きさを持つテンプレート画像が、複数のフレーム間に渡って、現在の画像上のどこに移動したかを示す移動情報(次追跡座標、動きベクトル)を算出する画像処理装置であって、前記画像処理装置に取り込まれた画像上の特徴点が、動き検出する画像単位である画像ブロック単位でどこに存在するかを、識別番号で区分して示す特徴点マップと、前記移動情報を算出する際に用いるデータ(特徴点、又は、次追跡座標と次追跡ブロックID)を格納するテーブルブロック(動き情報テーブルの要素)を、前記特徴点マップの識別番号順に設定した動き情報テーブルと、を備え、前記動き情報テーブルには、各テーブルブロック毎に、前記画素単位で抽出された特徴点の位置のデータ(特徴点座標X)と、前記特徴点の移動後の位置のデータである次追跡点の位置のデータ(次追跡座標Y)と、次に処理するデータを格納したテーブルブロックを示す次追跡ブロック識別番号と、を記憶しており、前記特徴点マップに記憶された画像ブロックの識別番号を索引として、前記動き情報テーブルにおいて処理すべきテーブルブロックを決定し、更に、該テーブルブロックに記憶された次追跡ブロック識別番号を索引として、次に処理すべきテーブルブロックを決定することを特徴とする。   (1) An image processing apparatus according to claim 1, which has been made to solve the above problem, extracts a feature point that is a pixel that is a feature on a past image and has a predetermined size including the feature point An image processing apparatus that calculates movement information (next tracking coordinates, motion vector) indicating where a template image has moved over a plurality of frames on the current image, and is captured by the image processing apparatus A feature point map indicating where the feature points on the image are present in units of image blocks, which are image units for motion detection, and data used when calculating the movement information (feature points) Or a motion information table in which table blocks (elements of motion information table) for storing next tracking coordinates and next tracking block ID) are set in the order of identification numbers of the feature point map, In the information table, for each table block, the feature point position data (feature point coordinates X) extracted in units of pixels and the position of the next tracking point that is the position data after the feature point is moved are stored. Data (next tracking coordinate Y) and a next tracking block identification number indicating a table block storing data to be processed next are stored, and the identification number of the image block stored in the feature point map is used as an index. The table block to be processed is determined in the motion information table, and the table block to be processed next is determined using the next tracking block identification number stored in the table block as an index.

本発明では、特徴点マップに記憶された画像ブロックの識別番号を索引として、動き情報テーブルにおいて処理すべきテーブルブロックを決定し、更に、そのテーブルブロックに記憶された次追跡ブロック識別番号を索引として、次に処理すべきテーブルブロックを決定することができる。   In the present invention, the identification number of the image block stored in the feature point map is used as an index to determine a table block to be processed in the motion information table, and the next tracking block identification number stored in the table block is used as an index. The table block to be processed next can be determined.

つまり、本発明では、動き検出を行うべき順番を、特徴点マップに記憶された画像ブロックの識別番号や、動き情報テーブルに記憶された次追跡ブロック識別番号を索引として、順次決定することができるので、次追跡点の位置のデータがラスタ方向の順番で格納されていなくても、複数のフレーム間に渡る移動情報を算出する際に、その演算処理を高速化することができる。   That is, in the present invention, the order in which motion detection should be performed can be sequentially determined using the identification number of the image block stored in the feature point map or the next tracking block identification number stored in the motion information table as an index. Therefore, even when the data of the position of the next tracking point is not stored in the order of the raster direction, the calculation process can be speeded up when calculating the movement information between a plurality of frames.

なお、ここで画像ブロックの特徴点とは、画像上の特徴となる画素(即ち該当する画像ブロックを他の画像ブロックと区別可能とする画素のデータ)である。
(2)請求項2の発明は、前記動き情報テーブルにおいて処理すべきテーブルブロックを決定した場合には、該テーブルブロックに格納された次追跡点の位置のデータと、次追跡点決定以降の移動前後の画像データとを用いて、前記移動情報(例えば(T−1の)次追跡座標の移動後の(Tの)次追跡座標)を算出することを特徴とする。
Here, the feature point of the image block is a pixel that is a feature on the image (that is, pixel data that makes it possible to distinguish the corresponding image block from other image blocks).
(2) In the invention of claim 2, when a table block to be processed is determined in the motion information table, the position data of the next tracking point stored in the table block and the movement after the determination of the next tracking point The movement information (for example, the next tracking coordinate (T) after the movement of the next tracking coordinate (T-1)) is calculated using the previous and next image data.

本発明は、動き情報テーブルにおいて処理すべきテーブルブロックを決定した場合の後の処理を示したものである。これにより、速やかに移動情報を算出することができる。
(3)請求項3の発明は、前記画像の1フレーム目は、過去の画像上の特徴点を含むテンプレート画像が現在の画像上でどこに移動したかを示す移動情報を算出し、その算出結果を、過去の画像の特徴点座標を格納した第1の動き情報テーブルに格納する第1の処理を実施し、前記画像の2フレーム目以降は、特徴点マップに記憶された画像ブロックの識別番号を索引として、前記動き情報テーブルから次追跡点の位置のデータ(次追跡座標)と次追跡ブロック識別番号(次追跡ブロック識別番号ID)を抽出し、その次追跡座標を基に移動情報を算出し、その算出結果を、過去の画像の特徴点座標を格納した第2の動き情報テーブルに格納する第2の処理を実施することを特徴とする。
The present invention shows the subsequent processing when a table block to be processed is determined in the motion information table. Thereby, movement information can be calculated promptly.
(3) In the invention of claim 3, the first frame of the image calculates movement information indicating where the template image including the feature point on the past image has moved on the current image, and the calculation result Is stored in the first motion information table storing the feature point coordinates of the past image. In the second and subsequent frames of the image, the identification number of the image block stored in the feature point map is executed. The next tracking point position data (next tracking coordinate) and the next tracking block identification number (next tracking block identification number ID) are extracted from the motion information table, and movement information is calculated based on the next tracking coordinate. Then, a second process of storing the calculation result in the second motion information table storing the feature point coordinates of the past image is performed.

本発明は、処理の手順を時系列に沿って、示したものである。
つまり、複数の動き情報テーブルを用いて、順次データを書き込むことにより、順次そのデータを用いて、容易に移動情報の演算を行うことができる。
The present invention shows the processing procedure in chronological order.
That is, by sequentially writing data using a plurality of motion information tables, it is possible to easily calculate movement information using the data sequentially.

(4)請求項4の発明は、次追跡ブロック識別番号が0を示す値(例えばNULL)になるまで、前記第2の処理を繰り返すことを特徴とする。
本発明は、処理の終了を示したものである。これにより、必要な演算のみを行うことができる。
(4) The invention of claim 4 is characterized in that the second process is repeated until the next tracking block identification number reaches a value indicating 0 (for example, NULL).
The present invention indicates the end of processing. As a result, only necessary calculations can be performed.

・なお、特徴点マップとして、現在画像(最新の画像)における特徴点マップ及び過去画像(最新の画像より例えば1フレーム前の画像)における特徴点マップが挙げられるが、それより多くの特徴点マップを使用してもよい。   The feature point map includes a feature point map in the current image (latest image) and a feature point map in the past image (for example, an image one frame before the latest image), but more feature point maps. May be used.

・前記特徴点マップには、1フレーム目と2フレーム目の移動情報を算出する際には、画像ブロック単位の特徴点の存在有無(画像においてどの部分に画像ブロックが存在するかを示すデータ)を記憶できる(図2参照)。また、2フレーム目以降(例えば2フレーム目と3フレーム目の移動)の移動情報を算出する際には、特徴点の移動前の画像ブロック単位の識別番号を、特徴点の移動後の位置に記憶することができる(図5〜図8参照)。なお、画像ブロックは複数の画素により構成される。   In the feature point map, when moving information of the first frame and the second frame is calculated, presence / absence of feature points in image block units (data indicating in which part an image block exists in the image) Can be stored (see FIG. 2). In addition, when calculating movement information for the second and subsequent frames (for example, movement of the second and third frames), the identification number for each image block before the movement of the feature point is set to the position after the movement of the feature point. It can be stored (see FIGS. 5-8). An image block is composed of a plurality of pixels.

・なお、前記請求項1〜4の発明は、本発明者が提案した特開2008−192060号公報に記載の請求項1〜20の発明に適用することができる。
具体的には、例えば、画像処理装置に取り込まれた画像データを記憶する画像記憶部と、画像データ上の特徴点を抽出するため、及び動きベクトルを算出するために、必要な画像データを作成する前処理部と、画像データ上の特徴点が、動き検出する画像単位である画像ブロック単位で、どこに存在するかを示す特徴点マップと、画素単位で抽出された特徴点の位置のデータと動きベクトルのデータとを記憶する動き情報テーブルと、前処理部から得られる画像データから画像ブロック単位で特徴点を抽出し、特徴点が抽出できた場合には、画像ブロックに特徴点が存在することを示すフラグを特徴点マップに立て、かつ、特徴点の位置を動き情報テーブルに格納する特徴点抽出部と、画像記憶部に記憶された画像データと、特徴点マップに記憶された画像ブロック単位の特徴点のデータと、動き情報テーブルに記憶された画素単位の特徴点の位置のデータとに基づいて、動きベクトルを算出する動き検出部と、を備えた画像処理装置に適用することができる。
The inventions of claims 1 to 4 can be applied to the inventions of claims 1 to 20 described in Japanese Patent Application Laid-Open No. 2008-192060 proposed by the present inventor.
Specifically, for example, an image storage unit that stores image data captured by the image processing apparatus, and necessary image data for extracting feature points and calculating motion vectors are created. A pre-processing unit, a feature point map indicating where the feature points on the image data are in units of image blocks, which are image units for motion detection, and feature point position data extracted in units of pixels; When feature points are extracted in units of image blocks from a motion information table storing motion vector data and image data obtained from the preprocessing unit, if feature points can be extracted, the feature points exist in the image block. A feature point map is set in the feature point map, and the feature point extraction unit that stores the position of the feature point in the motion information table, the image data stored in the image storage unit, and the feature point map An image processing apparatus comprising: a motion detection unit that calculates a motion vector based on the memorized feature point data of the image block unit and the pixel unit feature point position data stored in the motion information table Can be applied to.

なお、前記動き検出部としては、動き検出するのに必要な過去の画像データと現在の画像データを記憶する動き検出用画像記憶部と、画像記憶部に格納された画像データを、動き検出用画像記憶部に転送する画像データ転送部と、動き検出用画像記憶部を使用して、過去の画像上の特徴点を含むテンプレート画像が現在の画像上でどこに移動したかを示す動きベクトルを算出し、その算出結果を過去の画像が入力されたときに特徴点座標を格納した過去の動き情報テーブルに格納する動き検出演算部と、過去の画像が入力されたときにフラグを立てた過去の特徴点マップを参照して、特徴点が存在する全ての画像ブロックをラスタ方向に処理するために、現時点で動きベクトルの算出を終えた画像ブロックとその画像ブロックライン上の特徴点が存在する次の画像ブロックまでの距離を計算し、その距離の値から、既に動き検出用画像記憶部に転送している画像データが、特徴点が存在する次の画像ブロックにおいて、動きベクトルの算出に使用できるかを判定し、不足している画像データのみを転送するように画像データ転送部に命令する動き検出制御部と、を備えた構成を採用できる。   The motion detection unit includes a motion detection image storage unit for storing past image data and current image data necessary for motion detection, and image data stored in the image storage unit for motion detection. Using the image data transfer unit to transfer to the image storage unit and the motion detection image storage unit, calculate a motion vector indicating where the template image including the feature points on the past image has moved on the current image And a motion detection calculation unit that stores the calculation result in a past motion information table that stores feature point coordinates when a past image is input, and a past flag set when a past image is input. In order to process all image blocks in which feature points exist in the raster direction with reference to the feature point map, the image block whose motion vector has been calculated at this time and the features on the image block line Is calculated from the distance value to the next image block in which the feature point exists in the next image block in which the feature point exists. It is possible to adopt a configuration including a motion detection control unit that determines whether it can be used for calculation and instructs the image data transfer unit to transfer only the missing image data.

実施例1の画像処理装置を示すブロック図である。1 is a block diagram illustrating an image processing apparatus according to Embodiment 1. FIG. 特徴点マップを示す説明図(STEP0の処理結果)である。It is explanatory drawing (processing result of STEP0) which shows a feature point map. 動き情報テーブルを示す説明図である。It is explanatory drawing which shows a motion information table. 3フレーム間の追跡の全体の流れを示す説明図である。It is explanatory drawing which shows the whole flow of the tracking between 3 frames. STEP1における処理の手順を示す説明図である。It is explanatory drawing which shows the procedure of the process in STEP1. STEP2における処理の手順を示す説明図である。It is explanatory drawing which shows the procedure of the process in STEP2. STEP3における処理の手順を示す説明図である。It is explanatory drawing which shows the procedure of the process in STEP3. STEP4における処理の手順を示す説明図である。It is explanatory drawing which shows the procedure of the process in STEP4. 実施例1における1〜2フレーム間の追跡に関する処理等を説明するフローチャートである。3 is a flowchart for describing processing related to tracking between one and two frames in the first embodiment. 実施例1における2フレーム以降の追跡に関する処理等を説明するフローチャートである。6 is a flowchart for describing processing and the like related to tracking in the second and subsequent frames in the first embodiment.

以下に本発明の実施例を図面と共に説明する。   Embodiments of the present invention will be described below with reference to the drawings.

a)まず、本実施例の画像処理装置の構成を説明する。
図1に示すように、画像処理装置1は、カメラ3によって撮影された動画の動きベクトルを検出する装置である。
a) First, the configuration of the image processing apparatus of this embodiment will be described.
As shown in FIG. 1, the image processing apparatus 1 is an apparatus that detects a motion vector of a moving image shot by a camera 3.

この画像処理装置1は、画像を取り込む画像入力I/F部5と、入力画素を平滑化する平滑化処理部7と、平滑化処理された入力画素をX微分するY微分処理部9と、同様に平滑化処理された入力画素をY微分するY微分処理部11と、X微分された入力画素とY微分された入力画素から画像上の特徴となる画素である特徴点を抽出する特徴点抽出部13と、動き検出する画像単位である画像ブロック単位で特徴点がどこにあるかを示す特徴点マップ15と、画素単位の特徴点の座標位置や後に詳述する次追跡座標などを記憶する動き情報テーブル17と、画像データを記憶する画像記憶部19と、次追跡座標及び動きベクトルを算出する動き検出部21などによって構成される。   The image processing apparatus 1 includes an image input I / F unit 5 that captures an image, a smoothing processing unit 7 that smoothes input pixels, a Y differentiation processing unit 9 that performs X differentiation on the smoothed input pixels, Similarly, a Y differentiation processing unit 11 that Y-differentiates the smoothed input pixel, and a feature point that extracts a feature point that is a pixel on the image from the X differentiated input pixel and the Y differentiated input pixel The extraction unit 13 stores a feature point map 15 indicating where the feature points are in image block units, which are image units for motion detection, the coordinate positions of the feature points in pixel units, the next tracking coordinates described in detail later, and the like. A motion information table 17, an image storage unit 19 that stores image data, a motion detection unit 21 that calculates next tracking coordinates and motion vectors, and the like.

このうち、前記動き検出部21は、次追跡座標や動きベクトルの算出に必要な画像記憶部19に格納された画像データを転送する画像データ転送部21aと、転送した画像データを記憶しておく動き検出用画像記憶部21bと、動き検出用画像記憶部21bを使用して、次追跡座標や動きベクトル(1フレーム前の画像上の特徴点を含むテンプレート画像が現在の画像上でどこに移動したかを示すベクトル)を算出し、算出結果を動き情報テーブル17に格納する動き検出演算部21cと、画像上の特徴点の次追跡座標や動きベクトルを算出するために、画像データ転送部21aと動き検出演算部21cを制御する動き検出制御部21dによって構成される。   Among these, the motion detection unit 21 stores the image data transfer unit 21a that transfers the image data stored in the image storage unit 19 necessary for calculating the next tracking coordinates and the motion vector, and the transferred image data. Using the motion detection image storage unit 21b and the motion detection image storage unit 21b, the next tracking coordinates and motion vectors (where the template image including the feature point on the image one frame before has moved on the current image) A motion detection calculation unit 21c that stores the calculation result in the motion information table 17, and an image data transfer unit 21a for calculating the next tracking coordinates and motion vectors of feature points on the image. It is comprised by the motion detection control part 21d which controls the motion detection calculating part 21c.

なお、この画像処理装置1のうち、画像記憶部19、動き検出用画像記憶部21b、特徴点マップ15、動き情報テーブル17が、各種のデータを記憶するメモリ部分であり、それ以外の、平滑化処理部7、X微分処理部9、Y微分処理部11、特徴点抽出部13、動き検出演算部21cが、各種データによる演算処理を行う演算処理部分である。なお、平滑化処理部7とY微分処理部9とY微分処理部11とにより前処理部22が構成されている。   In the image processing apparatus 1, the image storage unit 19, the motion detection image storage unit 21b, the feature point map 15, and the motion information table 17 are memory portions for storing various data. The conversion processing unit 7, the X differentiation processing unit 9, the Y differentiation processing unit 11, the feature point extraction unit 13, and the motion detection calculation unit 21c are calculation processing portions that perform calculation processing using various data. The smoothing processing unit 7, the Y differentiation processing unit 9, and the Y differentiation processing unit 11 constitute a preprocessing unit 22.

ここで、画像ブロック単位の特徴点とは、画像上の特徴となる画素(例えば、X微分画像とY微分画像のエッジの交点)を示すものであり、後述する様に、特徴点マップとは、画像が複数の画像ブロックで区分された場合に、画像ブロック単位で特徴点の有無等が示してあるマップである。   Here, the feature point of each image block indicates a pixel (for example, the intersection of the edge of the X differential image and the Y differential image) that is a feature on the image. As will be described later, the feature point map is The map shows the presence or absence of feature points in image block units when an image is divided into a plurality of image blocks.

なお、カメラ3によって取り込まれた画像データや演算結果等は、特徴点マップ15や動き情報テーブル17や画像記憶部19等のメモリに記憶され、前記各部7〜13、21による画像データを処理する際などの各種の演算はコンピュータにより実行される。   Note that image data, calculation results, and the like captured by the camera 3 are stored in a memory such as the feature point map 15, the motion information table 17, and the image storage unit 19, and process the image data by the units 7 to 13 and 21. Various operations such as the occasion are executed by a computer.

b)次に、図1における各ブロックの動作を説明する。
カメラ3は、モノクロ画像データを出力し、ここでは画像サイズを640×480画素のVGAサイズとする。ただし、画像サイズはこの限りではない。また、カラー画像でも問題はなく、その場合には、輝度画像を変換する機能を画像入力I/F部5に追加する必要がある。
b) Next, the operation of each block in FIG. 1 will be described.
The camera 3 outputs monochrome image data, and here, the image size is set to a VGA size of 640 × 480 pixels. However, the image size is not limited to this. Further, there is no problem with a color image, and in that case, a function for converting a luminance image needs to be added to the image input I / F unit 5.

画像入力I/F部5は、カメラ3からの出力信号から、各画素の輝度値、x座標、y座標を取り出し、平滑化処理部7に出力する。また、ここで画像データを1画素ずつ間引いて処理画像サイズを縮小してもよい。   The image input I / F unit 5 extracts the luminance value, x-coordinate, and y-coordinate of each pixel from the output signal from the camera 3 and outputs them to the smoothing processing unit 7. Further, the processed image size may be reduced by thinning out the image data pixel by pixel.

平滑化処理部7は、内部に4ライン分のバッファを保持しており、座標値(x,y)の画素データが入力されたとき、5×5の平滑フィルタ係数に基づく畳み込み演算により、座標値(x−2,y−2)の平滑画素データを、X微分処理部9とY微分処理部11、画像記憶部19に出力する。   The smoothing processing unit 7 holds a buffer for four lines inside, and when pixel data of coordinate values (x, y) is input, coordinates are obtained by a convolution operation based on a 5 × 5 smoothing filter coefficient. The smoothed pixel data of the value (x−2, y−2) is output to the X differentiation processing unit 9, the Y differentiation processing unit 11, and the image storage unit 19.

X微分処理部9は、平滑化処理部7と同様に、内部に4ライン分のバッファを保持しており、座標値(x,y)の画素データが入力されたとき、5×5のX微分フィルタ係数に基づく畳み込み演算により、座標値(x−2,y−2)のX微分画素データを、特徴点抽出部3、画像記録部19に出力する。   Similar to the smoothing processing unit 7, the X differentiation processing unit 9 holds a buffer for 4 lines therein, and when pixel data of coordinate values (x, y) is input, 5 × 5 X The X differential pixel data of the coordinate value (x−2, y−2) is output to the feature point extraction unit 3 and the image recording unit 19 by convolution calculation based on the differential filter coefficient.

Y微分処理部11は、平滑化処理部7と同様に、内部に4ライン分のバッファを保持しており、座標値(x,y)の画素データが入力されたとき、5×5のY微分フィルタ係数に基づく畳み込み演算により、座標値(x−2,y−2)のY微分画素データを、特徴点抽出部13、画像記録部19に出力する。   Similar to the smoothing processing unit 7, the Y differentiation processing unit 11 holds a buffer for four lines therein, and when pixel data of coordinate values (x, y) is input, 5 × 5 Y The Y differential pixel data of the coordinate value (x−2, y−2) is output to the feature point extraction unit 13 and the image recording unit 19 by the convolution calculation based on the differential filter coefficient.

なお、平滑化、X微分、Y微分のフィルタサイズの大きさは、これに限る必要は無いことは言うまでもない。
特徴点抽出部13は、動き検出する画像単位である画像ブロックの大きさを8×8画素とした場合には、8ライン分のX微分画像とY微分画像のラインバッファを2つ備えている。そして、一方のX微分画像とY微分画像のラインバッファに画像データを書き込んでいる間、他方のX微分画像とY微分画像のラインバッファを使用して、8×8画素の画像ブロックの中で最もコーナーらしい画素を抽出する。
Needless to say, the filter sizes of the smoothing, X differentiation, and Y differentiation need not be limited to this.
The feature point extraction unit 13 includes two line buffers for an X differential image and a Y differential image for 8 lines when the size of an image block that is an image unit for motion detection is 8 × 8 pixels. . While the image data is being written into the line buffer of one X differential image and the Y differential image, the other X differential image and Y differential image line buffer is used in the image block of 8 × 8 pixels. Extract the most corner-like pixels.

具体的には、Harrisコーナー検出と呼ばれる周知の手法により、各画素のコーナーらしさを示す指標を計算し、その画像ブロックの中で、任意のしきい値より大きく、かつ最も高い値の画素を特徴点とする。   Specifically, an index indicating the likelihood of a corner of each pixel is calculated by a well-known technique called Harris corner detection, and a pixel having a value higher than an arbitrary threshold and having the highest value is characterized in the image block. Let it be a point.

特徴点マップ15は、図2(B)に示す様に、どこの画像ブロックに特徴点が存在するかを示す表である。特徴点が検出できた場合には、例えば、フラグとして1を立て、検出できなかった場合にはフラグとして0を立てることができる記憶手段である。なお、特徴点マップ15は、T−1フレームの過去の画像用とTフレームの現在の画像用に2バンクの構成となっているが、それ以上のバンク構成としてもよい。   As shown in FIG. 2B, the feature point map 15 is a table showing in which image block the feature point exists. For example, the storage unit can set 1 as a flag when a feature point can be detected and set 0 as a flag when the feature point cannot be detected. The feature point map 15 has a two-bank configuration for the past image of the T-1 frame and the current image of the T frame, but may have a bank configuration of more than that.

ここでの処理画像の画像ブロックは、図2(A)に示すように(図2では一部の画像ブロックのみを記載してある)、横80個×縦60個であり、外周部分の1列分の画像ブロックは、特徴点抽出に使用しない。従って、処理領域の画像ブロックは、縦78個×横58個である。なお、各画像ブロックを区別するために、ラスタ方向に沿って、1〜4524までの識別番号が順次設定してある。   As shown in FIG. 2 (A) (only a part of the image blocks are shown in FIG. 2), the image block of the processed image here is 80 × 60 × 1. The image blocks for the columns are not used for feature point extraction. Therefore, the image block of the processing area is 78 vertical × 58 horizontal. In order to distinguish each image block, identification numbers 1 to 4524 are sequentially set along the raster direction.

動き情報テーブル17は、図3に示す様に、各画像ブロックに割り当てられた識別番号(1〜4524)を索引として、画像ブロック上の特徴点の位置や移動に関する情報などが参照できるようになっている。なお、ここでは、特徴点マップの各識別番号に対応した動き情報テーブル17の各メモリの内容をテーブルブロックと称する。なお、動き情報テーブル17は、T−1フレームの過去の画像用とTフレームの現在の画像用に2バンクの構成となっているが、それ以上のバンク構成としてもよい。   As shown in FIG. 3, the motion information table 17 can refer to information on the position and movement of feature points on an image block using the identification number (1-4524) assigned to each image block as an index. ing. Here, the contents of each memory of the motion information table 17 corresponding to each identification number of the feature point map are referred to as a table block. The motion information table 17 has a two-bank configuration for the past image of the T-1 frame and the current image of the T frame, but may have a bank configuration of more than that.

詳しくは、動き情報テーブル17には、特徴点のデータとして、特徴点の座標データ(特徴点座標:画素のx、yの座標のデータ)が記憶されている。
また、次追跡座標(即ち1フレーム前の移動ベクトルの終点:例えば連続する1、2フレーム間で特徴点が移動した座標)が記憶されている。
Specifically, the motion information table 17 stores feature point coordinate data (feature point coordinates: data of x and y coordinates of pixels) as feature point data.
Further, the next tracking coordinates (that is, the end point of the movement vector one frame before: for example, the coordinates at which the feature point has moved between one or two consecutive frames) are stored.

更に、次追跡ブロックIDが記憶されている。この次追跡ブロックIDとは、動き情報テーブル17をリスト構造とするための次オブジェクト(テーブルブロック)を指すものである。つまり、後述する様に(図6参照)、例えば識別番号3に対応したテーブルブロックに、次追跡ブロックIDとして2が記憶されていると、次に、識別番号2に対応したテーブルブロックに進み、識別番号2に対応した特徴点について、必要な演算(例えば次追跡座標や動きベクトルを算出する演算)が行われる。   Further, the next tracking block ID is stored. This next tracking block ID indicates the next object (table block) for making the motion information table 17 a list structure. That is, as described later (see FIG. 6), for example, if 2 is stored as the next tracking block ID in the table block corresponding to the identification number 3, then the process proceeds to the table block corresponding to the identification number 2. Necessary computation (for example, computation for calculating the next tracking coordinate or motion vector) is performed on the feature point corresponding to the identification number 2.

画像記憶部19には、画像ブロック単位で画像データが格納される。例えば、1画素8ビット、1ワード32ビットのメモリを使用した場合には、4画素単位でデータが格納され、8×8画素の画像ブロックの場合、16ワード単位で格納される。   The image storage unit 19 stores image data in units of image blocks. For example, when a memory of 8 bits per pixel and 32 bits per word is used, data is stored in units of 4 pixels, and in the case of an 8 × 8 pixel image block, data is stored in units of 16 words.

動き検出部21は、後に詳述するが、平滑化処理部7、X微分処理部9、Y微分処理部11の出力画素を、画像ブロック単位で画像データを記憶する画像記憶部(画像メモリ)19と、画像記憶部19に格納された1フレーム前の画像データ(平滑画像、X微分画像、Y微分画像)、現在の画像データ(平滑画像、X微分画像、Y微分画像)、特徴点マップ15、動き情報テーブル17を用いて、次追跡座標や動きベクトルを算出する処理を行う。   As will be described in detail later, the motion detector 21 is an image storage unit (image memory) that stores output data of the smoothing processing unit 7, the X differentiation processing unit 9, and the Y differentiation processing unit 11 in units of image blocks. 19, image data of one frame before stored in the image storage unit 19 (smooth image, X differential image, Y differential image), current image data (smooth image, X differential image, Y differential image), feature point map 15. Using the motion information table 17, perform processing for calculating the next tracking coordinate and motion vector.

c)次に、本実施例の画像処理装置1にて行われる主要な処理の手順について説明する。
本実施例では、複数フレームに跨る特徴点の動きを検出するものである。
c) Next, a procedure of main processing performed in the image processing apparatus 1 of the present embodiment will be described.
In the present embodiment, the movement of feature points across a plurality of frames is detected.

(1)ここでは、図4に示す様に、3フレーム(1〜3フレーム、3〜5フレーム・・)間における特徴点の追跡を例に挙げて説明する。なお、以下では複数の特徴点マップや動き情報テーブルを使用して説明するので、それらを、A、B、C、Dに分けて説明した。   (1) Here, as shown in FIG. 4, the tracking of feature points between three frames (1 to 3 frames, 3 to 5 frames,...) Will be described as an example. In addition, since it demonstrates using a some feature point map and a motion information table below, they were divided into A, B, C, and D, and were demonstrated.

<1〜3フレーム>
・まず、1フレーム目の画像から、その特徴点を抽出する(STEP0)。
そして、その1フレーム目の特徴点が存在する画像ブロックを特徴点マップAに記憶する。つまり、該当する画像ブロックのフラグを1に設定する。
<1-3 frames>
First, the feature point is extracted from the first frame image (STEP 0).
Then, the image block in which the feature point of the first frame exists is stored in the feature point map A. That is, the flag of the corresponding image block is set to 1.

また、1フレーム目の特徴点の座標を、動き情報テーブルAに記憶する。なお、この時には、この動き情報テーブルAには、特徴点の座標しか記憶されていない。
・次に、1、2フレームの画像データを用い、1、2フレーム間の動き検出(特徴点の動きを検出する処理)を行う(STEP1、2)。
Also, the coordinates of the feature point of the first frame are stored in the motion information table A. At this time, only the coordinates of the feature points are stored in the motion information table A.
Next, motion detection between 1 and 2 frames (processing for detecting feature point motion) is performed using image data of 1 and 2 frames (STEP 1 and 2).

具体的には、1、2フレームの画像データと、特徴点マップA及び動き情報テーブルAのデータ(ここでは1フレーム目の特徴点の座標データ)を用いて、1、2フレーム間で移動した特徴点の座標(次追跡座標)を求める処理を行う。つまり、1フレーム目の特徴点を有する画像ブロックが、2フレーム目のどこに移動したかを、公知の画像処理の技術によって求め、これにより、移動後の特徴点の座標である次追跡座標を求める。なお、同時に移動ベクトルを求める処理を行ってもよい。   Specifically, the image data of the first and second frames and the data of the feature point map A and the motion information table A (here, the coordinate data of the feature point of the first frame) are used to move between the first and second frames. Processing for obtaining the coordinates of the feature points (next tracking coordinates) is performed. That is, where the image block having the feature point of the first frame has moved to the position of the second frame is obtained by a known image processing technique, thereby obtaining the next tracking coordinate that is the coordinate of the feature point after the movement. . In addition, you may perform the process which calculates | requires a movement vector simultaneously.

なお、この動き検出処理については、例えば特開2008−192060号公報に記載の様な公知の手法、即ち、勾配法の一種であるKanade−Lucas−Tomasi法(KLT法)やブロックマッチング等を利用することができる。   For this motion detection processing, for example, a known method as described in Japanese Patent Application Laid-Open No. 2008-192060, that is, a Kanade-Lucas-Tomasi method (KLT method), which is a kind of gradient method, or block matching is used. can do.

・次に、2フレーム目の次追跡座標が存在する画像ブロックを特徴点マップBに記憶する。
また、(1フレーム目の)特徴点座標と(前記動き検出によって求めた)次追跡座標を、動き情報テーブルBに記憶する。なお、この(1フレーム目の)特徴点座標は、動き情報テーブルAからコピーする。
Next, the image block where the next tracking coordinate of the second frame exists is stored in the feature point map B.
Also, the feature point coordinates (first frame) and the next tracking coordinates (obtained by the motion detection) are stored in the motion information table B. The feature point coordinates (first frame) are copied from the motion information table A.

・次に、2、3フレームの画像データを用い、2、3フレーム間の動き検出を行う(STEP3、4)。
具体的には、2、3フレームの画像データと、特徴点マップB及び動き情報テーブルBのデータ(ここでは2フレーム目の次追跡座標のデータ)を用いて、2、3フレーム間で移動した次追跡座標を求める処理を行う。
Next, using two or three frames of image data, motion detection between two or three frames is performed (STEPs 3 and 4).
Specifically, the image data of two or three frames and the data of the feature point map B and the motion information table B (here, the data of the next tracking coordinates of the second frame) are used to move between two or three frames. Processing for obtaining the next tracking coordinate is performed.

・次に、3フレーム目の次追跡座標が存在する画像ブロックを特徴点マップAに記憶する。なお、このとき、以前の特徴点マップAや動き情報テーブルAのデータはクリアされる。   Next, the image block where the next tracking coordinate of the third frame exists is stored in the feature point map A. At this time, the previous feature point map A and motion information table A data are cleared.

また、(1フレーム目の)特徴点座標と(前記動き検出によって求めた)次追跡座標を、動き情報テーブルAに記憶する。なお、この(1フレーム目の)特徴点座標は、動き情報テーブルBからコピーする。   Further, the feature point coordinates (first frame) and the next tracking coordinates (obtained by the motion detection) are stored in the motion information table A. The feature point coordinates (first frame) are copied from the motion information table B.

・そして、2フレーム目と3フレーム目の動き検出が終了した後、1〜3フレーム間における動きベクトルの算出結果(即ち、動き情報テーブルAの各テーブルブロックの次追跡座標と特徴点座標の間のベクトル)を出力する。   After the motion detection of the second frame and the third frame is completed, the motion vector calculation result between the first and third frames (ie, between the next tracking coordinate and the feature point coordinate of each table block of the motion information table A) Vector).

<3〜5フレーム>
・まず、3フレーム目の画像から、その特徴点を抽出する。
そして、その3フレーム目の特徴点が存在する画像ブロックを特徴点マップCに記憶する。
<3-5 frames>
First, the feature point is extracted from the third frame image.
Then, the image block in which the feature point of the third frame exists is stored in the feature point map C.

また、3フレーム目の特徴点の座標を、動き情報テーブルCに記憶する。
・次に、3、4フレームの画像データを用い、3、4フレーム間の動き検出を行う。
具体的には、3、4フレームの画像データと、特徴点マップC及び動き情報テーブルCのデータを用いて、3、4フレーム間で移動した次追跡座標を求める処理を行う。
Further, the coordinates of the feature point of the third frame are stored in the motion information table C.
Next, motion detection between 3 and 4 frames is performed using image data of 3 and 4 frames.
Specifically, using the image data of 3 and 4 frames and the data of the feature point map C and the motion information table C, a process for obtaining the next tracking coordinates moved between 3 and 4 frames is performed.

・次に、4フレーム目の次追跡座標が存在する画像ブロックを特徴点マップDに記憶する。
また、(3フレーム目の)特徴点座標と(前記動き検出によって求めた)次追跡座標を、動き情報テーブルDに記憶する。なお、この(3フレーム目の)特徴点座標は、動き情報テーブルCからコピーする。
Next, the image block where the next tracking coordinate of the fourth frame exists is stored in the feature point map D.
Further, the feature point coordinates (in the third frame) and the next tracking coordinates (obtained by the motion detection) are stored in the motion information table D. The feature point coordinates (third frame) are copied from the motion information table C.

・次に、4、5フレームの画像データを用い、4、5フレーム間の動き検出を行う。
具体的には、4、5フレームの画像データと、特徴点マップD及び動き情報テーブルDのデータを用いて、4、5フレーム間で移動した次追跡座標を求める処理を行う。なお、同時に移動ベクトルを求める処理を行ってもよい。
Next, motion detection between 4, 5 frames is performed using image data of 4, 5 frames.
Specifically, a process for obtaining the next tracking coordinates moved between the fourth and fifth frames is performed using the image data of the fourth and fifth frames and the data of the feature point map D and the motion information table D. In addition, you may perform the process which calculates | requires a movement vector simultaneously.

・次に、5フレーム目の次追跡座標が存在する画像ブロックを特徴点マップCに記憶する。
また、(3フレーム目の)特徴点座標と(前記動き検出によって求めた)次追跡座標を、動き情報テーブルCに記憶する。なお、この(3フレーム目の)特徴点座標は、動き情報テーブルDからコピーする。
Next, the image block where the next tracking coordinate of the fifth frame exists is stored in the feature point map C.
Further, the feature point coordinates (in the third frame) and the next tracking coordinates (obtained by the motion detection) are stored in the motion information table C. The feature point coordinates (third frame) are copied from the motion information table D.

・そして、3〜5フレーム間における動きベクトルの算出結果(即ち、動き情報テーブルCの各テーブルブロックの次追跡座標と特徴点座標の間のベクトル)を出力する。
(2)次に、前記<1〜3フレーム>の処理について、時系列に沿って更に詳細に説明する。
Then, the calculation result of the motion vector between 3 and 5 frames (that is, the vector between the next tracking coordinate and the feature point coordinate of each table block of the motion information table C) is output.
(2) Next, the processing of <1-3 frames> will be described in more detail along the time series.

<STEP1>
本処理は、1フレームと2フレーム間の処理である。
図5(左図)に示す様に、例えば画像ブロック2の特徴点が画像ブロック80に移動した場合を考える。
<STEP1>
This process is a process between one frame and two frames.
As shown in FIG. 5 (left figure), for example, a case where the feature point of the image block 2 has moved to the image block 80 is considered.

ここで、画像ブロック2の特徴点から画像ブロック80の特徴点への動きベクトルは、1、2フレームの画像データと、特徴点マップAと動き情報テーブルAのデータ(1フレーム目の特徴点座標)を用いて算出することができる。また、次追跡点とは、画像ブロック80に移動した特徴点である。   Here, the motion vector from the feature point of the image block 2 to the feature point of the image block 80 includes the image data of 1 and 2 frames, the data of the feature point map A and the motion information table A (the feature point coordinates of the first frame). ). The next tracking point is a feature point that has moved to the image block 80.

図5(右図)に示す様に、次特徴点の存在有無は特徴点マップBに記憶される。即ち、(1フレーム目における特徴点の存在する画像ブロックを示す)画像ブロックの識別番号2が、特徴点が移動した画像ブロック80の位置に記憶される。   As shown in FIG. 5 (right figure), the presence / absence of the next feature point is stored in the feature point map B. That is, the identification number 2 of the image block (indicating the image block where the feature point exists in the first frame) is stored at the position of the image block 80 to which the feature point has moved.

また、動き情報テーブルBのうち、(1フレーム目における特徴点の存在する画像ブロックを示す)画像ブロックの識別番号2に対応するテーブルブロック2には、特徴点座標X、次追跡座標Y、次追跡ブロックID Zが記憶される。   In addition, in the motion information table B, the table block 2 corresponding to the image block identification number 2 (indicating the image block in which the feature point exists in the first frame) includes the feature point coordinate X, the next tracking coordinate Y, and the next A tracking block ID Z is stored.

つまり、特徴点座標(即ち1フレーム目の特徴点座標)は、動き情報テーブルAからコピーされて記憶される。また、次追跡座標は、動き検出処理によって算出された値(2フレーム目に移動した特徴点の座標)が記憶される。更に、次追跡ブロックIDは、上述した様に、動き情報テーブル17をリスト構造とするための次オブジェクトを指すもの、即ち、特徴点マップBから得られた特徴点の識別番号2に対応するテーブルブロック2の次に進むテーブルブロックを指すものであり、ここで、特徴点マップBに記憶するブロックが0であれば、データの終了を示すNULLとする。   That is, the feature point coordinates (that is, the feature point coordinates of the first frame) are copied from the motion information table A and stored. Further, as the next tracking coordinate, a value calculated by the motion detection process (the coordinate of the feature point moved in the second frame) is stored. Further, as described above, the next tracking block ID indicates the next object for making the motion information table 17 a list structure, that is, a table corresponding to the feature point identification number 2 obtained from the feature point map B. This indicates a table block that proceeds next to block 2. Here, if the block stored in the feature point map B is 0, it is set to NULL indicating the end of data.

<STEP2>
本処理も、1フレームと2フレーム間の処理である。
図6(左図)に示す様に、例えば画像ブロック3の特徴点がSTEP1と同じ画像ブロック80に移動した場合を考える。
<STEP2>
This processing is also processing between one frame and two frames.
As shown in FIG. 6 (left figure), for example, consider a case where the feature point of the image block 3 has moved to the same image block 80 as in STEP1.

図6(右図)に示す様に、次特徴点は特徴点マップBに記憶される。即ち、(1フレーム目における別の特徴点の存在する)画像ブロックの識別番号3が、特徴点が移動した画像ブロック80の位置に記憶される。   As shown in FIG. 6 (right figure), the next feature point is stored in the feature point map B. That is, the identification number 3 of the image block (in which another feature point in the first frame exists) is stored at the position of the image block 80 to which the feature point has moved.

また、動き情報テーブルBのうち、画像ブロックの識別番号3に対応するテーブルブロック3には、特徴点座標X、次追跡座標Y、次追跡ブロックID Zが記憶される。
つまり、特徴点座標は、動き情報テーブルAからコピーされて記憶され、次追跡座標は、動き検出処理によって算出された値が記憶される。また、次追跡ブロックIDは、特徴点マップBに記憶するブロックが既に2であったので、2とする。
In the motion information table B, the feature block coordinate X, the next tracking coordinate Y, and the next tracking block ID Z are stored in the table block 3 corresponding to the image block identification number 3.
That is, the feature point coordinates are copied from the motion information table A and stored, and the next tracking coordinates are stored as values calculated by the motion detection process. The next tracking block ID is set to 2 because the block stored in the feature point map B is already 2.

<STEP3>
本処理は、2フレームと3フレーム間の処理である。
図7(左図)に示す様に、例えば画像ブロック80の特徴点が更に移動した場合を考える。なお、ここでは、次追跡点は、画像ブロック2の特徴点と画像ブロック3の特徴点の2つある。
<STEP3>
This process is a process between 2 and 3 frames.
As shown in FIG. 7 (left figure), for example, consider a case where the feature point of the image block 80 is further moved. Here, there are two next tracking points, a feature point of the image block 2 and a feature point of the image block 3.

特徴点マップB(図6 右図)を見ると、ラスタ方向に検索した場合に3と記載してあるので、3を索引番号として動き情報テーブルBからテーブルブロック3を取り出し、そのデータを用いて動き検出処理を行って、次追跡座標や動きベクトルを算出する。   Looking at the feature point map B (right figure in FIG. 6), it is described as 3 when searching in the raster direction. Therefore, the table block 3 is extracted from the motion information table B using 3 as an index number, and the data is used. A motion detection process is performed to calculate next tracking coordinates and motion vectors.

図7(右図)に示す様に、次特徴点は(クリア後の)特徴点マップAに記憶される。即ち、(1フレーム目における別の特徴点の存在する画像ブロックを示す)画像ブロックの識別番号3が、特徴点が移動した画像ブロック158の位置に記憶される。   As shown in FIG. 7 (right figure), the next feature point is stored in the feature point map A (after clearing). That is, the identification number 3 of the image block (indicating an image block in which another feature point exists in the first frame) is stored at the position of the image block 158 to which the feature point has moved.

また、(クリア後の)動き情報テーブルAのうち、画像ブロックの識別番号3に対応するテーブルブロック3には、特徴点座標X、次追跡座標Y、次追跡ブロックID Zが記憶される。   Further, in the motion information table A (after clearing), the feature block coordinate X, the next tracking coordinate Y, and the next tracking block ID Z are stored in the table block 3 corresponding to the image block identification number 3.

つまり、特徴点座標は、動き情報テーブルBからコピーされて記憶され、次追跡座標は、動き検出処理によって算出された値が記憶される。また、次追跡ブロックIDは、特徴点マップAに記憶するブロックが0であれば、データの終了を示すNULLとする。   That is, the feature point coordinates are copied from the motion information table B and stored, and the next tracking coordinates are stored as values calculated by the motion detection process. If the block stored in the feature point map A is 0, the next tracking block ID is NULL indicating the end of data.

<STEP4>
本処理も、2フレームと3フレーム間の処理である。
図8(左図)に示す様に、動き情報テーブルBのテーブルブロック3の次追跡ブロックIDは2である。従って、この2を索引番号としてデータを取り出し、そのデータを用いて動き検出処理を行って、次追跡座標や動きベクトルを算出する。
<STEP4>
This process is also a process between 2 frames and 3 frames.
As shown in FIG. 8 (left figure), the next tracking block ID of the table block 3 of the motion information table B is 2. Therefore, data is extracted with the index number 2 and a motion detection process is performed using the data to calculate the next tracking coordinate and motion vector.

図8(右図)に示す様に、次特徴点は(クリア後の)特徴点マップAに記憶される。即ち、(1フレーム目における特徴点の存在する画像ブロックを示す)画像ブロックの識別番号2が、特徴点が移動した画像ブロック157の位置に記憶される。   As shown in FIG. 8 (right figure), the next feature point is stored in the feature point map A (after clearing). That is, the identification number 2 of the image block (indicating the image block where the feature point exists in the first frame) is stored at the position of the image block 157 where the feature point has moved.

また、(クリア後の)動き情報テーブルAのうち、画像ブロックの識別番号2に対応するテーブルブロック2には、特徴点座標X、次追跡座標Y、次追跡ブロックIDZが記憶される。   Further, in the motion information table A (after clearing), the feature block coordinate X, the next tracking coordinate Y, and the next tracking block IDZ are stored in the table block 2 corresponding to the identification number 2 of the image block.

つまり、特徴点座標は、動き情報テーブルBからコピーされて記憶され、次追跡座標は、動き検出処理によって算出された値が記憶される。また、次追跡ブロックIDは、特徴点マップAに記憶するブロックが0であれば、データの終了を示すNULLとする。   That is, the feature point coordinates are copied from the motion information table B and stored, and the next tracking coordinates are stored as values calculated by the motion detection process. If the block stored in the feature point map A is 0, the next tracking block ID is NULL indicating the end of data.

この様に、本実施例では、特徴点マップ15をラスタ方向に検索し、そこに特徴点が存在している場合には、その特徴点の識別番号を利用し、動き情報テーブル17の識別番号に該当するテーブルブロックを見出す。このテーブルブロックには、次追跡ブロックID(即ち次に処理すべきテーブルブロックを示す番号)が記憶されているので、次に、次追跡ブロックIDが示すテーブルブロックのデータ(特徴点座標や次追跡座標)を利用して、更に次追跡座標や動きベクトルを算出することができる。   In this way, in the present embodiment, the feature point map 15 is searched in the raster direction, and if a feature point exists there, the feature point identification number is used and the identification number of the motion information table 17 is used. Find the table block that corresponds to. Since this table block stores the next tracking block ID (that is, the number indicating the next table block to be processed), the table block data (feature point coordinates and next tracking) indicated by the next tracking block ID is next stored. Further tracking coordinates and motion vectors can be calculated using (coordinates).

従って、動き情報テーブルの検索が不要になり、複数フレームに跨る画像ブロックの動き検出する場合に、その動き検出の算出を速めて画像処理を高速化するという課題を解決できる。   Accordingly, it is not necessary to search the motion information table, and when the motion of an image block across a plurality of frames is detected, the problem of speeding up the image processing by speeding up the calculation of the motion detection can be solved.

次に、前記ステップ1〜4の処理を含む全体の画像処理について、図9及び図10に基づいて説明する。
この処理は、過去の画像上の特徴となる画素である特徴点を抽出して、その特徴点を含む所定の大きさを持つテンプレート画像が、現在の画像上のどこに移動したかを示す次追跡座標や動きベクトルを算出するための処理などである。
Next, the entire image processing including the processing in steps 1 to 4 will be described with reference to FIGS.
This process extracts feature points that are pixels that become features on the past image, and next tracking that indicates where the template image having a predetermined size including the feature points has moved on the current image. For example, processing for calculating coordinates and motion vectors.

なお、図9及び図10では、処理の流れを実線で示すとともに、データの流れを破線で示している。
(1)まず、図9に基づいて、1、2フレーム間の特徴点の追跡に関する処理等について説明する。なお、本処理は、画像データが入力される毎に実施される。
In FIGS. 9 and 10, the flow of processing is indicated by a solid line, and the flow of data is indicated by a broken line.
(1) First, based on FIG. 9, the process etc. regarding the tracking of the feature point between 1 and 2 frames are demonstrated. This processing is performed every time image data is input.

図9に示すように、ステップ(S)100では、カメラ3で撮影した画像データを取り込む(画像入力I/F処理)。
続くステップ110では、取り込んだ画像データの前処理を行う。具体的には、上述した平滑化処理、X微分処理、Y微分処理を行う。
As shown in FIG. 9, in step (S) 100, image data captured by the camera 3 is captured (image input I / F processing).
In the subsequent step 110, preprocessing of the captured image data is performed. Specifically, the above-described smoothing process, X differential process, and Y differential process are performed.

続くステップ120では、特徴点を抽出する処理を行う(特徴点抽出処理)。この特徴点抽出処理とは、前処理から得られる画像から画像ブロック単位で特徴点を抽出し、かつ、特徴点が抽出できた場合には、画像ブロックに特徴点が存在するフラグを特徴点マップに立て、特徴点の位置を動き情報テーブルに格納する処理である。   In the following step 120, processing for extracting feature points is performed (feature point extraction processing). This feature point extraction process is a process of extracting feature points in units of image blocks from an image obtained from preprocessing, and if feature points can be extracted, a flag indicating the presence of feature points in an image block is displayed as a feature point map. This is a process for storing the position of the feature point in the motion information table.

また、この特徴点抽出処理とは別に(並列に)、平滑化した画像データを画像記憶部19に記憶する処理を行う。
続くステップ130では、特徴点が存在する全ての画像ブロックの次追跡座標や動きベクトルの算出を終了したかを判断する(終了判定処理)。ここで肯定判断されると本処理を終了し、否定判断されるとステップ140に進む。
In addition to the feature point extraction processing (in parallel), processing for storing the smoothed image data in the image storage unit 19 is performed.
In subsequent step 130, it is determined whether the calculation of the next tracking coordinates and motion vectors of all image blocks in which feature points exist has been completed (end determination process). If an affirmative determination is made here, the present process ends. If a negative determination is made, the process proceeds to step 140.

ステップ140では、画像データ転送量判断処理を行う。この画像データ転送量判断処理とは、過去の画像が入力されたときにフラグを立てた他方(過去)の特徴点マップ(ここでは(T−2フレーム)の特徴点マップ)を参照して、特徴点が存在する全ての画像ブロックをラスタ方向に処理するために、現時点で動きベクトルの算出を終えた画像ブロックとその画像ブロックライン上の特徴点が存在する次の画像ブロックまでの距離を計算し、距離の値から、既に動き検出用画像記憶部21bに転送している画像データが、特徴点が存在する次の画像ブロックにおいて、動きベクトルの算出に使用できるか判定し、不足している画像データ量を明らかにする処理である。   In step 140, an image data transfer amount determination process is performed. This image data transfer amount determination processing refers to the other (past) feature point map (here, the (T-2 frame) feature point map) that is flagged when a past image is input, To process all image blocks with feature points in the raster direction, calculate the distance between the image block for which motion vectors have been calculated and the next image block with feature points on the image block line. Then, from the distance value, it is determined whether the image data that has already been transferred to the motion detection image storage unit 21b can be used to calculate a motion vector in the next image block in which a feature point exists, and is insufficient. This is a process for clarifying the amount of image data.

なお、ここでは、(T−2フレーム目)の特徴点マップと(T−2フレーム目)の動き情報テーブルが、前記図4の特徴点マップAと動き情報テーブルAに相当し、(T−1フレーム目)の特徴点マップと(T−1フレーム目)の動き情報テーブルが、前記図4の特徴点マップBと動き情報テーブルBに相当する(なお、ここでは、T=3フレームとしたときの例を挙げる)。   Here, the feature point map of (T-2 frame) and the motion information table of (T-2 frame) correspond to the feature point map A and motion information table A of FIG. The feature point map of (first frame) and the motion information table of (T-1 frame) correspond to the feature point map B and motion information table B of FIG. 4 (in this case, T = 3 frames) Give an example when).

続くステップ150では、上記画像データ量分だけ、画像記憶部19から動き検出用画像記憶部21に転送する(画像データ転送処理)。
続くステップ160では、動き検出演算処理を行う。この動き検出演算処理とは、動き検出用画像記憶部21bを使用して、過去の画像上の特徴点を含むテンプレート画像が現在の画像上でどこに移動したかを示す次追跡座標や動きベクトルを算出し、算出結果を動き情報テーブルに格納する処理である。なお、上述した説明では次追跡座標を格納する例について説明した。
In the subsequent step 150, the image data amount is transferred from the image storage unit 19 to the motion detection image storage unit 21 (image data transfer process).
In the following step 160, motion detection calculation processing is performed. This motion detection calculation processing uses the motion detection image storage unit 21b to calculate next tracking coordinates and motion vectors indicating where a template image including a feature point on a past image has moved on the current image. This is a process of calculating and storing the calculation result in the motion information table. In the above description, an example in which the next tracking coordinates are stored has been described.

ここで、前記ステップ130〜160の処理が、動き検出部21にて行われる動き検出処理(次追跡座標や動きベクトルを算出する処理)であり、この動き検出処理が、前記図4のSTEP1、2に相当する。   Here, the processing in steps 130 to 160 is motion detection processing (processing for calculating the next tracking coordinate and motion vector) performed in the motion detection unit 21, and this motion detection processing is performed in STEP 1 of FIG. It corresponds to 2.

なお、前記ステップ100〜120の処理と、ステップ130〜160の処理は、並列して処理される。
従って、上述した処理によって、特徴点を含む所定の大きさを持つテンプレート画像が、現在の画像上のどこに移動したかを示す次追跡座標や動きベクトルを算出することができる。
In addition, the process of said step 100-120 and the process of steps 130-160 are processed in parallel.
Therefore, the following tracking coordinates and motion vectors indicating where the template image having a predetermined size including the feature point has moved on the current image can be calculated by the above-described processing.

(2)次に、図10に基づいて、2フレーム以降の特徴点の追跡に関する処理等について説明する。
図10に示すように、ステップ200では、特徴点が存在する全ての画像ブロックの次追跡座標や動きベクトルの算出を終了したかを判断する(終了判定処理)。ここで肯定判断されると本処理を終了し、否定判断されるとステップ210に進む。
(2) Next, based on FIG. 10, the process etc. regarding the tracking of the feature point after 2 frames are demonstrated.
As shown in FIG. 10, in step 200, it is determined whether the calculation of the next tracking coordinates and motion vectors of all image blocks where feature points exist has been completed (end determination process). If an affirmative determination is made here, the present process ends. If a negative determination is made, the process proceeds to step 210.

ステップ210では、画像データ転送量判断処理を行う。この画像データ転送量判断処理は、(T−2フレーム)の特徴点マップを参照して、特徴点が存在する全ての画像ブロックをラスタ方向に処理するために、現時点で動きベクトルの算出を終えた画像ブロックとその画像ブロックライン上の特徴点が存在する次の画像ブロックまでの距離を計算し、距離の値から、既に動き検出用画像記憶部21bに転送している画像データが、特徴点が存在する次の画像ブロックにおいて、動きベクトルの算出に使用できるか判定し、不足している画像データ量を明らかにする処理である。   In step 210, an image data transfer amount determination process is performed. In this image data transfer amount determination process, the calculation of the motion vector is completed at this time in order to process all image blocks in which the feature points exist in the raster direction with reference to the feature point map of (T-2 frame). The distance between the image block and the next image block where the feature point on the image block line exists is calculated, and the image data already transferred to the motion detection image storage unit 21b from the distance value is the feature point. Is a process for determining whether or not the next image block in which the image data is present can be used to calculate a motion vector and clarifying the amount of image data that is lacking.

なお、ここでは、(T−2フレーム目)の特徴点マップと(T−2フレーム目)の動き情報テーブルが、前記図4の特徴点マップBと動き情報テーブルBに相当し、(T−1フレーム目)の特徴点マップと(T−1フレーム目)の動き情報テーブルが、前記図4の特徴点マップAと動き情報テーブルAに相当する(なお、ここでは、T=4フレームとしたときの例を挙げる)。   Here, the feature point map of (T-2 frame) and the motion information table of (T-2 frame) correspond to the feature point map B and motion information table B of FIG. The feature point map of (first frame) and the motion information table of (T-1 frame) correspond to the feature point map A and motion information table A of FIG. 4 (in this case, T = 4 frames) Give an example when).

続くステップ220では、上記画像データ量分だけ、画像記憶部19から動き検出用画像記憶部21bに転送する(画像データ転送処理)。
続くステップ230では、動き検出演算処理を行う。この動き検出演算処理とは、動き検出用画像記憶部21bを使用して、過去の画像上の特徴点を含むテンプレート画像が現在の画像上でどこに移動したかを示す次追跡座標や動きベクトルを算出し、算出結果を動き情報テーブルに格納する処理である。
In the subsequent step 220, the image data amount is transferred from the image storage unit 19 to the motion detection image storage unit 21b (image data transfer process).
In subsequent step 230, motion detection calculation processing is performed. This motion detection calculation processing uses the motion detection image storage unit 21b to calculate next tracking coordinates and motion vectors indicating where a template image including a feature point on a past image has moved on the current image. This is a process of calculating and storing the calculation result in the motion information table.

続くステップ240では、継続判定処理を行う。即ち、他に次追跡点があるか否かを判定する。ここで肯定判断されると前記ステップ230に戻り、一方否定判断されると前記ステップ200に戻る。   In subsequent step 240, continuation determination processing is performed. That is, it is determined whether there is another next tracking point. If an affirmative determination is made here, the process returns to step 230. On the other hand, if a negative determination is made, the process returns to step 200.

つまり、次追跡ブロックIDを確認し、それがNULLでない場合には、他に次追跡点があるとみなされるので、次追跡ブロックIDの示すテーブルブロックのデータを利用して、再度ステップ200に進んで、動き検出演算処理を行うのである。   In other words, the next tracking block ID is confirmed, and if it is not NULL, it is considered that there is another next tracking point, so the process proceeds to step 200 again using the data of the table block indicated by the next tracking block ID. Thus, motion detection calculation processing is performed.

ここで、前記ステップ200〜240の処理が、動き検出部21にて行われる動き検出処理(次追跡座標や動きベクトルを算出する処理)であり、この動き検出処理が、前記図4のSTEP3、4に相当する。   Here, the processing in steps 200 to 240 is motion detection processing (processing for calculating the next tracking coordinate and motion vector) performed in the motion detection unit 21, and this motion detection processing is performed in STEP 3 of FIG. Corresponds to 4.

従って、上述した処理によって、特徴点を含む所定の大きさを持つテンプレート画像が、現在の画像上のどこに移動したかを示す次追跡座標や動きベクトルを算出することができる。   Therefore, the following tracking coordinates and motion vectors indicating where the template image having a predetermined size including the feature point has moved on the current image can be calculated by the above-described processing.

なお、上述した処理のうち、各画像ブロックラインの処理については、特開平2008−192060号公報の図14のステップ200〜320の処理と同様な内容であり、現在の処理ブロックと次の特徴点が存在する画像ブロックまでの距離を特徴点マップから求め、その値から、既に転送している画像データが次の動き検出演算に使用できるかどうか判定し、不足しているデータのみを転送するようにデータ転送を最小とするように制御する。   Of the above-described processing, the processing of each image block line has the same contents as the processing in steps 200 to 320 in FIG. 14 of Japanese Patent Laid-Open No. 2008-192060, and the current processing block and the following feature points The distance to the image block in which is present is obtained from the feature point map, and based on the value, it is determined whether the already transferred image data can be used for the next motion detection calculation, and only the missing data is transferred. Control to minimize data transfer.

具体的には、現在処理を終えた画像ブロックと次の特徴点が存在する画像ブロックまでの距離(単位:画像ブロック)を求める。そして、例えば距離値が3画像ブロック以下であれば、隣り合う画像ブロックのデータを利用できるので、動き検出処理するのに不足している画像データ(3個×6枚の画像データ)のみを転送(バースト転送)し、4画像ブロック以上であれば9個×6枚の画像データを転送(スキップ転送)する。なお、画像データの個数とは画像ブロックの個数であり、6枚の画像データとは、T−1,Tの、平滑化画像、X微分画像、Y微分画像である。   Specifically, the distance (unit: image block) between the image block for which the current processing has been completed and the image block in which the next feature point exists is obtained. For example, if the distance value is 3 image blocks or less, the data of adjacent image blocks can be used, so only the image data (3 × 6 image data) that is insufficient for motion detection processing is transferred. (Burst transfer) If there are more than 4 image blocks, transfer 9 × 6 image data (skip transfer). Note that the number of image data is the number of image blocks, and the six pieces of image data are T-1, T smoothed images, X differential images, and Y differential images.

同様の処理を、同じ画像ブロックライン上の特徴点が存在する画像ブロックについて、全て処理するまで繰り返す。さらに、これらの処理を全画像ブロックラインに対して適用する。   Similar processing is repeated until all the image blocks having feature points on the same image block line are processed. Further, these processes are applied to all image block lines.

以上の構成により、特徴点が存在する画像ブロックを処理するために必要な画像データのみを転送し、高速に動きベクトルを検出することができる。
尚、本発明は上記実施例に限定されるものではなく、様々な態様にて実施することが可能である。
With the above configuration, it is possible to transfer only image data necessary for processing an image block in which a feature point exists, and to detect a motion vector at high speed.
In addition, this invention is not limited to the said Example, It is possible to implement in various aspects.

例えば動き情報テーブルには、次追跡座標だけでなく、動きベクトルを記憶してもよい。また、動きベクトルは、次追跡座標の算出とは(画像処理の際の必要に応じて)別のタイミングで行ってもよい。なお、移動前後の次追跡座標などから、動きベクトルを算出することができる。   For example, the motion information table may store not only the next tracking coordinate but also a motion vector. Further, the motion vector may be performed at a timing different from the calculation of the next tracking coordinate (as required in image processing). The motion vector can be calculated from the next tracking coordinates before and after the movement.

1…画像処理装置
3…カメラ
5…画像入力I/F部
7…平滑化処理部
9…X微分処理部
11…Y微分処理部
13…特徴点抽出部
15…特徴点マップ
17…動き情報テーブル
19…画像記憶部
21…動き検出部
DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus 3 ... Camera 5 ... Image input I / F part 7 ... Smoothing process part 9 ... X differential process part 11 ... Y differential process part 13 ... Feature point extraction part 15 ... Feature point map 17 ... Motion information table 19 ... Image storage unit 21 ... Motion detection unit

Claims (4)

過去の画像上の特徴となる画素である特徴点を抽出して、その特徴点を含む所定の大きさを持つテンプレート画像が、複数のフレーム間に渡って、現在の画像上のどこに移動したかを示す移動情報を算出する画像処理装置であって、
前記画像処理装置に取り込まれた画像上の特徴点が、動き検出する画像単位である画像ブロック単位でどこに存在するかを、識別番号で区分して示す特徴点マップと、
前記移動情報を算出する際に用いるデータを格納するテーブルブロックを、前記特徴点マップの識別番号順に設定した動き情報テーブルと、
を備え、
前記動き情報テーブルには、各テーブルブロック毎に、前記画素単位で抽出された特徴点の位置のデータと、前記特徴点の移動後の位置のデータである次追跡点の位置のデータと、次に処理するデータを格納したテーブルブロックを示す次追跡ブロック識別番号と、を記憶しており、
前記特徴点マップに記憶された画像ブロックの識別番号を索引として、前記動き情報テーブルにおいて処理すべきテーブルブロックを決定し、更に、該テーブルブロックに記憶された次追跡ブロック識別番号を索引として、次に処理すべきテーブルブロックを決定することを特徴とする画像処理装置。
Extracting feature points, which are pixels that are features on the past image, and where the template image with a predetermined size including the feature points moved on the current image across multiple frames An image processing apparatus that calculates movement information indicating
A feature point map showing where the feature points on the image captured by the image processing apparatus exist in units of image blocks, which are image units for motion detection;
A motion information table in which table blocks for storing data used for calculating the movement information are set in the order of identification numbers of the feature point maps;
With
The motion information table includes, for each table block, feature point position data extracted in units of pixels, position data of the next tracking point which is position data after the feature point has been moved, And the next tracking block identification number indicating the table block storing the data to be processed,
The table block to be processed in the motion information table is determined using the identification number of the image block stored in the feature point map as an index, and the next tracking block identification number stored in the table block is used as an index. A table block to be processed is determined.
前記動き情報テーブルにおいて処理すべきテーブルブロックを決定した場合には、
該テーブルブロックに格納された次追跡点の位置のデータと、次追跡点決定以降の移動前後の画像データとを用いて、前記移動情報を算出することを特徴とする請求項1に記載の画像処理装置。
When a table block to be processed is determined in the motion information table,
2. The image according to claim 1, wherein the movement information is calculated using data of a position of the next tracking point stored in the table block and image data before and after movement after the determination of the next tracking point. Processing equipment.
前記画像の1フレーム目は、過去の画像上の特徴点を含むテンプレート画像が現在の画像上でどこに移動したかを示す移動情報を算出し、その算出結果を、過去の画像の特徴点座標を格納した第1の動き情報テーブルに格納する第1の処理を実施し、
前記画像の2フレーム目以降は、特徴点マップに記憶された画像ブロックの識別番号を索引として、前記動き情報テーブルから次追跡点の位置のデータと次追跡ブロック識別番号を抽出し、その次追跡座標を基に移動情報を算出し、その算出結果を、過去の画像の特徴点座標を格納した第2の動き情報テーブルに格納する第2の処理を実施することを特徴とする請求項1又は2に記載の画像処理装置。
In the first frame of the image, movement information indicating where the template image including the feature point on the past image has moved on the current image is calculated, and the calculation result is used as the feature point coordinates of the past image. Performing a first process of storing in the stored first motion information table;
For the second and subsequent frames of the image, the data of the position of the next tracking point and the next tracking block identification number are extracted from the motion information table using the identification number of the image block stored in the feature point map as an index. The movement information is calculated based on the coordinates, and the second process of storing the calculation result in the second motion information table storing the feature point coordinates of the past image is performed. 2. The image processing apparatus according to 2.
次追跡ブロック識別番号が0を示す値になるまで、前記第2の処理を繰り返すことを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the second process is repeated until the next tracking block identification number reaches a value indicating 0.
JP2009055401A 2009-03-09 2009-03-09 Image processing device Expired - Fee Related JP5126124B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009055401A JP5126124B2 (en) 2009-03-09 2009-03-09 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009055401A JP5126124B2 (en) 2009-03-09 2009-03-09 Image processing device

Publications (2)

Publication Number Publication Date
JP2010211398A true JP2010211398A (en) 2010-09-24
JP5126124B2 JP5126124B2 (en) 2013-01-23

Family

ID=42971512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009055401A Expired - Fee Related JP5126124B2 (en) 2009-03-09 2009-03-09 Image processing device

Country Status (1)

Country Link
JP (1) JP5126124B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019124683A (en) * 2018-01-11 2019-07-25 富士通株式会社 Method and device for estimating rate of object and image processor
CN110428445A (en) * 2019-06-26 2019-11-08 西安电子科技大学 A kind of piecemeal tracking and its device, equipment, storage medium
CN114155561A (en) * 2022-02-08 2022-03-08 杭州迪英加科技有限公司 Helicobacter pylori positioning method and device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006172064A (en) * 2004-12-15 2006-06-29 Nissan Motor Co Ltd Object tracking device and method
JP2008192060A (en) * 2007-02-07 2008-08-21 Denso Corp Image processing device and image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006172064A (en) * 2004-12-15 2006-06-29 Nissan Motor Co Ltd Object tracking device and method
JP2008192060A (en) * 2007-02-07 2008-08-21 Denso Corp Image processing device and image processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019124683A (en) * 2018-01-11 2019-07-25 富士通株式会社 Method and device for estimating rate of object and image processor
JP7081438B2 (en) 2018-01-11 2022-06-07 富士通株式会社 Object speed estimation method and equipment and image processing equipment
CN110428445A (en) * 2019-06-26 2019-11-08 西安电子科技大学 A kind of piecemeal tracking and its device, equipment, storage medium
CN110428445B (en) * 2019-06-26 2023-06-27 西安电子科技大学 Block tracking method and device, equipment and storage medium thereof
CN114155561A (en) * 2022-02-08 2022-03-08 杭州迪英加科技有限公司 Helicobacter pylori positioning method and device

Also Published As

Publication number Publication date
JP5126124B2 (en) 2013-01-23

Similar Documents

Publication Publication Date Title
CN109409366B (en) Distorted image correction method and device based on angular point detection
CN109376681B (en) Multi-person posture estimation method and system
US11164323B2 (en) Method for obtaining image tracking points and device and storage medium thereof
US8792727B2 (en) Image processing device, image processing method, and program
JP4814375B2 (en) Detection device, detection method, and integrated circuit for detection
JP4775277B2 (en) Image processing apparatus and image processing method
US10867390B2 (en) Computer vision processing
JP5445467B2 (en) Credit information section detection method, credit information section detection device, and credit information section detection program
CN106469455B (en) Image processing method, image processing apparatus, and recording medium
EP3376470B1 (en) Moving body tracking method, moving body tracking device, and program
CN104508680A (en) Object tracking in video stream
US9256792B2 (en) Image processing apparatus, image processing method, and program
CN109754034A (en) A kind of terminal device localization method and device based on two dimensional code
US8395824B2 (en) Method for determining ground line
JP5126124B2 (en) Image processing device
JP2010165052A (en) Image processor and image processing method
JP2010205095A (en) Three-dimensional object recognition device, three-dimensional object recognition program, and computer readable recording medium having program recorded therein
JP2005056128A (en) Road position detection method, road position detection device and program
JP2010211460A (en) Device for creating identification model, object detection device, and program for creating identification model
CN106951831B (en) Pedestrian detection tracking method based on depth camera
CN114550062A (en) Method and device for determining moving object in image, electronic equipment and storage medium
CN109977740B (en) Depth map-based hand tracking method
JP2018010359A (en) Information processor, information processing method, and program
JP2004164479A (en) Device, method, and program for generating image deformation information
CN111222514A (en) Local map optimization method based on visual positioning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121015

R151 Written notification of patent or utility model registration

Ref document number: 5126124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151109

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees