JP2008192060A - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP2008192060A JP2008192060A JP2007028232A JP2007028232A JP2008192060A JP 2008192060 A JP2008192060 A JP 2008192060A JP 2007028232 A JP2007028232 A JP 2007028232A JP 2007028232 A JP2007028232 A JP 2007028232A JP 2008192060 A JP2008192060 A JP 2008192060A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature point
- image data
- motion
- motion detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、動きベクトルを用いて画像を処理する画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method for processing an image using a motion vector.
従来より、車両の周囲の画像を撮影して処理する画像処理装置として、動画の動きベクトルを利用する装置が知られている。この動きベクトルを検出する方法としては、動きベクトルの誤検出を減らすため、一度画像メモリに格納した画像から特徴点を決定し、その特徴点を取り囲むテンプレート画像が、1フレーム後の画像上のどこに移動したかを示す動きベクトルを算出する方法が提案されている(例えば、特許文献1、2、3参照)。 2. Description of the Related Art Conventionally, as an image processing device that captures and processes an image around a vehicle, a device that uses a motion vector of a moving image is known. As a method of detecting this motion vector, in order to reduce false detection of a motion vector, a feature point is determined from an image once stored in an image memory, and a template image surrounding the feature point is located anywhere on the image after one frame. There has been proposed a method for calculating a motion vector indicating whether or not it has moved (for example, see Patent Documents 1, 2, and 3).
この従来技術では、例えば、図5(A)の入力画像のように、8x8画素の画像単位(以降、画像ブロックと呼ぶ)で動き検出することを考える。このとき、各画像ブロック上で特徴点抽出処理するが、この特徴点抽出処理では、各画素の特徴点らしさの指標を示す値を算出し、最も高い値を持つ画素を決定する。そして、その値があるしきい値を超えた場合に特徴点と決定し、その特徴点を取り囲むテンプレート画像が、1フレーム後の画像上のどこに移動したかを決定する。
上述した画像処理装置において、動きベクトルを検出する装置(動きベクトル検出装置)は、車や人などの対象物の検出や、対象物の移動方向、速度などの状況把握に応用展開できることから車載画像認識システムに必須機能である。 In the above-described image processing device, a motion vector detection device (motion vector detection device) can be applied and deployed to detect a target object such as a car or a person and to grasp a situation such as a moving direction and speed of the target object. It is an essential function for the recognition system.
この信頼性が求められる車載画像認識においては、動き検出方式として、サブピクセルの精度で検出できるKanade−Lucas−Tomasi法(以降、KLT法)などの勾配法を採用することが考えられる。 In in-vehicle image recognition that requires this reliability, it is conceivable to employ a gradient method such as the Kanade-Lucas-Tomasi method (hereinafter referred to as the KLT method) that can be detected with subpixel accuracy as a motion detection method.
KLT法を例にとって説明すると、KLT法が高精度に検出できる動きベクトルの大きさはX,Y方向ともに3画素程度までとなっている。そこで、画像の取り込み周期を短くする、すなわち高フレームレートカメラを使用することにより、車載における多くのシーンで動きベクトル検出装置を使用することができる。 The KLT method will be described as an example. The size of a motion vector that can be detected with high accuracy by the KLT method is about 3 pixels in both the X and Y directions. Therefore, by shortening the image capture cycle, that is, by using a high frame rate camera, the motion vector detection device can be used in many scenes in the vehicle.
また、動き検出方式として、ブロックマッチング法を採用した場合でも、高フレームレートカメラを使用することは、検出範囲を小さくすることができ、ミスマッチングする確率を低減することができることから有効である。 Even when the block matching method is adopted as the motion detection method, using a high frame rate camera is effective because the detection range can be reduced and the probability of mismatching can be reduced.
しかし、高フレームレートカメラを使用する場合、画像の取り込み周期が短くなるため、高速に動きベクトルを算出できる装置が必要となる。
ところが、上述した従来の動きベクトル検出装置では、画像上の動きベクトルを求める対象となる特徴点を抽出するために、画像データが格納された画像記憶装置にアクセスして、特徴点を求め動きベクトルを算出するため、処理の高速化の点で問題がある。
However, when a high frame rate camera is used, an image capturing cycle is shortened, so that a device capable of calculating a motion vector at high speed is required.
However, in the above-described conventional motion vector detection device, in order to extract a feature point as a target for obtaining a motion vector on an image, the feature vector is obtained by accessing the image storage device storing the image data. Therefore, there is a problem in speeding up the processing.
つまり、カメラで撮影した画像を前処理した全て(平滑化画像、X微分画像、Y微分画像)の画像を画像記録装置に格納した後に、その画像記録装置から特徴点を算出するために各画像ブロックの画像データを転送し、この画像データから特徴点を算出して動きベクトルを求めるために、演算処理に時間がかかっていた。 That is, after all images (smoothed image, X differential image, Y differential image) obtained by preprocessing the image captured by the camera are stored in the image recording apparatus, each image is calculated in order to calculate feature points from the image recording apparatus. Since the image data of the block is transferred, the feature points are calculated from the image data, and the motion vector is obtained, it takes time for the arithmetic processing.
例えば、特徴点抽出の方式として、Harrisコーナー検出法を用いた場合、X微分画像とY微分画像を使用するが、このとき、入力画像の全範囲を動き検出する場合には、全ての画像データを格納した画像記憶装置から、2種類の画像データを演算処理部に転送して特徴点を抽出することとなり、高速化を妨げる要因となっていた。 For example, when the Harris corner detection method is used as a feature point extraction method, an X differential image and a Y differential image are used. At this time, when motion is detected in the entire range of the input image, all image data From the image storage device storing the image data, two types of image data are transferred to the arithmetic processing unit and feature points are extracted, which is a factor that hinders speeding up.
更に、従来は、特徴点の抽出のみならず動きベクトルを抽出するために画像データを転送する際には、全て(過去フレームと現フレームの平滑化画像、X微分画像、Y微分画像)の画像ブロックの画像データを一律に転送する必要があり、その点でも、演算の高速化の妨げになっていた。 Furthermore, conventionally, when image data is transferred to extract not only feature points but also motion vectors, all (smoothed images of the past and current frames, X differential images, Y differential images) are all images. It is necessary to uniformly transfer the image data of the block, which also hinders the speeding up of computation.
本発明は、上記問題点を解決するためになされたものであり、動きベクトルの算出を速めて、画像処理を高速化できる画像処理装置及び画像処理方法を提供することを目的とする。 The present invention has been made to solve the above problems, and an object of the present invention is to provide an image processing apparatus and an image processing method capable of speeding up calculation of motion vectors and speeding up image processing.
(1)上記課題を解決するためになされた請求項1の画像処理装置は、画像処理装置に取り込まれた画像データを記憶する画像記憶部と、画像処理装置に取り込まれた画像データに基づいて、動き検出する画像単位である画像ブロック単位で特徴点を抽出する特徴点抽出部と、特徴点抽出部により抽出された特徴点が、画像ブロック単位でどこに存在するかを示す特徴点マップと、前記特徴点マップに記憶された画像ブロック単位の特徴点のデータと前記画素単位で抽出された特徴点の位置のデータとに基づき、前記画像記憶部に記憶された画像データを利用して、前記動きベクトルを算出する動き検出部と、を備えたことを特徴とする。 (1) An image processing apparatus according to claim 1, which has been made to solve the above problems, is based on an image storage unit that stores image data captured by the image processing apparatus, and image data captured by the image processing apparatus. A feature point extraction unit that extracts feature points in units of image blocks that are image units for motion detection, a feature point map that indicates where the feature points extracted by the feature point extraction unit exist in units of image blocks, Based on the feature point data stored in the feature point map in units of image blocks and the feature point position data extracted in units of pixels, using the image data stored in the image storage unit, the And a motion detection unit for calculating a motion vector.
ここで、本発明の画像処理装置について、図1に基づいて説明する。なお、図1は本発明の画像処理装置を含む装置構成を例示したものであり、本発明の内容の理解を助けるために他の構成についても記載してある。 Here, the image processing apparatus of the present invention will be described with reference to FIG. FIG. 1 illustrates an apparatus configuration including the image processing apparatus of the present invention, and other configurations are also described in order to help understanding of the contents of the present invention.
同図に示すように、本発明の画像処理装置A1では、例えばカメラA2によって撮影された画像は、例えば画像入力I/F部A3によって取り込まれ、その画像データは例えば前処理部A4にて処理される。従って、画像記憶部A5では、例えば前処理された画像データを記憶する。また、特徴点抽出部A6では、例えば前処理された画像データに基づいて、動き検出する画像単位である画像ブロック単位で特徴点を抽出する(なお、この特徴点抽出部A6にて、画素単位で特徴点の位置(座標)を抽出することができる)。そして、特徴点抽出部A6によって抽出された特徴点は、画像ブロック単位でどこに存在するかを示す特徴点マップA7に記憶される。よって、動き検出部A8では、例えば周知のKLT法などにより、特徴点マップA7に記憶された画像ブロック単位の特徴点のデータと(例えば動き情報テーブルA9に記憶された)画素単位の特徴点の位置のデータとに基づき、画像記憶部A5に記憶された画像データを利用して、動きベクトルを算出することができる。 As shown in the figure, in the image processing apparatus A1 of the present invention, for example, an image photographed by the camera A2 is captured by, for example, the image input I / F unit A3, and the image data is processed by, for example, the preprocessing unit A4. Is done. Accordingly, the image storage unit A5 stores, for example, preprocessed image data. Also, the feature point extraction unit A6 extracts feature points in units of image blocks, which are image units for motion detection, based on preprocessed image data, for example (in this feature point extraction unit A6, pixel units The position (coordinates) of the feature point can be extracted with The feature points extracted by the feature point extraction unit A6 are stored in a feature point map A7 indicating where the feature points exist in units of image blocks. Therefore, in the motion detection unit A8, the feature point data stored in the feature point map A7 and the feature points in pixel units (for example, stored in the motion information table A9) are stored by the well-known KLT method, for example. Based on the position data, the motion vector can be calculated using the image data stored in the image storage unit A5.
この様に、本発明では、画像が入力されたときに画像記憶部にアクセスすることなく、画像データから特徴点抽出部により特徴点を抽出して、(撮影された画像における)特徴点の画像ブロック単位の位置を示す特徴点マップを作成することができる。そして、特徴点抽出時に作成した特徴点マップを用いて、特徴点が存在する画像ブロックの動きベクトル(従って特徴点の動きベクトル)を算出することができる。 Thus, in the present invention, when the image is input, the feature point is extracted from the image data by the feature point extraction unit without accessing the image storage unit, and the image of the feature point (in the photographed image) is obtained. A feature point map indicating the position of each block can be created. Then, using the feature point map created at the time of feature point extraction, it is possible to calculate the motion vector of the image block where the feature point exists (and hence the motion vector of the feature point).
この特徴点マップには、画像ブロック毎に特徴点の有無を記録できるので、この特徴点の配置を利用して、演算処理の軽減(例えば動きベクトルを算出する際に、画像記憶部から動き検出部に転送される画像データの削減)を図ることができる。 In this feature point map, the presence or absence of feature points can be recorded for each image block. Therefore, using this feature point arrangement, calculation processing can be reduced (for example, when motion vectors are calculated, motion detection is performed from the image storage unit). Reduction of image data transferred to the copy unit).
・なお、特徴点マップとして、現在画像(最新の画像)における特徴点マップ及び過去画像(最新の画像より例えば1フレーム前の画像)における特徴点マップが挙げられる。
・前記マップとは、画像ブロック単位の特徴点の位置(画像においてどの部分に画像ブロックが存在するかを示すデータ)を記憶できるものであればよい。なお、画像ブロックは複数の画素により構成される。
The feature point map includes a feature point map in the current image (latest image) and a feature point map in the past image (for example, an image one frame before the latest image).
The map may be any map as long as it can store the positions of feature points in units of image blocks (data indicating in which part an image block exists in the image). An image block is composed of a plurality of pixels.
・画素単位の特徴点の位置(座標)は、特徴点抽出部によって抽出することができるがそれに限られるものではない。この画素単位の特徴点の位置のデータは、例えば動き情報テーブル等に記憶することができる。 The position (coordinates) of feature points in pixel units can be extracted by the feature point extraction unit, but is not limited thereto. The data of the feature point positions in pixel units can be stored in, for example, a motion information table.
・例えば入力画像を画像処理した画像データ(例えば平滑画像、X微分画像、Y微分画像)を利用して特徴点の抽出および動きベクトルの検出がされる場合には、必要に応じて各種の前処理(例えば平滑化処理、X微分処理、Y微分処理)がされ、画像データが画像記憶部に記憶される。 For example, when feature points are extracted and motion vectors are detected using image data (for example, a smooth image, an X differential image, or a Y differential image) obtained by performing image processing on an input image, various types of data are Processing (for example, smoothing processing, X differentiation processing, Y differentiation processing) is performed, and image data is stored in the image storage unit.
(2)請求項2に記載の画像処理装置では、特徴点抽出部は、画像データを画像記憶部に記憶する処理と並列して、画像処理装置に取り込まれた画像データに基づいて、動き検出する画像単位である画像ブロック単位で特徴点を抽出する。 (2) In the image processing device according to claim 2, the feature point extraction unit performs motion detection based on the image data captured by the image processing device in parallel with the processing of storing the image data in the image storage unit. Feature points are extracted in units of image blocks that are units of images to be processed.
これにより、従来の様に、一旦画像記録部に全画像データを記憶した後に、この画像記録部から画像データを求めて特徴点を抽出する場合に比べて、速やかに動きベクトルを算出することができるという効果がある。 As a result, it is possible to quickly calculate the motion vector as compared with the conventional case in which all image data is once stored in the image recording unit and then the feature points are extracted by obtaining the image data from the image recording unit. There is an effect that can be done.
(3)請求項3に記載の画像処理装置は、画像処理装置に取り込まれた画像データを記憶する画像記憶部と、画像データ上の特徴点を抽出するため、及び動きベクトルを算出するために、必要な画像データを作成する前処理部と、画像データ上の特徴点が、動き検出する画像単位である画像ブロック単位で、どこに存在するかを示す特徴点マップと、画素単位で抽出された特徴点の位置のデータと動きベクトルのデータとを記憶する動き情報テーブルと、前処理部から得られる画像データから画像ブロック単位で特徴点を抽出し、特徴点が抽出できた場合には、画像ブロックに特徴点が存在することを示すフラグを特徴点マップに立て、かつ、特徴点の位置を動き情報テーブルに格納する特徴点抽出部と、画像記憶部に記憶された画像データと、特徴点マップに記憶された画像ブロック単位の特徴点のデータと、動き情報テーブルに記憶された画素単位の特徴点の位置のデータとに基づいて、動きベクトルを算出する動き検出部と、を備えたことを特徴とする。 (3) An image processing device according to claim 3 is an image storage unit that stores image data captured by the image processing device, a feature point on the image data is extracted, and a motion vector is calculated. A pre-processing unit that creates necessary image data, a feature point map that indicates where the feature points on the image data exist in image block units that are motion detection image units, and pixel points extracted When a feature point is extracted in units of image blocks from a motion information table storing feature point position data and motion vector data, and image data obtained from the pre-processing unit, the feature point can be extracted. A feature point extraction unit that sets a flag indicating that a feature point exists in the block in the feature point map and stores the position of the feature point in the motion information table, and image data stored in the image storage unit A motion detection unit that calculates a motion vector based on the feature point data stored in the feature point map in units of image blocks and the pixel-based feature point position data stored in the motion information table; It is characterized by having.
前記図1に例示するように、本発明の画像処理装置A1では、例えばカメラA2によって撮影された画像は、例えば画像入力I/F部A3によって取り込まれ、その画像データは前処理部A4にて処理される。従って、画像記憶部A5では、例えば前処理された画像データを記憶する。また、特徴点抽出部A6では、前処理された画像データに基づいて、特徴点を抽出し、その特徴点は特徴点マップA7に記憶されるとともに、画素単位の特徴点の位置(画像における位置:座標)は動き情報テーブルA9に記憶される。よって、動き検出部A8では、例えば周知のKLT法などにより、特徴点マップA7に記憶された画像ブロック単位の特徴点のデータと動き情報テーブルに記憶された画素単位の特徴点の位置のデータとに基づき、画像記憶部A5に記憶された画像データを利用して、動きベクトルを算出することができる。 As illustrated in FIG. 1, in the image processing apparatus A1 of the present invention, for example, an image captured by the camera A2 is captured by, for example, the image input I / F unit A3, and the image data is received by the preprocessing unit A4. It is processed. Accordingly, the image storage unit A5 stores, for example, preprocessed image data. Further, the feature point extraction unit A6 extracts feature points based on the preprocessed image data, and the feature points are stored in the feature point map A7, and the positions of the feature points in pixel units (positions in the image) : Coordinate) is stored in the motion information table A9. Therefore, in the motion detection unit A8, for example, by the well-known KLT method, the feature point data stored in the feature point map A7 and the feature point position data stored in the motion information table are stored in the motion information table. Based on the above, the motion vector can be calculated using the image data stored in the image storage unit A5.
この様に、本発明では、画像が入力されたときに画像記憶部にアクセスすることなく、前処理部から得られた画像データに基づいて特徴点抽出部により特徴点を抽出して、特徴点マップ及び動き情報テーブルに記憶することができる。よって、特徴点マップを用いて、動きベクトルを算出することができ、この動きベクトルは動き情報テーブルに記憶することができる。 As described above, in the present invention, the feature point is extracted by the feature point extraction unit based on the image data obtained from the preprocessing unit without accessing the image storage unit when the image is input, and the feature point It can be stored in a map and motion information table. Therefore, a motion vector can be calculated using the feature point map, and this motion vector can be stored in the motion information table.
これにより、従来の様に、一旦画像記録部に全画像データを記憶した後に、この画像記録部から画像データを求めて特徴点を抽出する場合に比べて、速やかに動きベクトルを算出することができるという効果がある。 As a result, it is possible to quickly calculate the motion vector as compared with the conventional case in which all image data is once stored in the image recording unit and then the feature points are extracted by obtaining the image data from the image recording unit. There is an effect that can be done.
また、特徴点マップには、画像ブロック毎に特徴点の有無を記録できるので、この特徴点の配置を利用して、演算処理の軽減(例えば動きベクトルを算出する際に、画像記憶部から動き検出部に転送される画像データの削減)を図ることができる。 In addition, since the feature point map can record the presence or absence of feature points for each image block, the feature point arrangement is used to reduce arithmetic processing (for example, when calculating motion vectors, the motion from the image storage unit) Reduction of image data transferred to the detection unit) can be achieved.
なお、動き情報テーブルとして、現在画像(最新の画像)における特徴点や動きベクトルのデータを記憶したテーブル及び過去画像(最新の画像より例えば1フレーム前の画像)における特徴点や動きベクトルのデータを記憶したテーブルが挙げられる。 As the motion information table, a table storing feature point and motion vector data in the current image (latest image) and feature point and motion vector data in the past image (for example, an image one frame before the latest image) are stored. The stored table is listed.
また、画像記録部には、必要に応じて前処理部で作成した画像データを記憶することができる。
(4)請求項4の画像処理装置では、前記図1に例示する様に、動き検出部A8は、動き検出するのに必要な過去の画像データと現在の画像データを記憶する動き検出用画像記憶部A10と、画像記憶部A5に格納された画像データを、動き検出用画像記憶部A10に転送する画像データ転送部A11と、動き検出用画像記憶部A10を使用して、過去の画像上の特徴点を含むテンプレート画像が現在の画像上でどこに移動したかを示す動きベクトルを算出し、その算出結果を過去の画像が入力されたときに特徴点座標を格納した過去の動き情報テーブルに格納する動き検出演算部A12と、過去の画像が入力されたときにフラグを立てた過去の特徴点マップを参照して、特徴点が存在する全ての画像ブロックをラスタ方向に処理するために、現時点で動きベクトルの算出を終えた画像ブロックとその画像ブロックライン上の特徴点が存在する次の画像ブロックまでの距離を計算し、その距離の値から、既に動き検出用画像記憶部A10に転送している画像データが、特徴点が存在する次の画像ブロックにおいて、動きベクトルの算出に使用できるかを判定し、不足している画像データのみを転送するように画像データ転送部A11に命令する動き検出制御部A13と、を備えたことを特徴とする。
Further, the image recording unit can store the image data created by the preprocessing unit as necessary.
(4) In the image processing apparatus according to claim 4, as illustrated in FIG. 1, the motion detection unit A8 stores past image data and current image data necessary for motion detection, and stores the current image data. Using the storage unit A10, the image data transfer unit A11 that transfers the image data stored in the image storage unit A5 to the motion detection image storage unit A10, and the motion detection image storage unit A10, A motion vector indicating where the template image including the feature point has moved on the current image is calculated, and the calculation result is stored in the past motion information table storing the feature point coordinates when the past image is input. In order to process all image blocks in which feature points exist in the raster direction with reference to the motion detection calculation unit A12 to be stored and the past feature point map that is flagged when a past image is input. The distance between the current image block for which the motion vector has been calculated and the next image block where the feature point on the image block line is present is calculated, and the distance is transferred to the motion detection image storage unit A10. It is determined whether the current image data can be used for motion vector calculation in the next image block in which a feature point exists, and the image data transfer unit A11 is instructed to transfer only the missing image data. And a motion detection control unit A13.
本発明によれば、動き検出制御部は、動き検出演算のために必要な画像データのみを転送できる。さらに、動き検出制御部では、現在の処理ブロックと次の特徴点が存在する画像ブロックまでの距離を特徴点マップから求め、その値から、既に転送している画像データが次の動き検出演算に使用できるかを判定し、不足している画像データのみを転送するようにデータ転送を最小とするように制御する。これにより、動きベクトル検出の処理速度を向上させることができる。 According to the present invention, the motion detection control unit can transfer only image data necessary for motion detection calculation. Further, the motion detection control unit obtains the distance from the current processing block to the image block where the next feature point exists from the feature point map, and from the value, the image data already transferred is used for the next motion detection calculation. It is determined whether it can be used, and control is performed so as to minimize the data transfer so that only the missing image data is transferred. Thereby, the processing speed of motion vector detection can be improved.
(5)請求項5に記載の画像処理装置によれば、動き検出制御部は、動き検出演算部に動きベクトルの算出をさせている間の画像データ転送部の待ち時間に、動き検出用画像記憶部に記憶された画像範囲に対して、動き検出方向に隣接する、所定の数の画像ブロック列の画像データを転送するように、画像データ転送部に命令する。 (5) According to the image processing apparatus of the fifth aspect, the motion detection control unit waits for the motion data to be calculated while the motion detection calculation unit calculates the motion vector. The image data transfer unit is instructed to transfer image data of a predetermined number of image block sequences adjacent in the motion detection direction to the image range stored in the storage unit.
このことにより、動きベクトルを算出している間の画像データ転送部の待ち時間を解消し、以降の画像ブロックの動きベクトルの算出に必要となる可能性のある画像データを先に転送しておくことができる。 This eliminates the waiting time of the image data transfer unit while calculating the motion vector, and transfers image data that may be necessary for calculating the motion vector of the subsequent image block first. be able to.
(6)請求項6に記載の画像処理装置によれば、動き検出制御部は、特徴点マップを走査して、X軸方向にラスタ処理した場合、Y軸方向にラスタ処理した場合の予測処理時間を算出し、予測処理時間の短い方を処理方向とする。 (6) According to the image processing apparatus of the sixth aspect, the motion detection control unit scans the feature point map, performs raster processing in the X-axis direction, and predictive processing when raster processing is performed in the Y-axis direction. The time is calculated, and the shorter processing time is set as the processing direction.
これにより、動きベクトル検出の処理速度を向上させる。
(7)請求項7に記載の画像処理装置によれば、特徴点マップは、特徴点が存在する画像ブロックと次の特徴点が存在する画像ブロックまでの距離に応じた出現回数の情報を格納している。よって、それらの情報を使用することで、特徴点マップを走査することなく予測処理時間を算出でき、動きベクトル検出の処理速度を向上させる。
Thereby, the processing speed of motion vector detection is improved.
(7) According to the image processing device of the seventh aspect, the feature point map stores information on the number of appearances according to the distance from the image block in which the feature point exists to the image block in which the next feature point exists. is doing. Therefore, by using such information, the prediction processing time can be calculated without scanning the feature point map, and the processing speed of motion vector detection is improved.
(8)請求項8に記載の画像処理装置によれば、動き検出制御部が、特徴点マップから、画像の取り込み周期に動きベクトルの算出処理が間に合わないと判断した場合に、処理できる画像ブロックラインまでを算出し、その画像ブロックラインまでを処理する。 (8) According to the image processing apparatus of the eighth aspect, when the motion detection control unit determines from the feature point map that the motion vector calculation process is not in time for the image capture period, the image block that can be processed Calculate up to the line and process up to the image block line.
これにより、演算の破綻を回避し、可能な範囲で情報を確保することができる。
(9)請求項9に記載の画像処理装置によれば、動き検出制御部が、特徴点マップから、画像の取り込み周期に動きベクトルの算出処理が間に合わないと判断した場合に、優先順位の高い検出領域のみを処理する。
As a result, it is possible to avoid failure of computation and to secure information within a possible range.
(9) According to the image processing apparatus of the ninth aspect, when the motion detection control unit determines from the feature point map that the motion vector calculation process is not in time for the image capture cycle, the priority order is high. Process only the detection area.
これにより、演算の破綻を回避し、可能な範囲で重要度の高い情報を確保することができる。
(10)請求項10に記載の画像処理装置によれば、動き検出制御部が、特徴点マップから、画像の取り込み周期に動きベクトルの算出処理が間に合わないと判断した場合に、縮小した画像(例えば画像ドットを減らした縮小画像)を処理する。
As a result, it is possible to avoid failure of computation and secure highly important information as much as possible.
(10) According to the image processing device of the tenth aspect, when the motion detection control unit determines from the feature point map that the motion vector calculation process is not in time for the image capture period, the reduced image ( For example, a reduced image with reduced image dots) is processed.
これにより、演算の破綻を回避し、可能な範囲で画像処理に必要な情報を確保することができる。
(11)請求項11に記載の画像処理装置によれば、特徴点抽出部は、基準となるしきい値の他に、補助となる所定の数の、基準となるしきい値より大きい所定の値を設定できるしきい値を設定することができ、補助となるしきい値についても特徴点抽出し、補助となるしきい値の数と同数の補助特徴点マップに特徴点の検出の有無を書き込む。そして、動き検出制御部は、特徴点マップから、画像の取り込み周期に動きベクトルの算出処理が間に合わないと判断した場合に、補助特徴点マップの中から、取り込み周期に算出処理が間に合うものがあるかを探索し、存在する場合にはその補助特徴点マップを使用して、(例えば画像データ転送部に画像データを転送させ、新たに追加した、例えば後段特徴点抽出部に特徴点座標を計算させ、その座標値を動き検出演算部に与えるようにして)動きベクトルを算出する。
As a result, it is possible to avoid a calculation failure and to secure information necessary for image processing within a possible range.
(11) According to the image processing apparatus of the eleventh aspect, the feature point extracting unit has a predetermined number greater than the reference threshold value in addition to the reference threshold value. Threshold values that can be set can be set, feature points are extracted for auxiliary threshold values, and feature points are detected in the same number of auxiliary feature point maps as auxiliary threshold values. Write. Then, when the motion detection control unit determines from the feature point map that the motion vector calculation process is not in time for the image capture cycle, some of the auxiliary feature point maps are in time for the capture cycle. If there exists, the auxiliary feature point map is used to calculate the feature point coordinates (for example, the image data transfer unit transfers the image data and newly added, for example, the subsequent feature point extraction unit). The motion vector is calculated (by giving the coordinate value to the motion detection calculation unit).
これにより、演算の破綻を回避し、可能な範囲で画像処理に必要な情報を確保することができる。
(12)請求項12に記載の画像処理装置によれば、動き検出部は、複数個搭載されており、処理する画像領域を動き検出部の総数と同一の処理領域に分割し、各領域の画像ブロックを各動き検出部が独立で動きベクトルを算出する。
As a result, it is possible to avoid a calculation failure and to secure information necessary for image processing within a possible range.
(12) According to the image processing apparatus of the twelfth aspect, a plurality of motion detection units are mounted, and the image region to be processed is divided into processing regions equal to the total number of motion detection units. Each motion detection unit independently calculates a motion vector of an image block.
これにより、動きベクトル検出の処理速度を向上させる。
(13)請求項13に記載の画像処理装置によれば、動き検出演算部は、複数個搭載されており、各動き検出演算部は同一方向の隣接した画像ブロックと同期を取りながら、各画像ブロックの動きベクトルを算出する。
Thereby, the processing speed of motion vector detection is improved.
(13) According to the image processing device of the thirteenth aspect, a plurality of motion detection calculation units are mounted, and each motion detection calculation unit synchronizes with adjacent image blocks in the same direction, Calculate the motion vector of the block.
これにより、画像データの転送量を抑制し、かつ並列処理で、動きベクトル検出の処理速度を向上させる。
(14)請求項14に記載の画像処理装置によれば、画像処理装置を、車載画像認識システムにおける車両前方検知センサに用いる。
Thereby, the transfer amount of image data is suppressed, and the processing speed of motion vector detection is improved by parallel processing.
(14) According to the image processing device of the fourteenth aspect, the image processing device is used as a vehicle front detection sensor in an in-vehicle image recognition system.
つまり、車載画像認識システムにおいて、撮影画像上に特徴点が検出されにくい道路や空の領域の占有率が高い、車両前方検知センサへの使用用途とする場合には、動きベクトル検出を短時間で処理できるため、より高いフレームレート(例えば60〜100fps)のカメラを使用することができる。 In other words, in the in-vehicle image recognition system, when the usage point for the vehicle forward detection sensor is high, the motion vector detection is performed in a short time. Since it can be processed, a camera with a higher frame rate (for example, 60 to 100 fps) can be used.
(15)請求項15に記載の画像処理装置によれば、画像を取り込むカメラとして、取り込み周期が短い高フレームレートのカメラを使用するとともに、KLT法を使用して動きベクトルを求める。 (15) According to the image processing apparatus of the fifteenth aspect, a camera with a high frame rate with a short capturing period is used as a camera for capturing an image, and a motion vector is obtained using the KLT method.
つまり、動き検出演算部に、サブピクセル単位で高精度に検出できるが、検出できる範囲が狭いKLT法を使用し、検出できる範囲に収まるように、カメラを取り込み周期が短い高フレームレートのカメラを使用することで、高い信頼性が求められる車載画像認識システムに適用できる。 In other words, the motion detection calculation unit can detect a high-accuracy in units of subpixels, but uses a KLT method with a narrow detectable range, and captures a camera with a high frame rate with a short capture cycle so that it falls within the detectable range. It can be applied to an in-vehicle image recognition system that requires high reliability.
なお、ここでKLT法とは、周知の前記Kanade−Lucas−Tomasi法のことである。
(16)請求項16に記載の画像処理装置によれば、画像処理装置を、車載画像認識システムにおける車室内侵入者検知センサに用いる。
Here, the KLT method is the well-known Kanade-Lucas-Tomasi method.
(16) According to the image processing device of the sixteenth aspect, the image processing device is used as a vehicle intruder detection sensor in the in-vehicle image recognition system.
(17)請求項17に記載の画像処理装置によれば、侵入者がいない場合には動きベクトルの算出をしないように制御するので、低消費電力を実現できる。
具体的には、動き検出制御部が、特徴点マップから画像上に存在する特徴点の総数を算出し、その総数が所定のしきい値を超えた場合に、動きベクトルを算出するように制御する。この結果、動き検出処理が必要ない場合には消費電力を抑えることができる。
(17) According to the image processing apparatus of the seventeenth aspect, since control is performed so that the motion vector is not calculated when there is no intruder, low power consumption can be realized.
Specifically, the motion detection control unit calculates the total number of feature points existing on the image from the feature point map, and controls to calculate a motion vector when the total number exceeds a predetermined threshold value. To do. As a result, power consumption can be reduced when motion detection processing is not required.
(18)請求項18に記載の画像処理装置によれば、侵入者がいない場合には動きベクトルの算出をしないように制御するので、低消費電力を実現できる。
具体的には、動き検出制御部が、特徴点マップと過去の特徴点マップを比較し、特徴点の有無に変化があった画像ブロックの総数が、所定のしきい値を超えた場合に、動きベクトルを算出するように制御する。この結果、動き検出処理が必要ない場合には消費電力を抑えることができる。
(18) According to the image processing device of the eighteenth aspect, since control is performed so that the motion vector is not calculated when there is no intruder, low power consumption can be realized.
Specifically, the motion detection control unit compares the feature point map with the past feature point map, and when the total number of image blocks that have changed in the presence or absence of feature points exceeds a predetermined threshold, Control is performed to calculate a motion vector. As a result, power consumption can be reduced when motion detection processing is not required.
(19)請求項19に記載の画像処理方法によれば、画像入力I/F処理により、画像データを(画像処理を行う画像処理装置内に)取り込み、画像記憶処理により、画像データを画像ブロック単位で画像記憶部に記憶する。また、前処理により、画像データ上の特徴点を抽出するため、及び動きベクトルを算出するために、必要な画像データを作成し、特徴点抽出処理により、この前処理から得られる画像データから画像ブロック単位で特徴点を抽出し、かつ、特徴点が抽出できた場合には、画像ブロックに特徴点が存在することを示すフラグを特徴点マップに立てる。そして、動きベクトル検出処理により、特徴点マップに記憶された画像ブロック単位の特徴点のデータと(例えば特徴点抽出部によって抽出されて動き情報テーブルに記憶された)画素単位の特徴点の位置のデータとに基づき、画像記録部に記録された画像データを利用して、動きベクトルを算出する。 (19) According to the image processing method of the nineteenth aspect, image data is fetched (in an image processing apparatus that performs image processing) by image input I / F processing, and image data is converted into an image block by image storage processing. Stored in the image storage unit in units. Also, in order to extract feature points on the image data by preprocessing and to calculate motion vectors, necessary image data is created, and image is obtained from the image data obtained from the preprocessing by feature point extraction processing. If feature points are extracted in units of blocks and feature points can be extracted, a flag indicating that feature points exist in the image block is set in the feature point map. Then, by the motion vector detection process, the feature point data stored in the feature point map and the position of the feature point in pixel units (for example, extracted by the feature point extraction unit and stored in the motion information table) are stored. Based on the data, a motion vector is calculated using the image data recorded in the image recording unit.
これにより、本発明では、画像が入力されたときに画像記憶部にアクセスすることなく、画像データから特徴点抽出部により特徴点を抽出して特徴点マップを作成することができる。そして、特徴点抽出時に作成した特徴点マップや(例えば動き情報テーブルに記憶された)画素単位の特徴点の位置のデータを用いて、動きベクトルを算出することができる。よって、演算処理の負担を軽減して処理の高速化を実現できる。 Accordingly, in the present invention, it is possible to create a feature point map by extracting feature points from the image data by the feature point extraction unit without accessing the image storage unit when an image is input. Then, the motion vector can be calculated using the feature point map created at the time of extracting the feature points and the data of the positions of the feature points in pixel units (for example, stored in the motion information table). Therefore, it is possible to reduce the processing load and increase the processing speed.
(20)請求項20の画像処理方法によれば、動きベクトル検出処理では、終了判定処理により、特徴点が存在する全ての画像ブロックの動きベクトルの算出を終了したかを判断する。そして、終了判定処理により算出が終了していないと判断された場合には、画像データ転送量判断処理により、過去の画像が入力されたときにフラグを立てた過去の特徴点マップを参照して、特徴点が存在する全ての画像ブロックをラスタ方向に処理するために、現時点で動きベクトルの算出を終えた画像ブロックとその画像ブロックライン上の特徴点が存在する次の画像ブロックまでの距離を計算し、その距離の値から、既に動きベクトルの算出に用いる過去と現在の画像データを記憶する動き検出用画像記憶部に転送している画像データが、特徴点が存在する次の画像ブロックにおいて、動きベクトルの算出に使用できるかを判定し、不足している画像データ量を明らかにする。そして、不足している画像データ量が明らかになった場合には、画像データ転送処理により、不足している画像データ量分だけを、全画像データを画像ブロック単位で記憶している画像記憶部から動き検出用画像記憶部に転送する。 (20) According to the image processing method of the twentieth aspect, in the motion vector detection process, it is determined whether or not the calculation of the motion vectors of all the image blocks in which the feature points exist has been completed by the end determination process. If it is determined by the end determination process that the calculation has not ended, the past feature point map that is flagged when a past image is input is referred to by the image data transfer amount determination process. In order to process all image blocks with feature points in the raster direction, the distance between the image block for which motion vector calculation has been completed at the present time and the next image block with feature points on the image block line is calculated. In the next image block in which the feature point exists, the image data that has been calculated and transferred to the motion detection image storage unit that stores the past and current image data used to calculate the motion vector from the distance value is calculated. It is determined whether it can be used for motion vector calculation, and the amount of image data that is lacking is clarified. Then, when the amount of image data that is lacking is clarified, an image storage unit that stores all image data in units of image blocks for the amount of image data that is lacking by image data transfer processing. To the motion detection image storage unit.
つまり、本発明によれば、動き検出演算のために必要な画像データのみを転送できる。さらに、現在の処理ブロックと次の特徴点が存在する画像ブロックまでの距離を特徴点マップから求め、その値から、既に転送している画像データが次の動き検出演算に使用できるかを判定し、不足している画像データのみを転送するようにデータ転送を最小とするように制御する。これにより、動きベクトル検出の処理速度を向上させることができる。 That is, according to the present invention, only image data necessary for motion detection calculation can be transferred. Furthermore, the distance from the current processing block to the image block where the next feature point exists is obtained from the feature point map, and it is determined from the value whether the already transferred image data can be used for the next motion detection calculation. Then, control is performed to minimize data transfer so as to transfer only missing image data. Thereby, the processing speed of motion vector detection can be improved.
以下に本発明の実施形態を図面と共に説明する。
[第1の実施形態]
a)図2に、本実施形態における画像処理装置のブロック図を示す。同図に示すように、画像処理装置1は、カメラ3によって撮影された動画の動きベクトルを検出し、その動きベクトルに基づいて画像を処理する装置である。
Embodiments of the present invention will be described below with reference to the drawings.
[First Embodiment]
a) FIG. 2 is a block diagram of the image processing apparatus according to this embodiment. As shown in the figure, the image processing device 1 is a device that detects a motion vector of a moving image taken by the camera 3 and processes an image based on the motion vector.
この画像処理装置1は、画像を取り込む画像入力I/F部5と、入力画素を平滑化する平滑化処理部7と、平滑化処理された入力画素をX微分するY微分処理部9と、同様に平滑化処理された入力画素をY微分するY微分処理部11と、X微分された入力画素とY微分された入力画素から画像上の特徴となる画素である特徴点を抽出する特徴点抽出部13と、動き検出する画像単位である画像ブロック単位で特徴点がどこにあるかを示す特徴点マップ15と、画素単位の特徴点の座標位置と動きベクトルを記憶する動き情報テーブル17と、平滑化処理部7、X微分処理部9、Y微分処理部11の出力画素を、画像ブロック単位で画像データを記憶する画像記憶部(画像メモリ)19と、画像記憶部19に格納された1フレーム前の画像データ(平滑画像、X微分画像、Y微分画像)、現在の画像データ(平滑画像、X微分画像、Y微分画像)、特徴点マップ15、動き情報テーブル17を用いて動きベクトルを算出する動き検出部21によって構成される。 The image processing apparatus 1 includes an image input I / F unit 5 that captures an image, a smoothing processing unit 7 that smoothes input pixels, a Y differentiation processing unit 9 that performs X differentiation on the smoothed input pixels, Similarly, a Y differentiation processing unit 11 that Y-differentiates the smoothed input pixel, and a feature point that extracts a feature point that is a pixel on the image from the X differentiated input pixel and the Y differentiated input pixel An extraction unit 13, a feature point map 15 indicating where the feature points are in image block units, which are image units for motion detection, a motion information table 17 for storing the coordinate positions and motion vectors of the feature points in pixel units, The output pixels of the smoothing processing unit 7, the X differentiation processing unit 9, and the Y differentiation processing unit 11 are stored in an image storage unit (image memory) 19 for storing image data in units of image blocks, and 1 stored in the image storage unit 19. Image data before frame (Smooth image, X differential image, Y differential image), current image data (smooth image, X differential image, Y differential image), feature point map 15, and motion detection unit that calculates a motion vector using the motion information table 17 21.
なお、画像ブロック単位の特徴点とは、画像ブロックに特徴点が存在するか存在しないかを示すものであり、よって、特徴点マップとは、画像が複数の画像ブロックで区分された場合に、画像ブロック単位で特徴点の有無が示してあるマップである。 Note that the feature point of each image block indicates whether or not the feature point exists in the image block, and therefore the feature point map is when the image is divided into a plurality of image blocks. It is a map showing the presence or absence of feature points in image block units.
このうち、前記動き検出部21は、動きベクトルの算出に必要な画像記憶部19に格納された画像データを転送する画像データ転送部21aと、転送した画像データを記憶しておく動き検出用画像記憶部21bと、動き検出用画像記憶部21bを使用して、1フレーム前の画像上の特徴点を含むテンプレート画像が現在の画像上でどこに移動したかを示す動きベクトルを算出し、算出結果を動き情報テーブル17に格納する動き検出演算部21cと、画像上の特徴点の動きベクトルを算出するために、画像データ転送部21aと動き検出演算部21cを制御する動き検出制御部21dによって構成される。 Among them, the motion detection unit 21 includes an image data transfer unit 21a that transfers image data stored in the image storage unit 19 necessary for calculating a motion vector, and a motion detection image that stores the transferred image data. Using the storage unit 21b and the motion detection image storage unit 21b, a motion vector indicating where the template image including the feature point on the image one frame before has moved on the current image is calculated, and the calculation result In the motion information table 17 and a motion detection control unit 21d for controlling the image data transfer unit 21a and the motion detection calculation unit 21c to calculate the motion vector of the feature point on the image. Is done.
なお、この画像処理装置1のうち、画像記憶部19、動き検出用画像記憶部21b、特徴点マップ15、情報テーブル17が、各種のデータを記憶するメモリ部分であり、それ以外の、平滑化処理部7、X微分処理部9、Y微分処理部11、特徴点抽出部13、画像データ転送部21a、動き検出演算部21c、動き検出制御部21dが、各種データによる演算処理を行う演算処理部分である。 In the image processing apparatus 1, the image storage unit 19, the motion detection image storage unit 21b, the feature point map 15, and the information table 17 are memory portions for storing various data. Arithmetic processing in which the processing unit 7, the X differential processing unit 9, the Y differential processing unit 11, the feature point extraction unit 13, the image data transfer unit 21a, the motion detection calculation unit 21c, and the motion detection control unit 21d perform calculation processing using various data. Part.
b)次に、図2における各ブロックの動作を説明する。
カメラ3は、モノクロ画像データを出力し、ここでは画像サイズを640×480画素のVGAサイズとする。ただし、画像サイズはこの限りではない。また、カラー画像でも問題はなく、その場合には、輝度画像を変換する機能を画像入力I/F部5に追加する必要がある。
b) Next, the operation of each block in FIG. 2 will be described.
The camera 3 outputs monochrome image data, and here, the image size is set to a VGA size of 640 × 480 pixels. However, the image size is not limited to this. Further, there is no problem with a color image, and in that case, a function for converting a luminance image needs to be added to the image input I / F unit 5.
画像入力I/F部5は、カメラ3からの出力信号から、各画素の輝度値、x座標、y座標を取り出し、平滑化処理部7に出力する。また、ここで画像データを1画素ずつ間引いて処理画像サイズを縮小してもよい。 The image input I / F unit 5 extracts the luminance value, x-coordinate, and y-coordinate of each pixel from the output signal from the camera 3 and outputs them to the smoothing processing unit 7. Further, the processed image size may be reduced by thinning out the image data pixel by pixel.
平滑化処理部7、図3に示すように、内部に4ライン分のバッファを保持しており、座標値(x,y)の画素データが入力されたとき、5×5の平滑フィルタ係数に基づく畳み込み演算により、座標値(x−2,y−2)の平滑画素データを、X微分処理部9とY微分処理部11、画像記憶部19に出力する。 As shown in FIG. 3, the smoothing processing unit 7 holds a buffer for 4 lines therein, and when pixel data of coordinate values (x, y) is input, it is converted to a 5 × 5 smoothing filter coefficient. The smoothed pixel data of the coordinate value (x−2, y−2) is output to the X differentiation processing unit 9, the Y differentiation processing unit 11, and the image storage unit 19 by the convolution operation based on the above.
X微分処理部9は、平滑化処理部7と同様に、内部に4ライン分のバッファを保持しており、座標値(x,y)の画素データが入力されたとき、5×5のX微分フィルタ係数に基づく畳み込み演算により、座標値(x−2,y−2)のX微分画素データを、特徴点抽出部3、画像記録部19に出力する。 Similar to the smoothing processing unit 7, the X differentiation processing unit 9 holds a buffer for 4 lines therein, and when pixel data of coordinate values (x, y) is input, 5 × 5 X The X differential pixel data of the coordinate value (x−2, y−2) is output to the feature point extraction unit 3 and the image recording unit 19 by convolution calculation based on the differential filter coefficient.
Y微分処理部11は、平滑化処理部7と同様に、内部に4ライン分のバッファを保持しており、座標値(x,y)の画素データが入力されたとき、5×5のY微分フィルタ係数に基づく畳み込み演算により、座標値(x−2,y−2)のY微分画素データを、特徴点抽出部13、画像記録部19に出力する。 Similar to the smoothing processing unit 7, the Y differentiation processing unit 11 holds a buffer for four lines therein, and when pixel data of coordinate values (x, y) is input, 5 × 5 Y The Y differential pixel data of the coordinate value (x−2, y−2) is output to the feature point extraction unit 13 and the image recording unit 19 by the convolution calculation based on the differential filter coefficient.
なお、平滑化、X微分、Y微分のフィルタサイズの大きさは、これに限る必要は無いことは言うまでもない。
特徴点抽出部13は、動き検出する画像単位である画像ブロックの大きさを8x8画素とした場合には、図4(A)に示す通り、8ライン分のX微分画像とY微分画像のラインバッファを2つ備えている。そして、一方のX微分画像とY微分画像のラインバッファに画像データを書き込んでいる間、他方のX微分画像とY微分画像のラインバッファを使用して、8×8画素の画像ブロックの中で最もコーナーらしい画素を抽出する。
Needless to say, the filter sizes of the smoothing, X differentiation, and Y differentiation need not be limited to this.
When the size of an image block, which is an image unit for motion detection, is 8 × 8 pixels, the feature point extraction unit 13 has eight lines of X differential images and Y differential images as shown in FIG. Two buffers are provided. While the image data is being written into the line buffer of one X differential image and the Y differential image, the other X differential image and Y differential image line buffer is used in the image block of 8 × 8 pixels. Extract the most corner-like pixels.
具体的には、Harrisコーナー検出と呼ばれる手法により、各画素のコーナーらしさを示す指標を計算し、その画像ブロックの中で、任意のしきい値より大きく、かつ最も高い値の画素を特徴点とする。 Specifically, an index indicating the likelihood of a corner of each pixel is calculated by a technique called Harris corner detection, and the pixel having the highest value in the image block that is larger than an arbitrary threshold is used as a feature point. To do.
詳細に説明すると、図4(B)に示す通り、4×4画素のHarrisウィンドウをずらして各画素のコーナーらしさを示す指標を計算する。そして、特徴点が検出できた場合、その結果を特徴点マップ15と動き情報テーブル17に格納する。 More specifically, as shown in FIG. 4B, an index indicating the corner-likeness of each pixel is calculated by shifting the Harris window of 4 × 4 pixels. If a feature point can be detected, the result is stored in the feature point map 15 and the motion information table 17.
このHarrisウィンドウのサイズは、画像ブロックの大きさ以下であればよく、4x4画素に限る必要は無い。また、検出する特徴点は各画像ブロックで1個に限る必要はなく、例えば、コーナーらしさの指標がある基準値を超えた画素については、全て処理するようにしてもよい。 The size of the Harris window may be smaller than the size of the image block, and need not be limited to 4 × 4 pixels. Further, the number of feature points to be detected need not be limited to one in each image block. For example, all pixels having a cornerness index exceeding a certain reference value may be processed.
特徴点マップ15は、図5(B)に示す通り、どこの画像ブロックに特徴点が存在するかを示す表である。特徴点が検出できた場合には、例えば、フラグとして1を立て、検出できなかった場合にはフラグとして0を立てることができる記憶手段である。また、T−1フレームの過去の画像用とTフレームの現在の画像用に2バンクの構成となっている。 The feature point map 15 is a table indicating in which image block the feature point exists as shown in FIG. For example, the storage unit can set 1 as a flag when a feature point can be detected and set 0 as a flag when the feature point cannot be detected. In addition, there are two banks for the past image of the T-1 frame and the current image of the T frame.
ここでの処理画像の画像ブロックは、図5(A)に示すように、横80個×縦60個であり、外周部分の1列分の画像ブロックは、特徴点抽出に使用しない。従って、処理領域の画像ブロックは、縦78個×横58個である。なお、図5では一部の画像ブロックのみを記載してある。 As shown in FIG. 5A, the image block of the processed image here is 80 horizontal x 60 vertical, and the image block for one column in the outer peripheral portion is not used for feature point extraction. Therefore, the image block of the processing area is 78 vertical × 58 horizontal. FIG. 5 shows only a part of the image blocks.
動き情報テーブル17は、図6に示す通り、各画像ブロックには識別番号が割り当てられており、その識別番号を索引として、その画像ブロック上の特徴点と動きベクトル情報が参照できるようになっている。また、T−1フレームの過去の画像用とTフレームの現在の画像用に2バンクの構成となっている。 In the motion information table 17, as shown in FIG. 6, an identification number is assigned to each image block, and the feature point and motion vector information on the image block can be referred to using the identification number as an index. Yes. In addition, there are two banks for the past image of the T-1 frame and the current image of the T frame.
なお、動き情報テーブル17には、特徴点のデータとして、特徴点の座標データ(画素のx、yの座標のデータが記憶され、動きベクトルとして、ベクトルのX成分、Y成分のデータが記憶されている。 The motion information table 17 stores feature point coordinate data (pixel x and y coordinate data) as feature point data, and vector X component and Y component data as motion vectors. ing.
ここで、T−1フレーム用の動き情報テーブル17に記憶されている動きベクトルは、T−1フレームとTフレームの画像データから算出された動きベクトルであり、Tフレーム用の動き情報テーブル17に記憶されている動きベクトルは、TフレームとT+1フレームの画像データから算出された動きベクトルである。 Here, the motion vector stored in the motion information table 17 for the T-1 frame is a motion vector calculated from the image data of the T-1 frame and the T frame, and is stored in the motion information table 17 for the T frame. The stored motion vector is a motion vector calculated from T frame and T + 1 frame image data.
画像記憶部19には、図7に示す通り、画像ブロック単位で画像データが格納される。例えば、1画素8ビット、1ワード32ビットのメモリを使用した場合には、4画素単位でデータが格納され、8×8画素の画像ブロックの場合、16ワード単位で格納される。 As shown in FIG. 7, the image storage unit 19 stores image data in units of image blocks. For example, when a memory of 8 bits per pixel and 32 bits per word is used, data is stored in units of 4 pixels, and in the case of an 8 × 8 pixel image block, data is stored in units of 16 words.
ここまでの処理は、現在の入力画像Tフレームにおける処理である。
c)次に、T−1フレームで求めた特徴点マップ15と動き情報テーブル17、T−1フレームとTフレームの画像を用いて動き検出処理する動き検出部21を説明する。
The processing so far is processing for the current input image T frame.
c) Next, the motion detection unit 21 that performs motion detection processing using the feature point map 15 and the motion information table 17 obtained in the T-1 frame and the images of the T-1 frame and the T frame will be described.
動き検出部21は、図8に示す通り、Xラスタ方向に各画像ブロックを処理する。以降の説明では、各端部の画像ブロックを除く78×58個の画像ブロックを処理することとする。なお、処理する画像ブロック数は、任意に変更することが可能であり、処理する方向についてもYラスタ方向でもよい。 As shown in FIG. 8, the motion detection unit 21 processes each image block in the X raster direction. In the following description, 78 × 58 image blocks excluding the image blocks at each end are processed. Note that the number of image blocks to be processed can be arbitrarily changed, and the processing direction may be the Y raster direction.
・まず、動き検出演算部21cについて説明する。
動き検出演算部21cは、図9に示す通り、動き検出制御部21dから与えられた、T−1フレームの画像上の特徴点を中心とする8×8画素のテンプレート画像がTフレームの画像上でどこに移動したかを示す動きベクトルを算出する。
First, the motion detection calculation unit 21c will be described.
As illustrated in FIG. 9, the motion detection calculation unit 21c applies an 8 × 8 pixel template image centered on the feature point on the T-1 frame image, which is given from the motion detection control unit 21d, to the T frame image. The motion vector which shows where it moved is calculated.
具体的には、勾配法の一種であるKanade−Lucas−Tomasi法(以降、KLT法)を用いる。このKLT法では、T−1フレームとTフレームの6種類の画像データ(即ち、T−1及びTフレームの、平滑化画像、X微分画像、Y微分画像)を用いて動きベクトルを算出し、算出した画像ブロックの識別番号を索引番号として、その結果を動き情報テーブル17に格納する。 Specifically, the Kanade-Lucas-Tomasi method (hereinafter referred to as the KLT method), which is a kind of gradient method, is used. In this KLT method, a motion vector is calculated using six types of image data of T-1 frame and T frame (that is, smoothed image, X differential image, Y differential image of T-1 and T frame), The calculated identification number of the image block is used as an index number, and the result is stored in the motion information table 17.
例えば、図10に示す通り、テンプレート画像のサイズを8×8画素、KLT法が高精度に検出できる範囲であることから、動きベクトルの検出範囲を±3画素とすると、演算に必要となる可能性のある画像データとしては、左図のハッチングを施した部分の画像データを必要とすることになる。したがって、1個の画像ブロックを動き検出処理するためには、9個(処理対象を中心にした9個の画像ブロック)×6枚(前記6種類の画像データ)の画像ブロックの画像データを必要となる。但し、外周部分の3画素分のデータは使用しない。 For example, as shown in FIG. 10, since the size of the template image is 8 × 8 pixels and the KLT method can be detected with high accuracy, if the motion vector detection range is ± 3 pixels, it may be necessary for the calculation. As the characteristic image data, the hatched image data in the left figure is required. Therefore, in order to perform motion detection processing on one image block, image data of 9 (9 image blocks centered on the processing target) × 6 (six types of image data) image blocks are required. It becomes. However, data for three pixels in the outer peripheral portion is not used.
なお、テンプレート画像のサイズを8×8画素、動き検出範囲は±3画素としたが、それに限る必要はない。その場合、適宜動き検出演算に必要な画像ブロック数及び画像ブロックそのものの大きさを変更することになる。 Although the size of the template image is 8 × 8 pixels and the motion detection range is ± 3 pixels, it need not be limited to this. In that case, the number of image blocks necessary for the motion detection calculation and the size of the image blocks themselves are appropriately changed.
・次に動き検出制御部21dについて説明する。
動き検出制御部21dは、1フレーム前(T−1フレーム)の特徴点マップ15と動き情報テーブル17を参照して、画像上の特徴点が存在する画像ブロックのみを動き検出処理するように、動き検出演算部21cと画像データ転送部21aを制御する。
Next, the motion detection control unit 21d will be described.
The motion detection control unit 21d refers to the feature point map 15 and the motion information table 17 one frame before (T-1 frame), and performs motion detection processing only on the image block in which the feature point on the image exists. The motion detection calculation unit 21c and the image data transfer unit 21a are controlled.
まず、T−1フレームの特徴点マップ15を参照して、処理する画像ブロックライン(ここではXラスタ方向の1ライン分のブロック)上の最初に特徴点が存在する画像ブロックを対象とする。 First, with reference to the feature point map 15 of the T-1 frame, the first image block having a feature point on the image block line to be processed (here, a block of one line in the X raster direction) is targeted.
上述したように、動き検出演算部21cでは、動きベクトルの算出のために、対象の画像ブロックを含む9個×6枚の画像ブロックの画像データを必要とするので、図11に示すように、画像データ転送部21aに、9個×6枚の画像ブロックの画像データを画像記憶部19から検出用画像記憶部21bに転送するように命令する。この転送された画像データは、図11の画像データ(A)に示す通り、動き検出用画像記憶部21bに格納される。 As described above, the motion detection calculation unit 21c requires image data of 9 × 6 image blocks including the target image block in order to calculate a motion vector. The image data transfer unit 21a is instructed to transfer the image data of 9 × 6 image blocks from the image storage unit 19 to the detection image storage unit 21b. The transferred image data is stored in the motion detection image storage unit 21b as shown in the image data (A) of FIG.
そして、画像データ転送部21aが画像データの転送を終了した後、動き検出制御部21dにデータ転送を終了通知する。データ転送の終了通知を受信した動き検出制御部21dは、動き検出演算部21cにT−1フレームの動き情報テーブル17から参照した特徴点の座標値を渡し、動きベクトルを算出するように命令する。また、動き検出演算部21cに演算命令を出すのに並行して、図11の画像データ(B)に示す画像データを転送するように、画像データ転送部21aに命令する。そして、動き検出演算部21cと画像データ転送部21aから終了通知を受けた後、次の特徴点が存在する画像ブロックを処理する。 Then, after the image data transfer unit 21a finishes transferring the image data, it notifies the motion detection control unit 21d of the completion of the data transfer. The motion detection control unit 21d that has received the data transfer end notification passes the coordinate values of the feature points referenced from the motion information table 17 of the T-1 frame to the motion detection calculation unit 21c and instructs to calculate the motion vector. . Further, in parallel with issuing the calculation command to the motion detection calculation unit 21c, the image data transfer unit 21a is commanded to transfer the image data shown in the image data (B) of FIG. After receiving the end notification from the motion detection calculation unit 21c and the image data transfer unit 21a, the image block in which the next feature point exists is processed.
このとき、特徴点が存在する画像ブロックを処理するごとに9個×6枚の画像データを転送していては効率が悪い。そこで、動き検出制御部21dでは、以下に示すデータ転送方式により、無駄のない画像データの転送を実現する。 At this time, it is inefficient to transfer 9 × 6 image data every time an image block having feature points is processed. Therefore, the motion detection control unit 21d realizes transfer of image data without waste by the following data transfer method.
具体的には、現在処理を終えた画像ブロックと次の特徴点が存在する画像ブロックまでの距離(単位:画像ブロック)を求める。そして、図12に示す通り、距離値が3画像ブロック以下であれば、隣り合う画像ブロックのデータを利用できるので、動き検出処理するのに不足している画像データのみを転送(バースト転送)し、4画像ブロック以上であれば9個×6枚の画像データを転送する。 Specifically, the distance (unit: image block) between the image block for which the current processing has been completed and the image block in which the next feature point exists is obtained. Then, as shown in FIG. 12, if the distance value is 3 image blocks or less, the data of adjacent image blocks can be used, so only the image data that is insufficient for motion detection processing is transferred (burst transfer). If there are 4 image blocks or more, 9 × 6 image data are transferred.
同様の処理を、同じ画像ブロックライン上の特徴点が存在する画像ブロックについて、全て処理するまで繰り返す。さらに、これらの処理を全画像ブロックラインに対して適用する。 Similar processing is repeated until all the image blocks having feature points on the same image block line are processed. Further, these processes are applied to all image block lines.
以上の構成により、特徴点が存在する画像ブロックを処理するために必要な画像データのみを転送し、高速に動きベクトルを検出できる装置を実現できる。
d)次に、本実施形態の画像処理方法について説明する。
With the above configuration, it is possible to realize an apparatus that can transfer only image data necessary for processing an image block having feature points and can detect a motion vector at high speed.
d) Next, the image processing method of this embodiment will be described.
・最初に、全体の処理について、図13に基づいて説明する。なお、同図では、処理の流れを実線で示すとともに、データの流れを破線で示している。
この処理は、過去の画像上の特徴となる画素である特徴点を抽出して、その特徴点を含む所定の大きさを持つテンプレート画像が、現在の画像上のどこに移動したかを示す動きベクトルを算出するための処理である。
First, the entire process will be described with reference to FIG. In the figure, the flow of processing is indicated by a solid line, and the flow of data is indicated by a broken line.
This process extracts a feature point that is a pixel serving as a feature on the past image, and a motion vector indicating where the template image having a predetermined size including the feature point has moved on the current image Is a process for calculating.
図13に示すように、ステップ(S)100では、カメラ3で撮影した画像データを取り込む(画像入力I/F処理)。
続くステップ110では、取り込んだ画像データの前処理を行う。具体的には、上述した平滑化処理、X微分処理、Y微分処理を行う。
As shown in FIG. 13, in step (S) 100, image data captured by the camera 3 is captured (image input I / F processing).
In the subsequent step 110, preprocessing of the captured image data is performed. Specifically, the above-described smoothing process, X differential process, and Y differential process are performed.
続くステップ120では、特徴点を抽出する処理を行う(特徴点抽出処理)。この特徴点抽出処理とは、前処理から得られる画像から画像ブロック単位で特徴点を抽出し、かつ、特徴点が抽出できた場合には、画像ブロックに特徴点が存在するフラグを特徴点マップに立て、特徴点の位置を動き情報テーブルに格納する処理である。また、この特徴点抽出処理とは別に(並列に)、平滑化した画像データを画像記憶部19に記憶する処理を行う。 In the following step 120, processing for extracting feature points is performed (feature point extraction processing). This feature point extraction process is a process of extracting feature points in units of image blocks from an image obtained from preprocessing, and if feature points can be extracted, a flag indicating the presence of feature points in an image block is displayed as a feature point map. This is a process for storing the position of the feature point in the motion information table. In addition to the feature point extraction processing (in parallel), processing for storing the smoothed image data in the image storage unit 19 is performed.
続くステップ130では、特徴点が存在する全ての画像ブロックの動きベクトルの算出を終了したかを判断する(終了判定処理)。ここで肯定判断されると本処理を終了し、否定判断されるとステップ140に進む。 In subsequent step 130, it is determined whether or not the calculation of the motion vectors of all image blocks in which feature points exist has been completed (end determination process). If an affirmative determination is made here, the present process ends. If a negative determination is made, the process proceeds to step 140.
ステップ140では、画像データ転送量判断処理を行う。この画像データ転送量判断処理とは、過去の画像が入力されたときにフラグを立てた他方(過去)の特徴点マップを参照して、特徴点が存在する全ての画像ブロックをラスタ方向に処理するために、現時点で動きベクトルの算出を終えた画像ブロックとその画像ブロックライン上の特徴点が存在する次の画像ブロックまでの距離を計算し、距離の値から、既に動き検出用画像記憶部21bに転送している画像データが、特徴点が存在する次の画像ブロックにおいて、動きベクトルの算出に使用できるか判定し、不足している画像データ量を明らかにする処理である。 In step 140, an image data transfer amount determination process is performed. This image data transfer amount determination process refers to the other (past) feature point map that is flagged when a past image is input, and processes all image blocks in which the feature points exist in the raster direction. To calculate the distance between the image block for which the motion vector has been calculated at this time and the next image block where the feature point on the image block line exists, the motion detection image storage unit is already calculated from the distance value. In this process, it is determined whether the image data transferred to 21b can be used for motion vector calculation in the next image block in which a feature point exists, and the amount of image data that is lacking is clarified.
続くステップ150では、上記画像データ量分だけ、画像記憶部19から動き検出用画像記憶部21に転送する(画像データ転送処理)。
続くステップ160では、動き検出演算処理を行ってから前記ステップ130に進む。この動き検出演算処理とは、動き検出用画像記憶部21bを使用して、過去の画像上の特徴点を含むテンプレート画像が現在の画像上でどこに移動したかを示す動きベクトルを算出し、算出結果を過去の画像が入力されたときに特徴点座標を格納した他方(過去)の動き情報テーブルに格納する処理である。
In the subsequent step 150, the image data amount is transferred from the image storage unit 19 to the motion detection image storage unit 21 (image data transfer process).
In subsequent step 160, the motion detection calculation process is performed, and then the process proceeds to step 130. This motion detection calculation processing uses the motion detection image storage unit 21b to calculate a motion vector indicating where a template image including a feature point on a past image has moved on the current image. This is a process of storing the result in the other (past) motion information table storing the feature point coordinates when a past image is input.
なお、前記ステップ130〜160の処理が、動き検出部21にて行われる動き検出処理(動きベクトルを算出する処理)である。
・次に、上述した処理のうち、各画像ブロックラインの処理について、図14に基づいて説明する。
Note that the processing of steps 130 to 160 is motion detection processing (processing for calculating a motion vector) performed by the motion detection unit 21.
Next, among the processes described above, the process of each image block line will be described with reference to FIG.
なお、処理に使用する変数は下記の通りである。
STATE :状態を示す変数
map[78]:1ライン分の特徴点マップ
mc :特徴点マップカウンタ
L :次の特徴点が存在する画像ブロックまでの距離(個数)
図14に示すように、ステップ200では、初期化処理を行う。具体的には、STATEを、初期状態を示すINITに設定し、mcを0に設定する。
The variables used for processing are as follows.
STATE: Variable indicating state map [78]: Feature point map for one line mc: Feature point map counter L: Distance (number) to the image block where the next feature point exists
As shown in FIG. 14, in step 200, an initialization process is performed. Specifically, STATE is set to INIT indicating the initial state, and mc is set to 0.
続くステップ210では、1ライン分の処理が終了したかどうかを、mcが78か否かによって判定する。ここで肯定判断されると、1ライン分終了したとして、次の画像ブロックラインの処理に移行する。一方否定判断されると、ステップ220に進む。 In the following step 210, it is determined whether or not the process for one line is completed depending on whether mc is 78 or not. If an affirmative determination is made here, it is determined that the processing has been completed for one line, and the processing proceeds to the next image block line. On the other hand, if a negative determination is made, the process proceeds to step 220.
ステップ220では、特徴点の有無を、特徴点を示すフラグが1であるか否かによって判定する。ここで肯定判断されるとステップ230に進み、一方否定判断されるとステップ300に進む。 In step 220, the presence / absence of a feature point is determined by whether or not the flag indicating the feature point is 1. If an affirmative determination is made here, the process proceeds to step 230, while if a negative determination is made, the process proceeds to step 300.
ステップ300では、STATEがINITか否かを判定する。ここで肯定判断されるとステップ320に進み、一方否定判断されるとステップ310に進む。
ステップ310では、バースト転送(3個×6枚の画像ブロックの転送)を行い、ステップ320に進む。
In step 300, it is determined whether STATE is INIT. If an affirmative determination is made here, the process proceeds to step 320, while if a negative determination is made, the process proceeds to step 310.
In step 310, burst transfer (transfer of 3 × 6 image blocks) is performed, and the process proceeds to step 320.
ステップ320では、mcをインクリメントし、前記ステップ210に戻る。
一方、前記ステップ220で肯定判断されて進むステップ230では、STATEがINIT又は(スキップ転送を示す)SKIPであるか否かを判定する。ここで肯定判断されるとステップ240に進み、一方否定判断されるとステップ250に進む。
In step 320, mc is incremented, and the process returns to step 210.
On the other hand, in step 230, where the determination is affirmative in step 220, it is determined whether STATE is INIT or SKIP (indicating skip transfer). If an affirmative determination is made here, the process proceeds to step 240, while if a negative determination is made, the process proceeds to step 250.
ステップ240では、ステップ転送(9個×6枚の画像ブロックの転送)を行う。
続くステップ250では、KLT演算を行う。また、並列して、隣接する画像ブロックのバースト転送(3個×6枚の画像ブロックの転送)を行う。
In step 240, step transfer (transfer of 9 × 6 image blocks) is performed.
In the following step 250, KLT calculation is performed. In parallel, burst transfer of adjacent image blocks (transfer of 3 × 6 image blocks) is performed.
続くステップ260では、次の特徴点が存在する画像ブロックまでの距離Lを測定する。なお、距離Lが求めることができなかった場合(1ライン終了した場合)には、一旦本処理を終了する。 In the next step 260, the distance L to the image block where the next feature point exists is measured. When the distance L cannot be obtained (when one line is completed), the present process is temporarily terminated.
続くステップ270では、距離Lが4以上か否かを判定する。ここで肯定判断されるとステップ290に進み、一方否定判断されるとステップ280に進む。
ステップ280では、STATEを(バースト転送を示す)BURSTに設定し、前記ステップ320に進む。
In the following step 270, it is determined whether or not the distance L is 4 or more. If an affirmative determination is made here, the process proceeds to step 290, whereas if a negative determination is made, the process proceeds to step 280.
In step 280, STATE is set to BURST (indicating burst transfer), and the process proceeds to step 320.
一方、ステップ290では、STATEを(スキップ転送を示す)SKIPに設定する。また、カウンタmcとして、mcに距離Lを加えた値を設定し、前記ステップ210に戻る。 On the other hand, in step 290, STATE is set to SKIP (indicating skip transfer). Further, a value obtained by adding the distance L to mc is set as the counter mc, and the process returns to step 210.
上述した処理により、1ライン分の画像ブロックの処理を行うことができるので、この処理を58ライン分処理することにより全てのラインの処理を完了することができる。
なお、図15に、変数STATEにて設定される状態の遷移を示す。この状態遷移図から明らかな様に、STATEは、距離Lに応じてINIT、BURST、SKIPに切り替わることが分かる。
Since the image block processing for one line can be performed by the above-described processing, the processing for all lines can be completed by processing this processing for 58 lines.
FIG. 15 shows the state transition set by the variable STATE. As is apparent from this state transition diagram, STATE is switched to INIT, BURST, and SKIP according to the distance L.
e)この様に、本実施形態では、上述した処理を行うことにより、高速にて必要な画像データの転送ができるので、この画像データに基づいて動きベクトルの処理を速やかに行うことができる。 e) As described above, in the present embodiment, necessary image data can be transferred at a high speed by performing the above-described processing, so that the motion vector can be quickly processed based on the image data.
また、本画像処理装置1は、車載画像認識システムにおいて、撮影画像上に特徴点が検出されにくい道路や空の領域の占有率が高い、車両前方検知センサへの使用用途に有効である。 In addition, the image processing apparatus 1 is effective for use in a vehicle front detection sensor in a vehicle-mounted image recognition system that has a high occupation ratio of roads and sky areas in which feature points are difficult to detect on a captured image.
更に、この車両前方検知センサに使用する場合には、高い信頼性が求められるため、動き検出演算部21cに、サブピクセル単位で高精度に検出できる勾配法、例えば、KLT法を使用することが望ましい。ただし、勾配法は、検出できる範囲が狭いため、検出できる範囲に収まるように、カメラ3として取り込み周期が短い高フレームレートのカメラを使用することが望ましい。 Furthermore, since high reliability is required when used in this vehicle forward detection sensor, a gradient method that can be detected with high accuracy in units of subpixels, such as the KLT method, may be used for the motion detection calculation unit 21c. desirable. However, since the gradient method has a narrow detectable range, it is desirable to use a high frame rate camera with a short capture period as the camera 3 so that it falls within the detectable range.
[第2の実施形態]
次に、第2の実施形態について説明するが、第2の実施形態は、第1の実施形態によるものと共通するところが多いので、以下、共通部分についての詳しい説明は省略し、異なる部分を重点的に説明する。
[Second Embodiment]
Next, the second embodiment will be described. However, since the second embodiment is often in common with the first embodiment, detailed description of common parts will be omitted below, and different parts will be emphasized. I will explain it.
a)第1の実施形態の画像処理装置においては、画像ブロックの処理方向はX軸にラスタ処理するか、Y軸にラスタ処理するかは任意であった。これに対し、本実施形態の画像処理装置は、X軸にラスタ処理するか、Y軸にラスタ処理するか、どちらが高速に処理できるか判断する機能を動き検出制御部が備える。 a) In the image processing apparatus according to the first embodiment, the processing direction of the image block is arbitrary for raster processing on the X axis or raster processing on the Y axis. On the other hand, in the image processing apparatus according to the present embodiment, the motion detection control unit has a function of determining which of the raster processing on the X axis and the raster processing on the Y axis can be performed at high speed.
つまり、本実施形態の動き検出制御部では、X軸方向、Y軸方向のラスタ処理の両方の予測処理時間を算出し、どちらで処理するか判定する。
具体的な予測処理時間の計算方法を図16に示す。なお、図16(A)はX軸方向に特徴点を走査した場合、図16(B)はY軸方向に特徴点を走査した場合である。
That is, the motion detection control unit according to the present embodiment calculates prediction processing times for both raster processing in the X-axis direction and the Y-axis direction, and determines which is used for processing.
A specific method for calculating the predicted processing time is shown in FIG. 16A shows a case where feature points are scanned in the X-axis direction, and FIG. 16B shows a case where feature points are scanned in the Y-axis direction.
ここでは、例えば図16(C)に示す様に特徴点が配列されている場合に、同図の矢印方向に特徴点を走査する場合を例に挙げる。
まず、下記Step1〜5の式に示す様に、最初の特徴点において、初期転送のための処理時間に動き検出演算の処理時間Kを加算する(Step1)。
Here, for example, when feature points are arranged as shown in FIG. 16C, a case where feature points are scanned in the direction of the arrow in the figure is taken as an example.
First, as shown in the equations of Steps 1 to 5 below, at the first feature point, the processing time K of motion detection calculation is added to the processing time for initial transfer (Step 1).
次に、最初の特徴点から距離1だけ離れた2番目の特徴点においては、距離が1であり画像データの転送が不要であるので、前Stepまでの予測処理時間Sに、動き検出演算の処理時間Kを加算する(Step2)。 Next, the second feature point that is a distance 1 away from the first feature point has a distance of 1 and does not require transfer of image data. Therefore, during the prediction processing time S up to the previous step, the motion detection calculation is performed. The processing time K is added (Step 2).
次に、2番目の特徴点から距離2だけ離れた3番目の特徴点においては、前Stepまでの予測処理時間Sに、距離2に応じた処理時間(3個×6枚)×Tと動き検出演算の処理時間Kとを加算する(Step3)。 Next, in the third feature point that is a distance 2 away from the second feature point, the prediction processing time S up to the previous step is the processing time (3 × 6) × T corresponding to the distance 2 The detection calculation processing time K is added (Step 3).
次に、3番目の特徴点から距離3だけ離れた4番目の特徴点において、前Stepまでの予測処理時間Sに、距離3に応じた処理時間(6個×6枚)×Tと動き検出演算の処理時間Kとを加算する(Step4)。 Next, at the fourth feature point that is a distance 3 away from the third feature point, the prediction processing time S up to the previous step is the processing time (6 × 6) × T corresponding to the distance 3 and motion detection. The calculation processing time K is added (Step 4).
次に、4番目の特徴点から距離4だけ離れた5番目の特徴点において、前Stepまでの予測処理時間Sに、距離4に応じた処理時間(9個×6枚)×Tと動き検出演算の処理時間Kとを加算する(Step5)。 Next, at the fifth feature point that is a distance 4 away from the fourth feature point, the prediction processing time S up to the previous step is the processing time corresponding to the distance 4 (9 × 6) × T and motion detection The calculation processing time K is added (Step 5).
・Step1:S=(9個×6枚)×T+K
・Step2:S=S+K
・Step3:S=S+(3個×6枚)×T+K
・Step4:S=S+(6個×6枚)×T+K
・Step5:S=S+(9個×6枚)×T+K
但し、予測処理時間:S、動き検出演算の処理時間:Kサイクル、画像ブロック1個の転送時間:Tサイクル(T<K)
つまり、本実施形態では、Step1〜5の処理を行うことにより、1ラインにおける処理時間が分かるので、全てのラインについて合計することにより、X軸方向及びY軸方向における各処理時間が分かる。よって、それらの処理時間を比べることにより、処理時間の短いラスタ処理方向を求めることができる。
・ Step1: S = (9 × 6) × T + K
Step 2: S = S + K
・ Step3: S = S + (3 × 6) × T + K
・ Step4: S = S + (6 × 6) × T + K
・ Step5: S = S + (9 x 6) x T + K
However, prediction processing time: S, processing time for motion detection calculation: K cycles, transfer time for one image block: T cycles (T <K)
That is, in the present embodiment, the processing time in one line can be obtained by performing the processing of Steps 1 to 5, and therefore, the processing time in the X-axis direction and the Y-axis direction can be known by adding up all the lines. Therefore, by comparing the processing times, a raster processing direction with a short processing time can be obtained.
それにより、第1の実施対応より処理の高速化を実現することができる。
b)次に、本実施形態の変形例について説明する。
この変形例では、X軸にラスタ処理するか、Y軸にラスタ処理するか、どちらが高速に処理できるか判断する際に、上記のように特徴点マップを走査して処理時間を予測するのではなく、図17に示す通り、各画像ブロックの行、列ごとに、距離値が1ブロック、2ブロック、3ブロック、4ブロック以上または初期転送の出現回数の情報を付加しておく。
Thereby, it is possible to realize a higher processing speed than the first implementation.
b) Next, a modification of this embodiment will be described.
In this modification, when determining whether to perform raster processing on the X axis or raster processing on the Y axis, which can be performed at high speed, the processing time map is not predicted by scanning the feature point map as described above. Instead, as shown in FIG. 17, information on the number of appearances of the initial transfer is added to the distance value of 1 block, 2 blocks, 3 blocks, 4 blocks or more for each row and column of each image block.
なお、距離値に応じた処理時間は、1ブロックが0、2ブロックが(3個×6枚)×T、3ブロックが(6個×6枚)×T、4ブロック以上または初期転送が(9個×6枚)×Tである。 The processing time according to the distance value is 0 for 1 block, (3 × 6) × T for 3 blocks, (6 × 6) × T for 3 blocks, 4 blocks or more, or initial transfer ( 9 × 6) × T.
そして、図17に示す距離値の場合は、下記式のようにして予測処理時間を求める。
S= 1回×{(0個×6枚)×T+K} (←距離値1の場合)
+1回×{(3個×6枚)×T+K} (←距離値2の場合)
+1回×{(6個×6枚)×T+K} (←距離値3の場合)
+2回×{(9個×6枚)×T+K} (←距離値4及び初期転送の場合)
この様に、この変形例では、特徴点マップを走査することなく、処理時間を予測することができるので、一層処理時間を短縮できるという利点がある。
And in the case of the distance value shown in FIG. 17, prediction processing time is calculated | required like a following formula.
S = 1 time x {(0 x 6) x T + K} (← when distance value is 1)
+1 time x {(3 x 6) x T + K} (← distance value 2)
+1 time x {(6 x 6) x T + K} (← distance value 3)
+2 times x {(9 x 6) x T + K} (← distance value 4 and initial transfer)
Thus, in this modification, the processing time can be predicted without scanning the feature point map, so that there is an advantage that the processing time can be further reduced.
[第3の実施形態]
次に、第3の実施形態について説明するが、第3の実施形態は、第1、2の実施形態によるものと共通するところが多いので、以下、共通部分についての詳しい説明は省略し、異なる部分を重点的に説明する。
[Third Embodiment]
Next, a third embodiment will be described. Since the third embodiment is often in common with those according to the first and second embodiments, a detailed description of common parts will be omitted below, and different parts will be described. Will be explained with emphasis.
第2の実施形態で説明した通り、特徴点マップから、動きベクトルの算出にかかる処理時間を予測することができる。しかし、処理時間に十分な余裕を持たせないように設定した場合、画像の取り込み周期間内に動きベクトルの算出処理が間に合わないときには、処理が破綻してしまう。 As described in the second embodiment, the processing time required to calculate the motion vector can be predicted from the feature point map. However, if the processing time is set so as not to have a sufficient margin, the processing will fail if the motion vector calculation processing is not in time during the image capture period.
そこで、本実施形態では、動き検出制御部21dで、処理時間が間に合わないと判断した場合には、処理できる範囲(例えば処理できる画像ブロックライン)までを算出し、その範囲までを処理するように制御し、継続的に動きベクトルを算出できるようにする。 Therefore, in the present embodiment, when the motion detection control unit 21d determines that the processing time is not in time, a range that can be processed (for example, an image block line that can be processed) is calculated, and the range is processed. To be able to calculate motion vectors continuously.
以下、詳細に説明する。
図18(A)に示す様に、画像データの格納は、3枚のフレームバッファを循環するように用いて行う(リングで格納する)。
Details will be described below.
As shown in FIG. 18A, image data is stored using three frame buffers in a circulating manner (stored in a ring).
従って、図18(B)に示す様に、処理が遅れない場合には、Tフレームの画像データの取り込みの際に、T−2フレームの画像データとT−1フレームの画像データとから動きベクトルを算出することができる。 Therefore, as shown in FIG. 18B, when the processing is not delayed, the motion vector is calculated from the T-2 frame image data and the T-1 frame image data when the T frame image data is captured. Can be calculated.
一方、図18(C)に示す様に、処理が遅れる場合には、例えばT−2フレームの画像を使用する一方で、T+1の画像に書き換えられているので、動作が破綻してしまう。
この対策として、図19に示す様に、フレームの同期信号Vsyncをチェックし、VsyncがH→Lになった場合に、まだ、動き検出処理をしていれば、次のフレーム(この例で言えば、T+1フレーム)の画像の取り込みを止め、動き検出処理が完了した段階で、回路全体の動作を一旦停止した後、回路の動作を再開する(この例で言えば、T+2フレームからの処理を再開する)方法が考えられる。これにより、動作の破綻を回避することができる。
On the other hand, as shown in FIG. 18C, when the processing is delayed, for example, an image of T-2 frame is used, but the image is rewritten to an image of T + 1, so that the operation fails.
As a countermeasure against this, as shown in FIG. 19, when the frame synchronization signal Vsync is checked and Vsync changes from H → L, if the motion detection process is still performed, the next frame (in this example, it can be said). For example, when the image of T + 1 frame) is stopped and the motion detection process is completed, the operation of the entire circuit is temporarily stopped and then the operation of the circuit is resumed (in this example, the process from the T + 2 frame is performed). To resume). Thereby, failure of operation can be avoided.
(変形例1)
上述したフレームの同期信号を用いた場合には、一応、動作の破綻を回避できるが、この場合も、処理方向がラスタ方向なので、本当に動き検出したかった処理ブロックまで行き着かない可能性がある。
(Modification 1)
If the frame synchronization signal described above is used, it is possible to avoid the failure of the operation. However, in this case as well, the processing direction is the raster direction, so there is a possibility that the processing block where the motion detection was really desired may not be reached. .
そこで、本変形例1では、特徴点マップ15から、画像の取り込み周期に動きベクトルの算出処理が間に合わないと判断した場合に、予め設定しておいた優先順位の高い検出領域のみを処理する。 Therefore, in the first modification, when it is determined from the feature point map 15 that the motion vector calculation process is not in time for the image capture cycle, only the detection area with a high priority set in advance is processed.
つまり、動き検出を開始する前に、取り込み周期内で終了できるかを判断し、間に合わない場合には、優先順位の高い検出範囲のみを処理するのである。
なお、優先順位の高い検出範囲とは、例えば先行車を検知している場合には、その車両周辺の領域を示すものであり、例えば空や上方の風景の領域は優先順位が低いとする。
That is, before starting the motion detection, it is determined whether or not it can be completed within the capturing period. If it is not in time, only the detection range with a high priority is processed.
The detection range with high priority indicates, for example, a region around the vehicle when a preceding vehicle is detected. For example, the sky or the landscape region above has a low priority.
以下、詳細に説明する。
(1)まず、前記図16又は図17に示した手法にて、予測処理時間を見積もる。
ここで、動き検出にどれだけの処理時間がかかるかは、設計すれば正確に見積もることが可能である。具体的には、回路設計し、シミュレーションすれば、画像データ転送サイクル数、動き検出処理サイクル数、メモリの調停サイクル数が分かる。その数値を使用すれば計算できる。なお、前記図16及び図18の説明では、メモリの調停サイクル数は考慮していない。というのは、実際には、下記(2)で説明するTvを実際の値より厳しく設定すれば良いからである。
Details will be described below.
(1) First, the prediction processing time is estimated by the method shown in FIG. 16 or FIG.
Here, how much processing time it takes for motion detection can be accurately estimated by designing. Specifically, when the circuit is designed and simulated, the number of image data transfer cycles, the number of motion detection processing cycles, and the number of memory arbitration cycles are known. It can be calculated by using that number. In the description of FIGS. 16 and 18, the number of memory arbitration cycles is not taken into consideration. This is because, in practice, Tv described in the following (2) may be set more strictly than the actual value.
(2)次に、予測処理時間と画像の取り込み周期とを比較する。
画像の取り込み周期Tv(例えば60fpsのカメラであれば16.7msec)と前記(1)で求めた予測処理時間Tpとを比較する。
(2) Next, the prediction processing time is compared with the image capture cycle.
The image capture cycle Tv (for example, 16.7 msec for a 60 fps camera) is compared with the predicted processing time Tp obtained in (1).
そして、Tp>Tvの場合は、取り込み周期内に終了できないと判断する。また、Tp≦Tvの場合は、取り込み周期内に終了できると判断する。
従って、この判定結果に基づいて、処理が間に合わない場合には、優先順位の高い検出範囲のみを処理するのである。
If Tp> Tv, it is determined that the process cannot be completed within the capture period. If Tp ≦ Tv, it is determined that the process can be completed within the capture cycle.
Therefore, based on this determination result, if the process is not in time, only the detection range with a high priority is processed.
これにより、重要な処理を確実に実行できるという利点がある。
(変形例2)
この変形例2では、特徴点マップから、画像の取り込み周期に動きベクトルの算出処理が間に合わないと判断した場合には、画像サイズを縮小した画像データを用いて処理する。
Thereby, there is an advantage that important processing can be surely executed.
(Modification 2)
In the second modification, when it is determined from the feature point map that the motion vector calculation process is not in time for the image capture cycle, the process is performed using image data with a reduced image size.
以下、詳細に説明する。
図20に示す様に、本変形例2の画像処理装置31では、前記第1の実施形態と同様に、(カメラ33からの画像を取り込む)画像入力I/F部35と、平滑化処理部37と、X微分処理部39と、Y微分処理部41と、特徴点抽出部43と、特徴点マップ45と、動き情報テーブル47と、画像記憶部49と、動き検出部51を備えており、この動き検出部51は、画像データ転送部51aと、動き検出用画像記憶部51bと、動き検出演算部51cと、動き検出制御部51dによって構成される。
Details will be described below.
As shown in FIG. 20, in the image processing apparatus 31 of the second modification, as in the first embodiment, an image input I / F unit 35 (capturing an image from the camera 33), and a smoothing processing unit 37, an X differentiation processing unit 39, a Y differentiation processing unit 41, a feature point extraction unit 43, a feature point map 45, a motion information table 47, an image storage unit 49, and a motion detection unit 51. The motion detection unit 51 includes an image data transfer unit 51a, a motion detection image storage unit 51b, a motion detection calculation unit 51c, and a motion detection control unit 51d.
更に、本画像処理装置31は、平滑化処理部37とX微分処理部39とY微分処理部41からのデータに基づいて、微小画像の特徴点を抽出する微小画像特徴点抽出部53と、その微小画像特徴点抽出部53によって抽出された微小画像の特徴点のデータを記憶する微小特徴点マップ55と微小動き情報テーブル57とを備えている。 Further, the image processing apparatus 31 includes a micro image feature point extracting unit 53 that extracts feature points of a micro image based on data from the smoothing processing unit 37, the X differential processing unit 39, and the Y differential processing unit 41; A minute feature point map 55 that stores feature point data of the minute image extracted by the minute image feature point extracting unit 53 and a minute motion information table 57 are provided.
なお、特徴点マップ45及び動き情報テーブル47の構成と、微小特徴点マップ55及び微小動き情報テーブル57の構成は、記憶するデータが異なるのみでその構成は同様である。 The configurations of the feature point map 45 and the motion information table 47 and the configurations of the minute feature point map 55 and the minute motion information table 57 are the same except that the stored data is different.
そして、本変形例2では、前記第1の実施形態の処理に加えて、平滑化処理部37、X微分処理部39、Y微分処理部41からは、微小画像特徴点抽出部53に対して、1画素単位で間引いた画像データを送って格納する。 In the second modification, in addition to the processing of the first embodiment, the smoothing processing unit 37, the X differentiation processing unit 39, and the Y differentiation processing unit 41 perform the minute image feature point extraction unit 53. The image data thinned out in units of one pixel is sent and stored.
従って、縮小画像特徴点抽出部53では、通常より少ない画像データで特徴点の抽出を行って、その縮小画像の特徴点のデータを、微小特徴点マップ55及び微小動き情報テーブル57に記憶する。 Therefore, the reduced image feature point extraction unit 53 extracts feature points with less image data than usual, and stores the feature point data of the reduced image in the minute feature point map 55 and the minute motion information table 57.
更に、動き検出制御部51dにて、特徴点マップ45から、画像の取り込み周期に動きベクトルの算出処理が間に合わないと判断した場合に、動き検出演算部51cは、縮小画像特徴点マップ55と縮小動き情報テーブル57のデータを使用して画像上の動きベクトルを算出する。 Further, when the motion detection control unit 51d determines from the feature point map 45 that the motion vector calculation process is not in time for the image capture period, the motion detection calculation unit 51c reduces the reduced image feature point map 55 to the reduced size. The motion vector on the image is calculated using the data of the motion information table 57.
これにより、短時間で処理が可能となるので、必要な処理を行うことができる。
[第4の実施形態]
次に、第4の実施形態は、第3の実施形態によるものと共通するところが多いので、以下、共通部分についての詳しい説明は省略し、異なる部分を重点的に説明する。
As a result, processing can be performed in a short time, so that necessary processing can be performed.
[Fourth Embodiment]
Next, since the fourth embodiment is often in common with that according to the third embodiment, a detailed description of the common parts will be omitted, and different parts will be described mainly.
図21に示す様に、本実施形態の画像処理装置61では、前記第1の実施形態と同様に、(カメラ63からの画像を取り込む)画像入力I/F部65と、平滑化処理部67と、X微分処理部69と、Y微分処理部71と、特徴点抽出部73と、特徴点マップ75と、動き情報テーブル77と、画像記憶部79と、動き検出部81を備えており、この動き検出部81は、画像データ転送部81aと、動き検出用画像記憶部81bと、動き検出演算部81cと、動き検出制御部81dによって構成される。 As shown in FIG. 21, in the image processing apparatus 61 of the present embodiment, an image input I / F unit 65 (capturing an image from the camera 63) and a smoothing processing unit 67, as in the first embodiment. An X differentiation processing unit 69, a Y differentiation processing unit 71, a feature point extraction unit 73, a feature point map 75, a motion information table 77, an image storage unit 79, and a motion detection unit 81, The motion detection unit 81 includes an image data transfer unit 81a, a motion detection image storage unit 81b, a motion detection calculation unit 81c, and a motion detection control unit 81d.
更に、本画像処理装置61では、2個の補助特徴点マップ83、85を備えるとともに、動き検出部81には、後段特徴点抽出部81eを備えている。
以下、詳細に説明する。
Further, the image processing apparatus 61 includes two auxiliary feature point maps 83 and 85, and the motion detection unit 81 includes a subsequent feature point extraction unit 81 e.
Details will be described below.
前記特徴点抽出部73では、基準となるしきい値(特徴点を抽出するためのしきい値)の他に、補助となる任意の数の、基準となるしきい値よりも大きい任意の値を設定できる、補助しきい値を設定する。これにより使用する特徴点を減らすことができる。ここでは2個の補助しきい値を設定するので、補助特徴点マップは2個設定されている。 In the feature point extraction unit 73, in addition to a reference threshold value (threshold value for extracting a feature point), an arbitrary number of auxiliary values that are larger than the reference threshold value Set the auxiliary threshold. Thereby, the feature point to be used can be reduced. Here, since two auxiliary threshold values are set, two auxiliary feature point maps are set.
この補助しきい値については、特徴点抽出のみし、特徴点抽出できた場合には、補助特徴点マップ83、85にフラグを立てるが、動き情報テーブル77には特徴点座標値は書き込まない。 For this auxiliary threshold, only feature points are extracted, and if feature points can be extracted, a flag is set in the auxiliary feature point maps 83 and 85, but no feature point coordinate values are written in the motion information table 77.
そして、動き検出制御部81dは、特徴点マップ75から、画像の取り込み周期に動きベクトルの算出処理が間に合わないと判断した場合に、2つの補助特徴点マップ83、85の中から、取り込み周期に算出処理が間に合うものがあるかを探索する。 Then, when the motion detection control unit 81d determines from the feature point map 75 that the motion vector calculation process is not in time for the image capture cycle, the motion detection control unit 81d determines the capture cycle from the two auxiliary feature point maps 83 and 85. A search is made as to whether there is a calculation process in time.
その結果、間に合うものが存在する場合には、その補助特徴点マップ83又は85を使用して、前記第1の実施形態の画像処理装置1と同様に、画像データ転送部81aに画像データを転送させ、後段特徴点抽出部81eに特徴点座標を計算させ、その座標値を動き検出演算部81cに与えて、動きベクトルを算出する。 As a result, when there is an object in time, the auxiliary feature point map 83 or 85 is used to transfer the image data to the image data transfer unit 81a in the same manner as the image processing apparatus 1 of the first embodiment. Then, the latter-stage feature point extraction unit 81e calculates the feature point coordinates and gives the coordinate values to the motion detection calculation unit 81c to calculate the motion vector.
このように、本実施形態では、代表的な特徴点のみを使用するので、演算処理の負担を軽減することができる。
[第5の実施形態]
次に、第5の実施形態は、第1の実施形態によるものと共通するところが多いので、以下、共通部分についての詳しい説明は省略し、異なる部分を重点的に説明する。
As described above, in this embodiment, only representative feature points are used, so that the burden of arithmetic processing can be reduced.
[Fifth Embodiment]
Next, since the fifth embodiment is often in common with that according to the first embodiment, a detailed description of common parts will be omitted, and different parts will be described mainly.
図22に示す様に、本実施形態の画像処理装置91では、前記第1の実施形態と同様に、(カメラ93からの画像を取り込む)画像入力I/F部95と、平滑化処理部97と、X微分処理部99と、Y微分処理部101と、特徴点抽出部103と、特徴点マップ105と、動き情報テーブル107と、画像記憶部109と、2個の動き検出部(第1動き検出部111、第2動き検出部113)を備えており、各動き検出部111、113は、それぞれ、画像データ転送部111a、113aと、動き検出用画像記憶部111b、113bと、動き検出演算部111c、113cと、動き検出制御部111d、113dによって構成される。 As shown in FIG. 22, in the image processing apparatus 91 of the present embodiment, an image input I / F unit 95 (capturing an image from the camera 93), and a smoothing processing unit 97, as in the first embodiment. An X differentiation processing unit 99, a Y differentiation processing unit 101, a feature point extraction unit 103, a feature point map 105, a motion information table 107, an image storage unit 109, and two motion detection units (first Motion detection unit 111 and second motion detection unit 113). Each motion detection unit 111 and 113 includes image data transfer units 111a and 113a, motion detection image storage units 111b and 113b, and motion detection, respectively. The calculation units 111c and 113c and the motion detection control units 111d and 113d are configured.
本実施形態では、2個の演算用チップである動き検出部111、113を備えているので、図23に示す様に、処理する画像領域は任意の大きさの2つの検出領域に分割されており、各検出領域の画像ブロックの動きベクトルを各動き検出演算部111、113が独立して算出する。この並列処理により、高速に動きベクトルを算出することができる。 In this embodiment, since the motion detectors 111 and 113 which are two arithmetic chips are provided, the image area to be processed is divided into two detection areas of arbitrary size as shown in FIG. The motion detection calculation units 111 and 113 independently calculate the motion vector of the image block in each detection area. By this parallel processing, motion vectors can be calculated at high speed.
(変形例)
図24に示す様に、本変形例1の画像処理装置121では、前記第1の実施形態と同様に、(カメラ123からの画像を取り込む)画像入力I/F部125と、平滑化処理部127と、X微分処理部129と、Y微分処理部131と、特徴点抽出部133と、特徴点マップ135と、動き情報テーブル137と、画像記憶部139と、動き検出部141を備えており、この動き検出部141は、画像データ転送部141aと、動き検出用画像記憶部141bと、2つの動き検出演算部(第1動き検出演算部141c1、第2動き検出演算部141c2)と、動き検出制御部141dによって構成される。
(Modification)
As shown in FIG. 24, in the image processing apparatus 121 according to the first modification, as in the first embodiment, an image input I / F unit 125 (capturing an image from the camera 123), and a smoothing processing unit 127, an X differentiation processing unit 129, a Y differentiation processing unit 131, a feature point extraction unit 133, a feature point map 135, a motion information table 137, an image storage unit 139, and a motion detection unit 141. The motion detection unit 141 includes an image data transfer unit 141a, a motion detection image storage unit 141b, two motion detection calculation units (a first motion detection calculation unit 141c1, a second motion detection calculation unit 141c2), a motion It is comprised by the detection control part 141d.
以下、詳細に説明する。
上述した第5の実施形態では、動き検出部111、113の総数と同数、上記例で言えば2個の検出領域に分割し、各検出領域の画像ブロックの動きベクトルを各動き検出演算部111c、113cが独立して算出する。それに対して、本変形例1では、動き検出部141は1個であるが、2個の動き検出演算部141c1、141c2を備えている。
Details will be described below.
In the fifth embodiment described above, the number of motion detection units 111 and 113 is the same as the total number, in the above example, divided into two detection regions, and the motion vector of the image block in each detection region is divided into each motion detection calculation unit 111c. 113c are calculated independently. In contrast, in the first modification, the number of motion detection units 141 is one, but two motion detection calculation units 141c1 and 141c2 are provided.
そして、本変形例では、図25に示す通り、隣接する画像ブロックを同期しながら同一方向に処理する。なお、どちらかの処理ブロックに特徴点が存在した場合には、その特徴点の動きベクトルを算出するまで、一方の動き検出演算部141c1、141c2は停止し、同期を取りながら同一方向(例えばX軸方向)に処理する。 And in this modification, as shown in FIG. 25, it processes to the same direction, synchronizing an adjacent image block. If a feature point exists in one of the processing blocks, one of the motion detection calculation units 141c1 and 141c2 is stopped until the motion vector of the feature point is calculated, and the same direction (for example, X (Axial direction).
この方式のメリットは、画像記憶部139からのデータ転送量を抑制できるところにある。例えば、特徴点を発見し、新規に9個x6枚の画像ブロックを転送する場合には、第5の実施形態の場合には、単純に2倍の108個の画像ブロックを転送することになるが、本変形例1では、必要な画像データブロックが重なり合うため、12個x6枚の画像ブロック、すなわち72個の画像ブロックを転送するだけでよいことになる。 The merit of this method is that the amount of data transferred from the image storage unit 139 can be suppressed. For example, when a feature point is found and 9 × 6 image blocks are newly transferred, in the case of the fifth embodiment, 108 image blocks that are doubled are simply transferred. However, in the first modification, since necessary image data blocks overlap, it is only necessary to transfer 12 × 6 image blocks, that is, 72 image blocks.
したがって、画像データ転送量を1.3倍程度に抑制することができた上で、並列処理による高速な動きベクトルの算出も期待することができる。
[第6の実施形態]
第6の実施形態は、画像処理装置を、車載画像認識システムにおける車室内侵入者検知センサへの使用用途を目的とし、侵入者がいない場合には動きベクトルの算出をしないように制御し、低消費電力を狙いとするものである。
Therefore, the image data transfer amount can be suppressed to about 1.3 times, and high-speed motion vector calculation by parallel processing can be expected.
[Sixth Embodiment]
The sixth embodiment aims to use the image processing apparatus as a vehicle intruder detection sensor in an in-vehicle image recognition system, and controls the motion vector not to be calculated when there is no intruder. It aims at power consumption.
具体的には、動き検出制御部が、特徴点マップから画像上に存在する特徴点の総数を算出し、ある任意のしきい値を超えた場合に、動きベクトルを算出するように制御する。
つまり、侵入者の有無を、例えば特徴点の総数が300個以上になったか否かによって判定し、その場合のみ動きベクトルを算出する。
Specifically, the motion detection control unit calculates the total number of feature points present on the image from the feature point map, and controls to calculate a motion vector when an arbitrary threshold value is exceeded.
That is, the presence / absence of an intruder is determined based on, for example, whether or not the total number of feature points has reached 300 or more, and a motion vector is calculated only in that case.
(変形例)
第6の実施形態では、動きベクトルの算出の判断を、特徴点の総数により判断していたのに対して、本変形例では、現在の特徴点マップと過去の特徴点マップを比較し、特徴点の有無に変化があった画像ブロックの総数が、ある任意のしきい値を超えた場合に、動きベクトルを算出するように制御する。
(Modification)
In the sixth embodiment, the calculation of the motion vector is determined based on the total number of feature points. In the present modification, the current feature point map is compared with the past feature point map, and the feature points are compared. Control is performed so that a motion vector is calculated when the total number of image blocks in which the presence or absence of points exceeds a certain threshold.
尚、本発明は上記実施形態に限定されるものではなく、様々な態様にて実施することが可能である。 In addition, this invention is not limited to the said embodiment, It is possible to implement in various aspects.
1、31、61、91、121、A1…画像処理装置
3、33、63、93、123、A2…カメラ
5、35、65、95、125、A3…画像入力I/F部
7、37、67、97、127…平滑化処理部
9、39、69、99、129…X微分処理部
11、41、71、101、131…Y微分処理部
13、43、73、103、133、A6…特徴点抽出部
15、45、75、105、135、A7…特徴点マップ
17、47、77、107、137、A9…動き情報テーブル
19、49、79、109、139、A5…画像記憶部
21、51、81、111、113、141、A8…動き検出部
21a、51a、81a、111a、113a、141a、A11…画像データ転送部
21b、51b、81b、111b、113b、141b、A10…動き検出用画像記憶部
21c、51c、81c、111c、113c、141c1、141c2、A12…動き検出演算部
21d、51d、81d、111d、113d、141d、A13…動き検出制御部
53…縮小画像特徴点抽出部
55…微小特徴点マップ
57…微小動き情報テーブル
83、85…補助特徴点マップ
81e…後段特徴点抽出部
A4…前処理部
DESCRIPTION OF SYMBOLS 1, 31, 61, 91, 121, A1 ... Image processing apparatus 3, 33, 63, 93, 123, A2 ... Camera 5, 35, 65, 95, 125, A3 ... Image input I / F part 7, 37, 67, 97, 127 ... smoothing processing units 9, 39, 69, 99, 129 ... X differentiation processing units 11, 41, 71, 101, 131 ... Y differentiation processing units 13, 43, 73, 103, 133, A6 ... Feature point extraction unit 15, 45, 75, 105, 135, A7 ... Feature point map 17, 47, 77, 107, 137, A9 ... Motion information table 19, 49, 79, 109, 139, A5 ... Image storage unit 21 51, 81, 111, 113, 141, A8... Motion detectors 21a, 51a, 81a, 111a, 113a, 141a, A11... Image data transfer units 21b, 51b, 81b, 111b, 113b, 14 b, A10 ... motion detection image storage units 21c, 51c, 81c, 111c, 113c, 141c1, 141c2, A12 ... motion detection calculation units 21d, 51d, 81d, 111d, 113d, 141d, A13 ... motion detection control unit 53 ... Reduced image feature point extraction unit 55 ... minute feature point map 57 ... minute motion information tables 83, 85 ... auxiliary feature point map 81e ... latter stage feature point extraction unit A4 ... pre-processing unit
Claims (20)
前記画像処理装置に取り込まれた画像データを記憶する画像記憶部と、
前記画像処理装置に取り込まれた画像データに基づいて、動き検出する画像単位である画像ブロック単位で特徴点を抽出する特徴点抽出部と、
前記特徴点抽出部により抽出された特徴点が、前記画像ブロック単位でどこに存在するかを示す特徴点マップと、
前記特徴点マップに記憶された画像ブロック単位の特徴点のデータと前記画素単位で抽出された特徴点の位置のデータとに基づき、前記画像記憶部に記憶された画像データを利用して、前記動きベクトルを算出する動き検出部と、
を備えたことを特徴とする画像処理装置。 An image that extracts a feature point that is a pixel that is a feature on a past image, and calculates a motion vector that indicates where the template image having the predetermined size including the feature point has moved on the current image A processing device comprising:
An image storage unit for storing image data captured by the image processing device;
A feature point extraction unit that extracts feature points in units of image blocks that are units of images for motion detection based on image data captured by the image processing device;
A feature point map indicating where the feature points extracted by the feature point extraction unit exist in units of the image blocks;
Based on the feature point data stored in the feature point map in units of image blocks and the feature point position data extracted in units of pixels, using the image data stored in the image storage unit, the A motion detector that calculates a motion vector;
An image processing apparatus comprising:
前記画像処理装置に取り込まれた画像データを記憶する画像記憶部と、
前記画像データ上の特徴点を抽出するため、及び動きベクトルを算出するために、必要な画像データを作成する前処理部と、
前記画像データ上の特徴点が、動き検出する画像単位である画像ブロック単位で、どこに存在するかを示す特徴点マップと、
前記画素単位で抽出された特徴点の位置のデータと動きベクトルのデータとを記憶する動き情報テーブルと、
前記前処理部から得られる画像データから画像ブロック単位で特徴点を抽出し、特徴点が抽出できた場合には、画像ブロックに特徴点が存在することを示すフラグを前記特徴点マップに立て、かつ、特徴点の位置を前記動き情報テーブルに格納する特徴点抽出部と、
前記画像記憶部に記憶された画像データと、前記特徴点マップに記憶された画像ブロック単位の特徴点のデータと、前記動き情報テーブルに記憶された画素単位の特徴点の位置のデータとに基づいて、動きベクトルを算出する動き検出部と、
を備えたことを特徴とする画像処理装置。 An image that extracts a feature point that is a pixel that is a feature on a past image, and calculates a motion vector that indicates where the template image having the predetermined size including the feature point has moved on the current image A processing device comprising:
An image storage unit for storing image data captured by the image processing device;
A pre-processing unit for generating necessary image data in order to extract feature points on the image data and to calculate a motion vector;
A feature point map indicating where the feature points on the image data exist in image block units, which are image units for motion detection; and
A motion information table storing feature point position data and motion vector data extracted in pixel units;
Extracting feature points in image block units from the image data obtained from the preprocessing unit, and if feature points can be extracted, set a flag indicating that feature points exist in the image block in the feature point map, And a feature point extraction unit that stores the position of the feature point in the motion information table;
Based on image data stored in the image storage unit, feature point data stored in the feature point map in units of image blocks, and feature point position data in units of pixels stored in the motion information table A motion detector for calculating a motion vector;
An image processing apparatus comprising:
動き検出するのに必要な過去の画像データと現在の画像データを記憶する動き検出用画像記憶部と、
前記画像記憶部に格納された画像データを、前記動き検出用画像記憶部に転送する画像データ転送部と、
前記動き検出用画像記憶部を使用して、過去の画像上の特徴点を含むテンプレート画像が現在の画像上でどこに移動したかを示す動きベクトルを算出し、その算出結果を過去の画像が入力されたときに特徴点座標を格納した過去の動き情報テーブルに格納する動き検出演算部と、
過去の画像が入力されたときにフラグを立てた過去の特徴点マップを参照して、特徴点が存在する全ての画像ブロックをラスタ方向に処理するために、現時点で動きベクトルの算出を終えた画像ブロックとその画像ブロックライン上の特徴点が存在する次の画像ブロックまでの距離を計算し、その距離の値から、既に前記動き検出用画像記憶部に転送している画像データが、特徴点が存在する次の画像ブロックにおいて、動きベクトルの算出に使用できるかを判定し、不足している画像データのみを転送するように前記画像データ転送部に命令する動き検出制御部と、
を備えたことを特徴とする請求項3に記載の画像処理装置。 The motion detector is
An image storage unit for motion detection for storing past image data and current image data necessary for motion detection;
An image data transfer unit that transfers the image data stored in the image storage unit to the motion detection image storage unit;
Using the motion detection image storage unit, a motion vector indicating where the template image including the feature point on the past image has moved on the current image is calculated, and the past image is input as a result of the calculation. A motion detection calculation unit that stores in a past motion information table that stores feature point coordinates,
Referring to the past feature point map that was flagged when a past image was input, the motion vector calculation was completed at this point in order to process all image blocks with feature points in the raster direction. The distance between the image block and the next image block where the feature point on the image block line exists is calculated, and the image data already transferred to the motion detection image storage unit from the distance value is the feature point. A motion detection control unit that determines whether it can be used to calculate a motion vector in the next image block in which the image data exists, and instructs the image data transfer unit to transfer only the missing image data;
The image processing apparatus according to claim 3, further comprising:
前記動き検出制御部は、前記特徴点マップから、画像の取り込み周期に動きベクトルの算出処理が間に合わないと判断した場合に、補助特徴点マップの中から、取り込み周期に算出処理が間に合うものがあるかを探索し、存在する場合には、前記特徴点マップに代えて前記補助特徴点マップを使用することを特徴とする請求項4〜10の何れかに記載の画像処理装置。 In addition to the reference threshold value, the feature point extraction unit can set a predetermined threshold value that can set a predetermined value larger than the reference threshold value. For feature thresholds, feature points are extracted, and feature point detection presence / absence is written in the same number of auxiliary feature point maps as auxiliary thresholds,
When the motion detection control unit determines from the feature point map that the motion vector calculation process is not in time for the image capture period, some of the auxiliary feature point maps are in time for the capture period. The image processing apparatus according to any one of claims 4 to 10, wherein the auxiliary feature point map is used instead of the feature point map when the feature point map is searched.
画像データを取り込む画像入力I/F処理と、
前記画像データを画像ブロック単位で画像記憶部に記憶する画像記憶処理と、
前記画像データ上の特徴点を抽出するため、及び動きベクトルを算出するために、必要な画像データを作成する前処理と、
前記前処理から得られる画像データから画像ブロック単位で特徴点を抽出し、かつ、特徴点が抽出できた場合には、画像ブロックに特徴点が存在することを示すフラグを特徴点マップに立てる特徴点抽出処理と、
前記特徴点マップに記憶された画像ブロック単位の特徴点のデータと前記画素単位で抽出された特徴点の位置のデータとに基づき、前記画像記録部に記録された画像データを利用して、前記動きベクトルを算出する動きベクトル検出処理と、
を備えたことを特徴とする画像処理方法。 An image that extracts a feature point that is a pixel that is a feature on a past image, and calculates a motion vector that indicates where the template image having the predetermined size including the feature point has moved on the current image A processing method,
Image input I / F processing for capturing image data;
Image storage processing for storing the image data in an image storage unit in units of image blocks;
Preprocessing for generating necessary image data in order to extract feature points on the image data and to calculate a motion vector;
The feature point is extracted from the image data obtained from the pre-processing in units of image blocks, and when the feature point can be extracted, a flag indicating that the feature point exists in the image block is set in the feature point map Point extraction processing,
Based on the data of feature points in units of image blocks stored in the feature point map and the data of the positions of feature points extracted in units of pixels, using the image data recorded in the image recording unit, A motion vector detection process for calculating a motion vector;
An image processing method comprising:
前記特徴点が存在する全ての画像ブロックの動きベクトルの算出を終了したかを判断する終了判定処理と、
前記終了判定処理により前記算出が終了していないと判断された場合に、過去の画像が入力されたときにフラグを立てた過去の特徴点マップを参照して、特徴点が存在する全ての画像ブロックをラスタ方向に処理するために、現時点で動きベクトルの算出を終えた画像ブロックとその画像ブロックライン上の特徴点が存在する次の画像ブロックまでの距離を計算し、その距離の値から、既に動きベクトルの算出に用いる過去と現在の画像データを記憶する動き検出用画像記憶部に転送している画像データが、特徴点が存在する次の画像ブロックにおいて、動きベクトルの算出に使用できるかを判定し、不足している画像データ量を明らかにする画像データ転送量判断処理と、
前記不足している画像データ量分だけを、全画像データを画像ブロック単位で記憶している画像記憶部から前記動き検出用画像記憶部に転送する画像データ転送処理と、
を備えたことを特徴とする請求項19に記載の画像処理方法。 The motion vector detection process includes:
An end determination process for determining whether the calculation of motion vectors of all image blocks in which the feature points exist is completed;
When it is determined by the end determination process that the calculation has not ended, all images in which feature points exist are referred to with reference to a past feature point map that is flagged when a past image is input. In order to process the block in the raster direction, the distance between the image block for which the motion vector has been calculated at this time and the next image block where the feature point on the image block line is present is calculated. Can image data already transferred to the motion detection image storage unit that stores past and current image data used for motion vector calculation be used for motion vector calculation in the next image block in which a feature point exists? Image data transfer amount determination processing for determining the amount of image data that is lacking, and
An image data transfer process for transferring only the amount of image data that is insufficient from an image storage unit storing all image data in units of image blocks to the motion detection image storage unit;
The image processing method according to claim 19, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007028232A JP4775277B2 (en) | 2007-02-07 | 2007-02-07 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007028232A JP4775277B2 (en) | 2007-02-07 | 2007-02-07 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008192060A true JP2008192060A (en) | 2008-08-21 |
JP4775277B2 JP4775277B2 (en) | 2011-09-21 |
Family
ID=39752082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007028232A Expired - Fee Related JP4775277B2 (en) | 2007-02-07 | 2007-02-07 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4775277B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010211398A (en) * | 2009-03-09 | 2010-09-24 | Denso Corp | Image processing apparatus |
JP2012022654A (en) * | 2010-07-16 | 2012-02-02 | Canon Inc | Image processing apparatus, image processing method and program |
JP2014220565A (en) * | 2013-05-01 | 2014-11-20 | 日本放送協会 | Motion estimation apparatus and program |
JP2015506516A (en) * | 2012-01-06 | 2015-03-02 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Object tracking and processing |
JP2017054431A (en) * | 2015-09-11 | 2017-03-16 | キヤノン株式会社 | Image processing device, image processing method, and program |
WO2018008184A1 (en) * | 2016-07-08 | 2018-01-11 | オムロン株式会社 | Image processing device and image processing method |
US9912869B2 (en) | 2015-11-05 | 2018-03-06 | Canon Kabushiki Kaisha | Image stabilization apparatus and image stabilization method |
US9942477B2 (en) | 2015-10-05 | 2018-04-10 | Canon Kabushiki Kaisha | Image processing apparatus and method |
US10313593B2 (en) | 2015-11-05 | 2019-06-04 | Canon Kabushiki Kaisha | Image stabilization apparatus and image stabilization method |
US10880457B2 (en) | 2018-04-18 | 2020-12-29 | Canon Kabushiki Kaisha | Image processing apparatus, image capturing apparatus, image processing method, and storage medium |
US11153479B2 (en) | 2018-03-28 | 2021-10-19 | Canon Kabushiki Kaisha | Image processing apparatus, capable of detecting an amount of motion between images by tracking a point across one or more images, image capturing apparatus, image processing method, and storage medium |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0746597A (en) * | 1993-07-30 | 1995-02-14 | Toshiba Corp | Motion compensation predictive encoder and decoder |
JPH10262258A (en) * | 1997-03-19 | 1998-09-29 | Sony Corp | Image coder and its method |
JPH11112956A (en) * | 1997-09-30 | 1999-04-23 | Sharp Corp | Image composite and communication equipment |
JPH11205656A (en) * | 1998-01-14 | 1999-07-30 | Matsushita Electric Ind Co Ltd | Video photographing device |
JP2001014476A (en) * | 1999-06-28 | 2001-01-19 | Pioneer Electronic Corp | Method and device for detecting edge and image encoding device |
WO2002101651A2 (en) * | 2001-06-11 | 2002-12-19 | Koninklijke Philips Electronics N.V. | Feature point selection |
JP3463858B2 (en) * | 1998-08-27 | 2003-11-05 | 矢崎総業株式会社 | Perimeter monitoring device and method |
JP3519441B2 (en) * | 1993-02-26 | 2004-04-12 | 株式会社東芝 | Video transmission equipment |
JP3574780B2 (en) * | 2000-08-29 | 2004-10-06 | 株式会社日立製作所 | Vehicle safe driving support system |
JP3580475B2 (en) * | 1998-09-14 | 2004-10-20 | 矢崎総業株式会社 | Perimeter monitoring device |
JP2005018573A (en) * | 2003-06-27 | 2005-01-20 | Denso Corp | In-vehicle mobile body detector |
JP2005206025A (en) * | 2004-01-22 | 2005-08-04 | Denso Corp | On-vehicle camera device |
JP3688377B2 (en) * | 1996-01-31 | 2005-08-24 | 富士通株式会社 | Image feature tracking apparatus and image feature tracking method |
JP2005250989A (en) * | 2004-03-05 | 2005-09-15 | Sony Corp | Moving object tracking method and image processing device |
JP3803122B2 (en) * | 1995-05-02 | 2006-08-02 | 松下電器産業株式会社 | Image memory device and motion vector detection circuit |
JP2006318345A (en) * | 2005-05-16 | 2006-11-24 | Sony Corp | Object tracking method, program for object tracking method, recording medium where program for object tracking method is recorded, and object tracking device |
JP2006338293A (en) * | 2005-06-01 | 2006-12-14 | Sony Corp | Image data assignment method, image processing control device and image processing system |
-
2007
- 2007-02-07 JP JP2007028232A patent/JP4775277B2/en not_active Expired - Fee Related
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3519441B2 (en) * | 1993-02-26 | 2004-04-12 | 株式会社東芝 | Video transmission equipment |
JPH0746597A (en) * | 1993-07-30 | 1995-02-14 | Toshiba Corp | Motion compensation predictive encoder and decoder |
JP3803122B2 (en) * | 1995-05-02 | 2006-08-02 | 松下電器産業株式会社 | Image memory device and motion vector detection circuit |
JP3688377B2 (en) * | 1996-01-31 | 2005-08-24 | 富士通株式会社 | Image feature tracking apparatus and image feature tracking method |
JPH10262258A (en) * | 1997-03-19 | 1998-09-29 | Sony Corp | Image coder and its method |
JPH11112956A (en) * | 1997-09-30 | 1999-04-23 | Sharp Corp | Image composite and communication equipment |
JPH11205656A (en) * | 1998-01-14 | 1999-07-30 | Matsushita Electric Ind Co Ltd | Video photographing device |
JP3463858B2 (en) * | 1998-08-27 | 2003-11-05 | 矢崎総業株式会社 | Perimeter monitoring device and method |
JP3580475B2 (en) * | 1998-09-14 | 2004-10-20 | 矢崎総業株式会社 | Perimeter monitoring device |
JP2001014476A (en) * | 1999-06-28 | 2001-01-19 | Pioneer Electronic Corp | Method and device for detecting edge and image encoding device |
JP3574780B2 (en) * | 2000-08-29 | 2004-10-06 | 株式会社日立製作所 | Vehicle safe driving support system |
JP2004533073A (en) * | 2001-06-11 | 2004-10-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Feature point selection |
WO2002101651A2 (en) * | 2001-06-11 | 2002-12-19 | Koninklijke Philips Electronics N.V. | Feature point selection |
JP2005018573A (en) * | 2003-06-27 | 2005-01-20 | Denso Corp | In-vehicle mobile body detector |
JP2005206025A (en) * | 2004-01-22 | 2005-08-04 | Denso Corp | On-vehicle camera device |
JP2005250989A (en) * | 2004-03-05 | 2005-09-15 | Sony Corp | Moving object tracking method and image processing device |
JP2006318345A (en) * | 2005-05-16 | 2006-11-24 | Sony Corp | Object tracking method, program for object tracking method, recording medium where program for object tracking method is recorded, and object tracking device |
JP2006338293A (en) * | 2005-06-01 | 2006-12-14 | Sony Corp | Image data assignment method, image processing control device and image processing system |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010211398A (en) * | 2009-03-09 | 2010-09-24 | Denso Corp | Image processing apparatus |
JP2012022654A (en) * | 2010-07-16 | 2012-02-02 | Canon Inc | Image processing apparatus, image processing method and program |
US9667841B2 (en) | 2010-07-16 | 2017-05-30 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2015506516A (en) * | 2012-01-06 | 2015-03-02 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Object tracking and processing |
JP2014220565A (en) * | 2013-05-01 | 2014-11-20 | 日本放送協会 | Motion estimation apparatus and program |
JP2017054431A (en) * | 2015-09-11 | 2017-03-16 | キヤノン株式会社 | Image processing device, image processing method, and program |
US9942477B2 (en) | 2015-10-05 | 2018-04-10 | Canon Kabushiki Kaisha | Image processing apparatus and method |
US9912869B2 (en) | 2015-11-05 | 2018-03-06 | Canon Kabushiki Kaisha | Image stabilization apparatus and image stabilization method |
US10313593B2 (en) | 2015-11-05 | 2019-06-04 | Canon Kabushiki Kaisha | Image stabilization apparatus and image stabilization method |
JP2018005839A (en) * | 2016-07-08 | 2018-01-11 | オムロン株式会社 | Image processing apparatus and image processing method |
WO2018008184A1 (en) * | 2016-07-08 | 2018-01-11 | オムロン株式会社 | Image processing device and image processing method |
US10497133B2 (en) | 2016-07-08 | 2019-12-03 | Omron Corporation | Object tracking apparatus and object tracking method |
US11153479B2 (en) | 2018-03-28 | 2021-10-19 | Canon Kabushiki Kaisha | Image processing apparatus, capable of detecting an amount of motion between images by tracking a point across one or more images, image capturing apparatus, image processing method, and storage medium |
US10880457B2 (en) | 2018-04-18 | 2020-12-29 | Canon Kabushiki Kaisha | Image processing apparatus, image capturing apparatus, image processing method, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4775277B2 (en) | 2011-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4775277B2 (en) | Image processing apparatus and image processing method | |
US8417059B2 (en) | Image processing device, image processing method, and program | |
US8792727B2 (en) | Image processing device, image processing method, and program | |
US10867390B2 (en) | Computer vision processing | |
US8224069B2 (en) | Image processing apparatus, image matching method, and computer-readable recording medium | |
US8300101B2 (en) | Image processing method, image processing system, image pickup device, image processing device and computer program for manipulating a plurality of images | |
US9674441B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US10970807B2 (en) | Information processing apparatus and storage medium | |
US20060274177A1 (en) | Image processing apparatus | |
JP2012063869A (en) | License plate reader | |
JP3936683B2 (en) | Road position detection apparatus and program | |
KR101661211B1 (en) | Apparatus and method for improving face recognition ratio | |
JP5294798B2 (en) | Image processing apparatus and image processing method | |
US10430660B2 (en) | Image processing apparatus, control method thereof, and storage medium | |
JP2003304561A (en) | Stereo image processing apparatus | |
JP2013242625A (en) | Image processing device and image processing method | |
US20120051652A1 (en) | Object recognition system and method | |
JP5173549B2 (en) | Image processing apparatus and imaging apparatus | |
JP6576179B2 (en) | Image processing apparatus, image processing method, and program | |
JP5126124B2 (en) | Image processing device | |
JP2008206143A (en) | Imaging device having image processing function | |
US9826163B2 (en) | Image processing apparatus, control method, and recording medium | |
US10853919B2 (en) | Image processing apparatus, image processing method, and program | |
JP7026729B2 (en) | Control support equipment, control support methods and control support programs | |
US20210256665A1 (en) | Generation apparatus, generation method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110531 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110613 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4775277 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140708 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |