JP2009129318A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2009129318A
JP2009129318A JP2007305617A JP2007305617A JP2009129318A JP 2009129318 A JP2009129318 A JP 2009129318A JP 2007305617 A JP2007305617 A JP 2007305617A JP 2007305617 A JP2007305617 A JP 2007305617A JP 2009129318 A JP2009129318 A JP 2009129318A
Authority
JP
Japan
Prior art keywords
pixel
image
sub
region
object region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007305617A
Other languages
Japanese (ja)
Inventor
Sanehiro Toda
修弘 遠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2007305617A priority Critical patent/JP2009129318A/en
Publication of JP2009129318A publication Critical patent/JP2009129318A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a computational quantity for performing sub-pixel calculation in stereo processing. <P>SOLUTION: A stereo matching part 2 uses each partial area in one image as a correlation source to search a correlation destination of individual partial area in the other image and calculates an amount of deviation of the correlation destination against the coordination source as a pixel value expressed by integral multiple of a pixel. An object area specification part 4 dynamically specifies an object area where an object exists on an image plane. A sub-pixel processing part 3 calculates a sub-pixel value higher in resolution than the pixel value only in the partial area corresponding to an object area specified by the object area specification part 4 in terms of a position. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、一対の画像を用いたステレオマッチングを領域毎に行う画像処理装置に係り、特に、相関元に対する相関先のずれ量のサブピクセル演算に関する。   The present invention relates to an image processing apparatus that performs stereo matching for each region using a pair of images, and more particularly to sub-pixel calculation of a correlation destination shift amount with respect to a correlation source.

従来より、一対の画像を用いたステレオマッチングを領域毎に行うステレオ処理において、互いに相関を有する領域のずれ量をサブピクセルレベルで算出する手法が知られている。例えば、特許文献1には、ピクセルレベルの視差を与える仮の対応点、その直前の隣接点、その直後の隣接点の3点による直線近似によって、サブピクセル成分を算出する手法が開示されている。また、特許文献1以外にも特許文献2〜5といった手法も知られている。周知のように、ステレオ処理でサブピクセル演算を行えば、実空間上における物体の位置をより高い分解能で特定できる。したがって、ステレオカメラを用いたプレビューセンサ等の測距精度の向上を図ることができる。   2. Description of the Related Art Conventionally, there is known a method for calculating a shift amount of a region having a correlation with each other at a sub-pixel level in stereo processing in which stereo matching using a pair of images is performed for each region. For example, Patent Document 1 discloses a method for calculating a subpixel component by linear approximation of a temporary corresponding point that gives pixel-level parallax, an adjacent point immediately before, and an adjacent point immediately after that. . In addition to Patent Document 1, methods such as Patent Documents 2 to 5 are also known. As is well known, if the sub-pixel calculation is performed by stereo processing, the position of the object in the real space can be specified with higher resolution. Therefore, it is possible to improve the ranging accuracy of a preview sensor or the like using a stereo camera.

特開2000−283753号公報JP 2000-283755 A 特開2004−219142号公報JP 2004-219142 A 特開2003−150939号公報JP 2003-150939 A 特開2003−97944号公報JP 2003-97944 A 特開平5−265547号公報JP-A-5-265547

しかしながら、上述した特許文献1〜5では、ステレオ処理でのサブピクセル演算を画像全体に亘って行っているので、演算量が増大するという不都合があった。   However, in Patent Documents 1 to 5 described above, since the sub-pixel calculation in the stereo processing is performed over the entire image, there is a disadvantage that the calculation amount increases.

そこで、本発明の目的は、ステレオ処理におけるサブピクセル演算に際して、演算量の低減を図ることである。   Therefore, an object of the present invention is to reduce the amount of calculation in subpixel calculation in stereo processing.

かかる課題を解決するために、本発明は、ステレオマッチング部と、物体領域特定部と、サブピクセル処理部とを有し、一対の画像を用いたステレオマッチングを画像平面上に設定された部分領域毎に行う画像処理装置を提供する。ステレオマッチング部は、一方の画像におけるそれぞれの部分領域を相関元とし、個々の部分領域の相関先を他方の画像において探索する。そして、ステレオマッチング部は、相関元に対する相関先のずれ量を画素の整数倍で表されるピクセル値として算出する。物体領域特定部は、画像平面上において物体が存在する物体領域を動的に特定する。サブピクセル処理部は、物体領域特定部によって特定された物体領域と位置的に対応した部分領域に限定して、ピクセル値よりも分解能が高いサブピクセル値を算出する。   In order to solve such a problem, the present invention has a stereo matching unit, an object region specifying unit, and a subpixel processing unit, and a partial region in which stereo matching using a pair of images is set on an image plane Provided is an image processing apparatus which is performed every time. The stereo matching unit uses each partial region in one image as a correlation source, and searches for a correlation destination of each partial region in the other image. Then, the stereo matching unit calculates the deviation amount of the correlation destination with respect to the correlation source as a pixel value represented by an integer multiple of the pixel. The object region specifying unit dynamically specifies an object region where an object exists on the image plane. The sub-pixel processing unit calculates a sub-pixel value having a resolution higher than the pixel value by limiting to a partial region that corresponds in position to the object region specified by the object region specifying unit.

ここで、本発明において、物体領域特定部は、ステレオマッチング部によって算出されたピクセル値の集合によって規定される二次元平面上において、同一物体と見なせるほどに値が近接し、かつ、位置的に隣接したピクセル値同士をグループ化することによって、物体領域を特定することが好ましい。また、これに代えて、画像の輝度平面上において、物体としての輝度パターンに合致する領域を物体領域として特定してもよい。   Here, in the present invention, the object region specifying unit is close enough to be regarded as the same object on the two-dimensional plane defined by the set of pixel values calculated by the stereo matching unit, and is positioned positionally. It is preferable to identify the object region by grouping adjacent pixel values. Alternatively, an area that matches the luminance pattern as an object on the luminance plane of the image may be specified as the object area.

また、本発明において、サブピクセル処理部は、物体領域特定部によって特定された従前のフレームにおける物体領域に基づいて、今回のフレームにおいてサブピクセル値を算出する領域を設定することが好ましい。また、サブピクセル処理部は、物体領域が複数検出された場合、予め設定された優先順位規則に基づいて、記物体領域のそれぞれに優先順位を設定し、この設定された優先順位にしたがってサブピクセル値を算出してもよい。   In the present invention, it is preferable that the subpixel processing unit sets a region for calculating a subpixel value in the current frame based on the object region in the previous frame specified by the object region specifying unit. Further, when a plurality of object areas are detected, the subpixel processing unit sets a priority order for each of the recording object areas based on a preset priority order rule, and the subpixels are set according to the set priority order. A value may be calculated.

本発明によれば、画像平面上において物体が存在する物体領域を動的に特定し、この領域に限定してサブピクセル演算を行う。これにより、サブピクセル演算を画像全体に亘って行う場合と比較して、サブピクセルの演算を行う領域を限定した分だけ演算量の低減を図ることができる。   According to the present invention, an object region where an object exists on an image plane is dynamically specified, and sub-pixel calculation is performed only in this region. Thereby, compared with the case where the subpixel calculation is performed over the entire image, the amount of calculation can be reduced by a limited amount of the area in which the subpixel calculation is performed.

(第1の実施形態)
図1は、第1の実施形態に係る画像処理装置のブロック構成図である。画像処理装置1は、ステレオマッチング部2と、サブピクセル処理部3と、物体領域特定部4とを主体に構成されている。この画像処理装置1は、例えば、ステレオカメラによって車両前方を監視するプレビューセンサの一部、具体的には、物体の認識を行う認識ユニットの前処理ユニットとして用いられる。この場合、ステレオマッチング部2に入力される一対の画像として、図示しないステレオカメラより出力されたステレオ画像、すなわち、所定のカメラ基線長を隔てて配置された一対のカメラによって同時に撮像・出力された一対の画像が用いられる。また、画像処理装置1は、車載型プレビューセンサ以外にも、ステレオカメラを用いた障害物検出装置、地形認識装置、踏切監視装置、或いは、飛行体の高度計測装置等でも適用することができる。さらに、画像処理装置1は、ステレオカメラに限定されるものではなく、例えば、物体の移動量や速度をオプティカルフローとして検出する検出ユニットの前処理ユニットとして用いることもできる。この場合、単眼カメラにて物体を所定の間隔で繰返し撮像し、あるタイミングで撮像された画像と、それとは異なるタイミングで撮像された画像とが、一対の画像としてステレオマッチング部2に入力される。
(First embodiment)
FIG. 1 is a block diagram of the image processing apparatus according to the first embodiment. The image processing apparatus 1 is mainly configured by a stereo matching unit 2, a subpixel processing unit 3, and an object region specifying unit 4. The image processing apparatus 1 is used as, for example, a part of a preview sensor that monitors the front of a vehicle with a stereo camera, specifically, a preprocessing unit of a recognition unit that recognizes an object. In this case, as a pair of images input to the stereo matching unit 2, a stereo image output from a stereo camera (not shown), that is, a pair of images that are simultaneously imaged and output by a pair of cameras arranged with a predetermined camera baseline length. A pair of images is used. Further, the image processing apparatus 1 can be applied to an obstacle detection apparatus using a stereo camera, a terrain recognition apparatus, a railroad crossing monitoring apparatus, an altitude measuring apparatus for a flying object, and the like in addition to the in-vehicle preview sensor. Furthermore, the image processing apparatus 1 is not limited to a stereo camera, and can be used as a pre-processing unit of a detection unit that detects, for example, an amount of movement or speed of an object as an optical flow. In this case, an object is repeatedly imaged at a predetermined interval with a monocular camera, and an image captured at a certain timing and an image captured at a different timing are input to the stereo matching unit 2 as a pair of images. .

以下の説明では、一対の画像のうち、一方を「基準画像」と呼び、他方を「比較画像」と呼ぶ。ステレオカメラの場合、同時に撮像された画像のうち、一例として、メインカメラの画像を基準画像とし、サブカメラの画像を比較画像とする。また、単眼カメラの場合、時系列的に異なるタイミングで撮像された画像のうち、一例として、撮像タイミングの早い方を基準画像とし、撮像タイミングの遅い方を比較画像とする。これらの画像は、所定の輝度階調(例えば、256階調のグレースケール)のデジタル画像であり、1フレームの画像は、輝度データの二次元平面的な集合として定義される。1フレームを規定する画像平面は、i−j座標系で表現され、画像の左下隅を原点として、水平方向をi軸、垂直方向をj軸とする。   In the following description, one of the pair of images is referred to as a “reference image”, and the other is referred to as a “comparison image”. In the case of a stereo camera, as an example, among the images taken at the same time, an image of the main camera is used as a reference image, and an image of the sub camera is used as a comparison image. In the case of a monocular camera, among images captured at different timings in time series, for example, the earlier imaging timing is used as a reference image, and the later imaging timing is used as a comparison image. These images are digital images having a predetermined luminance gradation (for example, gray scale of 256 gradations), and one frame image is defined as a two-dimensional planar set of luminance data. An image plane that defines one frame is expressed in an ij coordinate system, with the lower left corner of the image as the origin, the horizontal direction as the i axis, and the vertical direction as the j axis.

ステレオマッチング部2は、図5(a)に示すように、基準画像と比較画像とを入力としたステレオマッチングを行って、ピクセル値Dを算出する。ここで、ピクセル値Dは、図5(b)に示すように、基準画像によって規定される画像平面において部分領域毎に算出され、画像平面上の位置(i,j)と対応付けられている。1つのピクセル値Dは、基準画像の一部を構成する部分領域としての画素ブロック(例えば、4×4画素)毎に算出され、画素ブロックが算出単位となる。   As shown in FIG. 5A, the stereo matching unit 2 calculates the pixel value D by performing stereo matching using the reference image and the comparison image as inputs. Here, as shown in FIG. 5B, the pixel value D is calculated for each partial region in the image plane defined by the reference image, and is associated with the position (i, j) on the image plane. . One pixel value D is calculated for each pixel block (for example, 4 × 4 pixels) as a partial area constituting a part of the reference image, and the pixel block is a calculation unit.

図2は、基準画像に設定される画素ブロックの説明図である。例えば、基準画像が200×512画素で構成されている場合、1フレームの画像中に50×128個の画素ブロックPBijが部分領域として設定される。ステレオカメラの場合、部分領域である画素ブロックPBij単位で、ピクセル値Dとしての「視差」が算出される。周知のように、視差は、その算出単位である画素ブロックPBijの水平方向のずれ量であり、画素ブロックPBij内に写し出された対象物までの距離と大きな相関がある。画素ブロックPBij内に写し出されている対象物がステレオカメラに近いほど、この画素ブロックPBijの視差Dは大きくなり、対象物が遠いほど視差Dは小さくなる(対象物が無限に遠い場合、視差Dは0になる)。   FIG. 2 is an explanatory diagram of pixel blocks set in the reference image. For example, when the reference image is composed of 200 × 512 pixels, 50 × 128 pixel blocks PBij are set as partial areas in one frame image. In the case of a stereo camera, “parallax” as a pixel value D is calculated for each pixel block PBij that is a partial region. As is well known, the parallax is a horizontal shift amount of the pixel block PBij that is a calculation unit thereof, and has a large correlation with the distance to the object projected in the pixel block PBij. The closer the object projected in the pixel block PBij is to the stereo camera, the larger the parallax D of the pixel block PBij, and the smaller the object, the smaller the parallax D (if the object is infinitely far away, the parallax D Becomes 0).

ある画素ブロックPBij(相関元)のピクセル値Dを算出する場合、この画素ブロックPBijの輝度特性と相関を有する領域(相関先)が比較画像において特定される。ステレオカメラの場合、ステレオカメラから対象物までの距離は、基準画像と比較画像との間における水平方向のずれ量として反映される。したがって、比較画像において相関先を探索する場合、比較画像の全体を探索する必要はなく、相関元となる画素ブロックPijのj座標と同じ水平線(エピポーラライン)上を探索すればよい。ステレオマッチング部2は、相関元のi座標を基準に設定された所定の探索範囲内において、エピポーラライン上を一画素ずつシフトしながら、相関元と相関先の候補との間における相関性を順次評価する(ステレオマッチング)。   When the pixel value D of a certain pixel block PBij (correlation source) is calculated, a region (correlation destination) having a correlation with the luminance characteristic of the pixel block PBij is specified in the comparison image. In the case of a stereo camera, the distance from the stereo camera to the object is reflected as a horizontal shift amount between the reference image and the comparison image. Therefore, when searching for the correlation destination in the comparison image, it is not necessary to search the entire comparison image, and it is only necessary to search on the same horizontal line (epipolar line) as the j coordinate of the pixel block Pij as the correlation source. The stereo matching unit 2 sequentially shifts the correlation between the correlation source and the correlation destination candidates while shifting one pixel at a time on the epipolar line within a predetermined search range set based on the i coordinate of the correlation source. Evaluate (stereo matching).

2つの画素ブロックの相関性を判定する手法としては、様々なものが知られているが、ここではシティブロック距離Hを用いる。数式1は、シティブロック距離Hの基本形を示す。p1ijは一方の画素ブロックにおけるij番目の画素の輝度値であり、p2ijは他方の画素ブロックにおけるij番目の輝度値である。シティブロック距離Hは、位置的に対応した輝度値p1ij,p2ijの差(絶対値)の画素ブロック全体における総和であって、その差が小さいほど両画素ブロックの相関が大きいことを意味する。
(数式1)
H=Σ|p1ij−p2ij|
Various methods for determining the correlation between two pixel blocks are known, but here, the city block distance H is used. Formula 1 shows a basic form of the city block distance H. p1ij is the luminance value of the ij-th pixel in one pixel block, and p2ij is the ij-th luminance value in the other pixel block. The city block distance H is the sum of the differences (absolute values) of the luminance values p1ij and p2ij corresponding to each other in the entire pixel block, and the smaller the difference, the greater the correlation between the two pixel blocks.
(Formula 1)
H = Σ | p1ij−p2ij |

基本的に、エピポーラライン上に存在する画素ブロック毎に算出されたシティブロック距離Hのうち、原則として、その値が最小となる画素ブロックが相関先と判断される。そして、このようにして特定された相関先と相関元との間のずれ量がピクセル値Dとなる。ステレオマッチングの特性上、相関元に対する相関先のずれ量を表すピクセル値Dは、画素の整数倍として表される。   Basically, of the city block distances H calculated for each pixel block existing on the epipolar line, in principle, the pixel block having the smallest value is determined as the correlation destination. The amount of deviation between the correlation destination and the correlation source specified in this way is the pixel value D. Due to the characteristics of stereo matching, the pixel value D representing the amount of deviation of the correlation destination relative to the correlation source is expressed as an integer multiple of the pixel.

以上の手法によって、ステレオマッチング部2は、1フレームの基準画像を構成するそれぞれの基準画素ブロックに関してピクセル値Dを順次算出し、それをサブピクセル処理部3に出力する。その際、図3に示すように、このピクセル値Dを与える点p1に関するシティブロック距離H1(=Hmin)、その直前において隣接した点p0のシティブロック距離H0、および、その直後において隣接した点p2のシティブロック距離H2もサブピクセル処理部3に出力される。   By the above method, the stereo matching unit 2 sequentially calculates the pixel value D for each reference pixel block constituting one frame of the reference image, and outputs it to the sub-pixel processing unit 3. At that time, as shown in FIG. 3, the city block distance H1 (= Hmin) relating to the point p1 giving the pixel value D, the city block distance H0 of the adjacent point p0, and the adjacent point p2 immediately thereafter The city block distance H2 is also output to the sub-pixel processing unit 3.

なお、シティブロック距離の基本形は上述した通りであるが、具体的な算出式には数々のバリエーションが存在する。例えば、通常のステレオマッチングに代えて、平均値差分マッチングを行ってもよい。平均値差分マッチングは、撮像画像の高周波成分のみをマッチング対象とし、ハイパスフィルタと等価な作用を有しているため、低周波ノイズを有効に除去できる等のメリットがある。平均値差分マッチングでは、数式2に従いシティブロック距離Hが算出される。ここで、Aaveは基準画素ブロックAの輝度平均値であり、Baveは比較画素ブロックBの輝度平均値である。すなわち、平均値差分マッチングでは、基準画素ブロックAの輝度値aijからその輝度平均値Aaveを差分した値と、比較画素ブロックBの輝度値bijからその輝度平均値Baveを差分した値との差(絶対値)の画素ブロック全体における総和として定義される。なお、平均値差分マッチング処理の詳細については、例えば、特開平11−234701号公報に開示されているので、必要ならば参照されたい。
(数式2)
H=Σ|(aij−Aave)−(bij−Bave)|
Aave=Σaij/(I×J)
Bave=Σbij/(I×J)
The basic form of the city block distance is as described above, but there are many variations in the specific calculation formula. For example, instead of normal stereo matching, average value difference matching may be performed. The average value difference matching has a merit that low-frequency noise can be effectively removed because only a high-frequency component of a captured image is a matching target and has an action equivalent to a high-pass filter. In the average value difference matching, the city block distance H is calculated according to Equation 2. Here, Aave is the average luminance value of the reference pixel block A, and Bave is the average luminance value of the comparison pixel block B. That is, in the average value difference matching, a difference between a value obtained by subtracting the luminance average value Aave from the luminance value aij of the reference pixel block A and a value obtained by subtracting the luminance average value Bave from the luminance value bij of the comparison pixel block B ( (Absolute value) is defined as the sum of the entire pixel block. The details of the average value difference matching processing are disclosed in, for example, Japanese Patent Application Laid-Open No. 11-234701, and should be referred to if necessary.
(Formula 2)
H = Σ | (aij−Aave) − (bij−Bave) |
Aave = Σaij / (I × J)
Bave = Σbij / (I × J)

また、画素ブロックA,Bの中心部の輝度値(例えば、a22,a23,a32,a33、bijについても同様)を重視する場合には、数式3のように、輝度差の絶対値に重み係数wijを乗じてシティブロック距離Hを算出してもよい(重み付けマッチング)。この場合、重み係数wijは、画素ブロックA,Bの内側に向うほど大きな値に設定する。重み付けマッチング処理の詳細については、例えば、特願2001−063290号に開示されている。
(数式3)
H=Σwij|aij−bij|
Further, in the case where importance is attached to the luminance values at the center of the pixel blocks A and B (for example, the same applies to a22, a23, a32, a33, and bij), the weight coefficient is added to the absolute value of the luminance difference as shown in Equation 3. The city block distance H may be calculated by multiplying by wij (weighting matching). In this case, the weighting coefficient wij is set to a larger value as it goes inside the pixel blocks A and B. Details of the weighting matching processing are disclosed in, for example, Japanese Patent Application No. 2001-063290.
(Formula 3)
H = Σwij | aij−bij |

サブピクセル処理部3は、ステレオマッチング部2において生成された1画素単位の分解能を有するピクセル値Dに対してサブピクセル処理による補間を行い、1画素単位以下の分解能を有するサブピクセル値Dsを算出する。ステレオカメラの場合、三角測量の原理より、撮像画像に写し出された対象物までの距離が遠くなるにつれて、測距分解能が必然的に低下してしまうといった本質的特性が知られている。そのため、ピクセル値Dよりも高い分解能で情報が取得する必要が生じ、その一手段として、1画素以下の小数画素を有するサブピクセル値Dsが用いられる。   The sub-pixel processing unit 3 performs interpolation by sub-pixel processing on the pixel value D having the resolution of one pixel unit generated in the stereo matching unit 2, and calculates the sub-pixel value Ds having the resolution of one pixel unit or less. To do. In the case of a stereo camera, it is known from the principle of triangulation that an essential characteristic is that the distance measurement resolution inevitably decreases as the distance to the object projected in the captured image increases. Therefore, it is necessary to acquire information with a resolution higher than that of the pixel value D, and as one means, a sub-pixel value Ds having a decimal pixel of one pixel or less is used.

サブピクセル値Dsの算出手法としては様々な手法が提案されており、いずれの算出手法を用いてもよいが、ここでは2つの算出手法を例示する。   Various methods have been proposed as the calculation method of the subpixel value Ds, and any of the calculation methods may be used. Here, two calculation methods are exemplified.

<算出手法1>I−H平面上での直線近似
特開2000−283753号公報に開示された本手法では、図3に示したように、I(ずれ量)−H(シティブロック距離)平面上の離散的な分布において、ピクセル値Dを与える仮の対応点p1、その直前の隣接点p0、その直後の隣接点p2の3点による直線近似によってサブピクセル値Dsが算出される。1画素のサイズが無限に小さいと仮定した場合、画像平面(i,j)におけるシティブロック距離Hの分布は、図4に示すように連続的になる。これをずれ量の検出方向の一次元的な分布として捉えた場合、図3の破線で示すような連続的な分布となる。この連続分布が示すように、サブピクセル値Dsを与える真の対応点psub(シティブロック距離Hの連続分布において本来の最小値をとる点)周りに左右対称になる。ただし、その対称性が論理的に保証されるのは極狭い範囲であり、対応点psubの±1画素以内、すなわち、点p0〜p2の範囲内であることが知られている。このようなシティブロック距離Hの対称性に鑑みると、直前の隣接シティブロック距離H0が直後の隣接シティブロック距離H2よりも大きい場合(図3のケース)、対応点psubは、仮の対応点p1(離散的なシティブロック距離の分布において最小シティブロック距離となる点)よりも右側(シティブロック距離が小さい点側)に位置することがわかる。
<Calculation Method 1> Linear Approximation on IH Plane In this method disclosed in Japanese Patent Laid-Open No. 2000-283753, as shown in FIG. 3, I (deviation amount) -H (city block distance) plane In the above discrete distribution, the sub-pixel value Ds is calculated by linear approximation using three points: the provisional corresponding point p1 that gives the pixel value D, the adjacent point p0 immediately before it, and the adjacent point p2 immediately after that. Assuming that the size of one pixel is infinitely small, the distribution of the city block distance H in the image plane (i, j) is continuous as shown in FIG. When this is regarded as a one-dimensional distribution of the deviation detection direction, a continuous distribution as shown by a broken line in FIG. 3 is obtained. As this continuous distribution shows, it becomes symmetrical around the true corresponding point psub (the point that takes the original minimum value in the continuous distribution of the city block distance H) giving the subpixel value Ds. However, it is known that the symmetry is logically guaranteed in a very narrow range and within ± 1 pixel of the corresponding point psub, that is, within the range of the points p0 to p2. In view of the symmetry of the city block distance H, when the immediately adjacent city block distance H0 is larger than the immediately adjacent city block distance H2 (case in FIG. 3), the corresponding point psub is the temporary corresponding point p1. It can be seen that it is located on the right side (the point side where the city block distance is small) from the point (the point that becomes the minimum city block distance in the distribution of discrete city block distances).

本手法では、仮の対応点p0の右範囲is〜(is+1)内において、対応点psubとみなせる1点を特定すべく、2本の直線L1,L2が用いられる。具体的には、まず、隣接点p0,p2のうち、大きい方のシティブロック距離Hを与える隣接点p0を選択し、仮の対応点p1と選択された隣接点p0とを結ぶ直線L1(傾き=m)が設定される。つぎに、縦軸に対して直線L1と線対称(傾き=−m)で、選択されなかった方の隣接点p2を通る直線L2が設定される。そして、互いに線対称な2本の直線L1,L2の交点が算出される。この交点のI座標値が、ピクセル値Dに対するサブピクセルレベルのずれ量、すなわち、サブピクセル成分Sである。サブピクセル値Dsは、ピクセル値Dにサブピクセル成分Sを加えたものである。   In this method, two straight lines L1 and L2 are used to identify one point that can be regarded as the corresponding point psub within the right range is to (is + 1) of the temporary corresponding point p0. Specifically, first, of the adjacent points p0 and p2, the adjacent point p0 that gives the larger city block distance H is selected, and a straight line L1 (inclination) connecting the temporary corresponding point p1 and the selected adjacent point p0. = M) is set. Next, a straight line L2 is set which is symmetrical with the straight line L1 with respect to the vertical axis (slope = −m) and passes through the adjacent point p2 which is not selected. Then, the intersection of two straight lines L1 and L2 that are line symmetrical with each other is calculated. The I coordinate value of this intersection is the sub-pixel level deviation amount with respect to the pixel value D, that is, the sub-pixel component S. The subpixel value Ds is obtained by adding the subpixel component S to the pixel value D.

<算出手法2>補間輝度によるステレオマッチング
特開2003−150939号公報に開示された本手法は、上述したシティブロック距離Hの対称性に着目する点は算出手法1と同様であるが、その具体的な算出手法が異なり、補間輝度によるステレオマッチングが用いられる。具体的には、対応点psubが仮の対応点p0の右範囲is〜(is+1)内に存在すると判断された場合、この範囲内において輝度の補間データが生成される。この補間データは、4×4画素の画素ブロック単位で、実際の画素の輝度値を例えば線形補間することによって生成される。画素のずれ量is〜i(s+1)の範囲内、すなわち、比較画素ブロックB[Is]と比較画素ブロックB[Is+1]との間を線形補間する場合には、数式4の補間式が用いられる。ここで、ここで、B(is)ij,B(is+1)ijは、それぞれ比較画素ブロックB[is],B[is+1]を構成する画素群の輝度値である。また、Lは、補間解像度(定数)であり、Iは、補間画素の位置を示すパラメータ(0≦I≦L)であり、整数値をとる。
(数式4)
bij=B(is)ij+I×(B(is+1)ij−B(is)ij)/L
<Calculation Method 2> Stereo Matching with Interpolated Luminance The present method disclosed in Japanese Patent Laid-Open No. 2003-150939 is similar to Calculation Method 1 in that it focuses on the symmetry of the city block distance H described above. The calculation method is different, and stereo matching based on interpolation luminance is used. Specifically, when it is determined that the corresponding point psub is within the right range is to (is + 1) of the temporary corresponding point p0, luminance interpolation data is generated within this range. This interpolation data is generated by, for example, linearly interpolating the luminance values of actual pixels in units of 4 × 4 pixel blocks. When linear interpolation is performed within the range of pixel shift amounts is to i (s + 1), that is, between the comparison pixel block B [Is] and the comparison pixel block B [Is + 1], the interpolation of Equation 4 is performed. An equation is used. Here, B (is) ij and B (is + 1) ij are the luminance values of the pixel groups constituting the comparison pixel blocks B [is] and B [is + 1], respectively. L is an interpolation resolution (constant), I is a parameter (0 ≦ I ≦ L) indicating the position of the interpolation pixel, and takes an integer value.
(Formula 4)
bij = B (is) ij + I * (B (is + 1) ij-B (is) ij) / L

このようにして、補間によって求めようとする架空の画素(補間画素)の位置を、補間解像度に応じて(つまり、1/L画素単位で)移動させながら、補間解像度L相当の個数分だけ仮想的な比較画素ブロックが生成される。例えば、補間解像度Lが256の場合、補間データとして、255個の比較画素ブロックが得られる。なお、比較画素ブロックB[is-1],B[is],B[is+1]は、互いに水平ライン方向に1画素ずつずらしたものであるから、比較画素ブロックB[is-1]におけるi行j列目の画素と、比較画素ブロックB[is]におけるi行j-1列目の画素と、比較画素ブロックB[i+1]におけるi行j-2列目の画素とは同一の輝度値になる(例えば、B(is-1)13=B(is)12=B(is+1)11)。   In this way, the position of the imaginary pixel (interpolation pixel) to be obtained by interpolation is moved in accordance with the interpolation resolution (that is, in units of 1 / L pixel), and the number of virtual pixels corresponding to the interpolation resolution L is virtual. A comparative pixel block is generated. For example, when the interpolation resolution L is 256, 255 comparison pixel blocks are obtained as the interpolation data. Note that the comparison pixel blocks B [is-1], B [is], and B [is + 1] are shifted from each other by one pixel in the horizontal line direction, and thus in the comparison pixel block B [is-1]. The pixel in i row and j column, the pixel in i row and j-1 column in comparison pixel block B [is], and the pixel in i row and j-2 column in comparison pixel block B [i + 1] are the same. (For example, B (is-1) 13 = B (is) 12 = B (is + 1) 11).

この補間データを用いて、サブピクセルレベルのステレオマッチングが行われる。すなわち、補間データを構成する比較画素ブロック毎に、基準画素ブロックとのステレオマッチングを行い、ずれ量が算出される。このステレオマッチング自体については、ピクセルレベルのステレオマッチングと同様である。算出されたずれ量は、ピクセル値D(=is)の位置を基準としたズレであり、1/L画素単位(すなわち、小数画素単位)となる。このようにして算出されたずれ量を補間解像度Lで除算することにより、サブピクセル成分Sが算出される。サブピクセル成分Sは、ピクセル値D(=is)とサブピクセル値Ds(=isub)とのオフセット値に相当する。したがって、ピクセル値Dにサブピクセル成分Sを加算すれば、1画素以下の分解能を有するサブピクセル値Dsが算出される。   Sub-pixel level stereo matching is performed using this interpolation data. That is, for each comparison pixel block constituting the interpolation data, stereo matching with the reference pixel block is performed, and the shift amount is calculated. This stereo matching itself is the same as the pixel level stereo matching. The calculated shift amount is a shift based on the position of the pixel value D (= is), and is in 1 / L pixel unit (that is, decimal pixel unit). The subpixel component S is calculated by dividing the shift amount calculated in this way by the interpolation resolution L. The subpixel component S corresponds to an offset value between the pixel value D (= is) and the subpixel value Ds (= isub). Therefore, if the subpixel component S is added to the pixel value D, a subpixel value Ds having a resolution of one pixel or less is calculated.

このようにして算出されたサブピクセル値Dsは、後段の図示しない処理ユニットに対して出力される。処理ユニットは、必要に応じてサブピクセル値Dsを用いて、監視対象となる物体(例えば先行車等)の認識や、物体のオプティカルフローの検出等を行う   The sub-pixel value Ds calculated in this way is output to a processing unit (not shown) in the subsequent stage. The processing unit recognizes an object to be monitored (for example, a preceding vehicle) or detects an optical flow of the object by using the sub-pixel value Ds as necessary.

物体領域特定部4は、ステレオマッチング部2によって算出されたピクセル値Dに基づいて、画像平面上において物体が存在する物体領域を動的に特定する。具体的には、物体の特定は、画像平面上において互いに隣接した画素ブロックのグループ化によって行われる。まず、画像平面の上下左右において位置的に隣接したピクセル値Dに関して、その変化量が所定のしきい値以内のもの、換言すれば、同一物体と見なせるほどに値が近接したもの同士が順次グループ化されていく。これにより、大きな物体に関しては大きなグループが形成される(図5(c)のA,B,C)。つぎに、グループ化された画素ブロック群のサイズ(面積)が算出される。そして、グループのサイズが所定のしきい値よりも大きいか否かが判断される。サイズがしきい値よりも大きなグループ(図5(c)のグループA,C)は、そこに物体が写し出されている領域としての信頼性が高いとみなされ、物体領域として抽出される。これに対して、サイズがしきい値以下のグループ(図5(c)のB)は、その信頼性が低いとみなされ、物体領域として抽出されない。このようにして特定された物体領域A,Cに関する情報は、サブピクセル処理部3に通知される。なお、以上のような画素ブロックのグループ化の詳細については、特開平6−266828号公報や特開平10−285582号公報にグループフィルタとして開示されているので、必要ならば参照されたい。   Based on the pixel value D calculated by the stereo matching unit 2, the object region specifying unit 4 dynamically specifies the object region where the object exists on the image plane. Specifically, the object is specified by grouping pixel blocks adjacent to each other on the image plane. First, pixel values D that are positioned adjacently on the top, bottom, left, and right of the image plane are sequentially grouped when the amount of change is within a predetermined threshold, in other words, the values that are close enough to be regarded as the same object. It will become. Thereby, a large group is formed for a large object (A, B, C in FIG. 5C). Next, the size (area) of the grouped pixel block group is calculated. Then, it is determined whether or not the group size is larger than a predetermined threshold value. A group whose size is larger than the threshold value (groups A and C in FIG. 5C) is regarded as highly reliable as a region where an object is projected there, and is extracted as an object region. On the other hand, the group whose size is equal to or smaller than the threshold value (B in FIG. 5C) is considered to have low reliability and is not extracted as an object region. Information regarding the object areas A and C thus identified is notified to the sub-pixel processing unit 3. The details of the grouping of pixel blocks as described above are disclosed as group filters in JP-A-6-266828 and JP-A-10-285582, so refer to them if necessary.

なお、物体領域特定部4は、上述した一対の画像より算出されたピクセル値ベースでの処理に代えて、一枚の画像の輝度ベースで物体領域を特定してもよい。この場合、1フレームの画像の輝度平面上において、物体としての輝度パターンに合致する領域が物体領域として抽出される。   Note that the object area specifying unit 4 may specify the object area based on the luminance of one image instead of the process based on the pixel value calculated from the pair of images described above. In this case, on the luminance plane of the image of one frame, an area that matches the luminance pattern as the object is extracted as the object area.

サブピクセル処理部3は、1フレームの画像全体に対してではなく、図5(d)に示したように、物体領域特定部4によって特定された物体領域A,Cに限定して、サプピクセル値Dsを算出する。サブピクセル値Dsの算出対象となる画素ブロックは、物体領域特定部4によって特定された物体領域A,B内に含まれる画素ブロックである。   As shown in FIG. 5D, the subpixel processing unit 3 limits the subpixel values to the object areas A and C specified by the object area specifying unit 4 instead of the entire image of one frame. Ds is calculated. The pixel blocks for which the subpixel value Ds is calculated are pixel blocks included in the object areas A and B specified by the object area specifying unit 4.

このように、本実施形態によれば、画像平面上において物体が存在する物体領域を動的に特定し、この領域に限定してサブピクセル演算を行う。これにより、サブピクセル演算を画像全体に亘って行う場合と比較して、サブピクセルの演算を行う領域を限定した分だけ演算量の低減を図ることができる。   As described above, according to the present embodiment, an object region where an object exists on the image plane is dynamically specified, and sub-pixel calculation is performed only in this region. Thereby, compared with the case where the subpixel calculation is performed over the entire image, the amount of calculation can be reduced by a limited amount of the area in which the subpixel calculation is performed.

(第2の実施形態)
物体領域の特定と、これに基づく領域限定によるサブピクセル演算とは、1フレーム内で完結する処理であってもよいが、複数の連続したフレームに亘る処理としてもよい。前者の形態、すなわち、あるフレームで特定された物体領域を、これと同じフレームでのサブピクセル演算で用いる場合、物体領域の特定と、これに続くサブピクセル演算とを1フレームの処理期間内で完結させねばならず、時間的制約が厳しくなる。そこで、後者の形態に関する本実施形態、すなわち、あるフレームで特定された物体領域を、これよりも後のフレームでのサブピクセル演算で用いるようにすれば、このような時間的制約を緩和できる。
(Second Embodiment)
The identification of the object area and the subpixel calculation based on the area limitation based on the object area may be a process completed within one frame, or may be a process over a plurality of consecutive frames. In the case of using the former form, that is, the object region specified in a certain frame in the subpixel calculation in the same frame, the identification of the object region and the subsequent subpixel calculation are performed within the processing period of one frame. It must be completed, and time constraints are severe. Therefore, if this embodiment related to the latter mode, that is, an object region specified in a certain frame is used in subpixel calculation in a later frame, such a time restriction can be relaxed.

図6は、本実施形態に係るフレーム処理のタイミングチャートである。同図は、2フレーム分の処理を示しており、期間t1〜t3でn番目のフレーム(以下「nフレームという)、期間t3〜t5で(n+1)番目のフレーム(以下「(n+1)フレーム」という)がそれぞれ処理される。まず、nフレームの開始タイミングt1では、nフレームを対象としたステレオマッチングが開始される。そして、このステレオマッチングが終了したタイミングt2において、nフレームを対象にした物体領域の特定が開始されるとともに、この処理と並行して、nフレームを対象にしたサブピクセル演算も開始される。ただし、サブピクセル演算の開始時点では、nフレームに関する物体領域が特定されていないので、直前の(n−1)番目のフレーム(以下「(n−1)フレーム」という)に関して特定された物体領域が適用される。すなわち、nフレームのサブピクセル演算は、(n−1)フレームで特定された物体領域に限定して行われる。これにより、nフレームに関する物体領域の特定およびサブピクセル演算の双方を並行して行うことが可能になる。   FIG. 6 is a timing chart of frame processing according to the present embodiment. This figure shows processing for two frames. The nth frame (hereinafter referred to as “n frame”) in the period t1 to t3, and the (n + 1) th frame (hereinafter referred to as “(n + 1) frame”) in the period t3 to t5. Are each processed. First, at the start timing t1 of n frames, stereo matching for n frames is started. Then, at the timing t2 when the stereo matching is finished, the identification of the object region for the n frame is started, and in parallel with this process, the subpixel calculation for the n frame is also started. However, since the object region related to the n frame is not specified at the start of the subpixel calculation, the object region specified for the immediately preceding (n−1) th frame (hereinafter referred to as “(n−1) frame”). Applies. In other words, the n-pixel sub-pixel calculation is performed only on the object region specified by the (n−1) frame. As a result, it is possible to carry out both the identification of the object region relating to the n frames and the subpixel calculation in parallel.

つぎに、(n+1)フレームの開始タイミングt3では、(n+1)フレームを対象としたステレオマッチングが開始される。そして、このステレオマッチングが終了したタイミングt4において、(n+1)フレームを対象にした物体領域の特定が開始されるとともに、この処理と並行して、(n+1)フレームを対象にしたサブピクセル演算も開始される。(n+1)フレームのサブピクセル演算は、直前のnフレームで特定された物体領域に限定して行われる。これにより、(n+1)フレームに関する物体領域の特定およびサブピクセル演算の双方を並行して行うことが可能になる。   Next, at the start timing t3 of the (n + 1) frame, stereo matching for the (n + 1) frame is started. Then, at the timing t4 when the stereo matching is completed, the identification of the object region for the (n + 1) frame is started, and in parallel with this process, the subpixel calculation for the (n + 1) frame is also started. Is done. The subpixel calculation of the (n + 1) frame is performed only on the object region specified in the immediately preceding n frame. As a result, it is possible to perform both the object region specification and the sub-pixel calculation for (n + 1) frames in parallel.

本実施形態によれば、上述した第1の実施形態と同様の効果を有するほか、物体領域の特定とサブピクセル演算とを並行して行うので、第1の実施形態と比較して、処理時間の短縮を図ることができる。   According to the present embodiment, in addition to the same effects as those of the first embodiment described above, the object region specification and the sub-pixel calculation are performed in parallel, so that the processing time is compared with the first embodiment. Can be shortened.

(第3の実施形態)
第2の実施形態のように、今回のフレームを対象にしたサブピクセル演算を従前のフレームで特定された物体領域を用いて行う場合、従前の物体領域をそのまま適用してもよいが、従前の経時的な推移に応じて、今回のフレームにおける物体領域の位置を推定してもよい。図7は、本実施形態に係る物体領域の推定の説明図である。同図(a)は、(n−2)フレームの画像を示し、同図(b)は、(n−1)フレームの画像を示す。この場合、同図(c)に示すように、(n−2)フレームおよび(n−1)フレームに関して、物体領域の位置(移動量)やサイズ(伸縮率)等に基づいて、物体領域の位置的な変化示す移動ベクトルMを算出する。そして、移動ベクトルMに基づいて、今回のサイクルnにおける物体領域の位置が特定される。
(Third embodiment)
As in the second embodiment, when the subpixel calculation for the current frame is performed using the object region specified in the previous frame, the previous object region may be applied as it is. The position of the object region in the current frame may be estimated according to the change over time. FIG. 7 is an explanatory diagram of object region estimation according to the present embodiment. FIG. 4A shows an image of (n−2) frames, and FIG. 4B shows an image of (n−1) frames. In this case, as shown in FIG. 5C, the (n-2) frame and the (n-1) frame are determined based on the position (movement amount) and size (stretching rate) of the object region. A movement vector M indicating a positional change is calculated. Based on the movement vector M, the position of the object region in the current cycle n is specified.

本実施形態によれば、第1および第2の実施形態と同様の効果を奏するほか、物体が大きく移動する場合であっても、物体領域を精度よく特定できるという効果がある。   According to this embodiment, in addition to the same effects as those of the first and second embodiments, there is an effect that the object region can be accurately identified even when the object moves greatly.

(第4の実施形態)
例えば、図8に示すように、自車両前方に2台の先行車が存在する場合、1フレームの画像中に2つの物体領域が特定される。このような場合、処理時間の抑制と必要な情報の確保との両立を図るべく、物体領域のそれぞれに優先順位を設定し、これにしたがって、サブピクセル演算を行うことが好ましい。
(Fourth embodiment)
For example, as shown in FIG. 8, when there are two preceding vehicles ahead of the host vehicle, two object regions are specified in one frame image. In such a case, it is preferable to set a priority order for each object region and perform sub-pixel calculation accordingly in order to achieve both reduction in processing time and securing necessary information.

優先順位の決定規則としては様々なものが考えられるが、ここでは2つの基準を例示する。   Various rules for determining the priority order are conceivable. Here, two criteria are exemplified.

(1)自車線内の車両の有無
一般に、高速道路等での高速走行時には、自車線内で走行する先行車を優先して注意すべきである。この観点より、自車線内で検出された物体領域に関して、優先度を高めることが有効である。この場合、白線(車線)に関する情報以外に、先行車との車間距離等も考慮することが好ましい。
(1) Presence / absence of vehicles in own lane In general, when driving at high speed on a highway or the like, priority should be given to a preceding vehicle running in the own lane. From this viewpoint, it is effective to increase the priority for the object area detected in the own lane. In this case, it is preferable to consider the inter-vehicle distance from the preceding vehicle in addition to the information regarding the white line (lane).

(2)車速情報
一般に、路地や商店街等での低速走行時には、人や車の飛び出し注意すべきである。この観点より、近距離での測距精度が重要になる。そこで、近距離の物体領域に関して、優先度を高めることが有効になる。また、狭路での右左折時や車庫入れ時等の極低速走行時には、車両周辺の至近距離の精度が求められるので、至近距離の物体領域関して、優先度を一層高めることが有効になる。
(2) Vehicle speed information In general, when driving at low speeds in alleys, shopping streets, etc., attention should be paid to people and cars popping out. From this point of view, ranging accuracy at a short distance is important. Therefore, it is effective to increase the priority with respect to a short-distance object region. Also, when driving at extremely low speeds such as when turning left or right on a narrow road or entering the garage, it is required to have a close range of accuracy around the vehicle, so it is effective to further increase the priority of the close object region. .

本実施形態によれば、上述した各実施形態の効果に加えて、物体領域に優先順位を設定することにより、処理時間の抑制と必要な情報の確保との両立を図ることができる。   According to the present embodiment, in addition to the effects of the above-described embodiments, by setting the priority order to the object region, it is possible to achieve both suppression of processing time and securing of necessary information.

第1の実施形態に係る画像処理装置の構成図1 is a configuration diagram of an image processing apparatus according to a first embodiment. 基準画像に設定される画素ブロックPBijの説明図Explanatory drawing of pixel block PBij set to the reference image サブピクセル算出手法の一例を示す説明図Explanatory drawing which shows an example of a subpixel calculation method 画像平面におけるシティブロック距離の分布説明図Illustration of distribution of city block distance on image plane 画像処理における工程説明図Process explanatory diagram in image processing 第2の実施形態に係るフレーム処理のタイミングチャートTiming chart of frame processing according to second embodiment 第3の実施形態に係る物体領域の推定の説明図Explanatory drawing of estimation of the object area | region which concerns on 3rd Embodiment 複数の物体が存在する状況を示す図Diagram showing the situation where there are multiple objects

符号の説明Explanation of symbols

1 画像処理装置
2 ステレオマッチング部
3 サブピクセル処理部
4 物体領域特定部
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Stereo matching part 3 Sub pixel processing part 4 Object area | region identification part

Claims (5)

一対の画像を用いたステレオマッチングを画像平面上に設定された部分領域毎に行う画像処理装置において、
一方の画像におけるそれぞれの前記部分領域を相関元とし、当該部分領域の相関先を他方の画像において探索し、前記相関元に対する前記相関先のずれ量を画素の整数倍で表されるピクセル値として算出するステレオマッチング部と、
画像平面上において物体が存在する物体領域を特定する物体領域特定部と、
前記物体領域特定部によって特定された前記物体領域と位置的に対応した前記部分領域に限定して、前記ピクセル値よりも分解能が高いサブピクセル値を算出するサブピクセル処理部と
を有することを特徴とする画像処理装置。
In an image processing apparatus that performs stereo matching for each partial region set on an image plane using a pair of images,
Each partial area in one image is used as a correlation source, a correlation destination of the partial area is searched in the other image, and a deviation amount of the correlation destination with respect to the correlation source is represented as a pixel value represented by an integral multiple of a pixel. A stereo matching unit to calculate,
An object region specifying unit for specifying an object region where an object exists on the image plane;
A sub-pixel processing unit that calculates a sub-pixel value having a resolution higher than that of the pixel value, limited to the partial region that corresponds in position to the object region specified by the object region specifying unit. An image processing apparatus.
前記物体領域特定部は、前記ステレオマッチング部によって算出された前記ピクセル値の集合によって規定される二次元平面上において、同一物体と見なせるほどに値が近接し、かつ、位置的に隣接した前記ピクセル値同士をグループ化することによって、前記物体領域を特定することを特徴とする請求項1に記載された画像処理装置。   The object region specifying unit is a pixel whose values are close enough to be regarded as the same object on a two-dimensional plane defined by the set of pixel values calculated by the stereo matching unit, and are adjacent in position. The image processing apparatus according to claim 1, wherein the object region is specified by grouping values. 前記物体領域特定部は、画像の輝度平面上において、物体としての輝度パターンに合致する領域を前記物体領域として特定することを特徴とする請求項1に記載された画像処理装置。   The image processing apparatus according to claim 1, wherein the object area specifying unit specifies an area that matches a luminance pattern as an object on the luminance plane of the image as the object area. 前記サブピクセル処理部は、前記物体領域特定部によって特定された従前のフレームにおける前記物体領域に基づいて、今回のフレームにおいて前記サブピクセル値を算出する領域を設定することを特徴とする請求項1から3のいずれかに記載された画像処理装置。   2. The subpixel processing unit sets a region for calculating the subpixel value in a current frame based on the object region in a previous frame specified by the object region specifying unit. 4. The image processing device according to any one of items 1 to 3. 前記サブピクセル処理部は、前記物体領域が複数検出された場合、予め設定された優先順位規則に基づいて、記物体領域のそれぞれに優先順位を設定し、当該設定された優先順位にしたがって前記サブピクセル値を算出することを特徴とする請求項1から4のいずれかに記載された画像処理装置。   When a plurality of the object areas are detected, the sub-pixel processing unit sets a priority order for each of the recording object areas based on a preset priority order rule, and the sub-pixel processing unit sets the priority order according to the set priority order. The image processing apparatus according to claim 1, wherein a pixel value is calculated.
JP2007305617A 2007-11-27 2007-11-27 Image processor Withdrawn JP2009129318A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007305617A JP2009129318A (en) 2007-11-27 2007-11-27 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007305617A JP2009129318A (en) 2007-11-27 2007-11-27 Image processor

Publications (1)

Publication Number Publication Date
JP2009129318A true JP2009129318A (en) 2009-06-11

Family

ID=40820146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007305617A Withdrawn JP2009129318A (en) 2007-11-27 2007-11-27 Image processor

Country Status (1)

Country Link
JP (1) JP2009129318A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011041990A (en) * 2009-08-19 2011-03-03 Denso Wave Inc Robot control apparatus and method of teaching robot
JP2015056058A (en) * 2013-09-12 2015-03-23 株式会社デンソー Driving support device
CN110223326A (en) * 2019-06-18 2019-09-10 无锡英斯特微电子有限公司 Subpixel regions determine method and its system in photoelectric navigation system
US10713806B2 (en) 2017-09-21 2020-07-14 Kabushiki Kaisha Toshiba Image processing apparatus and image processing system
CN111868784A (en) * 2018-03-22 2020-10-30 日立汽车系统株式会社 Vehicle-mounted stereo camera

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011041990A (en) * 2009-08-19 2011-03-03 Denso Wave Inc Robot control apparatus and method of teaching robot
JP2015056058A (en) * 2013-09-12 2015-03-23 株式会社デンソー Driving support device
US10713806B2 (en) 2017-09-21 2020-07-14 Kabushiki Kaisha Toshiba Image processing apparatus and image processing system
CN111868784A (en) * 2018-03-22 2020-10-30 日立汽车系统株式会社 Vehicle-mounted stereo camera
CN111868784B (en) * 2018-03-22 2023-09-01 日立安斯泰莫株式会社 Vehicle-mounted stereo camera
CN110223326A (en) * 2019-06-18 2019-09-10 无锡英斯特微电子有限公司 Subpixel regions determine method and its system in photoelectric navigation system

Similar Documents

Publication Publication Date Title
JP4832227B2 (en) Object detection apparatus and object detection method
JP5127182B2 (en) Object detection device
JP7004314B2 (en) Semi-parametric optical flow estimation
JP5267596B2 (en) Moving body detection device
JP6574611B2 (en) Sensor system for obtaining distance information based on stereoscopic images
JP5164351B2 (en) Object detection apparatus and object detection method
KR101551026B1 (en) Method of tracking vehicle
JP2011191905A (en) Stereo camera device
JP4155780B2 (en) Image processing method
CN111209770A (en) Lane line identification method and device
WO2008020598A1 (en) Subject number detecting device and subject number detecting method
JP2009129318A (en) Image processor
JP2000048211A (en) Movile object tracking device
JP2023184572A (en) Electronic apparatus, movable body, imaging apparatus, and control method for electronic apparatus, program, and storage medium
JP6569416B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program
JP2018146495A (en) Object detection apparatus, object detection method, object detection program, imaging apparatus, and equipment control system
JP4053282B2 (en) Image processing apparatus and image processing method
CN114612999A (en) Target behavior classification method, storage medium and terminal
JP2004144644A (en) Topography recognition device, topography recognition means, and moving quantity detection method of moving body
JP4817901B2 (en) Correlation evaluation system and correlation evaluation method
JP4555635B2 (en) Image processing apparatus and image processing method
JP5996411B2 (en) Image processing device
JP2004219142A (en) Device and method for processing image
JP4762463B2 (en) Image processing apparatus and image processing method
JP6836350B2 (en) Movement speed arithmetic unit

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110201