JP3992033B2 - Image area classification device - Google Patents

Image area classification device Download PDF

Info

Publication number
JP3992033B2
JP3992033B2 JP2004259894A JP2004259894A JP3992033B2 JP 3992033 B2 JP3992033 B2 JP 3992033B2 JP 2004259894 A JP2004259894 A JP 2004259894A JP 2004259894 A JP2004259894 A JP 2004259894A JP 3992033 B2 JP3992033 B2 JP 3992033B2
Authority
JP
Japan
Prior art keywords
area
image
ratio
coordinate
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004259894A
Other languages
Japanese (ja)
Other versions
JP2006079188A (en
Inventor
清 芥川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004259894A priority Critical patent/JP3992033B2/en
Publication of JP2006079188A publication Critical patent/JP2006079188A/en
Application granted granted Critical
Publication of JP3992033B2 publication Critical patent/JP3992033B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像手段により撮像した画像内において、同一の物体が写っている領域ごとに分類する画像領域分類装置に関する。   The present invention relates to an image region classification device that classifies each region in which an identical object is captured in an image captured by an imaging unit.

車両に搭載したカメラにより撮像された画像に基づいて、移動体を検出する装置が知られている(特許文献1参照)。この従来の検出装置では、撮像画像中の水平エッジ成分および垂直エッジ成分を抽出し、抽出したエッジ成分に基づいて、車両の両側端部を表す垂直エッジ成分を検出している。   An apparatus that detects a moving body based on an image captured by a camera mounted on a vehicle is known (see Patent Document 1). In this conventional detection device, a horizontal edge component and a vertical edge component in a captured image are extracted, and based on the extracted edge component, a vertical edge component representing both side ends of the vehicle is detected.

特開平2000−113201号公報Japanese Unexamined Patent Publication No. 2000-113201

しかしながら、従来の検出装置は、画像中の垂直エッジ成分の中から車両を表す条件(車幅および車高に係わる基準条件)に基づいて車両の両側端部を表す垂直エッジ成分を検出しているので、車両の種類や車両との位置関係が変わると車両を表す条件も変わってしまうために、撮像画像のうち、車両が写っている画像領域を特定することができないという問題があった。   However, the conventional detection device detects a vertical edge component representing both ends of the vehicle based on conditions representing the vehicle (reference conditions relating to the vehicle width and height) from among the vertical edge components in the image. Therefore, when the type of vehicle and the positional relationship with the vehicle change, the conditions representing the vehicle also change, and thus there is a problem in that an image region in which the vehicle is captured cannot be specified in the captured image.

本発明による画像領域分類装置は、複数の領域に区分された撮像画像において、移動体を追跡可能な追跡可能領域を検出し、異なる2つの追跡可能領域を対象として、実空間上の高さ方向に対応する画像上の座標値の比の時間変化量に基づいて、座標値の比を算出した2つの追跡可能領域が、同一物が撮像されている領域であるか否かを判定することを特徴とする。   An image region classification apparatus according to the present invention detects a trackable region in which a moving body can be tracked in a captured image divided into a plurality of regions, and targets two different trackable regions in the height direction in real space. It is determined whether or not the two traceable areas where the ratio of the coordinate values is calculated are areas where the same object is imaged based on the temporal change amount of the ratio of the coordinate values on the image corresponding to Features.

本発明による画像領域分類装置によれば、異なる2つの追跡可能領域の座標値の比の時間変化量に基づいて、同一物が撮像されている画像領域を判定することができるので、撮像されている物体の構造などの特徴に関わらず、同一の物体が写っている画像領域を特定することができる。   According to the image region classification device of the present invention, the image region where the same object is imaged can be determined based on the temporal change amount of the ratio of the coordinate values of two different trackable regions. It is possible to specify an image region in which the same object is shown regardless of characteristics such as the structure of the existing object.

図1は、一実施の形態における画像領域分類装置の構成を示す図である。一実施の形態における画像領域分類装置は、撮像部10と、画像記憶部20と、追跡可能領域検出部30と、追跡領域情報記憶部40と、局所領域追跡部50と、高さ比算出部60と、領域分類部70とを備える。   FIG. 1 is a diagram illustrating a configuration of an image region classification device according to an embodiment. The image region classification device according to the embodiment includes an imaging unit 10, an image storage unit 20, a trackable region detection unit 30, a tracking region information storage unit 40, a local region tracking unit 50, and a height ratio calculation unit. 60 and an area classification unit 70.

撮像部10は、例えば、ビデオカメラであり、車両前方を一定時間間隔にて撮像する。カメラの左右方向の光軸は、車両の直進方向と一致させ、上下方向の光軸は、水平となるようにカメラを設置する。撮像部10により撮像された画像は、画像記憶部20に記憶される。   The imaging unit 10 is, for example, a video camera, and images the front of the vehicle at regular time intervals. The camera is installed so that the optical axis in the left-right direction of the camera matches the straight direction of the vehicle, and the optical axis in the vertical direction is horizontal. An image captured by the imaging unit 10 is stored in the image storage unit 20.

追跡可能領域検出部30は、撮像部10により撮像され、画像記憶部20に記憶されている画像に基づいて、移動体の追跡が可能な領域を検出する。画像上において、道路上の白線のように一様な濃淡変化を持つ領域では、その濃淡の方向と垂直な方向(白線が伸びている方向)に対象(移動体)が移動しても、対象の移動量を検出することはできない。従って、対象を追跡可能な領域は、複数の方向に濃淡変化を有する領域となる。このような領域の検出方法について説明する。   The traceable area detection unit 30 detects an area where the mobile body can be tracked based on the image captured by the imaging unit 10 and stored in the image storage unit 20. In a region with a uniform shading change, such as a white line on a road, even if the target (moving body) moves in a direction perpendicular to the shading direction (the direction in which the white line extends) on the image, The amount of movement cannot be detected. Therefore, the region where the target can be tracked is a region having a change in shading in a plurality of directions. A method for detecting such a region will be described.

追跡可能領域検出部30は、画像記憶部20に記憶されている画像を読み出し、縦方向および横方向のエッジを検出するためのフィルタをかけ、エッジの縦、横の成分の大きさ(dI/dx,dI/dy:Iは画素値)をそれぞれ求める。次に、検出されたエッジに含まれるノイズ成分を除去するために、求めた縦、横のエッジ成分の大きさの2乗和がしきい値th1以上の画素を抽出し、抽出した画素について、エッジの縦方向成分と横方向成分の大きさの比を求めることにより、濃度勾配方向を求める。   The traceable area detection unit 30 reads an image stored in the image storage unit 20, applies a filter for detecting vertical and horizontal edges, and determines the size of the vertical and horizontal components (dI / dx, dI / dy: I is a pixel value). Next, in order to remove the noise component included in the detected edge, a pixel whose sum of squares of the obtained vertical and horizontal edge components is greater than or equal to the threshold th1 is extracted. The density gradient direction is obtained by obtaining the ratio of the size of the vertical component and the horizontal component of the edge.

次に、ノイズが除去された後のエッジが示されている画像を縦方向および横方向に等間隔に格子状に分割する。図2は、上述した方法により、撮像画像からエッジを検出した画像に対して、縦方向および横方向に格子状に分割した領域を示す図である。この分割された各領域ごとに、エッジの縦方向成分と横方向成分の大きさの比の分散値を求める。この場合、分割された矩形領域内のエッジ勾配方向が一方向しかなければ、分散値は小さくなり、複数方向のエッジ勾配を持つ場合には、分散値は大きくなる。従って、求めた分散値が所定のしきい値th2より小さければ、エッジ勾配方向は一方向である可能性が高く、濃度勾配と垂直な方向に移動する物体を検出することは難しいと判断する。一方、求めた分散値が所定のしきい値th2以上であれば、複数方向のエッジ勾配を有しており、移動体がいずれの方向に移動しても追跡可能と判断できる。追跡可能領域検出部30は、求めた分散値が所定のしきい値th2以上の領域を追跡可能領域と判断する。図2の撮像画像に基づいて、追跡可能領域と判断された矩形領域を図3に示す。   Next, the image in which the edge after the noise is removed is divided into a lattice shape at equal intervals in the vertical direction and the horizontal direction. FIG. 2 is a diagram illustrating regions obtained by dividing the image in which the edge is detected from the captured image by the above-described method into a lattice shape in the vertical direction and the horizontal direction. For each of the divided areas, a variance value of the ratio of the size of the vertical component and the horizontal component of the edge is obtained. In this case, if the edge gradient direction in the divided rectangular area is only one direction, the variance value is small, and if it has edge gradients in a plurality of directions, the variance value is large. Therefore, if the obtained dispersion value is smaller than the predetermined threshold th2, it is highly likely that the edge gradient direction is one direction, and it is difficult to detect an object moving in a direction perpendicular to the density gradient. On the other hand, if the obtained dispersion value is equal to or greater than the predetermined threshold value th2, it has an edge gradient in a plurality of directions, and it can be determined that tracking is possible regardless of which direction the moving body moves. The traceable area detection unit 30 determines that an area having a calculated variance value equal to or greater than a predetermined threshold th2 is a traceable area. A rectangular area determined as a traceable area based on the captured image of FIG. 2 is shown in FIG.

追跡可能領域検出部30は、撮像部10によって時間Δtの間隔にて撮像される画像に基づいて、新たな追跡可能領域を検出する。追跡可能領域検出部30により、追跡可能領域と判断された領域は、その領域の位置、および、原画像の画像パターンを、各矩形領域ごとに割り振られている識別番号に対応させて追跡領域情報記憶部40に記憶される。以下では、追跡領域情報記憶部40に記憶された画像パターンを基準パターンと呼ぶ。   The traceable area detection unit 30 detects a new traceable area based on images captured by the imaging unit 10 at intervals of time Δt. The area determined as the traceable area by the traceable area detection unit 30 is the tracking area information in which the position of the area and the image pattern of the original image are associated with the identification number assigned to each rectangular area. Stored in the storage unit 40. Hereinafter, the image pattern stored in the tracking area information storage unit 40 is referred to as a reference pattern.

局所領域追跡部50は、撮像部10により撮像された新たな画像が画像記憶部20に入力されると、異なるタイミングにて撮像された2つの画像に基づいて、追跡可能領域検出部30により検出された追跡可能領域の移動先および移動量を検出する。移動先および移動量の検出方法について説明する。   When a new image captured by the imaging unit 10 is input to the image storage unit 20, the local region tracking unit 50 is detected by the traceable region detection unit 30 based on two images captured at different timings. The destination and amount of movement of the trackable area thus detected are detected. A method of detecting the movement destination and the movement amount will be described.

追跡可能領域の周囲に、移動先を検出するための探索領域を設け、その探索領域内で基準パターン位置を1画素ずつずらしながら、新規画像との相関値を演算する。この場合、演算した相関値がしきい値th3以上であり、かつ、最大となる領域が追跡可能領域の移動先として検出される。基準パターン位置は、1画素単位で移動させる(ずらす)ので、移動先の位置も1画素単位でしか得られないが、周囲の領域に対する複数の相関値を用いて補間演算を行うことにより、相関値が最大となる位置(移動先)を1画素以下の精度で求めることができる。求めた移動先に基づいて算出される追跡可能領域の移動量は、水平方向x、垂直方向yの各方向成分として表される。   A search area for detecting the movement destination is provided around the traceable area, and the correlation value with the new image is calculated while shifting the reference pattern position by one pixel within the search area. In this case, the calculated correlation value is equal to or greater than the threshold th3 and the maximum area is detected as the destination of the traceable area. Since the reference pattern position is moved (shifted) in units of one pixel, the position of the movement destination can be obtained only in units of one pixel. However, by performing an interpolation operation using a plurality of correlation values with respect to the surrounding area, correlation is performed. The position (movement destination) where the value is maximum can be obtained with an accuracy of 1 pixel or less. The movement amount of the traceable area calculated based on the obtained movement destination is expressed as each direction component in the horizontal direction x and the vertical direction y.

局所領域追跡部50により求められた移動先の位置および移動量は、識別番号ごとに追跡領域情報記憶部40に記憶される。従って、追跡領域情報記憶部40には、追跡可能領域ごとに、識別番号、現在の座標、基準パターンが記憶されるとともに、後述する分類番号も記憶される。ただし、新規画像との相関値がしきい値th3未満の場合には、画像中の同一の部位が移動したと判断することはできないので、対象となっている追跡可能領域に関する情報を初期化する。また、追跡可能領域の始点座標が水平方向x、垂直方向yの一定範囲から外れた場合にも、その追跡可能領域に関する情報を初期化する。これは、画像上における静止物や自車両の移動方向と異なる方向に移動する移動体は、自車両の移動に伴って消失点から周辺方向に移動していくので、時間の経過とともに撮像範囲の外に出るからである。初期化された追跡可能領域に関しては、移動体が写っている領域、すなわち、移動体領域であるか否かの判断は行われない。   The position and amount of movement determined by the local area tracking unit 50 are stored in the tracking area information storage unit 40 for each identification number. Accordingly, the tracking area information storage unit 40 stores an identification number, current coordinates, and reference pattern for each trackable area, and also stores a classification number described later. However, if the correlation value with the new image is less than the threshold th3, it cannot be determined that the same part in the image has moved, so information on the target traceable area is initialized. . Also, when the start point coordinates of the traceable area deviate from a certain range in the horizontal direction x and the vertical direction y, the information regarding the traceable area is initialized. This is because a moving object moving in a direction different from the moving direction of the stationary object or the own vehicle on the image moves from the vanishing point to the peripheral direction with the movement of the own vehicle. Because it goes out. Regarding the initialized traceable area, it is not determined whether the area is a moving body area, that is, a moving body area.

高さ比算出部60は、追跡領域情報記憶部40に記憶されている追跡可能領域の画像上のy座標値(実空間上の高さ方向に対応する座標値)に基づいて、異なる追跡可能領域のy座標値の比を算出する。図4は、追跡対象物および撮像部10を横から見たモデル図である。路面から撮像部10の光軸までの高さをHc、路面から対象物の追跡部位までの高さをH、撮像部10のレンズから対象物までの距離をL、レンズの焦点距離をfとすると、次式(1)が成立する。式(1)中のyは、追跡部位の画像上のy座標値である。
Hc−H=y×L/f …(1)
The height ratio calculation unit 60 can perform different tracking based on the y coordinate value on the image of the trackable area stored in the tracking area information storage unit 40 (coordinate value corresponding to the height direction in the real space). The ratio of the y coordinate values of the area is calculated. FIG. 4 is a model diagram of the tracking target and the imaging unit 10 viewed from the side. The height from the road surface to the optical axis of the imaging unit 10 is Hc, the height from the road surface to the tracking portion of the object is H, the distance from the lens of the imaging unit 10 to the object is L, and the focal length of the lens is f. Then, following Formula (1) is materialized. Y in the formula (1) is a y-coordinate value on the image of the tracking region.
Hc−H = y × L / f (1)

ここで、第1の追跡対象物までの距離をL1、高さをH1、撮像画像上におけるy座標値をy1とし、第2の追跡対象物までの距離をL2、高さをH2、撮像画像上におけるy座標値をy2とすると、式(1)より、次式(2)の関係が成立する。
{(Hc−H1)×L2}/{(Hc−H2)×L1}=y1/y2 …(2)
また、L1=L2とすると、次式(3)が成立する。
(Hc−H1)/(Hc−H2)=y1/y2 …(3)
Here, the distance to the first tracking object is L1, the height is H1, the y coordinate value on the captured image is y1, the distance to the second tracking object is L2, the height is H2, and the captured image If the y coordinate value above is y2, the relationship of the following equation (2) is established from the equation (1).
{(Hc−H1) × L2} / {(Hc−H2) × L1} = y1 / y2 (2)
Further, when L1 = L2, the following expression (3) is established.
(Hc−H1) / (Hc−H2) = y1 / y2 (3)

図5は、撮像部10のレンズから同一距離にある2つの追跡対象部位のy座標の比の時間的変化と、異なる距離にある2つの追跡対象部位のy座標の比の時間的変化をそれぞれ示す図である。式(3)から明らかなように、撮像部10が移動すると、距離L1およびL2が変化するため、異なる距離に存在する物体の撮像画像上のy座標比は変化する。しかし、距離L1およびL2が等しい場合には、式(3)から明らかなように、撮像部10が移動しても、撮像画像上のy座標比は変化しない。撮像部10によって同一物体を撮像した場合、撮像される各部位までの距離は、所定の範囲内にあると考えられるため、y座標の比の変化量も所定の範囲内にある。従って、2つの追跡可能領域のy座標の比を求め、その時間変化量が所定範囲内にある場合には、その2つの領域は、同一物が撮像されている領域(以下では、同一物領域と呼ぶ)であると判断する。   FIG. 5 shows a temporal change in the ratio of y coordinates of two tracking target parts at the same distance from the lens of the imaging unit 10 and a temporal change in the ratio of the y coordinates of two tracking target parts at different distances. FIG. As is clear from Expression (3), when the imaging unit 10 moves, the distances L1 and L2 change, so the y-coordinate ratio on the captured image of an object existing at a different distance changes. However, when the distances L1 and L2 are equal, the y-coordinate ratio on the captured image does not change even when the imaging unit 10 moves, as is apparent from Equation (3). When the same object is imaged by the imaging unit 10, the distance to each part to be imaged is considered to be within a predetermined range, and thus the amount of change in the y-coordinate ratio is also within the predetermined range. Accordingly, the ratio of the y coordinates of two trackable areas is obtained, and when the amount of time change is within a predetermined range, the two areas are areas where the same object is imaged (hereinafter, the same object area). It is determined that

高さ比算出部60は、追跡領域情報記憶部80に記憶されている複数の追跡可能領域のうち、2つの追跡可能領域の画像中のy座標の比を算出する。例えば、追跡可能領域がn個ある場合には、2つの追跡可能領域を抽出する組み合わせがn・(n−1)/2組あるので、n・(n−1)/2個のy座標の比を算出し、図示しないメモリに記憶する。図示しないメモリには、所定時間ごとに算出されるy座標の比を順次記憶し、過去のm回分の算出結果を記憶しておく。   The height ratio calculation unit 60 calculates the ratio of y coordinates in the images of two trackable regions among the plurality of trackable regions stored in the tracking region information storage unit 80. For example, when there are n traceable areas, there are n · (n−1) / 2 combinations for extracting two traceable areas, and therefore n · (n−1) / 2 y-coordinates The ratio is calculated and stored in a memory (not shown). In a memory (not shown), y-coordinate ratios calculated every predetermined time are sequentially stored, and past m calculation results are stored.

領域分類部70は、まず、高さ比算出部60で算出されたy座標の比の時間的変化量を求める。ここでは、高さ比算出部60の図示しないメモリに記憶されているm個のy座標比の算出値に基づいて、近似直線を求め、求めた近似直線の傾きを算出することにより、y座標の比の時間的変化を求める。次に、求めたy座標の比の時間的変化量の絶対値と、所定のしきい値とを比較し、y座標の比の時間的変化量の絶対値が所定のしきい値以下である場合には、演算を行った2つの追跡可能領域が同一物領域であると判断する。領域分類部70は、さらに、同一物領域であるか否かの判断結果に基づいて、後述する方法により、各領域を分類する。   The area classification unit 70 first obtains the temporal change amount of the y-coordinate ratio calculated by the height ratio calculation unit 60. Here, an y-coordinate is obtained by calculating an approximate line based on the calculated values of m y-coordinate ratios stored in a memory (not shown) of the height ratio calculation unit 60 and calculating the inclination of the obtained approximate line. Find the time change of the ratio. Next, the absolute value of the temporal change amount of the obtained y coordinate ratio is compared with a predetermined threshold value, and the absolute value of the temporal change amount of the y coordinate ratio is equal to or smaller than the predetermined threshold value. In this case, it is determined that the two trackable areas that have been calculated are the same object area. The area classification unit 70 further classifies each area by a method to be described later based on the determination result of whether or not they are the same object area.

上述したように、追跡領域情報記憶部40に記憶されている追跡可能領域には、識別番号が順に割り振られている。領域分類部70は、識別番号の低い追跡可能領域から順に同一物領域の判断を行い、同一物領域であると判断した全ての領域に対して、領域分類番号1を付与する。続いて、次に識別番号の低い追跡可能領域に対して、同一物領域であるか否かの判定を行っていき、同一物領域と判断された領域に領域分類番号2を付与する。同様の手順により、領域分類番号が付与されていない全ての領域に対して、同一物領域であるか否かの判定を行い、同一物領域と判断された領域に対して、領域分類番号を付与していく。   As described above, identification numbers are sequentially assigned to the traceable areas stored in the tracking area information storage unit 40. The region classification unit 70 determines the same object region in order from the traceable region with the lowest identification number, and assigns region classification number 1 to all the regions determined to be the same object region. Subsequently, it is determined whether or not the traceable area having the next lowest identification number is the same object area, and the area classification number 2 is assigned to the area determined to be the same object area. Using the same procedure, it is determined whether or not all areas not assigned with area classification numbers are the same object area, and area classification numbers are assigned to areas determined to be the same object area. I will do it.

図6は、図3に示す追跡可能領域に基づいて、同一領域ごとに分類した結果を示す図である。図6では、分類結果を視覚的に明確にするために、同一の模様を用いて、同一物領域と判断された領域を表現している。   FIG. 6 is a diagram showing a result of classification for each same area based on the traceable area shown in FIG. In FIG. 6, in order to make the classification result visually clear, the same pattern is used to represent the areas determined to be the same object area.

なお、一度、同一物領域の判定処理を行うと、次に入力される撮像画像において、同一物領域と判定された領域に対して同一物領域であるか否かの判定処理を行う必要はない。従って、領域分類部70は、追跡可能領域検出部30によって新たに検出された追跡可能領域の周囲の領域(追跡可能領域から所定範囲内の領域)に対して、同一物領域の判定処理を行う。これにより、同一物領域の判定処理が行われた後に行われる同一物領域の判定処理の演算量を大幅に低減することができる。   Once the same object region determination process is performed, it is not necessary to perform a determination process for determining whether or not the same object region is the same object region in the next input captured image. . Accordingly, the region classification unit 70 performs the same object region determination process on the region around the trackable region newly detected by the trackable region detection unit 30 (the region within a predetermined range from the trackable region). . Thereby, the amount of calculation of the determination process of the same object area | region performed after the determination process of the same object area | region can be reduced significantly.

図7は、一実施の形態における画像領域分類装置によって行われる処理手順を示すフローチャートである。ステップS10から始まる処理は、図示しないイグニッションスイッチがオンされることにより始まる。ステップS10では、追跡領域情報記憶部40に記憶されている追跡領域情報を初期化して、ステップS20に進む。ステップS20では、撮像部10により撮像された画像を画像記憶部20に記憶して、ステップS30に進む。   FIG. 7 is a flowchart illustrating a processing procedure performed by the image region classification device according to the embodiment. The process starting from step S10 starts when an ignition switch (not shown) is turned on. In step S10, the tracking area information stored in the tracking area information storage unit 40 is initialized, and the process proceeds to step S20. In step S20, the image captured by the imaging unit 10 is stored in the image storage unit 20, and the process proceeds to step S30.

ステップS30では、追跡可能領域検出部30によって、画像記憶部20に記憶されている画像に基づいて、追跡可能領域を検出する。追跡可能領域の検出方法は上述したので、詳しい説明は省略する。追跡可能領域を検出するとステップS40に進む。ステップS40では、局所領域追跡部50によって、ステップS20で撮像された画像、および、撮像間隔Δtにて新たに撮像された画像に基づいて、追跡可能領域の移動先の位置を検出する。移動先の検出方法は上述したので、詳しい説明は省略する。追跡可能領域の移動先を検出すると、ステップS50に進む。   In step S <b> 30, the traceable area detection unit 30 detects the traceable area based on the image stored in the image storage unit 20. Since the method for detecting the traceable area has been described above, a detailed description thereof will be omitted. When the traceable area is detected, the process proceeds to step S40. In step S40, the local area tracking unit 50 detects the position of the destination of the trackable area based on the image captured in step S20 and the image newly captured at the imaging interval Δt. Since the destination detection method has been described above, a detailed description thereof will be omitted. When the destination of the traceable area is detected, the process proceeds to step S50.

ステップS50では、異なる2つの追跡可能領域のy座標の比を算出する。y座標の比の算出方法は上述したので、ここでは、詳しい説明は省略する。ステップS50に続くステップS60では、領域分類部70によって、ステップS50で算出したy座標の比の時間的変化に基づいて、追跡可能領域の分類を行う。追跡可能領域の分類方法は上述したので、ここでは詳しい説明は省略する。以後、撮像間隔Δtの周期で、ステップS20以降の処理が繰り返し行われる。   In step S50, the ratio of y coordinates of two different trackable areas is calculated. Since the method for calculating the ratio of the y-coordinate has been described above, detailed description thereof is omitted here. In step S60 following step S50, the region classification unit 70 classifies the traceable region based on the temporal change in the y-coordinate ratio calculated in step S50. Since the traceable area classification method has been described above, a detailed description thereof will be omitted here. Thereafter, the processing after step S20 is repeatedly performed at a cycle of the imaging interval Δt.

一実施の形態における画像領域分類装置による領域分類方法についてまとめておく。追跡可能領域検出部30は、撮像部10により撮像された画像を複数の領域に区分し、各領域ごとに、移動体を追跡可能な追跡可能領域を検出する。高さ比算出部60は、追跡可能領域検出部30により検出された異なる2つの追跡可能領域の撮像画像上のy座標の比を算出する。領域分類部70は、高さ比算出部60によって算出されたy座標の比の時間変化量に基づいて、y座標の比を算出した2つの追跡可能領域が同一物領域であるか否かを判定する。これにより、撮像画像上において、車両等の移動体を検出する場合、複数の領域に区分された撮像画像の全ての領域に対して移動体検出処理を行う必要がなくなり、同一物領域と判断された領域に対しては、それらの領域をひとまとめとして移動体検出処理を行えばよいので、演算量を大幅に低減することができる。   The region classification method by the image region classification device in one embodiment will be summarized. The traceable area detection unit 30 divides the image captured by the imaging unit 10 into a plurality of areas, and detects a traceable area where the mobile body can be tracked for each area. The height ratio calculation unit 60 calculates a ratio of y coordinates on the captured image of two different trackable areas detected by the trackable area detection unit 30. The region classification unit 70 determines whether the two trackable regions whose y-coordinate ratios are calculated based on the time change amount of the y-coordinate ratios calculated by the height ratio calculating unit 60 are the same object region. judge. As a result, when a moving body such as a vehicle is detected on the captured image, it is not necessary to perform the moving body detection process on all the regions of the captured image divided into a plurality of regions, and it is determined as the same object region. Since it is only necessary to perform the moving object detection process for these areas as a group, the amount of calculation can be greatly reduced.

車両のエッジの特徴に基づいて、撮像画像上における車両を検出する従来の方法では、検出対象となる車両の一部が他車両や建造物によって隠れて、エッジの一部が検出できない場合に、車両を検出することができない可能性がある。この場合には、撮像画像を同一物領域ごとに分類することができないが、一実施の形態における画像領域分類装置では、車両の一部が隠れている場合でも、同一物が写っている領域ごとに撮像画像を分類することができる。   In the conventional method of detecting the vehicle on the captured image based on the feature of the edge of the vehicle, when a part of the vehicle to be detected is hidden by another vehicle or a building and a part of the edge cannot be detected, The vehicle may not be detected. In this case, the captured image cannot be classified for each same object area. However, in the image area classification apparatus according to the embodiment, even if a part of the vehicle is hidden, for each area in which the same object is reflected. It is possible to classify captured images.

また、一実施の形態における画像領域分類装置によれば、一度、同一物領域の判定処理が行われた後は、追跡可能領域検出部30によって新たに検出された追跡可能領域の周囲の領域(追跡可能領域から所定範囲内の領域)に対して、同一物領域の判定処理を行うので、同一物領域の判定処理の演算量を大幅に低減することができる。   Further, according to the image region classification device in one embodiment, after the same object region determination process is performed once, the region around the trackable region newly detected by the trackable region detection unit 30 ( Since the same object region determination process is performed on a region within a predetermined range from the traceable region), the calculation amount of the same object region determination process can be greatly reduced.

本発明は、上述した一実施の形態に限定されることはない。例えば、一実施の形態における画像領域分類装置で同一物領域ごとに分類された画像に基づいて、車両等の移動体を検出する移動体検出部をさらに備えるようにしてもよい。   The present invention is not limited to the embodiment described above. For example, you may make it further provide the moving body detection part which detects moving bodies, such as a vehicle, based on the image classified for every same object area | region with the image area classification | category apparatus in one Embodiment.

特許請求の範囲の構成要素と一実施の形態の構成要素との対応関係は次の通りである。すなわち、撮像部10が撮像手段を、追跡可能領域検出部30が領域区分手段および追跡可能領域検出手段を、高さ比算出部60が座標比算出手段を、領域分類部70が座標比時間変化量算出手段および同一物領域判定手段をそれぞれ構成する。なお、本発明の特徴的な機能を損なわない限り、各構成要素は上記構成に限定されるものではない。   The correspondence between the constituent elements of the claims and the constituent elements of the embodiment is as follows. That is, the imaging unit 10 is an imaging unit, the trackable region detection unit 30 is a region classification unit and a trackable region detection unit, the height ratio calculation unit 60 is a coordinate ratio calculation unit, and the region classification unit 70 is a coordinate ratio time change. A quantity calculating unit and an identical object region determining unit are configured. In addition, as long as the characteristic function of this invention is not impaired, each component is not limited to the said structure.

本発明による画像領域分類装置の一実施の形態の構成を示す図The figure which shows the structure of one Embodiment of the image area classification device by this invention. 撮像画像からエッジを検出した画像に対して、縦方向および横方向に格子状に分割した様子を示す図The figure which shows a mode that it divided | segmented into the grid | lattice form to the vertical direction and the horizontal direction with respect to the image which detected the edge from a captured image 図2の撮像画像に基づいて、追跡可能領域と判断された矩形領域を示す図The figure which shows the rectangular area | region judged to be a traceable area | region based on the captured image of FIG. 追跡対象物および撮像部を横から見たモデル図Model view of the tracking target and imaging unit viewed from the side 同一距離にある2つの追跡対象部位のy座標の比の時間的変化と、異なる距離にある2つの追跡対象部位のy座標の比の時間的変化をそれぞれ示す図The figure which shows the time change of the ratio of the y coordinate of two tracking object site | parts in the same distance, and the time change of the ratio of the y coordinate of two tracking object parts in a different distance, respectively. 追跡可能領域を同一物領域ごとに分類した結果を示す図The figure which shows the result of classifying the traceable area for each identical object area 一実施の形態における画像領域分類装置によって行われる処理手順を示すフローチャートThe flowchart which shows the process sequence performed by the image area classification device in one embodiment

符号の説明Explanation of symbols

10…撮像部、20…画像記憶部、30…追跡可能領域検出部、40…追跡領域情報記憶部、50…局所領域追跡部、60…高さ比算出部、70…領域分類部   DESCRIPTION OF SYMBOLS 10 ... Imaging part, 20 ... Image memory | storage part, 30 ... Traceable area | region detection part, 40 ... Tracking area | region information storage part, 50 ... Local area tracking part, 60 ... Height ratio calculation part, 70 ... Area classification | category part

Claims (5)

車両に設置されて車両の周囲を撮像する撮像手段と、
前記撮像手段により撮像された画像を複数の領域に区分する領域区分手段と、
前記領域区分手段により区分された各領域のうち、移動体を追跡可能な追跡可能領域を検出する追跡可能領域検出手段と、
前記追跡可能領域検出手段により検出された異なる2つの追跡可能領域を対象として、実空間上の高さ方向に対応する画像上の座標値の比を算出する座標比算出手段と、
前記撮像手段によって、異なるタイミングにて撮像された複数の画像に基づいて、前記座標比算出手段により算出された座標値の比の時間変化量を算出する座標比時間変化量算出手段と、
前記座標比時間変化量算出手段により算出された座標値の比の時間変化量に基づいて、前記座標値の比を算出した2つの追跡可能領域が、同一物が撮像されている領域(以下、同一物領域と呼ぶ)であるか否かを判定する同一物領域判定手段とを備えることを特徴とする画像領域分類装置。
An imaging means installed in the vehicle for imaging the surroundings of the vehicle;
Area dividing means for dividing the image captured by the imaging means into a plurality of areas;
A trackable area detecting means for detecting a trackable area capable of tracking a moving body among the areas divided by the area dividing means;
A coordinate ratio calculation unit that calculates a ratio of coordinate values on an image corresponding to a height direction in real space for two different trackable regions detected by the trackable region detection unit;
A coordinate ratio time change amount calculating means for calculating a time change amount of the ratio of the coordinate values calculated by the coordinate ratio calculation means based on a plurality of images picked up at different timings by the image pickup means;
Based on the time change amount of the ratio of the coordinate values calculated by the coordinate ratio time change amount calculating means, two traceable areas where the ratio of the coordinate values is calculated are areas where the same object is imaged (hereinafter, An image region classification apparatus comprising: an identical object region determining unit that determines whether or not the same object region is referred to.
請求項1に記載の画像領域分類装置において、
前記同一物領域判定手段は、前記座標値の比の時間変化量の絶対値が所定のしきい値以下である場合に、前記座標値の比を算出した2つの追跡可能領域が同一物領域であると判定することを特徴とする画像領域分類装置。
The image region classification device according to claim 1,
When the absolute value of the time change amount of the coordinate value ratio is equal to or less than a predetermined threshold, the same object region determination unit is configured to determine that the two trackable regions in which the coordinate value ratio is calculated are the same object region. An image region classifying apparatus characterized by determining that there is one.
請求項1または2に記載の画像領域分類装置において、
前記同一物領域判定手段は、一度、同一物領域であるか否かの判定を行うと、その後は、前記追跡可能領域検出手段によって新たに検出された追跡可能領域から所定範囲内の領域に対して、前記同一物領域であるか否かの判定処理を行うことを特徴とする画像領域分類装置。
In the image area classification device according to claim 1 or 2,
Once the same object region determining means determines whether or not the same object region is once, thereafter, the same object region determining means is applied to an area within a predetermined range from the trackable area newly detected by the trackable area detecting means. An image area classification apparatus that performs a process of determining whether or not the same object area.
請求項1〜3のいずれかに記載の画像領域分類装置において、
前記座標比算出手段は、前記撮像手段により撮像された画像の垂直方向をy軸とした時に、前記追跡可能領域検出手段により検出された異なる2つの追跡可能領域のy座標の比を算出し、
前記座標比時間変化量算出手段は、前記座標比算出手段によって算出されたy座標の比の時間変化量を算出し、
前記同一物領域判定手段は、座標比時間変化量算出手段により算出されたy座標の比の時間変化量に基づいて、前記y座標の比を算出した2つの追跡可能領域が、同一物領域であるか否かを判定することを特徴とする画像領域分類装置。
In the image region classification device according to any one of claims 1 to 3,
The coordinate ratio calculation means calculates a ratio of y coordinates of two different traceable areas detected by the traceable area detection means when a vertical direction of an image taken by the imaging means is a y-axis,
The coordinate ratio time change amount calculating means calculates a time change amount of the y-coordinate ratio calculated by the coordinate ratio calculation means,
The same object region determining unit is configured to determine that the two traceable regions in which the y coordinate ratio is calculated based on the time change amount of the y coordinate ratio calculated by the coordinate ratio time change amount calculating unit are the same object region. An image region classification device for determining whether or not there is an image region.
請求項1〜4のいずれかに記載の画像領域分類装置において、
前記追跡可能領域検出手段は、複数の方向に濃淡変化を有する領域を前記追跡可能領域として検出することを特徴とする画像領域分類装置。
In the image region classification device according to any one of claims 1 to 4,
The traceable area detecting means detects an area having a change in shading in a plurality of directions as the traceable area.
JP2004259894A 2004-09-07 2004-09-07 Image area classification device Expired - Fee Related JP3992033B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004259894A JP3992033B2 (en) 2004-09-07 2004-09-07 Image area classification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004259894A JP3992033B2 (en) 2004-09-07 2004-09-07 Image area classification device

Publications (2)

Publication Number Publication Date
JP2006079188A JP2006079188A (en) 2006-03-23
JP3992033B2 true JP3992033B2 (en) 2007-10-17

Family

ID=36158624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004259894A Expired - Fee Related JP3992033B2 (en) 2004-09-07 2004-09-07 Image area classification device

Country Status (1)

Country Link
JP (1) JP3992033B2 (en)

Also Published As

Publication number Publication date
JP2006079188A (en) 2006-03-23

Similar Documents

Publication Publication Date Title
JP5870273B2 (en) Object detection apparatus, object detection method, and program
JP5267596B2 (en) Moving body detection device
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JP5834933B2 (en) Vehicle position calculation device
JP6237874B2 (en) Self-position calculation device and self-position calculation method
JP2005217883A (en) Method for detecting flat road area and obstacle by using stereo image
JP3988758B2 (en) Moving body detection device
JP5189556B2 (en) Lane detection device
JP4107273B2 (en) Moving body detection device
JP2005170290A (en) Obstacle detecting device
JP2003317106A (en) Travel path recognition device
JP5903901B2 (en) Vehicle position calculation device
JP5891802B2 (en) Vehicle position calculation device
JP3992033B2 (en) Image area classification device
JP2004362334A (en) Device for detecting area of traveling object
JP5176523B2 (en) Moving body detection apparatus, moving body detection method, and moving body detection program
JP2008046978A (en) Feature point extraction processing program, feature point extraction processing apparatus, and feature point extraction processing method
JP2007233487A (en) Pedestrian detection method, device, and program
JP4013872B2 (en) Obstacle detection device
JP4062290B2 (en) Moving body detection device
JP5141275B2 (en) VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING METHOD
JPH10283478A (en) Method for extracting feature and and device for recognizing object using the same method
JP4956795B2 (en) Image processing apparatus for vehicle and image processing method
JP4207863B2 (en) Mobile tracking device
JP5614100B2 (en) Image processing apparatus and moving body position estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070716

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100803

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110803

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120803

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120803

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130803

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees