JP2009169619A - Image-processing device for vehicle and image-processing method - Google Patents

Image-processing device for vehicle and image-processing method Download PDF

Info

Publication number
JP2009169619A
JP2009169619A JP2008006235A JP2008006235A JP2009169619A JP 2009169619 A JP2009169619 A JP 2009169619A JP 2008006235 A JP2008006235 A JP 2008006235A JP 2008006235 A JP2008006235 A JP 2008006235A JP 2009169619 A JP2009169619 A JP 2009169619A
Authority
JP
Japan
Prior art keywords
voting
image
group
image processing
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008006235A
Other languages
Japanese (ja)
Other versions
JP4956795B2 (en
Inventor
Yohei Aragaki
洋平 新垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2008006235A priority Critical patent/JP4956795B2/en
Publication of JP2009169619A publication Critical patent/JP2009169619A/en
Application granted granted Critical
Publication of JP4956795B2 publication Critical patent/JP4956795B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To precisely identify a three-dimensional object without an influence of image distortion, even if image conversion is made, in an image-processing device which processes images around a vehicle. <P>SOLUTION: Edges are extracted in top view images which are converted from images photographed at some time intervals, and the straight line parameters (a tilt θ, an intercept b) of each edge element are casted on the θ-b plane which is a casting space, and the movement of noteworthy areas having high casting frequency values is observed in time sequence. The noteworthy areas Gr1 and Gr2, which move in time sequence, are determined to belong to a three-dimensional object, and the noteworthy areas Gh1 and Gh2, which do not move, are determined to belong to a plane such as a road surface. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車両周囲の画像から立体物を路面と識別して検出する車両用画像処理装置および画像処理方法に関する。   The present invention relates to a vehicle image processing apparatus and an image processing method for detecting a three-dimensional object by identifying it as a road surface from an image around the vehicle.

従来、車載のカメラで撮像した車両周囲の画像から他車両や道路施設などの立体物を検出し、ディスプレイ等に表示して運転を支援する車両運転支援装置が例えば特開2007−172501号公報に開示されている。
この車両運転支援装置においては、路面を含む水平方向のサイドビューを異なる位置で撮像した複数の画像をそれぞれ視点位置を車両上空に設定したトップビュー画像に変換し、重複領域において同一特徴を有する物体の2つの異なる特徴点の対応関係から、立体物を検出する画像処理を行なっている。
特開2007−172501号公報
Conventionally, a vehicle driving support device that detects a three-dimensional object such as another vehicle or a road facility from an image around the vehicle captured by an in-vehicle camera and displays it on a display or the like is disclosed in, for example, Japanese Patent Application Laid-Open No. 2007-172501. It is disclosed.
In this vehicle driving support device, a plurality of images obtained by capturing horizontal side views including a road surface at different positions are converted into top view images in which the viewpoint positions are set above the vehicle, and objects having the same characteristics in the overlapping region Image processing for detecting a three-dimensional object is performed based on the correspondence between the two different feature points.
JP 2007-172501 A

しかしながら、上記の従来装置における画像処理では、トップビュー画像上での異なる2つの特徴点の対応関係から立体物を検出するようにしているので、カメラによるサイドビューの撮像画像からトップビュー画像へ変換することによる画像歪の影響で、2つの特徴点の対応関係をとることができず、そのため立体物の検出に失敗するおそれがある。   However, in the image processing in the above-described conventional apparatus, since a three-dimensional object is detected from the correspondence between two different feature points on the top view image, the image captured from the side view by the camera is converted to the top view image. Due to the influence of the image distortion caused by this, the correspondence between the two feature points cannot be taken, and there is a risk that the detection of the three-dimensional object will fail.

そこで本発明は、上記の問題点に鑑み、画像変換を行なった場合でも画像歪の影響を受けることなく、立体物を精度よく検出することができる車両用画像処理装置および画像処理方法を提供することを目的とする。   In view of the above problems, the present invention provides a vehicle image processing apparatus and an image processing method that can accurately detect a three-dimensional object without being affected by image distortion even when image conversion is performed. For the purpose.

本発明は、車両周辺の画像を時系列で取得し、その画像をから自車両上方の視点位置から見下ろした俯瞰画像に生成した上で特徴点を抽出してそのパラメータを投票空間に投票し、投票結果である点群の時系列の状態に基づいて、上記の特徴点が立体物に帰属するかどうかを判別するものとした。   The present invention acquires images around the vehicle in chronological order, generates a bird's-eye view image looking down from the viewpoint position above the host vehicle, extracts feature points, and votes the parameters to the voting space, Based on the time-series state of the point cloud as the voting result, it is determined whether or not the feature point belongs to a three-dimensional object.

本発明によれば、投票空間における点群の例えば動きから立体物を判別できるため、たとえサイドビュー撮像画像からトップビューなどへの画像変換によって画像歪が発生したとしても、その影響を受けることなく立体物を精度良く検出することができる。   According to the present invention, since a three-dimensional object can be discriminated from, for example, movement of a point cloud in a voting space, even if image distortion occurs due to image conversion from a side view captured image to a top view or the like, it is not affected. A three-dimensional object can be detected with high accuracy.

つぎに本発明の実施の形態を、実施例により説明する。
図1は、第1の実施例の構成を示すブロック図である。
画像処理装置1は、カメラ2に接続された画像メモリ3と、画像メモリ3に順次接続された変換画像作成部4、エッジ抽出部5、エッジパラメータ算出部6、パラメータ投票部7、注目領域抽出部8、および平面・立体判別部9を有している。変換画像作成部4、エッジ抽出部5、エッジパラメータ算出部6、パラメータ投票部7、注目領域抽出部8、および平面・立体判別部9はそれぞれ作業メモリ部10とも接続している。
Next, embodiments of the present invention will be described by way of examples.
FIG. 1 is a block diagram showing the configuration of the first embodiment.
The image processing apparatus 1 includes an image memory 3 connected to the camera 2, a converted image creation unit 4, an edge extraction unit 5, an edge parameter calculation unit 6, a parameter voting unit 7, and a region of interest extraction sequentially connected to the image memory 3. Part 8 and plane / solid discriminating part 9. The converted image creation unit 4, edge extraction unit 5, edge parameter calculation unit 6, parameter voting unit 7, attention area extraction unit 8, and plane / solid determination unit 9 are also connected to the work memory unit 10.

カメラ2は例えばCCD撮像素子を備えて路面を含む車両周辺を撮像可能に車両Vに設置され、撮像した画像データを画像処理装置1の画像メモリ3へ出力する。カメラ2の設置位置は周囲環境を把握したい周辺領域に応じて、例えば駐車場における駐車枠周りが対象であるときは図2に示すように、運転席と反対側のドアミラーMの下部に前側方を撮像範囲Sとして1台設定されるが、そのほか把握対象に応じて車両前部、車両後部、あるいは各角部など、適宜部位に必要に応じて複数台設けることもできる。なお、図2の(a)は車両の側面図、(b)は上面図である。   For example, the camera 2 includes a CCD image pickup device and is installed in the vehicle V so as to be able to pick up an image of the periphery of the vehicle including the road surface, and outputs the picked-up image data to the image memory 3 of the image processing apparatus 1. The installation position of the camera 2 depends on the surrounding area where the surrounding environment is to be grasped. For example, when the area around the parking frame in the parking lot is the target, as shown in FIG. Is set as the imaging range S, but in addition, a plurality of units may be provided as appropriate in appropriate parts such as the front part of the vehicle, the rear part of the vehicle, or each corner part according to the grasping object. 2A is a side view of the vehicle, and FIG. 2B is a top view.

画像メモリ3はRAM(Random Access Memory)で構成され、カメラ2からの画像データを所定時間間隔で取り込み、記憶する。
変換画像作成部4は、画像メモリ3に記憶された画像データに基づくサイドビュー画像を、視点位置を車両上空に設定して当該視点から車両周囲を見下ろしたトップビュー画像に変換する。
なお、複数台のカメラで車両周辺の各方向を撮像した場合には、1つの画像への合成も変換画像作成部4において行なう。
The image memory 3 is composed of a RAM (Random Access Memory), and captures and stores image data from the camera 2 at predetermined time intervals.
The converted image creation unit 4 converts the side view image based on the image data stored in the image memory 3 into a top view image in which the viewpoint position is set above the vehicle and the vehicle periphery is looked down from the viewpoint.
In addition, when each direction around the vehicle is imaged with a plurality of cameras, the converted image creation unit 4 also performs synthesis into one image.

エッジ抽出部5は、一般的なSobelフィルタを用いて、トップビュー画像の特徴点として縦方向および横方向のエッジを抽出する。ここで、エッジの縦方向の微分値(dx)と横方向の微分値(dy)が得られる。
エッジパラメータ算出部6は、エッジとして抽出された部位の画素(以下、エッジ要素と呼ぶ)ごとに直線方程式を求め、その傾きと切片をエッジ要素パラメータとして算出する。
The edge extraction unit 5 extracts vertical and horizontal edges as feature points of the top view image using a general Sobel filter. Here, the vertical differential value (dx) and the horizontal differential value (dy) of the edge are obtained.
The edge parameter calculation unit 6 obtains a linear equation for each pixel (hereinafter referred to as an edge element) extracted as an edge, and calculates its slope and intercept as an edge element parameter.

ここで、エッジパラメータ算出部6ではパラメータ算出に際して、上記所定時間間隔でカメラ2からの画像データが取り込まれる間の車両の移動による画像座標の変化を補正する。すなわち、1つの画像における車両の位置、姿勢を絶対座標として定義して、車両が移動した場合にはその移動、姿勢変化分を加味して、次の画像におけるエッジ要素の傾きと切片を上記絶対座標上に算出する。   Here, in the parameter calculation, the edge parameter calculation unit 6 corrects the change in the image coordinates due to the movement of the vehicle while the image data from the camera 2 is captured at the predetermined time interval. In other words, the position and orientation of the vehicle in one image are defined as absolute coordinates, and when the vehicle moves, the movement and orientation changes are taken into account, and the slope and intercept of the edge element in the next image are Calculate on the coordinates.

パラメータ投票部7は、投票空間に各エッジ要素のエッジ要素パラメータを投票する。ここでの投票空間は、直線の傾きと切片を横軸、縦軸とする平面からなる。
注目領域抽出部8は、1フレームの画像に対するエッジ要素パラメータの投票結果から、投票頻度値の高い注目領域を抽出する。
平面・立体判別部9は、注目領域を時系列で比較し、エッジ抽出部5で抽出されたエッジが路面など平面に描かれた模様に帰属するものか、それとも立体物に帰属するものかを判断する。
The parameter voting unit 7 votes the edge element parameters of each edge element in the voting space. The voting space here includes a plane having the slope and intercept of the straight line as the horizontal axis and the vertical axis.
The attention area extraction unit 8 extracts an attention area having a high voting frequency value from the voting result of the edge element parameters for one frame image.
The plane / solid discriminating unit 9 compares the regions of interest in time series, and determines whether the edge extracted by the edge extracting unit 5 belongs to a pattern drawn on a plane such as a road surface or a solid object. to decide.

作業メモリ部10は、画像メモリ3と同様にRAMから構成され、変換画像作成部4で変換されたトップビュー画像を記憶するとともに、エッジ抽出部5で抽出したエッジ、エッジパラメータ算出部6で算出されたエッジ要素パラメータ、パラメータ投票部7が使用する投票空間やその投票結果、注目領域抽出部8の抽出結果、平面・立体判別部9の判別結果等を各部の作業用に一時格納する。なお、後述のフローチャートにおいては各部による作業メモリ部10への格納処理についてとくに触れない。
変換画像作成部4、エッジ抽出部5、エッジパラメータ算出部6、パラメータ投票部7、注目領域抽出部8、および平面・立体判別部9はそれぞれの機能を統合したCPUとして構成することができる。
The work memory unit 10 is composed of a RAM similar to the image memory 3, stores the top view image converted by the converted image creation unit 4, and calculates by the edge and edge parameter calculation unit 6 extracted by the edge extraction unit 5. The obtained edge element parameters, the voting space used by the parameter voting unit 7, the voting result thereof, the extraction result of the attention area extracting unit 8, the discrimination result of the plane / solid discriminating unit 9, and the like are temporarily stored for work of each unit. In the flowchart described below, the storage processing in the work memory unit 10 by each unit is not particularly mentioned.
The converted image creation unit 4, the edge extraction unit 5, the edge parameter calculation unit 6, the parameter voting unit 7, the attention area extraction unit 8, and the plane / solid determination unit 9 can be configured as a CPU in which the respective functions are integrated.

つぎに、画像処理装置1における立体物かどうかの判別処理の流れを図3のフローチャートにより説明する。
まず、ステップ100において、画像メモリ3にカメラ2からの画像データを1フレーム分ずつ所定時間間隔で取り込み、記憶する。
ステップ101では、変換画像作成部4が画像メモリ3から画像データを読み出し、トップビュー画像に変換する。
続いてステップ102において、エッジ抽出部5がトップビュー画像内のエッジを抽出する。ここでは、Sobelフィルタを用いることにより、エッジの縦方向の微分値(dx)と横方向の微分値(dy)が得られる。
Next, the flow of determination processing for determining whether or not the image processing apparatus 1 is a three-dimensional object will be described with reference to the flowchart of FIG.
First, in step 100, image data from the camera 2 is fetched into the image memory 3 for each frame at a predetermined time interval and stored.
In step 101, the converted image creation unit 4 reads out the image data from the image memory 3 and converts it into a top view image.
Subsequently, in step 102, the edge extraction unit 5 extracts an edge in the top view image. Here, by using the Sobel filter, the vertical differential value (dx) and the horizontal differential value (dy) of the edge are obtained.

ステップ103において、エッジパラメータ算出部6が、抽出されたエッジ要素ごとのエッジ要素パラメータを算出する。
すなわち、エッジ要素のもつ角度(傾き)はエッジの各方向の微分値を用いて、
θ=tan−1(dy/dx)
で求められる。したがって、エッジ要素(画素)の直線方程式y=ax+bについて、エッジ要素の位置(x,y)は既知であり、係数aもθから算出できるから切片bも算出できる。1つのエッジ要素について1組の傾きθと切片bからなるエッジ要素パラメータが求められる。
In step 103, the edge parameter calculation unit 6 calculates an edge element parameter for each extracted edge element.
In other words, the angle (slope) of the edge element uses the differential value of each direction of the edge,
θ = tan −1 (dy / dx)
Is required. Therefore, with respect to the linear equation y = ax + b of the edge element (pixel), the position (x, y) of the edge element is known, and since the coefficient a can be calculated from θ, the intercept b can also be calculated. An edge element parameter consisting of a set of inclination θ and intercept b is obtained for one edge element.

ステップ104において、パラメータ投票部7が、投票空間に各エッジ要素のエッジ要素パラメータを投票する。
ここでは1つのエッジ要素のエッジ要素パラメータ(θ,b)が、投票空間Tとしてθ−b平面に1点としてプロットされることになる。
例えば図4の(a)に示すような駐車枠Wがトップビュー画像として得られている場合、(b)のようなエッジ画像が得られる。そしてエッジ画像におけるE1部分のエッジ要素のエッジ要素パラメータは(c)の投票空間TにおいてF1の投票点群となり、同様に(b)のエッジ画像におけるE2、E3部分は(c)の投票空間TにおいてそれぞれF2、F3の投票点群としてプロットされることになる。
なお、投票空間Tのθ−b平面は、とくに図示はしないが、例えば横軸θを0°から360°まで1°刻みとし、縦軸bを3ピクセル刻みのメッシュに区切ってある。
In step 104, the parameter voting unit 7 votes the edge element parameters of each edge element in the voting space.
Here, the edge element parameter (θ, b) of one edge element is plotted as one point on the θ-b plane as the voting space T.
For example, when a parking frame W as shown in FIG. 4A is obtained as a top view image, an edge image as shown in FIG. 4B is obtained. The edge element parameters of the edge element of the E1 portion in the edge image become the voting point group of F1 in the voting space T of (c). Similarly, the E2 and E3 portions of the edge image of (b) are the voting space T of (c). Are plotted as voting point groups of F2 and F3, respectively.
Note that the θ-b plane of the voting space T is not particularly illustrated, but for example, the horizontal axis θ is in increments of 1 ° from 0 ° to 360 °, and the vertical axis b is divided into meshes in increments of 3 pixels.

ステップ105において、注目領域抽出部8が、投票空間Tにおけるエッジ要素パラメータ投票点群の密度が高い高頻度値領域を注目領域として抽出する。すなわちプロット数が所定の閾値(例えば100点)より高いメッシュ領域を注目領域として抽出する。
ステップ106では、平面・立体判別部9は、前回のトップビュー画像についての注目領域の抽出結果が作業メモリ部10に格納されているかどうかをチェックする。
前回の注目領域の抽出結果が作業メモリ部10に格納されていないときは、ステップ100へ戻り、カメラ2から新たな画像データを取り込んで、上述の処理を繰り返す。
In step 105, the attention area extraction unit 8 extracts a high-frequency value area having a high density of edge element parameter voting points in the voting space T as the attention area. That is, a mesh region having a plot number higher than a predetermined threshold (for example, 100 points) is extracted as a region of interest.
In step 106, the plane / solid determination unit 9 checks whether the extraction result of the attention area for the previous top view image is stored in the work memory unit 10.
When the previous extraction result of the attention area is not stored in the work memory unit 10, the process returns to step 100, new image data is taken from the camera 2, and the above-described processing is repeated.

前回の注目領域の抽出結果がある場合には、ステップ107において、平面・立体判別部9が、注目領域に対応するエッジが立体物に帰属するものか路面など平面に帰属するものか判断する。
具体的には、投票空間Tにおける前回の注目領域と今回の注目領域を比較して相対的な位置関係をチェックする。
例えば路面など平面に描かれている駐車枠のペイントであれば、時間経過に伴って車両が移動しても、図5の(a)に示すように、車両の移動や回転分を考慮すれば注目領域Gh1、Gh2等は投票空間Tにおいてほとんど移動しない。図において、白丸の点群は前回の注目領域の点群、黒丸の点群は今回の注目領域の点群を示す。
If there is a previous extraction result of the attention area, in step 107, the plane / solid determination unit 9 determines whether the edge corresponding to the attention area belongs to a solid object or a road surface.
Specifically, the previous attention area in the voting space T is compared with the current attention area to check the relative positional relationship.
For example, if it is a paint of a parking frame drawn on a plane such as a road surface, even if the vehicle moves with time, as shown in FIG. The attention areas Gh1, Gh2, etc. hardly move in the voting space T. In the figure, a white circle point group represents the previous attention area point group, and a black circle point group represents the current attention area point group.

一方、立体物の場合には、当該立体物が移動したり、車両が移動して、相対関係が変化するとエッジの出現方向や位置が変化するため、図5の(b)に矢印で示すように、注目領域Gr1、Gr2等の投票空間における位置が移動する。
したがって、1台のカメラ2で撮像した画像に基づく場合でも、時系列における(すなわち前回と今回の)投票空間T上の注目領域の位置変化の状態により、エッジが立体物と平面のいずれに属するかが判断できる。
On the other hand, in the case of a three-dimensional object, since the appearance direction and position of the edge change when the three-dimensional object moves or the vehicle moves and the relative relationship changes, as indicated by an arrow in FIG. Furthermore, the positions in the voting space such as the attention areas Gr1 and Gr2 move.
Therefore, even when based on an image captured by one camera 2, an edge belongs to either a three-dimensional object or a plane depending on the position change state of the attention area in the voting space T in time series (that is, the previous time and the current time). Can be judged.

この後、ステップ108において、作業メモリ部10に格納したトップビュー画像等とともに、エッジにかかる対象が立体物か否かの判別結果を運転支援装置など後段装置へ出力して1回の判断処理を終わる。なお、この際出力するトップビュー画像は後段装置の目的に応じて前回の画像または今回の画像が適宜に選択される。   Thereafter, in step 108, together with the top view image stored in the work memory unit 10 or the like, the determination result as to whether or not the object applied to the edge is a three-dimensional object is output to a subsequent device such as a driving support device, and one determination process is performed. End. Note that the previous view image or the current image is appropriately selected as the top view image to be output in accordance with the purpose of the subsequent apparatus.

本実施例においては、図3のフローチャートにおけるステップ100と101とで発明における画像取得手段を構成し、ステップ102が特徴点抽出手段に該当する。
また、ステップ103と104とで投票手段を構成し、とくにステップ103がエッジ要素パラメータ算出手段に該当している。そして、ステップ105〜107が判別手段を構成している。
In the present embodiment, steps 100 and 101 in the flowchart of FIG. 3 constitute the image acquisition means in the invention, and step 102 corresponds to the feature point extraction means.
Steps 103 and 104 constitute a voting means, and in particular, step 103 corresponds to an edge element parameter calculation means. Steps 105 to 107 constitute discrimination means.

本実施例は以上のように構成され、カメラ2で時間をずらせて撮像したサイドビュー画像に基づいてそれぞれトップビュー画像を作成し、トップビュー画像からエッジを抽出し、各エッジ要素のパラメータを投票空間Tに投票して、投票空間における投票点群の時系列の状態に基づいて、エッジが立体物に帰属するかどうかを判断するものとしたので、トップビュー画像がサイドビュー画像から画像変換されたものであっても、画像変換に伴う歪の影響を受けることなく立体物を精度良く抽出することができる。   The present embodiment is configured as described above, and creates a top view image based on each side view image captured with the camera 2 shifted in time, extracts an edge from the top view image, and votes the parameters of each edge element. Since voting on the space T and determining whether the edge belongs to the three-dimensional object based on the time-series state of the voting point group in the voting space, the top view image is converted from the side view image. 3D objects can be extracted with high accuracy without being affected by distortion caused by image conversion.

とくに、エッジ要素のパラメータを直線の傾きθと切片bとすることにより、1つのエッジ要素からは1つの投票点が生じるので、ハフ変換などと比較して投票量を大幅に低減することができ、処理の高速化が図れる。
さらに、立体物かどうかの判断は投票空間Tにおけるとくに投票頻度値の高い注目領域の状態に基づいて行うので、この点でも処理が迅速となる。
また、2つの画像におけるエッジ要素パラメータの傾きθと切片bは、車両の移動による画像座標の変化を補正した絶対座標上で算出することにより、注目領域が時系列で移動しているときは当該領域に対応するエッジが立体物に属し、注目領域が移動していないときは当該領域に対応するエッジが路面など平面の模様に帰属する旨、容易に判別することができる。
In particular, when the edge element parameters are set to the slope θ and intercept b of the straight line, one voting point is generated from one edge element, so that the voting amount can be greatly reduced as compared with Hough transform or the like. The processing speed can be increased.
Further, since the determination as to whether or not the object is a three-dimensional object is performed based on the state of the attention area in the voting space T, which has a particularly high voting frequency value, the processing is quick in this respect as well.
Also, the slope θ and the intercept b of the edge element parameters in the two images are calculated on the absolute coordinates corrected for the change in the image coordinates due to the movement of the vehicle. When the edge corresponding to the area belongs to the three-dimensional object and the attention area has not moved, it can be easily determined that the edge corresponding to the area belongs to a plane pattern such as a road surface.

つぎに、第2の実施例について説明する。
図6は第2の実施例の構成を示すブロック図である。
本実施例の画像処理装置1Aは、第1の実施例に対して、エッジパラメータ算出部6A、パラメータ投票部7A、平面・立体判別部9Aが異なり、注目領域抽出部の代わりにグループ化演算部11を備える点が相違する。
エッジパラメータ算出部6Aは、エッジ要素の傾きθによって直線の切片をx軸ととるか、y軸ととるかを切り換える。
Next, a second embodiment will be described.
FIG. 6 is a block diagram showing the configuration of the second embodiment.
The image processing apparatus 1A of the present embodiment is different from the first embodiment in the edge parameter calculation unit 6A, the parameter voting unit 7A, and the plane / solid determination unit 9A, and a grouping calculation unit instead of the attention area extraction unit. 11 is different.
The edge parameter calculation unit 6A switches between taking the intercept of the straight line on the x-axis and the y-axis depending on the inclination θ of the edge element.

ここでは基本概念として、図7に示すように、画面中心Qからの向きによって水平方向+−45°の範囲αに属するエッジの傾きと、垂直方向+−45°の範囲βに属するエッジの傾きとに分類する。そして、傾きがθ1のように範囲αの場合はy軸を切片として直線式y=ax−bからエッジ要素パラメータ(θ,b)を算出し、傾きがθ2のように範囲βの場合はx軸を切片として直線式x=ay−bからエッジ要素パラメータ(θ,b)を算出する。
これによれば、図8に示すように、画面Kの角(隅)部を通る+−45°の直線で囲まれる領域内が投票空間Tの切片範囲となり、切片b、bは当該領域内に限定されることになる。
なお、エッジ要素パラメータは、第1の実施例のエッジパラメータ算出部におけると同様に、車両の移動による画像座標の変化を補正した絶対座標上に算出する。
Here, as a basic concept, as shown in FIG. 7, the inclination of the edge belonging to the range α in the horizontal direction + −45 ° and the inclination of the edge belonging to the range β in the vertical direction + −45 °, depending on the direction from the screen center Q. And classify. The slope was calculated linear equation y = a x x-b x from the edge element parameter (θ, b x) as sections y-axis in the case of the range α as .theta.1, ranging as slope .theta.2 beta for linear equation x = a y y-b y from the edge element parameters in the x-axis as the intercept (θ, b y) is calculated.
According to this, as shown in FIG. 8, the area surrounded by the straight line passing through + -45 ° corners (corners) of the screen K is the intercept range of voting space T, the intercept b x, b y the relevant It will be limited to the area.
Note that the edge element parameters are calculated on absolute coordinates obtained by correcting changes in image coordinates due to vehicle movement, as in the edge parameter calculation unit of the first embodiment.

パラメータ投票部7Aは、エッジの傾きを2つの範囲に分類したことに対応して、2つの投票空間T1、T2を設定し、各エッジ要素のエッジ要素パラメータを対応する投票空間に投票する。
なお、投票空間を2つに分ける傾きθが+−45°付近の領域については、投票値が2つの投票空間T1、T2に分散する可能性があるので、本実施例では図7に示すように、上述の基本概念における2つの範囲を分ける角度線(+−45°)を挟んで+−5°の重複領域δを作る。すなわち、範囲αは拡大して具体的には水平方向+−50°のA、範囲βも垂直方向+−50°のBに設定して、エッジの傾きθが重複領域δに現れた場合には双方の投票空間T1、T2にエッジ要素パラメータが投票されるようにする。この場合、切片b、bの範囲は図8に示した領域よりわずかに外方へ拡大することになる。
The parameter voting unit 7A sets two voting spaces T1 and T2 corresponding to the classification of the slope of the edge into two ranges, and votes the edge element parameters of each edge element to the corresponding voting space.
Note that, in an area where the inclination θ that divides the voting space into two is near + −45 °, the voting values may be dispersed in the two voting spaces T1 and T2, so in this embodiment, as shown in FIG. In addition, an overlapping region δ of + −5 ° is created across an angle line (+ −45 °) that divides the two ranges in the basic concept described above. That is, when the range α is enlarged and specifically, A in the horizontal direction + −50 °, and the range β is also set to B in the vertical direction + −50 °, and the edge inclination θ appears in the overlapping region δ. Causes the edge element parameters to be voted on to both voting spaces T1, T2. In this case, the intercept b x, the range of b y will be expanded to slightly outward from the region shown in FIG.

グループ化演算部11は、それぞれの投票空間T1、T2において、エッジ要素パラメータの投票頻度が所定の閾値より高い高頻度領域を抽出し、その周囲に隣接する高頻度値領域は同一領域としてグルーピングする。   The grouping calculation unit 11 extracts a high-frequency area in which the voting frequency of the edge element parameter is higher than a predetermined threshold in each of the voting spaces T1 and T2, and groups the high-frequency value areas adjacent to the surrounding areas as the same area. .

平面・立体判別部9Aは、それぞれの投票空間において、第1の実施例の平面・立体判別部におけると同様に、各グループを時系列で比較し、グループに属するエッジが路面に描かれた模様に帰属するものか、それとも立体物に帰属するものかを判断する。
平面・立体判別部9Aはさらに、立体物に帰属すると判断したグループを代表する代表値を用いて、当該立体物が移動しているか、静止しているかも判断する。
The plane / solid discriminator 9A compares each group in time series in each voting space as in the plane / solid discriminator of the first embodiment, and the edges belonging to the group are drawn on the road surface. Whether it belongs to 3D or 3D.
The plane / solid determination unit 9A further determines whether the solid object is moving or stationary by using a representative value representing the group determined to belong to the solid object.

作業メモリ部10は、変換画像作成部4で変換されたトップビュー画像を記憶するとともに、エッジ抽出部5で抽出したエッジ、エッジパラメータ算出部6Aで算出されたエッジ要素パラメータ、パラメータ投票部7Aが使用する投票空間やその投票結果、グループ化演算部11によるグルーピングの結果、平面・立体判別部で算出するグループの代表値や判別結果等を各部の作業用に一時格納する。
変換画像作成部4、エッジ抽出部5、エッジパラメータ算出部6A、パラメータ投票部7A、グループ化演算部11、および平面・立体判別部9Aはそれぞれの機能を統合したCPUとして構成することができる。
その他の構成は、第1の実施例の構成と同じである。
The work memory unit 10 stores the top view image converted by the converted image creation unit 4, and the edge extracted by the edge extraction unit 5, the edge element parameter calculated by the edge parameter calculation unit 6A, and the parameter voting unit 7A. The voting space to be used, the voting result thereof, the grouping result by the grouping calculation unit 11, the representative value of the group calculated by the plane / solid discrimination unit, the discrimination result, and the like are temporarily stored for work of each unit.
The converted image creation unit 4, the edge extraction unit 5, the edge parameter calculation unit 6A, the parameter voting unit 7A, the grouping calculation unit 11, and the plane / solid determination unit 9A can be configured as a CPU in which the respective functions are integrated.
Other configurations are the same as those of the first embodiment.

以下に、第2の実施例の画像処理装置1Aにおける判別処理の流れを図9のフローチャートにより説明する。
ステップ200〜202は第1の実施例における図3のステップ100〜102と同じである。
ステップ203において、エッジパラメータ算出部6Aは、抽出されたエッジ要素ごとの傾きθを算出し、傾きθが図7に示した範囲A、Bのいずれに属するかに応じて、直線式y=ax−bまたはx=ay−bからエッジ要素パラメータ(θ,b)または(θ,b)を算出する。
In the following, the flow of discrimination processing in the image processing apparatus 1A of the second embodiment will be described with reference to the flowchart of FIG.
Steps 200 to 202 are the same as steps 100 to 102 in FIG. 3 in the first embodiment.
In step 203, the edge parameter calculation unit 6A calculates the gradient θ for each extracted edge element, and the linear equation y = a depending on whether the gradient θ belongs to the range A or B shown in FIG. Edge element parameters (θ, b x ) or (θ, b y ) are calculated from x x−b x or x = a y y−b y .

ステップ204において、パラメータ投票部7Aが、傾きθの範囲AおよびBに対応する2つの投票空間T1、T2のいずれかあるいは双方にエッジパラメータ算出部6Aで算出された各エッジ要素パラメータを投票する。
つぎにグループ化演算部11が、ステップ205において、それぞれの投票空間において、エッジ要素パラメータの高頻度領域を抽出するとともに、ステップ206で隣接する高頻度値領域をグルーピングする。
In step 204, the parameter voting unit 7A votes each edge element parameter calculated by the edge parameter calculating unit 6A in one or both of the two voting spaces T1 and T2 corresponding to the ranges A and B of the inclination θ.
Next, in step 205, the grouping calculation unit 11 extracts high-frequency regions of edge element parameters in each voting space, and groups adjacent high-frequency value regions in step 206.

具体的には、投票空間T1、T2各々における全体の中でエッジ要素パラメータの投票頻度が周囲の領域と比較してとくに高い極大領域を抽出し、その周囲所定距離内において極大領域の投票頻度の50%以上の投票頻度をもつ領域を統合して1つのグループとする。これにより、極大領域を核とするグループが形成される。
各グループはそれぞれ例えばその重心など1つの代表パラメータで当該グループを代表させる。
Specifically, a maximal region in which the voting frequency of the edge element parameter is particularly high compared to the surrounding region is extracted from the entire voting spaces T1 and T2, and the voting frequency of the maximal region is determined within a predetermined distance. An area having a voting frequency of 50% or more is integrated into one group. As a result, a group having the maximum region as a nucleus is formed.
Each group is represented by one representative parameter such as its center of gravity.

ステップ207では、平面・立体判別部9Aが、前回のトップビュー画像についての各投票空間におけるグルーピングの結果、すなわちグループが作業メモリ部10に格納されているかどうかをチェックする。
前回のグループが格納されていないときは、ステップ200へ戻り、カメラ2から新たな画像データを取り込んで、上述の処理を繰り返す。
In step 207, the plane / solid determination unit 9 </ b> A checks the grouping result in each voting space for the previous top view image, that is, whether the group is stored in the work memory unit 10.
When the previous group is not stored, the process returns to step 200, new image data is taken from the camera 2, and the above-described processing is repeated.

前回のグループがある場合には、ステップ208に進み、第1の実施例における注目領域の比較と同様に、平面・立体判別部9Aが各投票空間T1、T2における前回のグループと今回のグループを比較して、代表パラメータ(重心)が移動していれば当該グループに対応するエッジが立体物に帰属し、代表パラメータの位置が変化しなければ当該グループに対応するエッジが平面に帰属するものと判別する。   If there is a previous group, the process proceeds to step 208, and the plane / solid determination unit 9A determines the previous group and the current group in each of the voting spaces T1 and T2 as in the comparison of the attention area in the first embodiment. In comparison, if the representative parameter (centroid) is moving, the edge corresponding to the group belongs to the solid object, and if the position of the representative parameter does not change, the edge corresponding to the group belongs to the plane. Determine.

次のステップ209において、平面・立体判別部9Aは、立体物に帰属すると判断したエッジのグループについて、そのグループの代表値としての直線(傾きと切片)を算出する。グループの代表値は、例えば当該グループ全体のエッジ要素の位置(x,y)を用いた最小2乗法で直線当て嵌めにより求める。
そしてステップ210において、平面・立体判別部9Aは、作業メモリ部10に過去2回分のトップビュー画像についてグループの代表値が格納されているかどうかをチェックする。
過去2回分の代表値が作業メモリ部10に格納されていないときは、ステップ200へ戻り、カメラ2から新たな画像データを取り込んで、上述の処理を繰り返す。
In the next step 209, the plane / solid discrimination unit 9A calculates a straight line (inclination and intercept) as a representative value of the group of edges determined to belong to the solid object. The representative value of the group is obtained by, for example, line fitting by the least square method using the position (x, y) of the edge element of the entire group.
In step 210, the plane / solid determination unit 9 </ b> A checks whether or not the group representative values for the top view images for the past two times are stored in the work memory unit 10.
When the representative values for the past two times are not stored in the work memory unit 10, the process returns to step 200, new image data is taken from the camera 2, and the above-described processing is repeated.

過去2回分の代表値がある場合には、ステップ211において、平面・立体判別部9Aが今回算出した分を含めた3つの直線(代表値)の絶対座標上での移動状態に基づいて、立体物が移動しているか、静止しているかを判断する。
静止している物体から得られる代表値である3本の直線は、例えば図10のように示され、移動する物体から得られる3本の直線は図11のように示される。これらはそれぞれ画像撮像の時系列における変化を示しており、図10においては時間の経過で直線がL1、L2、L3の順で移動し、図11では直線がL4、L5、L6の順で移動している。
ここで各直線の交点に着目すると、図10の静止物体にかかる各直線はほぼ同じ位置P0で交差している一方、図11の移動物体にかかる各直線はその交点がP1からP2へ変化している。したがって、直線の交点の変化の有無により、立体物が移動しているか静止しているかが判別できる。
When there are representative values for the past two times, in step 211, based on the movement state on the absolute coordinates of the three straight lines (representative values) including the amount calculated this time by the plane / solid determination unit 9A. Determine whether an object is moving or stationary.
Three straight lines that are representative values obtained from a stationary object are shown in FIG. 10, for example, and three straight lines obtained from a moving object are shown in FIG. Each of these shows changes in the time series of image capturing. In FIG. 10, the straight line moves in the order of L1, L2, and L3 over time, and in FIG. 11, the straight line moves in the order of L4, L5, and L6. is doing.
Focusing on the intersection of each straight line, each straight line applied to the stationary object in FIG. 10 intersects at substantially the same position P0, while each straight line applied to the moving object in FIG. 11 changes its intersection from P1 to P2. ing. Therefore, it can be determined whether the three-dimensional object is moving or stationary depending on whether or not the intersection of the straight lines is changed.

最後にステップ212において、平面・立体判別部9Aが、作業メモリ部10に格納した例えば最新(今回)のトップビュー画像等とともに、エッジにかかる対象が立体物か否か、および立体物は移動しているか静止しているかの判断結果を後段装置へ出力して1回の判断処理を終わる。   Finally, in step 212, the plane / solid discriminating unit 9A moves along with, for example, the latest (this time) top view image stored in the work memory unit 10 as to whether or not the object applied to the edge is a solid object, and the solid object moves. The determination result of whether it is stationary or not is output to the subsequent apparatus, and one determination process is completed.

本実施例においては、図9のフローチャートにおけるステップ200と201とで発明における画像取得手段を構成し、ステップ202が特徴点抽出手段に該当する。
また、ステップ203と204とで投票手段を構成し、とくにステップ203がエッジ要素パラメータ算出手段に該当している。
そして、ステップ205〜211が判別手段を構成し、とくにステップ205と206とがグループ化手段に該当し、ステップ209が代表値算出手段に該当している。
In the present embodiment, steps 200 and 201 in the flowchart of FIG. 9 constitute the image acquisition means in the invention, and step 202 corresponds to the feature point extraction means.
Steps 203 and 204 constitute voting means, and in particular, step 203 corresponds to edge element parameter calculation means.
Steps 205 to 211 constitute discrimination means. In particular, steps 205 and 206 correspond to grouping means, and step 209 corresponds to representative value calculation means.

本実施例は以上のように構成され、カメラ2を用いた時系列の撮像に基づく複数のトップビュー画像からエッジを抽出し、各エッジ要素のパラメータを投票空間T1、T2に投票して、投票空間における時系列の投票結果の状態に基づいて、エッジが立体物に帰属するかどうかを判断するものとしたので、トップビュー画像がカメラ2で撮像したサイドビュー画像から画像変換されたものであっても、画像変換に伴う歪の影響を受けることなく立体物を精度良く抽出することができる。   The present embodiment is configured as described above. Edges are extracted from a plurality of top view images based on time-series imaging using the camera 2, and parameters of each edge element are voted on the voting spaces T1 and T2 to vote. Since it is determined whether the edge belongs to the three-dimensional object based on the state of the time-series voting result in the space, the top view image is an image converted from the side view image captured by the camera 2. However, it is possible to accurately extract a three-dimensional object without being affected by distortion caused by image conversion.

とくに、エッジ要素のパラメータを直線の傾きθと切片bとすることにより、1つのエッジ要素からは1つの投票点が生じるので、ハフ変換などと比較して投票量を大幅に低減することができ、処理の高速化が図れる。
さらに、立体物かどうかの判断は投票空間T1、T2におけるとくに高頻度値領域の状態に基づいて行うので、この点でも処理が迅速となる。
また、時系列の2つの画像におけるエッジ要素パラメータの傾きθと切片bは、車両の移動による画像座標の変化を補正した絶対座標上で算出することにより、注目領域の位置が変化するか否かに基づいて、対応するエッジが立体物に帰属するのか路面の模様に帰属するのかを容易に判断することができる。
In particular, when the edge element parameters are set to the slope θ and intercept b of the straight line, one voting point is generated from one edge element, so that the voting amount can be greatly reduced as compared with Hough transform or the like. The processing speed can be increased.
Furthermore, since the determination as to whether or not the object is a three-dimensional object is made based on the state of the high frequency value region in the voting spaces T1 and T2, the processing is quick also in this respect.
In addition, whether or not the position of the region of interest changes by calculating the slope θ and the intercept b of the edge element parameters in the two time-series images on the absolute coordinates corrected for the change of the image coordinates due to the movement of the vehicle. Based on the above, it can be easily determined whether the corresponding edge belongs to a solid object or a road surface pattern.

そして、投票に際しては、エッジの要素の傾きに応じて切片をとる軸を切り換えるとともに、投票空間も切り換えるものとしたので、投票空間T1、T2を有限な領域に限定することができ、演算に必要な作業メモリ部10の容量も低減することが可能となる。   In voting, since the axis for taking the intercept is switched according to the inclination of the element of the edge and the voting space is also switched, the voting spaces T1 and T2 can be limited to a finite area, which is necessary for calculation. The capacity of the work memory unit 10 can also be reduced.

またグループ化演算部11によって、投票空間において隣接する投票頻度値の高い領域をグルーピングし、グループの状態に基づいて、すなわち、時系列でグループが移動しているときは当該グループに対応するエッジが立体物に属し、グループが移動していないときは当該グループに対応するエッジが平面に属するものと判別するようにしたので、画像の揺らぎや、画像変換に伴うノイズに対して強く、安定した立体物判別ができる。   Further, the grouping calculation unit 11 groups adjacent regions with high voting frequency values in the voting space, and based on the group state, that is, when the group is moving in time series, an edge corresponding to the group is displayed. When a group belongs to a solid object and the group is not moving, it is determined that the edge corresponding to the group belongs to a plane, so it is resistant to image fluctuations and noise associated with image conversion, and is a stable solid. Object discrimination is possible.

グルーピングは、とくに投票頻度値の極大領域を抽出し、その極大領域を核として周辺の高頻度値領域をまとめるので、画像中では小さい物体として映っているようなものでも投票空間においてノイズとして排除されないようにすることができ、立体物の判別精度が向上する。
そして立体物判別に際して、各グループはそれぞれ1つのパラメータで代表するので、類似の複数の高頻度値領域が抽出されて演算が煩雑となるのが防止される。
Grouping, in particular, extracts the maximum area of the voting frequency value and collects the surrounding high frequency value areas around the maximal area, so even if it appears as a small object in the image, it is not excluded as noise in the voting space. As a result, the discrimination accuracy of the three-dimensional object is improved.
In determining the three-dimensional object, each group is represented by one parameter, so that it is possible to prevent a plurality of similar high-frequency value regions from being extracted and complicating the calculation.

さらに、本実施例では、立体物にかかるグループの代表値を直線として算出し、時系列での当該直線の交点が変化するとき、当該グループにかかる立体物が移動体であると判別するので、対象物体が立体物であるかどうかに加えて、それが移動しているか静止しているかまで、詳細な情報を得ることができる。   Furthermore, in this embodiment, the representative value of the group related to the three-dimensional object is calculated as a straight line, and when the intersection of the straight line in time series changes, it is determined that the three-dimensional object related to the group is a moving object. In addition to whether the target object is a three-dimensional object, detailed information can be obtained up to whether it is moving or stationary.

なお、第2の実施例のグループ化演算部11では、投票頻度値が所定の閾値より高い高頻度領域を抽出して、所定距離範囲内に隣接する高頻度値領域を同一領域としてグルーピングするものとしたが、グルーピングとしてはこのほか、データの分類を階層的に行なう階層型手法や分割最適化手法などを含むクラスタリングを利用することもでき、この場合には、投票空間をあらかじめメッシュに区分せずに、傾きθと切片bの値をそのまま投票してグルーピングできる。   In the grouping operation unit 11 of the second embodiment, a high-frequency area whose voting frequency value is higher than a predetermined threshold is extracted, and adjacent high-frequency value areas within a predetermined distance range are grouped as the same area. However, as a grouping, clustering including hierarchical methods for classifying data hierarchically and division optimization methods can also be used. In this case, the voting space is divided into meshes in advance. Instead, the values of the slope θ and the intercept b can be voted as they are for grouping.

また、平面・立体判別部9Aにおけるグループの代表値の算出は、最小2乗法による直線当て嵌めで行なうものとしたが、これに限定されず、グループの母数が少ない場合は単純な平均や、Medianなどの統計値を使用してもよく、あるいはまた、ノイズ成分が多く含まれるようなデータである場合は、RANSAC(RANdom SAmple Consensus)やLMedS(Least Median of Squares)などのロバスト推定によって求めてもよい。
さらに、代表値の算出は立体物にかかるグループについて行なったが、平面にかかるグループについて算出すれば、同様にそれが移動しているか静止しているかを区別できるため、路面に描かれた駐車枠などの検出精度が一層向上する。
Further, the calculation of the representative value of the group in the plane / solid discrimination unit 9A is performed by straight line fitting by the least square method. However, the present invention is not limited to this, and when the group parameter is small, a simple average or Median is used. Or may be obtained by robust estimation such as RANSAC (RANdom SAmple Consensus) or LmedS (Least Median of Squares) if the data contains a lot of noise components. Good.
Furthermore, the representative value was calculated for the group related to the three-dimensional object. However, if the calculation is performed for the group related to the plane, it can be similarly distinguished whether it is moving or stationary, so the parking frame drawn on the road surface The detection accuracy is improved further.

上述の各実施例では、カメラ2からの画像データを所定時間間隔で画像メモリ3に取り込み、その取り込まれた間隔で変換画像作成部4がトップビュー画像に変換するものとしたが、カメラ2からの画像データは逐次画像メモリ3に取り込み、変換画像作成部4が上記所定時間間隔で画像メモリ3から読み出してトップビュー画像に変換するようにしてもよい。
また、エッジ抽出のためにSobelフィルタを用いて縦方向と横方向の成分(dx,dy)からエッジ要素の傾きθを求めるものとしたが、これに限定されず、例えば高次局所自己相関(HLAC)で利用される空間フィルタも様々な方向のエッジ抽出と同様作用を有するので、その組み合わせにより必要なエッジの傾きを算出することもできる。
In each of the above-described embodiments, the image data from the camera 2 is taken into the image memory 3 at a predetermined time interval, and the converted image creation unit 4 converts the image data into the top view image at the taken interval. These image data may be sequentially taken into the image memory 3, and the converted image creation unit 4 may read out the image data from the image memory 3 at the predetermined time interval and convert it into a top view image.
Further, although the Sobel filter is used for edge extraction to determine the inclination θ of the edge element from the vertical and horizontal components (dx, dy), the present invention is not limited to this. For example, higher-order local autocorrelation ( Since the spatial filter used in HLAC has the same effect as edge extraction in various directions, the necessary edge inclination can be calculated by the combination thereof.

なお、各実施例はサイドビュー画像からトップビュー画像へ画像変換した例について説明したが、カメラ2で撮像したままの例えばサイドビュー画像上で立体物と平面とを判別する場合にも本発明はそのまま適用できる。
あるいは逆に、画像変換機能をカメラに内蔵させて、変換済みの画像データを直接作業メモリ部10へ送出するようにしてもよい。この場合には画像処理装置側では画像メモリ3と変換画像作成部4が不要となる。
Each embodiment has been described with respect to an example in which a side view image is converted to a top view image. However, the present invention is also applicable to a case where a solid object and a plane are discriminated on a side view image that is captured by the camera 2, for example. It can be applied as it is.
Or, conversely, an image conversion function may be built in the camera, and the converted image data may be sent directly to the work memory unit 10. In this case, the image memory 3 and the converted image creation unit 4 are unnecessary on the image processing apparatus side.

第1の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of a 1st Example. カメラの配置を示す説明図である。It is explanatory drawing which shows arrangement | positioning of a camera. 立体物判別処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a solid-object discrimination | determination process. エッジ画像と投票空間へのパラメータ投票の関係を示す図である。It is a figure which shows the relationship of the parameter vote to an edge image and voting space. 投票空間における注目領域の時系列の変化態様を示す図である。It is a figure which shows the change mode of the time series of the attention area in voting space. 第2の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of a 2nd Example. 投票空間切換えのためのエッジ要素の傾きの分類要領を示す図である。It is a figure which shows the classification | category point of the inclination of the edge element for voting space switching. 傾きで切り換えたときのパラメータ切片の範囲を示す概念図である。It is a conceptual diagram which shows the range of the parameter intercept when it switches by inclination. 立体物判別処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a solid-object discrimination | determination process. 静止物体にかかる投票点のグループを代表する直線の時系列変化を示す図である。It is a figure which shows the time-sequential change of the straight line representing the group of the voting points concerning a stationary object. 移動物体にかかる投票点のグループを代表する直線の時系列変化を示す図である。It is a figure which shows the time-sequential change of the straight line representing the group of the vote points concerning a moving object.

符号の説明Explanation of symbols

1、1A 画像処理装置
2 カメラ
3 画像メモリ
4 変換画像作成部
5 エッジ抽出部
6、6A エッジパラメータ算出部
7、7A パラメータ投票部
8 注目領域抽出部
9、9A 平面・立体判別部
10 作業メモリ部
11 グループ化演算部
θ エッジ要素の傾き
b 切片
Gh1、Gh2、Gr1、Gr2 注目領域
L1、L2、L3、L4、L5、L6 直線(グループの代表値)
T 投票空間
W 駐車枠
DESCRIPTION OF SYMBOLS 1, 1A image processing apparatus 2 Camera 3 Image memory 4 Conversion image creation part 5 Edge extraction part 6, 6A Edge parameter calculation part 7, 7A Parameter voting part 8 Attention area extraction part 9, 9A Plane / stereoscopic discrimination part 10 Work memory part 11 Grouping calculation unit θ Inclination of edge element b intercept Gh1, Gh2, Gr1, Gr2 Region of interest L1, L2, L3, L4, L5, L6 Straight line (group representative value)
T Voting space W Parking frame

Claims (12)

時系列の撮像に基づく複数の車両周辺の画像を取得する画像取得手段と、
前記画像取得手段で得られた撮像画像から、自車両上方の視点位置から見下ろした俯瞰画像を生成する俯瞰画像生成手段と、
前記俯瞰画像生成手段により得られた俯瞰画像から前記画像取得手段により得られた画像から特徴点を抽出する特徴点抽出手段と、
特徴点のパラメータを投票空間に投票する投票手段と、
前記投票空間における投票点群の状態に基づいて、前記特徴点が立体物に帰属するかどうかを判断する判別手段とを備えることを特徴とする車両用画像処理装置。
Image acquisition means for acquiring images around a plurality of vehicles based on time-series imaging;
From the captured image obtained by the image acquisition means, an overhead image generation means for generating an overhead image looking down from the viewpoint position above the host vehicle;
Feature point extraction means for extracting feature points from the image obtained by the image acquisition means from the overhead view image obtained by the overhead view image generation means;
Voting means for voting feature point parameters to a voting space;
An image processing apparatus for a vehicle, comprising: a determination unit that determines whether the feature point belongs to a three-dimensional object based on a state of a voting point group in the voting space.
前記特徴点抽出手段が抽出する特徴点が前記画像内のエッジであり、
前記投票手段は、前記エッジの要素の直線方程式を形成する傾きと軸との切片を算出して前記パラメータとするエッジ要素パラメータ算出手段を有し、
前記判別手段は、投票空間における投票頻度値の高い領域の状態に基づいて前記特徴点が立体物に帰属するかどうかを判断することを特徴とする請求項1に記載の車両用画像処理装置。
The feature points extracted by the feature point extraction means are edges in the image,
The voting means has an edge element parameter calculation means that calculates an intercept between a slope and an axis forming a linear equation of the edge element and uses the parameter as the parameter,
The vehicular image processing apparatus according to claim 1, wherein the determination unit determines whether the feature point belongs to a three-dimensional object based on a state of a region having a high vote frequency value in a voting space.
前記エッジ要素パラメータ算出手段は、1の画像における車両の位置および姿勢を絶対座標として定義し、前記複数の画像の取得時点間で車両が移動した場合には,その移動分を補正して絶対座標でのエッジ要素の前記傾きと切片を算出することを特徴とする請求項2に記載の車両用画像処理装置。 The edge element parameter calculation means defines the position and orientation of the vehicle in one image as absolute coordinates, and when the vehicle moves between the acquisition points of the plurality of images, corrects the movement to obtain absolute coordinates. The vehicular image processing apparatus according to claim 2, wherein the inclination and the intercept of the edge element are calculated. 前記エッジ要素パラメータ算出手段は、前記エッジの要素の傾きに応じて前記切片をとる軸を切り換え、
前記投票手段は、エッジの要素の傾きに応じて投票空間を切り換えることを特徴とする請求項3に記載の車両用画像処理装置。
The edge element parameter calculation means switches the axis taking the intercept according to the inclination of the edge element,
4. The vehicular image processing apparatus according to claim 3, wherein the voting means switches the voting space in accordance with an inclination of an edge element.
前記判別手段は、時系列で前記投票頻度値の高い領域が移動しているときは当該領域に対応するエッジが立体物に属し、前記投票頻度値の高い領域が移動していないときは当該領域に対応するエッジが平面に属するものとすることを特徴とする請求項3または4に記載の車両用画像処理装置。 The discriminating means, when an area with a high voting frequency value is moving in time series, an edge corresponding to the area belongs to a solid object, and when the area with a high voting frequency value is not moving, the area 5. The vehicular image processing apparatus according to claim 3, wherein an edge corresponding to is belonging to a plane. 前記判別手段は、投票空間において隣接する投票頻度値の高い領域をグルーピングするグループ化手段を備え、グループの状態に基づいて前記特徴点が立体物に帰属するかどうかを判断することを特徴とする請求項3または4に記載の車両用画像処理装置。 The discriminating means comprises grouping means for grouping adjacent areas having high voting frequency values in a voting space, and determining whether the feature points belong to a three-dimensional object based on a group state. The vehicular image processing apparatus according to claim 3 or 4. 前記グループ化手段は、投票頻度値の極大領域を抽出し、当該極大領域を核としてグルーピングすることを特徴とする請求項6に記載の車両用画像処理装置。 The vehicular image processing apparatus according to claim 6, wherein the grouping unit extracts a maximum area of voting frequency values and performs grouping using the maximum area as a nucleus. 前記判別手段は、時系列で前記グループが移動しているときは当該グループに対応するエッジが立体物に属し、前記グループが移動していないときは当該グループに対応するエッジが平面に属するものと判別することを特徴とする請求項6または7に記載の車両用画像処理装置。 When the group is moving in time series, the determination means is such that an edge corresponding to the group belongs to a solid object, and an edge corresponding to the group belongs to a plane when the group is not moving. The vehicular image processing device according to claim 6 or 7, wherein the vehicular image processing device is discriminated. 前記判別に際して、前記グループはそれぞれ1つのパラメータで代表することを特徴とする請求項8に記載の車両用画像処理装置。 The vehicular image processing apparatus according to claim 8, wherein each group is represented by one parameter in the determination. 前記判別手段は、さらに前記グループの代表値を算出する代表値算出手段を備え、時系列での前記代表値の状態に基づいて当該グループにかかる立体物または平面が移動体であるか静止体であるかを判別することを特徴とする請求項6から9のいずれか1に記載の車両用画像処理装置。 The discriminating means further includes representative value calculating means for calculating a representative value of the group, and based on the state of the representative value in time series, the three-dimensional object or plane related to the group is a moving object or a stationary object. The vehicular image processing apparatus according to claim 6, wherein the vehicular image processing apparatus determines whether it is present. 前記代表値算出手段は、前記グループの代表値を直線として算出し、
前記判別手段は、時系列での前記直線の交点が変化するとき、当該グループにかかる立体物または平面が移動体であるとすることを特徴とする請求項10に記載の車両用画像処理装置。
The representative value calculating means calculates the representative value of the group as a straight line;
11. The vehicular image processing apparatus according to claim 10, wherein when the intersection of the straight lines in time series changes, the determination unit determines that a three-dimensional object or a plane related to the group is a moving object.
カメラで撮像した車両周辺の画像を処理する画像処理装置方法において、
前記車両周辺の画像を時系列で複数取得し、
取得した画像から自車両上方の視点位置から見下ろした俯瞰画像を生成し、
生成した俯瞰画像から特徴点を抽出してそのパラメータを投票空間に投票し、
該投票空間における投票点群の時系列の状態に基づいて、前記特徴点が立体物に帰属するかどうかを判別することを特徴とする画像処理方法。
In an image processing apparatus method for processing an image around a vehicle imaged by a camera,
A plurality of images around the vehicle are acquired in time series,
From the acquired image, generate a bird's eye view looking down from the viewpoint position above the host vehicle,
Extract feature points from the generated overhead image and vote the parameters to the voting space.
An image processing method comprising: determining whether or not the feature point belongs to a three-dimensional object based on a time-series state of voting point groups in the voting space.
JP2008006235A 2008-01-15 2008-01-15 Image processing apparatus for vehicle and image processing method Active JP4956795B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008006235A JP4956795B2 (en) 2008-01-15 2008-01-15 Image processing apparatus for vehicle and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008006235A JP4956795B2 (en) 2008-01-15 2008-01-15 Image processing apparatus for vehicle and image processing method

Publications (2)

Publication Number Publication Date
JP2009169619A true JP2009169619A (en) 2009-07-30
JP4956795B2 JP4956795B2 (en) 2012-06-20

Family

ID=40970721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008006235A Active JP4956795B2 (en) 2008-01-15 2008-01-15 Image processing apparatus for vehicle and image processing method

Country Status (1)

Country Link
JP (1) JP4956795B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7378302B2 (en) 2020-01-23 2023-11-13 日産自動車株式会社 Object detection method and object detection device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266828A (en) * 1993-03-12 1994-09-22 Fuji Heavy Ind Ltd Outside monitoring device for vehicle
JP2007310591A (en) * 2006-05-17 2007-11-29 Auto Network Gijutsu Kenkyusho:Kk Image processor and parking space determination method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266828A (en) * 1993-03-12 1994-09-22 Fuji Heavy Ind Ltd Outside monitoring device for vehicle
JP2007310591A (en) * 2006-05-17 2007-11-29 Auto Network Gijutsu Kenkyusho:Kk Image processor and parking space determination method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7378302B2 (en) 2020-01-23 2023-11-13 日産自動車株式会社 Object detection method and object detection device

Also Published As

Publication number Publication date
JP4956795B2 (en) 2012-06-20

Similar Documents

Publication Publication Date Title
JP6439820B2 (en) Object identification method, object identification device, and classifier training method
US7437243B2 (en) Detecting device and method to detect an object based on a road boundary
JP5870273B2 (en) Object detection apparatus, object detection method, and program
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JP2007527569A (en) Imminent collision detection based on stereoscopic vision
JP5752618B2 (en) Stereo parallax calculation device
JP7072641B2 (en) Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
JP7091686B2 (en) 3D object recognition device, image pickup device and vehicle
JP5834933B2 (en) Vehicle position calculation device
JPWO2017138245A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
WO2014002692A1 (en) Stereo camera
JP2018092604A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and program
JP6516012B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
KR101699014B1 (en) Method for detecting object using stereo camera and apparatus thereof
JP5073700B2 (en) Object detection device
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP4956795B2 (en) Image processing apparatus for vehicle and image processing method
JP2004235711A (en) Target tracking system and method therefor
JP2007233487A (en) Pedestrian detection method, device, and program
JP2011203853A (en) Image processing apparatus and program
JP2013148355A (en) Vehicle position calculation device
JP2006010652A (en) Object-detecting device
JP2017058890A (en) Image processing system, object recognition device, apparatus control system, image processing method, and image processing program
JPH10283478A (en) Method for extracting feature and and device for recognizing object using the same method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101013

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4956795

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150