JPH01281578A - Image processing system - Google Patents
Image processing systemInfo
- Publication number
- JPH01281578A JPH01281578A JP63112243A JP11224388A JPH01281578A JP H01281578 A JPH01281578 A JP H01281578A JP 63112243 A JP63112243 A JP 63112243A JP 11224388 A JP11224388 A JP 11224388A JP H01281578 A JPH01281578 A JP H01281578A
- Authority
- JP
- Japan
- Prior art keywords
- point
- processing target
- data
- coordinates
- hough
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004364 calculation method Methods 0.000 claims description 31
- 238000003672 processing method Methods 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 3
- 230000015654 memory Effects 0.000 abstract description 15
- 238000007781 pre-processing Methods 0.000 abstract description 14
- 230000009466 transformation Effects 0.000 abstract description 12
- 238000001914 filtration Methods 0.000 abstract description 9
- 238000000034 method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000003708 edge detection Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は画像処理方式に関するもので、無人走行車両の
制御や被観測物体の動作のリアルタイムな認識などに使
用される。DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an image processing method, and is used for controlling unmanned vehicles, real-time recognition of the motion of an observed object, and the like.
例えば無人走行ロボットや自動走行車両を制御する場合
には、進行路にあらかじめ表示された識別ラインや、道
路のセンターラインあるいは路肩ラインの画像をカメラ
で取り込み、リアルタイムで画像処理する必要がある。For example, when controlling unmanned robots or autonomous vehicles, it is necessary to use a camera to capture images of identification lines displayed in advance on the road ahead, or the center line or shoulder line of the road, and process the images in real time.
第10図は画像による道路の認識を説明するためのもの
で、同図(a)はカメラで取り込んだ画像、同図(b)
は同図(a)のうち輝度(もしくはその変化割合など)
の高い画素を黒点で示した図である。Figure 10 is for explaining road recognition using images, where (a) is an image captured by a camera, and (b) is an image captured by a camera.
is the luminance (or its rate of change, etc.) in figure (a)
3 is a diagram showing pixels with high values as black dots. FIG.
同図(a)に示す通り、カメラ画像lには水平線2の無
限遠方向に延びる道路3が写っており、この道路3の両
側には路肩ライン4が描かれ、中央部にはセンターライ
ン5が描かれている。ここで、道路3の路肩ライン4お
よびセンターライン5は他の部分に比べて輝度が高く、
従って同図(b)ではこれらの部分にドツト4’ 、5
’が連続して現れることになる。このようなカメラ画像
1において、道路3の進行方向および曲り形状などを認
識するためには、同図(b)においてドツト4′を結ぶ
曲線の近似直線り、L2.L3などを認識すればよい。As shown in Figure (a), the camera image 1 shows a road 3 extending toward infinity from the horizon 2. Road shoulder lines 4 are drawn on both sides of the road 3, and a center line 5 is drawn in the center. is depicted. Here, the shoulder line 4 and center line 5 of the road 3 have higher brightness than other parts,
Therefore, in the same figure (b), dots 4' and 5 are placed in these parts.
' will appear consecutively. In such a camera image 1, in order to recognize the traveling direction and curved shape of the road 3, an approximate straight line of the curve connecting dots 4', L2. It is sufficient to recognize L3 etc.
従来から、このような近似直線りを求める手法として、
Ho、ugh (ハフ)変換と呼ばれる手法が知られて
いる(例えば米国特許第3069654号)。これを第
11図ないし第13図により説明する。第11図(a)
に示すように、x−y座標系で示される原画像において
処理対象点P(x、y)が存在するとき、この点Pを通
るp
直線flcf1.I、など)は無限に描くことかできる
。そして、この直線N 、1) 、・・・に直交し
b
原点0 (0,0)を通る直線についても、直線!I
、1 、・・・ごとに1本づつ描くことができる。Traditionally, as a method for finding such an approximate straight line,
A technique called Ho,ugh (Hough) transformation is known (for example, US Pat. No. 3,069,654). This will be explained with reference to FIGS. 11 to 13. Figure 11(a)
As shown in , when a processing target point P (x, y) exists in the original image indicated by the x-y coordinate system, a p straight line flcf1. I, etc.) can be drawn infinitely. And the straight line that intersects perpendicularly to this straight line N, 1), ... and passes through b origin 0 (0,0) is also a straight line! I
, 1 , ... can be drawn one by one.
b
ここで、原点0 (0,0)を通る直線について、直線
N(Ill、Ill、など)までの長さをρ(ρユ。b Here, regarding the straight line passing through the origin 0 (0,0), the length to the straight line N (Ill, Ill, etc.) is ρ (ρ yu).
ρ など)とし、X軸となす角をθ(θ 、θbb
aなど)とすると、この原点を通る直線の上記ρ
。ρ, etc.), and the angle between it and the X axis is θ (θ, θbb
a), the above ρ of the straight line passing through this origin
.
θは、同図(b)のような正弦曲線(サインカーブ)す
なわちHough曲線として表現される。θ is expressed as a sine curve, ie, a Hough curve, as shown in FIG.
ここにおいて、原点0 (0,0)と処理対象点P(x
、y)の距離ρ は、この処理対象点9
p IaKに関する上記のρ(
ρ 、ρ6.・・・)の中で最も長く、
2 2 、1/2
ρ −(x +y
IaX p pとなり、
θ−〇のときにはρo−x、となる。Here, the origin 0 (0,0) and the processing target point P(x
, y) is the distance ρ from this processing target point 9
The above ρ(
ρ, ρ6. ...), which is 2 2 , 1/2 ρ - (x + y IaX p p,
When θ-〇, it becomes ρo-x.
次に、第12図(a)のように直線り上に並ぶ3点P
−P3について、第11図のHough■
変換を適用すると、点P1について上記サインカーブ(
Hough曲線)は第12図(b)の点線のようになり
、点P2についてのサインカーブは同図(b)の−点鎖
線のようになり、点P3についてのサインカーブは同図
(b)の二点鎖線のようになる。ここで、同図(b)の
サインカーブのピーク(ρ 、θ )、(ρ 、θ )
およびl 1 2 2
(ρ 、θ3)は、それぞれ同図(a)の原点O(0,
0)と点p 、p 、p の間の距離pH〜ρ3
と、X軸とのなす角θ1〜θ3とに対応する。Next, three points P lined up in a straight line as shown in Figure 12(a)
- When applying the Hough■ transformation in Figure 11 to P3, the above sine curve (
Hough curve) looks like the dotted line in Figure 12(b), the sine curve for point P2 looks like the -dotted chain line in Figure 12(b), and the sine curve for point P3 looks like the dashed line in Figure 12(b). It looks like the two-dot chain line. Here, the peaks (ρ , θ ) and (ρ , θ ) of the sine curve in FIG.
and l 1 2 2 (ρ, θ3) are respectively the origin O(0,
0) and the points p, p, p, pH ~ ρ3
and the angles θ1 to θ3 formed with the X axis.
第12図(b)において、3つのHough曲線(サイ
ンカーブ)が交叉する点に6目すると、ここは座標が(
ρ 、e )となっており、これは同図(a)の直!I
Lと直交する原点0 (0,0)を通る直線のρ 、θ
1と等しくなっている。従って、このようなサインカー
ブの交叉点を求めれば、原画像のx−y直交座標系にお
いて描かれるドツト(黒点)の間の曲線の近似直線(但
し、第12図ではこの曲線と近似直線が一致している)
を求めることができる。In Figure 12(b), if you place the 6th mark at the point where the three Hough curves (sine curves) intersect, the coordinates here are (
ρ, e), which is the same as in Figure (a)! I
ρ, θ of the straight line passing through the origin 0 (0,0) perpendicular to L
It is equal to 1. Therefore, if we find the intersection point of such a sine curve, we can find the approximate straight line of the curve between the dots (black points) drawn in the x-y orthogonal coordinate system of the original image (however, in Fig. 12, this curve and the approximate straight line are Match)
can be found.
これを第13図により説明すると、まず同図(a)にお
いてx−y座標面(原画像面)にHough変換すべき
ドツト(処理対象点)が多数存在し、これらは曲線上に
並んでいるとする。To explain this with reference to Fig. 13, first, in Fig. 13 (a), there are many dots (processing target points) to be Hough-transformed on the x-y coordinate plane (original image plane), and these are lined up on a curve. shall be.
ここで、同図(a)中において、ドツト間を結ぶ曲線に
は3本の近似直線り、L2.L3を描くことができる。Here, in the same figure (a), there are three approximate straight lines in the curve connecting the dots, L2. Can draw L3.
従って、このドツトの全てについて第11図のようなサ
インカーブへの変換(Hough変換)を実行すると、
第12図(b)のようなサインカーブの交叉点が3ケ所
を中心にして得られることになる。この交叉点の座標は
、第13図(a)に示す(ρ θ )、(ρ、2゜t
l’ tl
θ )および(ρ θ )であり、従ってこれt2
13’ t3
をρ、θ、Hの座標系においてHを交叉点の出現頻度と
して表わすと、同図(b)の如くになる。Therefore, if we convert all of these dots into sine curves (Hough transformation) as shown in Figure 11, we get
Intersection points of the sine curves as shown in FIG. 12(b) are obtained centered on three points. The coordinates of this intersection point are (ρ θ ), (ρ, 2゜t
l' tl θ ) and (ρ θ ), so this t2
If 13' t3 is expressed in the coordinate system of ρ, θ, H, where H is the frequency of appearance of the intersection point, the result will be as shown in FIG. 3(b).
従って、前述の第10図(b)のような道路3の路肩ラ
イン4に対応する曲線の近似直線L1〜L3は、第13
図(b)におけるヒストグラムH(交叉点の出現頻度)
のピークにおけるρ、θの値によって求めることが可能
になる。Therefore, the approximate straight lines L1 to L3 of the curve corresponding to the shoulder line 4 of the road 3 as shown in FIG.
Histogram H in figure (b) (frequency of appearance of crossover points)
This can be determined by the values of ρ and θ at the peak of .
しかしながら、前述のようなHough変換の手法は、
高速かつリアルタイムな画像処理に適用することは容易
でなかった。なぜなら、第11図においてデータとして
与えられる原画像中の処理対象点Pの座標fi(x、y
)にもとづき、p
Ho u gh曲線(サインカーブ)を求めるために、
原点から直線gまでの距離ρを求めようとすると、ρ噌
X Φsinθ+y ”cosθ ・・・(1)p
を実行しなければならず、例えばθを512分割にする
と三角関数の計算を1024回、乗算を1024回、加
算を512回実行しなければならない。そして、計算対
象となる原画像が例えば512X512の画素(処理対
象点)から構成されているとすると、全体の計算回数は
極めて膨大なものとなり、通常のプロセッサで処理する
と処理時間が著しく長くなってしまう。However, the Hough transformation method described above is
It has not been easy to apply it to high-speed and real-time image processing. This is because the coordinates fi (x, y
), to obtain the p Ho u gh curve (sine curve),
When trying to find the distance ρ from the origin to the straight line g, it is necessary to perform ρ噌X Φ sin θ + y "cos θ ... (1) p. For example, if θ is divided into 512, trigonometric function calculations will be performed 1024 times. Multiplication must be performed 1024 times and addition 512 times.If the original image to be calculated is composed of, for example, 512 x 512 pixels (processing target points), the total number of calculations is extremely large. Therefore, processing time would be significantly longer if processed using a normal processor.
もちろん、上記(1)式において必要とされるsinθ
およびCOSθの値をROM等に格納しておき、計算所
要時間を短くすることも可能である(例えば、「実時間
Hough変換プロセッサ」昭和60年電子通信学会情
報システム部門全国大会、No、92 あるいはFR
OMを用いたHough変換ハードウェア」昭和62年
電子情報通信学会創立70周年記念総合全国大会、No
。Of course, the sin θ required in the above equation (1)
It is also possible to shorten the time required for calculation by storing the values of F.R.
"Hough conversion hardware using OM" 1986 IEICE 70th Anniversary General Conference, No.
.
1587)。しかしながら、このようにすると大容量の
ROMが必要となってハードウェアが大規模になるだけ
でなく、またそのアクセス時間も無視できない。さらに
、このように三角関数のデータをROM化しても、(1
)式の計算における乗算回数は従前のままであり、加算
時間に比べて乗算時間がかなり長いことを考慮すると、
根本的な解決とはなりえない。このため、高速度で走行
する車両を画像データにもとづきリアルタイム制御した
り、高速運動する被観測物体を画像データにもとづきリ
アルタイムに認識したりすることは、はとんど不可能で
あった。1587). However, this method not only requires a large-capacity ROM, making the hardware large-scale, but also has a non-negligible access time. Furthermore, even if the trigonometric function data is stored in ROM in this way, (1
) formula remains the same as before, and considering that the multiplication time is considerably longer than the addition time,
This cannot be a fundamental solution. For this reason, it has been almost impossible to control a vehicle traveling at high speed in real time based on image data, or to recognize an observed object moving at high speed in real time based on image data.
そこで本発明は、Hough変換を適用した画像データ
の処理を、高速度でリアルタイムに実行することが可能
な画像処理方式を提供することを[J的とする。Therefore, the purpose of the present invention is to provide an image processing method that can process image data to which Hough transform is applied at high speed in real time.
〔3題を解決するための手段〕
本発明に係る画像処理方式の第1の態様は、原画像上の
複数の処理対象点の分布の特徴から、これら処理対象点
を結ぶ曲線を分別、抽出する画像処理方式であって、下
記の2つのステップを備える。すなわち、α−β直交座
標系で描かれる近似円の円周上の一点の座標を(α 、
β1)とし、円周上の次の点の座標(α 、β )
までの141 1+1
回転角をεとしたとき(但し、iは正の整数)に、α1
゜1−f (α 、β 、ε)
α 11
β −f (α 、β 、ε)
国 β 11
となる回転運動漸化式を例えば1回転角ごとに、例えば
上記近似円の一周について順次に演算し、原画像上の複
数の処理対象点のそれぞれに対応するHo u gh凸
曲線求める第1のステップと、これにより求めた少なく
とも2本のHough曲線の交点から処理対象点を結ぶ
曲線の近似直線を導出する第2のステップとを備えるこ
とを特徴とする。[Means for solving the three problems] The first aspect of the image processing method according to the present invention is to classify and extract a curve connecting a plurality of processing target points from the distribution characteristics of the plurality of processing target points on the original image. This image processing method includes the following two steps. In other words, the coordinates of a point on the circumference of an approximate circle drawn in the α-β orthogonal coordinate system are (α,
β1) and the coordinates of the next point on the circumference (α, β)
141 1+1 When the rotation angle is ε (where i is a positive integer), α1
゜1−f (α, β, ε) α 11 β −f (α, β, ε) Country β 11 The rotational motion recurrence formula is sequentially calculated for each rotation angle, for example, around one circumference of the above approximate circle. A first step of calculating and calculating H u gh convex curves corresponding to each of the plurality of processing target points on the original image, and approximation of a curve connecting the processing target points from the intersection of at least two Hough curves thus obtained. and a second step of deriving a straight line.
また、本発明の第2の態様のものは、次の4つのステッ
プを備える。すなわち、原画像上の処理対象点から初期
値の座標(α 、β )を求める第1のステップと、前
述の回転運動漸化式を上記の初期値から1回転角ごとに
順次に演算する第2のステップと、第2のステップの演
算結果から処理対象点に対応するHough曲線を求め
る第3のステップと、第1ないし第3のステップを処理
対象点ごとに繰り返し、これにより求めた少なくとも2
本の前記Hough曲線の交点から処理対象点を結ぶ曲
線の近似直線を導出する第4のステップとを備えること
を特徴とする。Further, the second aspect of the present invention includes the following four steps. That is, the first step is to obtain the initial value coordinates (α, β) from the processing target point on the original image, and the second step is to calculate the rotational motion recurrence formula described above sequentially for each rotation angle from the above initial value. Step 2, a third step of calculating a Hough curve corresponding to the processing point from the calculation result of the second step, and repeating the first to third steps for each processing point,
A fourth step of deriving an approximate straight line of a curve connecting the point to be processed from the intersection of the Hough curves of the book.
本発明によれば、原画像上の処理対象点の座標をHou
ghlHItiで表わすための演算は、円を描くための
回転運動漸化式の演算として近似的に実行できるので、
乗算および三角関数計算は不要となり、従って原画像上
の処理対象点を結ぶ曲線の近似直線を少ない計算によっ
て高速に求めることが可能になる。According to the present invention, the coordinates of the processing target point on the original image are
The calculation to represent ghlHIti can be approximately performed as a calculation of the rotational motion recurrence formula for drawing a circle, so
Multiplication and trigonometric function calculations are no longer necessary, and therefore, it is possible to quickly obtain an approximate straight line of a curve connecting the points to be processed on the original image with a small number of calculations.
以下、添付図面を参照して、本発明の実施例を詳細に説
明する。なお、図面の説明において同一要素には同一符
号を付し、重複する説明を省略する。Embodiments of the present invention will be described in detail below with reference to the accompanying drawings. In addition, in the description of the drawings, the same elements are given the same reference numerals, and redundant description will be omitted.
第1図は実施例に係る画像処理方式の一例を示すフロー
チャートである。まず、カメラで取り込んだ原画像上の
処理対象点ごとの画素信号を入力しくステップ102)
、エツジ検出を行なって(ステップ104)エツジ化デ
ータを前処理部へ人力する(ステップ106)。以上の
ステップ102〜106の処理は、画素信°号が入力さ
れるごとに繰り返され、結果(エツジ化データ)は順次
に信号の前処理部に例えばディジタルデータとして送ら
れる。FIG. 1 is a flowchart showing an example of an image processing method according to an embodiment. First, input a pixel signal for each point to be processed on the original image captured by the camera (step 102).
, edge detection is performed (step 104), and the edged data is manually input to the preprocessing section (step 106). The above processing of steps 102 to 106 is repeated each time a pixel signal is input, and the results (edge data) are sequentially sent to a signal preprocessing section as, for example, digital data.
前処理部では所定(後述)の前処理(ステップ108)
を実行し、処理の終ったデータを漸化式演算部へ送って
いく (ステップ110)。この前処理についても、エ
ツジ化データが与えられるごとに繰り返されることにな
る。The preprocessing section performs predetermined (described later) preprocessing (step 108).
is executed, and the processed data is sent to the recurrence formula calculation section (step 110). This preprocessing is also repeated each time edged data is provided.
次に、Hough曲線(サインカーブ)を求めるための
回転運動漸化式の演算が、後に説明する如く例えばD
D A (Dlgftal dll’f’erent[
al^nalysfs;ディジタル微分解Fr)演算と
して実行される(ステップ112)訳であるが、この演
算は処理すべき一画面(原画像面)の画素信号のうち、
前処理でウィンドウ外あるいは閾値以下のものとして除
かれた画素以外の全ての処理が終了するまで継続され(
ステップ114)、終了したらHough曲線の交点に
関して後述のフィルタリング処理(ステップ116)と
ソーティング処理(118)が実行され、最終的な結果
として原画像上の処理対象点をつなぐ曲線の近似直線が
求められることになる。Next, the calculation of the rotational motion recurrence formula for obtaining the Hough curve (sine curve) is performed using, for example, D
D A (Dlgftal dll'f'erent[
al^nalysfs (digital differential decomposition Fr) operation (step 112), but this operation is performed on the pixel signals of one screen (original image plane) to be processed.
This continues until all processing is completed except for pixels that were excluded as outside the window or below the threshold in preprocessing (
When step 114) is completed, filtering processing (step 116) and sorting processing (118), which will be described later, are performed on the intersection points of the Hough curves, and as a final result, an approximate straight line of the curve connecting the processing target points on the original image is obtained. It turns out.
次に、エツジ検出の手法およびエツジ化データについて
、第2図により説明する。Next, the edge detection method and edged data will be explained with reference to FIG.
いま、カメラで取り込まれた原画像が第2図(a)のよ
うになっているとし、図中の符号8で示すラインをX′
座標で取り出してみると、輝度Sをアナログ的に示せば
同図(b)のようになっている。すなわち、道路3の外
側部は輝度が低く道路3および路肩も輝度が低いが、路
肩ライン4は輝度が非常に高い。ここで、第2図(b)
のようなr4度分布は、実施例では例えば256階調の
ディジタルデータとして認識されるが、道路の形状を正
確に認識するためには、このような輝度そのものの分布
の把握では十分ではない。Now, let us assume that the original image captured by the camera is as shown in Figure 2 (a), and the line indicated by reference numeral 8 in the figure is X'
When taken out in terms of coordinates, the luminance S is shown in analog form as shown in FIG. 3(b). That is, the brightness of the outer part of the road 3 is low, and the brightness of the road 3 and the road shoulder is also low, but the brightness of the road shoulder line 4 is very high. Here, Fig. 2(b)
In the embodiment, the r4 degree distribution is recognized as, for example, 256-level digital data, but in order to accurately recognize the shape of a road, understanding the distribution of brightness itself is not sufficient.
そこで、輝度Sを座標X′で微分(d S/dx’)し
て輝度の変化割合として把握すると、第2図(C)よう
にエツジが明瞭になり、これを絶対値1dS/dx’l
で示すと同図(d)のようになり、路肩ライン4のエツ
ジを明瞭に認識するためのエツジ化データ(ディジタル
データ)が得られる。このエツジ化データについては、
次のステップにおいて前処理が施される。Therefore, if we differentiate the brightness S with respect to the coordinate X'(dS/dx') and understand it as the rate of change in brightness, the edges become clear as shown in Figure 2 (C), and this can be expressed as an absolute value of 1dS/dx'l.
The result is as shown in FIG. 4(d), and edge data (digital data) for clearly recognizing the edge of the road shoulder line 4 can be obtained. Regarding this edge data,
Pretreatment is performed in the next step.
第3図は前処理を説明するためのフローチャートである
。FIG. 3 is a flowchart for explaining preprocessing.
まず、第2図のようにして得られたエツジ化データが入
力され(ステップ122)、これがあらかじめ設定され
たウィンドウ内のものであるか否か判定される(ステッ
プ124)。このウィンドウは、例えば第2図(a)で
符号9により示す如く設定される。ここで、ウィンドウ
9の内側のエツジ化データであるか否かは、そのデータ
のX−Y座標面における座標値により判定でき、ウィン
ドウ9内のエツジ化データについてのみ、次のステップ
126が実行される。First, the edged data obtained as shown in FIG. 2 is input (step 122), and it is determined whether this is within a preset window (step 124). This window is set, for example, as shown by reference numeral 9 in FIG. 2(a). Here, whether or not the edged data is inside window 9 can be determined by the coordinate value of the data on the X-Y coordinate plane, and the next step 126 is executed only for the edged data inside window 9. Ru.
ステップ126では、ウィンドウ9内のエツジ化データ
が所定の閾値(スレッショルドレベル)以上であるか否
かが、例えばルックアップテーブルを用いてディジタル
的に判定される。この閾値をアナログ的に示せば、例え
ば第2図(d)で点線にて示すように設定されるので、
ステップ126で処理された後のデータは、主として原
画像中の路肩ライン4およびセンターライン5に対応し
たデータ(ディジタルデータ)となる。このため、後述
の信号処理をすべきデータが主要なもの(例えば道路の
路肩ラインやセンターラインに対応したもの)だけにな
るので、全体の処理速度を高速化できる。なお、この閾
値は可変にしてもよい。例えば、処理対象の道路が昼間
であるために全体的に明るいときは、これに応じて閾値
を高レベルにする。これに対し、朝あるいは夕方であっ
て全体的に暗いときは、全画面の平均の明るさに応じて
閾値を低レベルにすればよい。In step 126, it is determined digitally, for example, using a look-up table, whether or not the edged data within window 9 is equal to or greater than a predetermined threshold value (threshold level). If this threshold value is shown in analog form, it is set as shown by the dotted line in FIG. 2(d), for example.
The data processed in step 126 mainly becomes data (digital data) corresponding to the road shoulder line 4 and center line 5 in the original image. Therefore, only the main data (for example, data corresponding to the shoulder line and center line of the road) need to be subjected to signal processing, which will be described later, so that the overall processing speed can be increased. Note that this threshold value may be made variable. For example, if the road to be processed is bright throughout the day because it is daytime, the threshold value is set to a high level accordingly. On the other hand, when it is generally dark in the morning or evening, the threshold value may be set to a low level according to the average brightness of the entire screen.
次に、ステップ128で座標変換が行なわれる。Next, in step 128, a coordinate transformation is performed.
すなわち、第2図(a)に示すX−Y座標からX−y座
標への変換がなされる。以上の処理により、Hough
変換のための前処理が終了する。That is, the X-Y coordinate shown in FIG. 2(a) is converted into the X-y coordinate. By the above processing, Hough
Preprocessing for conversion ends.
なお、第3図においてステップ124〜128の順序は
異なっていてもよい。例えば、ステップ128の座標変
換を最初に行なうようにしてもよいが、データ処理に要
°する時間を考慮すると、第3図に示す順序で行なうの
が最も好ましいと考えられる。Note that the order of steps 124 to 128 in FIG. 3 may be different. For example, the coordinate transformation in step 128 may be performed first, but in consideration of the time required for data processing, it is considered most preferable to perform the coordinate transformation in the order shown in FIG.
次に、本実施例におけるHo u gh変換の適用につ
いて、第4図および第5図を参照して具体的に説明する
。Next, application of the Hou gh transform in this embodiment will be specifically explained with reference to FIGS. 4 and 5.
第4図(a)に示す点P(x、y)についp
てHough曲!I(サインカーブ)を求めると、これ
が同図(C)のようになることは、既に第11図で説明
した通りである。ところで、このようなサインカーブの
軌跡が同図(b)のような円運動の軌跡に置き換えられ
ることも、三角関数の定理より容易にわかる。言い換え
れば、同図(a)の点P(x、y)についてのHoug
h変換p
を実行して同図(c)のHough曲線を求めることは
、同図(b)のような円運動の円周の軌跡を求めること
と等価である。ここで、同図(b)の円は半径Rが
R−D −(X +V 2)’/2...(
2)1aX p pであ
り、円運動を点P(x、y)から開始すp
るとすると、その初期値θ、は
θd鴫π/2−θ、□
但し、tan θ −x/y ・・・(3
)laX p p
である。P Hough song about point P (x, y) shown in Figure 4 (a)! As already explained in FIG. 11, when I (sine curve) is determined, it becomes as shown in FIG. 11(C). By the way, it is also easily understood from the theorem of trigonometric functions that the locus of such a sine curve can be replaced with the locus of circular motion as shown in FIG. In other words, Houg about point P (x, y) in figure (a)
Executing the h-transform p to obtain the Hough curve shown in FIG. 4(c) is equivalent to obtaining the circumferential locus of circular motion as shown in FIG. 2(b). Here, the radius R of the circle in FIG. .. .. (
2) 1 a ...(3
) laX p p .
本発明者はこのような事実に着目し、第4図(b)の円
を描くに際して円運動の漸化式を適用し、第4図(a)
の点P(x、y)の同図p
(c)へのHough変換を簡単に行ないうる手法を見
出した。ここで、上記の円運動の漸化式によれば、α−
β直交座標系で座標(α 、β )として表わされる一
点から一回転角εだけ進んだ点の座標(α 、β
)は、iを正の整数と1◆1 ++1
するときに
aI+l−f (a ・ β ・ ε)α 11
β −f (α 、β 、ε) ・・・(4)国
β 11
として求められる。The inventor focused on this fact and applied the recurrence formula for circular motion when drawing the circle shown in FIG. 4(b),
We have found a method that can easily perform Hough transformation of point P (x, y) to p (c) in the same figure. Here, according to the recurrence formula for circular motion above, α−
The coordinates (α , β
) is aI+l−f (a ・ β ・ ε) α 11 β −f (α , β , ε) ・・・(4) Country
It is determined as β 11 .
この(4)式の具体的内容としては、従来からいくつか
のものが知れており、例えば回転角εをtm2−”(r
ad)(但し、m−0,1,2,−)としたときに
al+1−“l−2βl
β −2α1+β1 ・・・(5)it
あるいは
β −2−1α +β、(1−2−”)・・・(6)
とするものなどがある。また、より精度が高く計算が容
易なものとして本発明者が見出したものとして、
あるいは
一層 −3厘
β −α (2+ε /6)
Ill 1
+β (1−2−”−1’)
・・・ (8)
などを用いてもよい。Several specific contents of this equation (4) have been known for a long time. For example, the rotation angle ε can be expressed as tm2-"(r
ad) (however, when m-0, 1, 2, -), al+1-"l-2βl β -2α1+β1 ... (5) it or β -2-1α +β, (1-2-") ...(6)
There are things like that. In addition, as something that the present inventor found to be more accurate and easier to calculate, or even more so, -3 厘β -α (2+ε /6) Ill 1 +β (1-2-"-1')... (8) etc. may also be used.
そこで、上記(7)式の漸化式を適用するとして、この
演算を具体的に説明する。Therefore, this calculation will be specifically explained assuming that the recurrence formula of equation (7) above is applied.
第5図はそのフローチャートである。まず、第3図に従
って前処理がされたデータを入力しくステップ132)
、演算のための初期値を求める(ステップ134)。こ
の初期値(α 、β )は、第4図において処理対象点
P(x、y)p
に対応する位置、すなわちρ。−X、となる位置(角度
)θ’ =O(rad)から円運動をスタートするとき
は、
α −y ・βo−xp ・・・(9)p
となり、任意の角度θ′から円運動をスタートするとき
には
αom−xpsinθ’+ypcosθ′βo−xpC
O5θ’ +y p s ’ nθ′・・・(10)
となる。なお、第4図(C)では初期値(α。。FIG. 5 is a flow chart thereof. First, input the data that has been preprocessed according to FIG. 3 (step 132).
, find an initial value for the calculation (step 134). This initial value (α, β) is the position corresponding to the processing target point P(x,y)p in FIG. 4, that is, ρ. -X, when starting a circular motion from a position (angle) θ' = O (rad), α -y ・βo-xp ... (9) p, and starting a circular motion from an arbitrary angle θ' When starting, αom-xpsinθ'+ypcosθ'βo-xpC
O5θ' + y p s 'nθ' (10). In addition, in FIG. 4(C), the initial value (α.
β。)を上記(9)式のように求めて、Hough曲線
を描いている。そして、この場合には初期値(α 、β
。)の演算が実質的に不要になる。β. ) is calculated as in the above equation (9), and a Hough curve is drawn. In this case, the initial values (α, β
. ) calculation becomes virtually unnecessary.
次に、上記のβ。の値を記憶した後に、(7)式により
α 、β を求める。これは、(9)式ないしく10)
式で求めたα 、β を(7)式に代入すれば求めるこ
とができ(ステップ136)、計算の終了ごとに結果(
β 、β2゜β3.・・・)を順次に記憶しておく(ス
テップ138)。そして、円を一周するまでこの計算を
一回転角εごとに繰り返しくステップ140)、−周し
たら原画像上の1つの処理対象点についてのHough
曲線が、上記によって記憶したβ。。Next, the above β. After storing the values of , α and β are determined using equation (7). This is equation (9) or 10)
It can be obtained by substituting α and β determined by the formula into the formula (7) (step 136), and the result (
β , β2゜β3. ) are sequentially stored (step 138). Then, step 140) repeats this calculation for each rotation angle ε until it goes around the circle.
β the curve was memorized by above. .
β 、β 、β3.・・・の値とθ 、θ 、θ 。β, β, β3. ...values and θ, θ, θ.
・・・の値(回転角ε)より求められる。以下、第5図
に示す処理を原画像上の全ての処理対象点について実行
すると、複数のHough曲線がρ−θ座標系で求めら
れることになり、これらは第12図(b)のような交叉
点を有することになる。... (rotation angle ε). Below, if the processing shown in Figure 5 is executed for all processing target points on the original image, multiple Hough curves will be obtained in the ρ-θ coordinate system, and these will be as shown in Figure 12 (b). There will be a crossing point.
ここにお、いて、上記漸化式(7)において、基本的に
は三角関数の計算や乗算などは含まれておらず、またメ
モリテーブル(ROM)の参照なども不要であるので、
演算を容易かつ迅速に行なうことができる。そして、こ
れらは円運動を行なわせるにあたって、十分な精度を有
する(誤差が少ない)ものである。Here, the above recurrence formula (7) basically does not include the calculation of trigonometric functions or multiplication, and also does not require reference to the memory table (ROM), so
Calculations can be performed easily and quickly. These have sufficient accuracy (few errors) to perform circular motion.
次に、Hough変換を終了した後の近傍フィルタリン
グに゛ついて説明する。Next, neighborhood filtering after Hough transformation is completed will be described.
いま、Hough曲線の交点をρ−θ平面で表現したと
きに、第6図(a)のようになったとする。なお、同図
(a)はρ−θ平面の一単位ごとで現われる交叉点のヒ
ストグラムHを、説明をわかりやすくするために等高線
で表現したものであり、本発明による交叉点のヒストグ
ラムとは必ずしも一致するものではない。また、このヒ
ストグラムについては、説明をわかりやすくするため交
叉点の数だけに着目しており、原画像における画素(処
理対象点)の濃淡データ値(輝度の変化割合)による重
みづけを行なったものではない。Now, when the intersection of the Hough curves is expressed on the ρ-θ plane, it is assumed that it becomes as shown in FIG. 6(a). In addition, the histogram H of the intersection points appearing for each unit of the ρ-θ plane is expressed by contour lines in FIG. It doesn't match. In addition, in order to make the explanation easier to understand, this histogram focuses only on the number of intersection points, and is weighted by the grayscale data value (rate of change in brightness) of the pixel (processing target point) in the original image. isn't it.
集中し、その他に点p2.p3にも交叉点の集中が見ら
れるものとする。ここで、点p1の近傍に着目すると、
そこには点p4.p5などにも集中が生じていることが
わかる。ところが画像処理において特に重要なのは、互
いに離れた集中点p1〜p3を見出すことであって、例
えば点p1は道路の路肩ラインに、点p2はセンターラ
インに、そして点p3は前方のカーブした道路の路肩ラ
インに対応している。これに対して、最大集中点p1の
近傍の点p4.p5などは路肩ラインの部分的な曲りな
どに対応していることが多く、画像処理上は主として雑
音成分にあたる。Concentrate and other points p2. It is assumed that a concentration of intersection points is also seen in p3. Here, if we focus on the vicinity of point p1,
There is a point p4. It can be seen that concentration also occurs in p5 and the like. However, what is particularly important in image processing is to find concentrated points p1 to p3 that are far apart from each other. For example, point p1 is on the shoulder line of the road, point p2 is on the center line, and point p3 is on the curved road ahead. Compatible with road shoulder lines. On the other hand, the point p4 near the maximum concentration point p1. P5 and the like often correspond to partial bends in road shoulder lines, and in terms of image processing, they mainly correspond to noise components.
そこで、このような雑音成分の影響は例えば8近傍フイ
ルタリングにより少なくされる。すなわち、第6図(b
)のような8近傍フイルタを用意し、F −F9のエ
リアについてHough曲11の交叉点のヒストグラム
同士を比較する。そして、中心のエリアF5に対して、
F刈〜F、F−F
が成り立つときに、このエリアF5のデータを検出すべ
きデータとする。具体的には、例えばF1〜F9につい
て1個づつのρ−θ面での単位(要素エリア)画素を割
り当てたときに、交叉点の数が
F −6、F2−8 、F3−4 、F −2
、F5−14、FB−10、F7纏7 、F8−9 、
F9−8
となったときは、F >F −F 、F −F
が成立するので、F5の交叉点を検出すべきデータとす
る。これに対し、
F −8、F2−4 、F3−3 、F −14
、F5−10、F8−7 、F7− 9 、F8−
8 、F9− 2となったときは、F5くF4である
ので、F5のエリアは検出すべきデータとしない。Therefore, the influence of such noise components is reduced by, for example, 8-neighborhood filtering. That is, Fig. 6 (b
) is prepared, and the histograms of the intersection points of Hough song 11 are compared for the area F-F9. Then, when the following holds true for the center area F5, the data of this area F5 is set as the data to be detected. Specifically, for example, when one unit (element area) pixel on the ρ-θ plane is assigned to F1 to F9, the number of intersection points is F −6, F2-8, F3-4, F -2
, F5-14, FB-10, F7-7, F8-9,
When it becomes F9-8, F > F −F, F −F
Since the following holds true, the intersection point of F5 is set as the data to be detected. On the other hand, F -8, F2-4, F3-3, F -14
, F5-10, F8-7, F7-9, F8-
8, F9-2, since it is F5 minus F4, the area of F5 is not treated as data to be detected.
以上のフィルタリング処理を行なうことにより、第6図
(a)において点p4.p5の存在に影響されることな
く、第2および第3の集中点p2゜F3を検出すること
ができる。すなわち、もし上記のフィルタリングを行な
わなかったとすると、第1の集中点(!&大大中中点p
lに次ぐ集中点はその近傍の点p4.p5となり、第2
および第3の集中点として求めたい独立の集中点p2.
p3は、第4および第5の集中点となってしまい、後の
信号処理が著しく困囃になってしまう。By performing the above filtering process, point p4. The second and third concentration points p2°F3 can be detected without being affected by the presence of p5. In other words, if the above filtering is not performed, the first concentration point (!&large-large-middle-middle point p
The next concentration point after l is the nearby point p4. p5, the second
and an independent concentration point p2 to be obtained as the third concentration point.
p3 becomes the fourth and fifth concentration points, which significantly complicates subsequent signal processing.
次に、第1図でステップ118として示すソーティング
処理につき、第7図により説明する。Next, the sorting process shown as step 118 in FIG. 1 will be explained with reference to FIG.
第7図はそのフローチャートである。まず、ソーティン
グ処理のために、入力用メモリM1と比較メモリMMl
−MMn”” 2.3.4−)を用意し、これを初期化
する(ステップ152)。FIG. 7 is a flow chart thereof. First, for sorting processing, input memory M1 and comparison memory MML
-MMn"" 2.3.4-) is prepared and initialized (step 152).
次に、入力メモリ町にデータを入力しくステップ154
)、この入力データが有りのとき(ステップ156)の
みステップ158,162゜166の比較を実行してい
く。そして、入力メモリMIO方が大きい場合には、対
応する比較メモリMMと内容を入れ換える(ステップ1
6o。Next, step 154 is to input data into the input memory field.
), and only when this input data is present (step 156), the comparisons of steps 158, 162 and 166 are executed. If the input memory MIO is larger, the contents are exchanged with the corresponding comparison memory MM (step 1).
6o.
164.168)。すると、最終的には比較メモリMM
l〜MM。には、大きい順にn個の入カデータが保持さ
れることになる。164.168). Then, finally the comparison memory MM
l~MM. will hold n pieces of input data in descending order of size.
これを具体的に示すと、第8図のようになる。A concrete example of this is shown in FIG.
まず、比較メモリとして4個のメモリMM1〜MM4を
用意する。そして、入力されるデータは’5,7.2,
8,4.9,3.1.6.8′の10個であるとする。First, four memories MM1 to MM4 are prepared as comparison memories. And the input data is '5, 7.2,
Assume that there are 10 pieces: 8, 4.9, 3.1.6.8'.
すると、メモリMM□〜MM4に格納されるデータは同
図(b)に矢印で示すように変化し、最終的には
比較メモリMMl−9
“ MM2−8
″ MM3−8
″ MM4−7
の内容が格納されることになる。なお、このソーティン
グ処理はソフトウェアにより実行してもよい。以上のよ
うな一連の処理を実行することにより、本発明に係る画
像処理方式の全ステップが終了する。そして、原画像の
複数の処理対象点を結ぶ曲線の近似直線が、上記のρ、
θの値で求まることになる。Then, the data stored in the memories MM□ to MM4 changes as shown by the arrows in FIG. will be stored. Note that this sorting process may be executed by software. By executing the above series of processes, all steps of the image processing method according to the present invention are completed. , the approximate straight line of the curve connecting multiple processing target points of the original image is the above ρ,
It is determined by the value of θ.
本発明は上記の実施例に限定されるものではなく、各種
の変形が可能である。The present invention is not limited to the above embodiments, and various modifications are possible.
例えば、第3図のステップ124に示すウィンドウの設
定は、複数のウィンドウについて行なうようにし、更に
ウィンドウが重なるときにはいずれか一方を優先的に処
理するようにしてもよい。For example, the window setting shown in step 124 in FIG. 3 may be performed for a plurality of windows, and furthermore, when the windows overlap, one of the windows may be processed preferentially.
また、ウィンドウの設定自体は必ずしも必要ではなく、
原画像の全体を対象として)(ough変換を実行して
もよい。但し、この場合には、第2図(a)で点線Qに
て示す原画像の周辺領域は雑音成分を多く含むので、精
度のよい画像処理を行なうときには、あらかじめこの部
分を取り除いておかなければならない。Also, the window settings themselves are not necessarily necessary,
(ough conversion may be performed on the entire original image. However, in this case, since the peripheral area of the original image indicated by the dotted line Q in FIG. 2(a) contains many noise components, When performing accurate image processing, this portion must be removed in advance.
Hough曲線の交叉点のヒストグラムを求めるに際し
ては、輝度の変化割合(微分されたエツジ化データの値
)に関する濃淡値データを重畳することができる。例え
ば、輝度の変化割合の高い処理対象点に対応するHou
gh曲線については重み付けを大きくし、輝度の変化割
合の低いしのは重み付けを小さくする。そして、これに
対応させてHo ugh曲線の交叉点に重み付けを行な
えば、より精度の高い画像処理が可能になる。さらに、
微分によってエツジ化データとせずに、輝度に対応する
データをそのままディジタル処理し、その後にHoug
h曲線の交叉点に輝度の重み付けをしてもよい。When obtaining the histogram of the intersection point of the Hough curve, gray value data regarding the rate of change in brightness (value of the differentiated edged data) can be superimposed. For example, the Hou corresponding to the processing target point with a high rate of change in brightness
The weighting is increased for the gh curve, and the weighting is decreased for curves where the rate of change in brightness is low. If the intersection points of the Hough curves are weighted accordingly, more accurate image processing becomes possible. moreover,
The data corresponding to the luminance is digitally processed as it is without converting it into edge data by differentiation, and then Houg
Luminance weighting may be applied to the intersection point of the h curve.
回転運動漸化式の演算は、必ずしも近似円の全周(−周
)について行なうことは必須ではなく、1/2周、1/
4周あるいは1/8周などとしてもよい。例えば1/4
周の演算をO≦θくπ/2およびπ≦θ< 3 x /
2について実行すれば、他の円周(π/2≦θくπ、
3π/2≦θく2π)上の値はこれらから直ちに求める
ことができる。It is not necessary to calculate the rotational motion recurrence formula for the entire circumference (-circumference) of the approximate circle, but for 1/2 circumference, 1/2 circumference, etc.
It may be 4 rounds or 1/8 round. For example 1/4
Calculate the circumference by O≦θ and π/2 and π≦θ<3 x /
2, other circumferences (π/2≦θ×π,
3π/2≦θ×2π) The above values can be immediately obtained from these.
また、回転角は常に同一とすることは必ずしも必要では
なく、一部において異ならせることも不可能ではない。Further, it is not necessarily necessary that the rotation angles are always the same, and it is not impossible to make them partially different.
次に、上記実施例を適用した画像処理装置の一例につい
て、簡単に説明する。Next, an example of an image processing apparatus to which the above embodiment is applied will be briefly described.
第9図はその全体構成を説明するブロック図である。図
示の通り、カメラ11で得られた画像データは、信号人
力部12から例えば256階調の画素信号(輝度信号)
としてエツジ検出部13に送られ、ここで第2図に示す
ようなエツジ化データが生成される。このエツジ化デー
タは画素における輝度の変化割合に対応しており、多値
化メモリ14で格納された後、D/A変換部15でアナ
ログデータに変換されてCRTデイスプレィ16で表示
される。FIG. 9 is a block diagram illustrating the overall configuration. As shown in the figure, the image data obtained by the camera 11 is supplied as a pixel signal (luminance signal) of, for example, 256 gradations from the signal human power section 12.
The data is sent to the edge detection section 13, where edged data as shown in FIG. 2 is generated. This edged data corresponds to the rate of change in brightness in the pixel, and is stored in the multilevel memory 14, converted to analog data in the D/A converter 15, and displayed on the CRT display 16.
一方、エツジ検出部13からのエツジ化データは前処理
部17に与えられ、ここで第3図に示す前処理が実行さ
れたのち、処理対象点ごとのエツジ化データとして、F
I F O(First−InFirst−Out
)方式に従って順次にDDA演算部18に与えられる。On the other hand, the edged data from the edge detection unit 13 is given to the preprocessing unit 17, where the preprocessing shown in FIG.
I F O (First-In First-Out
) method is sequentially applied to the DDA calculation unit 18.
DDA演算部18はn個(n:自然数)のDDA演算回
路18〜18 をaして構成On−1
され、ここでバイブライン処理方式に従って前述の漸化
式の演算が第5図のように実行される。すなわち、DD
A演算回路18〜18 ごとに、n−1
一回転角ごとの漸化式の演算が実行される。そして、計
算の結果(前述のβ 、β 、β 、・・・)は図示し
ないヒストグラムメモリ(RAM)に−時的に格納され
るが、このときには各処理対象点ごとの濃淡値データも
あわせてfc!憶される。このようなヒストグラムデー
タは、一画面についての処理が終了した後、ヒストグラ
ムメモリから近傍フィルタ19に送られ、ここで第6図
の如き8近傍フイルタリング処理が実行され、次にソー
ティング部20で第7図および第8図のようなソーティ
ング処理がされる。The DDA calculation unit 18 is configured by n (n: natural number) DDA calculation circuits 18 to 18, and the above-mentioned recurrence formula is calculated according to the Vibration processing method as shown in FIG. executed. That is, D.D.
For each of the A calculation circuits 18 to 18, the calculation of the recurrence formula is executed every n-1 rotation angles. The calculation results (the aforementioned β, β, β, ...) are temporarily stored in a histogram memory (RAM) not shown, but at this time, the gray value data for each processing target point is also stored. fc! be remembered. After the processing for one screen is completed, such histogram data is sent from the histogram memory to the neighborhood filter 19, where the 8-neighborhood filtering process as shown in FIG. Sorting processing as shown in FIGS. 7 and 8 is performed.
なお、上記の回路要素はVMEバス21によって相互に
接続され、これらはCPU22により所定の手順で制御
されるようになっている。また、DDA演算回路18〜
18 は別のVMEバn−1
ス23によって近傍フィルタ19に接続され、演算結果
(アドレスデータ、濃淡値データなどからなるヒストグ
ラムデータ)が転送されるようになっている。Note that the above circuit elements are interconnected by a VME bus 21, and are controlled by a CPU 22 according to a predetermined procedure. In addition, the DDA calculation circuit 18~
18 is connected to the neighborhood filter 19 by another VME bus n-1 23, so that calculation results (histogram data consisting of address data, gray value data, etc.) are transferred.
以上、説明した通り本発明によれば、原画像の処理対象
点の座標をHo u gh凸曲線表わすための演算は、
円を描くための回転運動漸化式の演算として、例えばD
DA演算により近似的に実行できるので、乗算および三
角関数計算は不要となり、従って原画像上の処理対象点
を結ぶ曲線の近似直線を少ない計算によって、メモリテ
ーブルの参照などをすることがなく求めることが可能に
なる。As explained above, according to the present invention, the calculation for expressing the coordinates of the processing target point of the original image as a H u gh convex curve is as follows:
For example, as a calculation of the rotational motion recurrence formula for drawing a circle, D
Since it can be performed approximately by DA calculation, multiplication and trigonometric function calculations are not required, and therefore an approximate straight line of a curve connecting the processing target points on the original image can be obtained with a small number of calculations and without referring to a memory table. becomes possible.
このため、Hough変換を適用した画像データの処理
を、高速度でリアルタイムに実行することが可能になる
。Therefore, it becomes possible to process image data to which Hough transformation is applied at high speed and in real time.
第1図は本発明の一実施例に係る画像処理方式の全体構
成を示すフローチャート、第2図は原画像の一例と入力
された画素信号のエツジ検出を説明する図、第3図はエ
ツジ化データの前処理を説明するフローチャート、第4
図は本発明の実施例におけるHough変換を説明する
図、第5図は実施例における回転運動の漸化式の演算を
示すフローチャート、第6図は8近傍フイルタリング処
理を説明する図、第7図はソーティング処理を説明する
フローチャート、第8図はソーティング処理を具体的に
説明する図、第9図は実施例を適用した画像処理装置の
全体構成を示すブロック図、第10図は道路の認謙を説
明する図、第11図ないし第13図は従来のHough
変換を説明する図である。
1・・・カメラ画像、2・・・水平線、3・・・道路、
4・・・路肩ライン、5・・・センターライン、11・
・・カメラ、12・・・信号入力部、13・・・エツジ
検出部、14・・・多値化メモリ、15・・・D/A変
換部、16・・・CRTデイスプレィ、17・・・前処
理部、18−DDAag部、18 〜18 −DDA
n−1
演算回路、19・・・近傍フィルタ、20・・・ソーテ
ィング部、21.23・・・VMEバス、22・・・C
PU。
特許出願人 本田技研工業株式会社
代理人弁理士 長谷用 芳 樹前処理のフロー
チャート
第3図
第5図
8近傍フィルタリング
Lz
道路の偲識
第10図
Hough変換の説明(I)
第11図
Hough変換の説明(■)FIG. 1 is a flowchart showing the overall configuration of an image processing method according to an embodiment of the present invention, FIG. 2 is a diagram explaining an example of an original image and edge detection of an input pixel signal, and FIG. 3 is an edge conversion diagram. Flowchart explaining data preprocessing, Part 4
5 is a flowchart illustrating calculation of the rotational motion recurrence formula in the embodiment, FIG. 6 is a diagram illustrating 8-neighborhood filtering processing, and FIG. Figure 8 is a flowchart explaining sorting processing, Figure 8 is a diagram specifically explaining sorting processing, Figure 9 is a block diagram showing the overall configuration of an image processing device to which the embodiment is applied, and Figure 10 is road recognition. Diagrams explaining Hough, Figures 11 to 13 are conventional Hough
It is a figure explaining conversion. 1... Camera image, 2... Horizon, 3... Road,
4... Road shoulder line, 5... Center line, 11.
. . . Camera, 12 . Pre-processing section, 18-DDAag section, 18-18-DDA
n-1 arithmetic circuit, 19... neighborhood filter, 20... sorting section, 21.23... VME bus, 22... C
P.U. Patent Applicant: Honda Motor Co., Ltd. Representative Patent Attorney Yoshiki Hase Flowchart of pre-processing Figure 3 Figure 5 Figure 8 Neighborhood filtering Lz Road knowledge Figure 10 Explanation of Hough transformation (I) Figure 11 of Hough transformation Explanation (■)
Claims (6)
これら処理対象点を結ぶ曲線を分別、抽出する画像処理
方式において、 α−β直交座標系で描かれる近似円の円周上の一点の座
標を(α_i,β_i)とし、前記円周上の次の点の座
標(α_i_+_1,β_i_+_1)までの回転角を
εとしたとき(但し、iは正の整数)に、 α_i_+_1=f_α(α_i,β_i,ε)β_i
_+_1=f_β(α_i,β_i,ε)となる回転運
動漸化式を1もしくは複数の前記回転角ごとに、前記近
似円の一周もしくは自然数分の一周について順次に演算
し、前記原画像上の複数の処理対象点のそれぞれに対応
するHough曲線を求める第1のステップと、 前記第1のステップより求めた少なくとも2本の前記H
ough曲線の交点から前記処理対象点を結ぶ曲線の近
似直線を導出する第2のステップと を備えることを特徴とする画像処理方式。1. From the characteristics of the distribution of multiple processing target points on the original image,
In an image processing method that separates and extracts a curve connecting these points to be processed, the coordinates of one point on the circumference of an approximate circle drawn in the α-β orthogonal coordinate system are (α_i, β_i), and the next point on the circumference is When the rotation angle to the coordinates (α_i_+_1, β_i_+_1) of the point is ε (where i is a positive integer), α_i_+_1=f_α(α_i, β_i, ε)β_i
The rotational motion recurrence formula _+_1=f_β(α_i, β_i, ε) is calculated sequentially for one or more rotation angles of the approximate circle or one rotation of a natural number, and a first step of obtaining Hough curves corresponding to each of the processing target points; and at least two Hough curves obtained from the first step.
an image processing method, comprising: a second step of deriving an approximate straight line of a curve connecting the processing target point from the intersection of the eight curves;
これら処理対象点を結ぶ曲線を分別、抽出する画像処理
方式において、 前記原画像上の処理対象点からα−β直交座標系におけ
る初期値の座標(α_0,β_0)を求める第1のステ
ップと、 前記α−β直交座標系で描かれる近似円の円周上の一点
の座標を(α_i,β_i)とし、前記円周上の次の点
の座標(α_i_+_1,β_i_+_1)までの回転
角をεとしたとき(但し、iは正の整数)に、α_i_
+_1=f_α(α_i,β_i,ε)β_i_+_1
=f_β(α_i,β_i,ε)となる回転運動漸化式
を、前記第1のステップの初期値から1回転角ごとに順
次に演算する第2のステップと、 前記第2のステップの演算結果から前記処理対象点に対
応するHough曲線を求める第3のステップと、 前記第1ないし第3のステップを前記処理対象点ごとに
繰り返し、これにより求めた少なくとも2本の前記Ho
ugh曲線の交点から前記処理対象点を結ぶ曲線の近似
直線を導出する第4のステップと を備えることを特徴する画像処理方式。2. From the characteristics of the distribution of multiple processing target points on the original image,
In an image processing method that separates and extracts a curve connecting these processing target points, a first step of calculating initial value coordinates (α_0, β_0) in an α-β orthogonal coordinate system from the processing target point on the original image; The coordinates of one point on the circumference of the approximate circle drawn in the α-β orthogonal coordinate system are (α_i, β_i), and the rotation angle to the coordinates (α_i_+_1, β_i_+_1) of the next point on the circumference is ε. (where i is a positive integer), α_i_
+_1=f_α(α_i, β_i, ε)β_i_+_1
= f_β(α_i, β_i, ε), a second step of sequentially calculating a rotational motion recurrence formula for each rotation angle from the initial value of the first step; and a calculation result of the second step. a third step of obtaining a Hough curve corresponding to the processing point from
and a fourth step of deriving an approximate straight line of a curve connecting the processing target point from the intersection of the ugh curve.
直交座標系での座標を(x_p,y_p)としたときに
、 α_0=−x_psinθ′+y_pcosθ′β_0
=x_pcosθ′+y_psinθ′としてα−β直
交座標系における前記初期値の座標(α_0,β_0)
を求めるステップである請求項2記載の画像処理方式。3. In the first step, x-y of the processing target point is
When the coordinates in the orthogonal coordinate system are (x_p, y_p), α_0=-x_psinθ'+y_pcosθ'β_0
The coordinates of the initial value in the α-β orthogonal coordinate system (α_0, β_0) as =x_pcosθ′+y_psinθ′
3. The image processing method according to claim 2, wherein the step is to obtain .
直交座標系での座標を(x_p,y_p)としたときに
、 α_0=y_p β_0=x_p としてα−β直交座標系における前記初期値の座標(α
_0,β_0)を求めるステップである請求項2記載の
画像処理方式。4. In the first step, x-y of the processing target point is
When the coordinates in the orthogonal coordinate system are (x_p, y_p), the coordinates of the initial value in the α-β orthogonal coordinate system (α
_0, β_0). 3. The image processing method according to claim 2.
^mとしたときに、 α_i_+_1=α_1(1−2^−^2^m^−^1
)−2^−^mβ_iβ_i_+_1=2^−^mα_
i+β_i(1−2^−^2^m^−^1)なる漸化式
を演算するステップである請求項2記載の画像処理方式
。5. In the second step, the rotation angle is set to ε=2^-
When ^m, α_i_+_1=α_1(1-2^-^2^m^-^1
)-2^-^mβ_iβ_i_+_1=2^-^mα_
3. The image processing method according to claim 2, wherein the step is to calculate a recurrence formula i+β_i(1-2^-^2^m^-^1).
画像における輝度もしくはその変化割合にもとづく濃淡
値データによって重み付けをされたHough曲線を求
めるステップであり、前記第4のステップが前記濃淡値
データによって重み付けをされた前記近似直線を導出す
るステップである請求項2記載の画像処理方式。6. The third step is a step of obtaining a Hough curve weighted by gradation value data based on the luminance of the processing target point in the original image or the rate of change thereof, and the fourth step is a step of obtaining a Hough curve weighted by the gradation value data based on the luminance of the processing target point in the original image or the rate of change thereof. 3. The image processing method according to claim 2, further comprising the step of deriving the weighted approximate straight line.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63112243A JPH0642261B2 (en) | 1988-05-09 | 1988-05-09 | Image processing method |
EP89304686A EP0341985B1 (en) | 1988-05-09 | 1989-05-09 | Picture processing device |
DE68923324T DE68923324T2 (en) | 1988-05-09 | 1989-05-09 | Image processing device. |
US08/125,350 US5379353A (en) | 1988-05-09 | 1993-09-22 | Apparatus and method for controlling a moving vehicle utilizing a digital differential analysis circuit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63112243A JPH0642261B2 (en) | 1988-05-09 | 1988-05-09 | Image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH01281578A true JPH01281578A (en) | 1989-11-13 |
JPH0642261B2 JPH0642261B2 (en) | 1994-06-01 |
Family
ID=14581824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63112243A Expired - Fee Related JPH0642261B2 (en) | 1988-05-09 | 1988-05-09 | Image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0642261B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7415133B2 (en) | 2004-05-19 | 2008-08-19 | Honda Motor Co., Ltd. | Traffic lane marking line recognition system for vehicle |
-
1988
- 1988-05-09 JP JP63112243A patent/JPH0642261B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7415133B2 (en) | 2004-05-19 | 2008-08-19 | Honda Motor Co., Ltd. | Traffic lane marking line recognition system for vehicle |
Also Published As
Publication number | Publication date |
---|---|
JPH0642261B2 (en) | 1994-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6400117B2 (en) | Method and apparatus for recognizing traffic signs | |
US5379353A (en) | Apparatus and method for controlling a moving vehicle utilizing a digital differential analysis circuit | |
CN107292242B (en) | Iris identification method and terminal | |
JP6829575B2 (en) | Image processing equipment, image processing system and image processing method | |
US5870495A (en) | Fuzzy method and device for the recognition of geometric shapes in images | |
CN110472521A (en) | A kind of Pupil diameter calibration method and system | |
CN105809173A (en) | Bionic vision transformation-based image RSTN (rotation, scaling, translation and noise) invariant attributive feature extraction and recognition method | |
JPH01281578A (en) | Image processing system | |
CN114332880A (en) | Text detection method, device, equipment and storage medium | |
JP3210767B2 (en) | Image recognition method | |
JP2935847B2 (en) | Image processing device | |
JPH01281577A (en) | Image processor | |
JPH01281579A (en) | Image processor | |
JPS63193282A (en) | Contour extraction system | |
Zrour et al. | Optimal consensus set for annulus fitting | |
JPH0232481A (en) | Peak data extractor | |
JPH08226961A (en) | Automatic target identifying apparatus | |
JPH08161493A (en) | Method for detecting line shape and its device | |
JPS62159292A (en) | Recognizing method for position of machine screw hole | |
JP2578116B2 (en) | Straight line detection method | |
JP3184377B2 (en) | 3D vision device | |
KR100351981B1 (en) | FIlTERING METHOD FOR EXTRACT DIRECTIONAL INFORMATION | |
JPH067390B2 (en) | Graphic analysis device | |
JP2000348178A (en) | Fingerprint collation device | |
JPH0290380A (en) | Running path discriminating method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |