JPH04153785A - Environment recognizer for mobile vehicle - Google Patents

Environment recognizer for mobile vehicle

Info

Publication number
JPH04153785A
JPH04153785A JP2277656A JP27765690A JPH04153785A JP H04153785 A JPH04153785 A JP H04153785A JP 2277656 A JP2277656 A JP 2277656A JP 27765690 A JP27765690 A JP 27765690A JP H04153785 A JPH04153785 A JP H04153785A
Authority
JP
Japan
Prior art keywords
image
shift
images
image information
corrected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2277656A
Other languages
Japanese (ja)
Other versions
JP2984351B2 (en
Inventor
Hiroyuki Takahashi
弘行 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2277656A priority Critical patent/JP2984351B2/en
Publication of JPH04153785A publication Critical patent/JPH04153785A/en
Application granted granted Critical
Publication of JP2984351B2 publication Critical patent/JP2984351B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To correct the total shift of an image by extracting the image information corresponding to a prescribed reference line at a prescribed time interval, secures the correlation of image information at least between two screens, and correcting an input image. CONSTITUTION:The convolutions of the line data Pa and Pb extracted by a pilot line data extracting parts 2 and 4 are calculated. Then it is decided whether the dispersion obtained from the convolution has a peak or not. If not, a vertical position shift is judged between the images 11 and 12 where the data Pa and Pb are extracted. A shift extent calculation part 3 detects a shift between both images in the pitch direction as a shift extent of the images. In addition, the continuous images are corrected by the shift correction processing for extraction of a road structure. The corrected images are outputted to a road structure extracting part 8. As a result, the images can be corrected in regard of the shift occurred in the pitch direction.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、画像処理にて走行路構造を認識する移動車の
環境認識装置に関する。
DETAILED DESCRIPTION OF THE INVENTION (Industrial Field of Application) The present invention relates to an environment recognition device for a moving vehicle that recognizes the structure of a traveling road through image processing.

(従来の技術) 従来、走行路の構造を認識する場合、ある瞬間の画像か
らノイズの影響を少なくし、その画像を用いて認識する
ことが困難であるため、連続した複数の画像を比較し、
処理画像に単一のノイズがのってもそれを除去できるよ
うにしている。
(Prior art) Conventionally, when recognizing the structure of a driving road, it is difficult to reduce the influence of noise from an image taken at a certain moment and then use that image for recognition. ,
Even if a single noise appears in the processed image, it can be removed.

(発明が解決しようとしている課題) しかしながら、上記従来例では、走行路構造を認識する
ための画像が車両に備えた画像入力部にて捕えたもので
あると、車両のピッチ方向の揺れにより画像にブレが発
生し、このブレを補正しなければ正確な走行路構造を認
識できないという問題がある。
(Problem to be Solved by the Invention) However, in the above-mentioned conventional example, if the image for recognizing the running road structure is captured by an image input unit provided in the vehicle, the image may be distorted due to the vibration in the pitch direction of the vehicle. There is a problem that blurring occurs, and unless this blurring is corrected, it is not possible to accurately recognize the structure of the driving route.

(課題を解決するための手段) 本発明は、上述の課題を解決することを目的として成さ
れたもので、上述の課題を解決する手段として以下の構
成を備える。
(Means for Solving the Problems) The present invention has been made for the purpose of solving the above-mentioned problems, and includes the following configuration as a means for solving the above-mentioned problems.

即ち、外界認識のための画像入力手段を備えた移動車の
環境認識装置であって、入力画像から、該入力画像上に
設けた所定の基準線に対応する画像情報を所定時間間隔
にて抽出する手段と、少なくとも2画面間における、前
記画像情報の相関をとる手段と、前記相関に基づいて入
力画像を補正する手段とを備える。
That is, the environment recognition device for a moving vehicle is equipped with an image input means for recognizing the outside world, and extracts image information corresponding to a predetermined reference line provided on the input image from the input image at predetermined time intervals. means for correlating the image information between at least two screens, and means for correcting the input image based on the correlation.

(作用) 以上の構成において、車両の揺れによる画像のブレを補
正し、道路構造を認識し易い画像を作成できる。
(Function) With the above configuration, it is possible to correct image blur caused by vehicle shaking and create an image in which the road structure is easy to recognize.

(実施例) 以下、添付図面を参照して本発明に係る好適な一実施例
を詳細に説明する。
(Embodiment) Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

第1図は、本発明に係る一実施例である移動車の環境認
識装置(以下、装置という)のブロック図である。
FIG. 1 is a block diagram of an environment recognition device for a moving vehicle (hereinafter referred to as the device), which is an embodiment of the present invention.

第1図において、画像入力部1は不図示のCODカメラ
等から構成され、自車前方の走行路環境(主に路面状況
)を画像情報として入力する。そして、それを時刻tで
の画像情報として、パイロットラインデータ抽圧部2と
座標変換部5へ送る。
In FIG. 1, an image input unit 1 includes a COD camera (not shown), etc., and inputs the driving road environment (mainly road surface condition) in front of the vehicle as image information. Then, it is sent to the pilot line data extraction section 2 and the coordinate transformation section 5 as image information at time t.

パイロットラインデータ抽出部2は、入力画像上に、後
述するパイロットラインを設定し、そのパイロットライ
ンに対応する画像データを抽出する。抽出された画像デ
ータは、移動量演算部3のラインバッファ3aに格納さ
れる。
The pilot line data extraction unit 2 sets a pilot line, which will be described later, on the input image and extracts image data corresponding to the pilot line. The extracted image data is stored in the line buffer 3a of the movement amount calculation section 3.

一方、座標変換部5は、時刻t−1に画像入力部1から
入力した画像情報をパイロットラインデータ抽出部4に
送出する。パイロットラインデータ抽出部4は、パイロ
ットラインデータ抽出部2と同様、入力した画像情報上
にパイロットラインを設定し、そのパイロットラインに
対応する画像データを抽出する。抽出された画像データ
は、移動量演算部3のラインバッファ3aに格納される
On the other hand, the coordinate transformation section 5 sends the image information input from the image input section 1 at time t-1 to the pilot line data extraction section 4. Like the pilot line data extraction section 2, the pilot line data extraction section 4 sets a pilot line on the input image information and extracts image data corresponding to the pilot line. The extracted image data is stored in the line buffer 3a of the movement amount calculation section 3.

移動量演算部3は、ラインバッファ3aに格納されたパ
イロットラインデータ抽出部2,4からの画像情報相互
の相関をとり、その結果をもとに画像のピッチ方向のズ
レを検出する。そして、検出結果を座標変換部5に送る
The movement amount calculation section 3 correlates the image information from the pilot line data extraction sections 2 and 4 stored in the line buffer 3a, and detects a shift in the pitch direction of the image based on the result. Then, the detection result is sent to the coordinate transformation section 5.

座標変換部5は、移動量演算部3からの画像のズレ情報
をもとに画像の座標変換、つまり画像のズレ補正を行な
う。補正後の画像は、次の移動量演算のための画像情報
として、そのまま座標変換部5に格納しておくと共に、
セレクタ6にて選択される複数のバッファ7の1つに1
フレーム毎転送される。
The coordinate transformation section 5 performs coordinate transformation of the image, that is, image displacement correction, based on the image displacement information from the movement amount calculation section 3. The corrected image is stored as it is in the coordinate conversion unit 5 as image information for the next movement amount calculation, and
1 to one of the plurality of buffers 7 selected by the selector 6.
Each frame is transferred.

バッファ7は、転送された複数フレームの画像情報にて
バッファがあふれ次第、順次そのフレームを道路構造抽
出部8に出力する。道路構造抽出部8は、連続して送ら
れてくる画像情報を解析して道路構造を抽出し、その結
果を主制御部9に出力する。
The buffer 7 sequentially outputs the frames to the road structure extraction unit 8 as soon as the buffer is overflowing with the transferred image information of the plurality of frames. The road structure extraction section 8 analyzes the image information that is continuously sent, extracts the road structure, and outputs the result to the main control section 9.

主制御部9は、装置全体を制御すると共に、道路構造抽
出部8からの道路構造抽出結果をもとに道路環境を認識
する。
The main control section 9 controls the entire device and recognizes the road environment based on the road structure extraction result from the road structure extraction section 8.

次に、本実施例における画像のズレ補正について詳細に
説明する。
Next, image shift correction in this embodiment will be described in detail.

第2図は、画像のズレ補正を模式的に示したものである
FIG. 2 schematically shows image shift correction.

第2図において、画像11はパイロットラインデータ抽
出部2に格納された、時刻tでの画像情報であり、画像
12は、パイロットラインデータ抽出部4に格納された
、時刻t−1での画像情報である。それぞれの画像上に
は、画像の特徴検出のため、3本のパイロットラインl
la、12aを設定し、その内の1本は画像中央に、他
の2本は、画像端部な避けて画像の左右方向に1本ずつ
設ける。ここで画像端部を避けるのは、端部の画像デー
タはノイズの影響が強いからで、従って、他の2本のパ
イロットラインの位置としては、絡端のラインを抽出す
るのに都合のよい位置を選定する。
In FIG. 2, image 11 is image information at time t stored in pilot line data extraction section 2, and image 12 is image information at time t-1 stored in pilot line data extraction section 4. It is information. Three pilot lines are placed on each image to detect image features.
1a and 12a are set, one of which is provided at the center of the image, and the other two are provided one each in the left and right directions of the image, avoiding the edges of the image. The edge of the image is avoided here because image data at the edge is strongly affected by noise, so the positions of the other two pilot lines are convenient for extracting the line at the tangled edge. Select a location.

尚、−旦設定したパイロットラインは、その後の処理如
何に拘らずその位置は固定とする。
Note that the position of the pilot line once set is fixed regardless of subsequent processing.

そこで、第2図に示した模式図と第3図に示したフロー
チャートに従い、画像のズレ補正処理について説明する
Accordingly, image shift correction processing will be described with reference to the schematic diagram shown in FIG. 2 and the flowchart shown in FIG. 3.

第3図のステップS1で、パイロットラインデータ抽出
部2は、時刻tにおける画像から3本のパイロットライ
ンllaに対応する画像データ(これをラインデータP
aとする)を抽出し、続(ステップS2で、パイロット
ラインデータ抽出部4は、時刻t−1における画像から
3本のパイロットライン12aに対応する画像データ(
これをラインデータpbとする)を抽出する。
In step S1 of FIG. 3, the pilot line data extracting unit 2 extracts image data (which is converted into line data
In step S2, the pilot line data extraction unit 4 extracts image data (referred to as a) corresponding to the three pilot lines 12a from the image at time t-1.
This is referred to as line data pb).

ステップS3では、パイロットラインデータ抽出部2,
4にて抽出されたラインデータPa、Pbのコンボリュ
ーションを演算し、ステップS4で、コンボリューショ
ンの結果得られた分散にピークがあるか否かを判定する
。ここで分散にピークが有ると判定されると、ラインデ
ータPa、Pb間の相関が強いということで、画像全体
がある特徴的な動きをしたと判断する。そこで、ステッ
プS8に進み、移動量演算部3が時刻tでの画像情報で
ある第2図の画像11を補正せず、そのまま座標変換部
5に格納する。言うまでもな(、この画像は、次の相関
演算処理での時刻t−1の画像情報となる。
In step S3, the pilot line data extraction unit 2,
A convolution of the line data Pa and Pb extracted in step S4 is calculated, and in step S4 it is determined whether or not there is a peak in the variance obtained as a result of the convolution. If it is determined that there is a peak in the dispersion, it is determined that the correlation between the line data Pa and Pb is strong, and that the entire image has a certain characteristic movement. Therefore, the process proceeds to step S8, and the movement amount calculation section 3 stores the image 11 in FIG. 2, which is the image information at time t, in the coordinate conversion section 5 as it is without correcting it. Needless to say, this image becomes the image information at time t-1 in the next correlation calculation process.

一方、ステップS4で分散にピークがないと判定される
と、ラインデータpa、Pbを抽出した画像11.12
間に縦方向の位置ズレがあったと判断する。これは、車
両の揺れによる画像のブレであるとして、移動量演算部
3はステップS5で、その画像のピッチ方向のズレを検
出し、それを画像の移動量とする。
On the other hand, if it is determined in step S4 that there is no peak in the variance, images 11.12 from which line data pa and Pb are extracted
It is determined that there was a vertical positional shift between them. Assuming that this is a blurring of the image due to the shaking of the vehicle, the movement amount calculation section 3 detects the deviation of the image in the pitch direction in step S5, and uses it as the image movement amount.

次のステップS6で、座標変換部5は、ステップS5で
演算された画像の移動量をもとに画像の補正、つまり縦
方向の座標位置変換を行なう。そして、ステップS7で
補正後の画像(第2図の画像13)を、次の相関演算処
理での時刻t−1の画像情報として座標変換部5に格納
すると共に、所定の複数のバッファ7の1つに転送し、
格納する ステップS7、あるいはステップS8の処理の後、ステ
ップS9では、画像のズレ補正処理を続行するかどうか
の判定を行ない、処理を続けるときには再びステップS
1に戻る。
In the next step S6, the coordinate conversion section 5 performs image correction, that is, vertical coordinate position conversion, based on the amount of image movement calculated in step S5. Then, in step S7, the corrected image (image 13 in FIG. 2) is stored in the coordinate conversion section 5 as image information at time t-1 in the next correlation calculation process, and the image is stored in the coordinate conversion section 5 as image information at time t-1 in the next correlation calculation process. transfer to one,
After the storing process in step S7 or step S8, in step S9, it is determined whether or not to continue the image shift correction process.
Return to 1.

以上のズレ補正処理にて、道路構造を抽出するための連
続画像を補正し、補正後の画像を道路構造抽出部8(第
1図参照)に出力する。結局、これらの画像は、道路構
造抽出部8には画像間演算のし易い画像となるのである
In the above-described shift correction process, the continuous images for extracting the road structure are corrected, and the corrected images are output to the road structure extraction section 8 (see FIG. 1). In the end, these images become images that the road structure extraction section 8 can easily perform inter-image calculations on.

以上説明したように、本実施例によれば、連続する2画
面の画像上にパイロットラインを設定し、それに対応す
る縦方向の画像データを抽出して相互の相関をとること
で、画像データのピッチ方向のズレな検出できるので、
得られたズレをもとに容易に画像全体のズレ補正を行な
うことができるという効果がある。
As explained above, according to this embodiment, a pilot line is set on two consecutive images, and the corresponding vertical image data is extracted and correlated with each other, thereby improving the image data. Since deviations in the pitch direction can be detected,
This has the effect that the shift of the entire image can be easily corrected based on the obtained shift.

また、ズレ補正を行なった画像を道路構造を抽出するた
めの連続画像として入力することで、道路構造認識部で
の認識処理が的確かつ容易になるという効果がある。
Further, by inputting the image that has been corrected for deviation as a continuous image for extracting the road structure, the recognition processing in the road structure recognition unit can be performed more accurately and easily.

尚、本発明は、上記実施例に限定されるものではな(、
連続する2画面以上の画像に対してパイロットラインを
設定して縦方向の画像データを抽出し、それらの画像デ
ータ間の相関をとるようにしてもよい。こうすることで
、画像データ間の相関がより明確になり、比較的緩やか
な画像のブレを抽出することが可能となる。
Note that the present invention is not limited to the above embodiments (
A pilot line may be set for two or more consecutive images, vertical image data may be extracted, and a correlation may be established between the image data. By doing so, the correlation between image data becomes clearer, and it becomes possible to extract relatively gentle image blur.

また、ラインデータPa、Pb間の相関をとると同時に
、画像のブレにランダム性があるかを判定し、ブレがラ
ンダムであればそのブレは車両の揺れによるものではな
いとして、画像の補正を行なわないようにしてもよい。
In addition, while taking the correlation between the line data Pa and Pb, it also determines whether there is randomness in the blurring of the image, and if the blurring is random, it is assumed that the blurring is not caused by the shaking of the vehicle, and the image is corrected. You may choose not to do so.

(発明の効果) 以上説明したように、本発明によれば、画像上の基準線
に対応する画像情報を抽出して、その縦方向のズレな検
知することで、ピッチ方向のズレに対する画像の補正を
行なうことができるという効果がある。
(Effects of the Invention) As explained above, according to the present invention, by extracting image information corresponding to a reference line on an image and detecting deviations in the vertical direction, image information corresponding to deviations in the pitch direction can be detected. This has the effect that correction can be performed.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明に係る一実施例である移動車の環境認識
装置のブロック図、 第2図は画像のズレ補正を模式的に示した図、第3図は
画像のズレ補正処理を示すフローチャ−トである。 図中、1・・・画像入力部、2.4・・・パイロットラ
インデータ抽出部、3・・・移動量演算部、3a・・・
ラインバッファ、5・・・座標変換部、6・・・セレク
タ、7・・・バッファ、8・・・道路構造抽出部、9・
・・主制御部、11・・・時刻tの画像、12・・・時
刻t−1の画像、lla、12a−パイロットライン、
13・・・ズレ補正後の画像である。 那尿;
Fig. 1 is a block diagram of an environment recognition device for a moving vehicle which is an embodiment of the present invention; Fig. 2 is a diagram schematically showing image shift correction; and Fig. 3 is a diagram showing image shift correction processing. This is a flowchart. In the figure, 1... image input section, 2.4... pilot line data extraction section, 3... movement amount calculation section, 3a...
Line buffer, 5... Coordinate conversion section, 6... Selector, 7... Buffer, 8... Road structure extraction section, 9.
...Main control unit, 11...Image at time t, 12...Image at time t-1, lla, 12a-pilot line,
13... This is an image after misalignment correction. Nauria;

Claims (1)

【特許請求の範囲】 外界認識のための画像入力手段を備えた移動車の環境認
識装置であつて、 入力画像から、該入力画像上に設けた所定の基準線に対
応する画像情報を所定時間間隔にて抽出する手段と、 少なくとも2画面間における、前記画像情報の相関をと
る手段と、 前記相関に基づいて入力画像を補正する手段とを備えた
ことを特徴とする移動車の環境認識装置。
[Scope of Claims] An environment recognition device for a moving vehicle equipped with an image input means for recognizing the outside world, comprising: extracting image information corresponding to a predetermined reference line provided on the input image from an input image for a predetermined period of time; An environment recognition device for a moving vehicle, comprising: means for extracting the image information at intervals; means for correlating the image information between at least two screens; and means for correcting the input image based on the correlation. .
JP2277656A 1990-10-18 1990-10-18 Mobile vehicle environment recognition device Expired - Lifetime JP2984351B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2277656A JP2984351B2 (en) 1990-10-18 1990-10-18 Mobile vehicle environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2277656A JP2984351B2 (en) 1990-10-18 1990-10-18 Mobile vehicle environment recognition device

Publications (2)

Publication Number Publication Date
JPH04153785A true JPH04153785A (en) 1992-05-27
JP2984351B2 JP2984351B2 (en) 1999-11-29

Family

ID=17586469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2277656A Expired - Lifetime JP2984351B2 (en) 1990-10-18 1990-10-18 Mobile vehicle environment recognition device

Country Status (1)

Country Link
JP (1) JP2984351B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003203229A (en) * 2002-01-08 2003-07-18 Canon Inc Image processor, image processing method, storage medium and program
JP2005056295A (en) * 2003-08-07 2005-03-03 Iwane Kenkyusho:Kk 360-degree image conversion processing apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003203229A (en) * 2002-01-08 2003-07-18 Canon Inc Image processor, image processing method, storage medium and program
JP2005056295A (en) * 2003-08-07 2005-03-03 Iwane Kenkyusho:Kk 360-degree image conversion processing apparatus

Also Published As

Publication number Publication date
JP2984351B2 (en) 1999-11-29

Similar Documents

Publication Publication Date Title
JP6316976B2 (en) In-vehicle image recognition device
JP2003259361A (en) Image processing apparatus for vehicle
KR20160023409A (en) Operating method of lane departure warning system
JP3287465B2 (en) Stereo image processing device
WO2019156072A1 (en) Attitude estimating device
JP2888735B2 (en) Travel lane detection device
JP4809524B2 (en) Tracking method, tracking system, and tracking device
JPH04153785A (en) Environment recognizer for mobile vehicle
JP2004034946A (en) Image processing device, parking support device, and image processing method
JP4483413B2 (en) Moving object detection apparatus and moving object detection method
JP4797441B2 (en) Image processing apparatus for vehicle
JP3366135B2 (en) Travel direction control device
WO2018146997A1 (en) Three-dimensional object detection device
JPH07239996A (en) Course recognition device
JPH08285526A (en) Image recognition system
JP3220578B2 (en) Road image white line recognition device
JP2002163641A (en) Image processor for vehicle
JPH09179989A (en) Road recognition device for vehicle
JP3836666B2 (en) Moving target detection apparatus and moving target detection method
JP2004326214A (en) Lane detecting device
JP4039648B2 (en) Specific route bus detection method and apparatus
JP3053723B2 (en) License plate character recognition method and device
JP2829537B2 (en) Mobile vehicle environment recognition device
JP2918667B2 (en) Mobile vehicle environment recognition device
JPH04303214A (en) Road structure recognizing device for moving vehicle