JP3123303B2 - Vehicle image processing device - Google Patents

Vehicle image processing device

Info

Publication number
JP3123303B2
JP3123303B2 JP05138145A JP13814593A JP3123303B2 JP 3123303 B2 JP3123303 B2 JP 3123303B2 JP 05138145 A JP05138145 A JP 05138145A JP 13814593 A JP13814593 A JP 13814593A JP 3123303 B2 JP3123303 B2 JP 3123303B2
Authority
JP
Japan
Prior art keywords
vehicle
image processing
image
distance
reflector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP05138145A
Other languages
Japanese (ja)
Other versions
JPH06124340A (en
Inventor
智弘 山村
宏 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP05138145A priority Critical patent/JP3123303B2/en
Publication of JPH06124340A publication Critical patent/JPH06124340A/en
Application granted granted Critical
Publication of JP3123303B2 publication Critical patent/JP3123303B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、車両の周囲の環境を
認識する車両用画像処理装置に関する。このような車両
用画像処理装置は、例えば、車両の自動走行制御装置や
他車両への接近警報装置等に適用される先行車両検出装
置、すなわち自車両の前方を走行する先行車両の位置を
検出する装置等に利用される。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle image processing apparatus for recognizing an environment around a vehicle. Such a vehicle image processing device is, for example, a preceding vehicle detection device applied to an automatic traveling control device for a vehicle or an approach warning device for another vehicle, that is, detects a position of a preceding vehicle traveling ahead of the own vehicle. It is used for devices that perform

【0002】[0002]

【従来の技術】従来の車両用画像処理装置としては、例
えば図14に示すようなものがある。図14において、
(a)は1個のイメージセンサを用いて車両の周囲の可
能な限り広い範囲の情報を取り込み、その情報を認識す
る車両用画像処理装置である。また、(b)は、2個の
イメージセンサを用い、それらを所定の角度と距離をお
いて設置し、各々の情報の視差から物体までの距離と方
向および特徴を抽出する車両用画像処理装置である。
2. Description of the Related Art As a conventional image processing apparatus for a vehicle, for example, there is one as shown in FIG. In FIG.
(A) is an image processing apparatus for a vehicle that uses a single image sensor to take in as much information as possible around the vehicle and recognizes the information. Also, (b) is an image processing apparatus for a vehicle that uses two image sensors, installs them at a predetermined angle and distance, and extracts the distance, direction, and feature to the object from the parallax of each information. It is.

【0003】[0003]

【発明が解決しようとする課題】上記のような従来の車
両用画像処理装置においては、次のごとき問題があっ
た。すなわち、 遠方に存在する物体は画像が小さくなるため、その特
徴を抽出するのが困難である、 取り込まれた画像の全てを処理するため、情報量が多
い。そのため処理が複雑になって、処理速度が遅くな
り、かつ処理装置の規模が大きくなるので、車両の設備
としては使用が困難である、 画像処理方法の変更が自由に行なえないため、特定の
情報しか得られない、 さらに、走行する車両においては、物体までの距離が
正確に計測できないため、画像の情報を得られたとして
も、運転者への警報や、車両の走行制御に有効に使用で
きない、という問題があった。
The above-mentioned conventional image processing apparatus for a vehicle has the following problems. That is, since the image of a distant object is small, it is difficult to extract its features. Since all the captured images are processed, the amount of information is large. As a result, the processing becomes complicated, the processing speed becomes slow, and the scale of the processing device becomes large, which makes it difficult to use as vehicle equipment. In addition, since the distance to an object cannot be measured accurately in a running vehicle, even if image information is obtained, it cannot be used effectively to warn the driver or control the running of the vehicle. There was a problem.

【0004】本発明は上記のごとき従来技術の問題を解
決するためになされたものであり、適切な画像処理を行
なうことが出来、かつ車両用として実用的に実現可能な
車両用画像処理装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the prior art, and an image processing apparatus for a vehicle which can perform appropriate image processing and can be practically realized for a vehicle. The purpose is to provide.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
め、本発明においては、特許請求の範囲に記載するよう
に構成している。すなわち、請求項1に記載の発明にお
いては、車両に搭載され、車両周囲の画像情報を入力す
るイメージセンサと、車外に存在する単一あるいは複数
の物体までの距離と方向の情報を求める距離測定手段
と、上記距離と方向の情報に基づいて、上記物体の存在
する領域周辺を画像処理を行なう領域として決定する処
理、または上記物体のうちの何れかを画像処理を行なう
対象物として決定する処理の何れか一方を含む画像処理
方法を判断して設定する判断手段と、上記イメージセン
サで求めた画像情報に対して、上記判断手段で設定した
画像処理方法に基づいて画像処理を行なう画像処理手段
と、を備えている。また、上記の判断手段は、例えば、
請求項2に記載のごとく、画像を拡大・縮小・方向転換
・焦点調整する処理のうちの少なくとも一つの処理を含
む画像処理方法を判断して設定するものである。また、
上記のイメージセンサは、例えば請求項3に記載のごと
く、上記判断手段で設定した拡大・縮小・方向転換・焦
点調整の処理に応じて画像中の詳細な画像処理が必要な
予め定めた物体を拡大・縮小・方向転換・焦点調整する
ものである。また、請求項4に記載の発明は、上記の構
成の他に、自車両の走行状態を検出する測定手段を備
え、その測定手段の検出結果に応じて上記判断手段が
両の走行環境を判断し、判断した走行環境に対して予め
定めた物体を画像処を行なう対象物として決定するよ
うに構成したものである。また、請求項5に記載の発明
は、上記の車両用画像処理装置を先行車両検出装置に適
用した場合の具体的な構成を示すものである。
Means for Solving the Problems In order to achieve the above object, the present invention is configured as described in the claims. That is, according to the first aspect of the present invention, an image sensor that is mounted on a vehicle and inputs image information around the vehicle and a distance measurement that obtains information on the distance and direction to one or more objects existing outside the vehicle. Means and the presence of the object based on the distance and direction information
For determining the periphery of the region to be processed as the region for image processing
Image processing of any of the above objects
Determining means for determining and setting an image processing method including any one of processing to be determined as an object; and image information obtained by the image sensor based on the image processing method set by the determining means. Image processing means for performing processing. In addition, the above-mentioned determination means is, for example,
As described in claim 2, enlargement, reduction, redirecting images
An image processing method including at least one of the focus adjustment processes is determined and set. Also,
For example, the image sensor may include an enlargement / reduction / direction change / focus set by the determination means.
Detailed image processing in the image is required depending on the point adjustment processing.
It is for enlarging, reducing, turning, and adjusting the focus of a predetermined object. The invention according to claim 4, in addition to the above configuration, comprising a measuring means for detecting a traveling state of the vehicle, said determining means is a car according to a detection result of the measuring means
Judgment of both driving environments
It is obtained by configured to determine a defined object as an object for performing an image processing. The invention according to claim 5 shows a specific configuration in a case where the image processing device for a vehicle is applied to a preceding vehicle detection device.

【0006】[0006]

【作用】上記のように本発明においては、距離測定手段
の測定結果に基づいて、判断手段が画像処理方法を決定
する。この画像処理方法とは、例えば請求項に記載の
ように、物体の存在する領域周辺を画像処理を行なう領
域として決定する処理、または上記物体のうちの何れか
を画像処理を行なう対象物として決定する処理の何れか
一方の処理、或いは請求項2に記載のように、画像を拡
大・縮小・方向転換・焦点調整する処理のうちの少なく
とも一つの処理である。そして画像処理手段は、上記の
設定された画像処理方法に基づいて画像処理を行なう。
したがって、画像処理が必要な重要物体、例えば自車両
の走行を妨げるような物体を対象として重点的に画像情
報を抽出する処理を行なうことになり、画像処理手段で
データ処理を行なう範囲が限定されるため、扱うデータ
数が大幅に減少し、かつ処理過程が高速になり、注視す
る物体の特徴抽出を高速に実行することができる。ま
た、請求項3に記載のように、イメージセンサで画像中
詳細な画像処理が必要な予め定めた物体を拡大・縮小
・方向転換・焦点調整するものにおいては、画像処理の
ための最適な画像が得られるので、少ない画素データか
らは得られない詳細な情報、例えば車両のナンバープレ
ートを識別するような情報を画像処理手段から得ること
ができる。また、請求項4に記載の発明のように、自車
両の走行状態を検出する測定手段を備え、その検出結果
に応じて判断手段が車両の走行環境を判断し、判断した
走行環境に対して予め定めた物体を画像処理を行なう対
象物として決定するものにおいては、車両前方に複数の
物体が存在する場合に、自車両の走行状態等に応じてど
の物体を注視するかを選定することが出来る。また、
請求項5に記載の発明においては、反射体検出手段によ
って反射体までの距離と方向を検出し、その結果に応じ
て画像処理認識手段における処理領域を設定する画像処
理領域設定手段を設け、反射体までの距離と方向に応じ
て画像処理領域を定めるように構成している。そのた
め、先行車両の位置を確実に検出することが可能になる
と共に、画像処理を行う領域を狭い範囲に限定すること
が出来るので、超高速計算機を用いることなしにリアル
タイムで演算処理を行うことが可能となる。
As described above, in the present invention, the judgment means determines the image processing method based on the measurement result of the distance measurement means. The image processing method includes, for example, a region for performing image processing around an area where an object exists , as described in claim 1.
Processing to be determined as an area or any of the above objects
Any of the processes that determine
One of the processes, or as described in claim 2, enlarges the image.
Small, large, shrink, change direction, focus adjustment processing
This is one process . The image processing means performs image processing based on the set image processing method.
Therefore, the process of extracting image information is focused on an important object that requires image processing, for example, an object that hinders traveling of the own vehicle, and the range in which data processing is performed by the image processing means is limited. Therefore, the number of data to be handled is greatly reduced, and the processing speed is increased, so that the feature extraction of the object to be watched can be executed at high speed. According to a third aspect of the present invention, in an apparatus for enlarging / reducing / redirecting / focusing a predetermined object that requires detailed image processing in an image by an image sensor, an optimal image processing is performed. Since an image is obtained, detailed information which cannot be obtained from a small amount of pixel data, for example, information for identifying a license plate of a vehicle can be obtained from the image processing means. Further, as in the invention as set forth in claim 4, there is provided a measuring means for detecting a running state of the own vehicle, and the judging means judges and judges the running environment of the vehicle according to the detection result .
Image processing of a predetermined object for the driving environment
In what determines the elephant was, if there are a plurality of objects in front of the vehicle, which object can be selected whether to watch in accordance with the running state of the vehicle. Also,
According to a fifth aspect of the present invention, there is provided an image processing area setting means for detecting a distance and a direction to the reflector by the reflector detecting means, and setting a processing area in the image processing recognizing means according to the result. The image processing area is determined according to the distance and direction to the body. As a result, the position of the preceding vehicle can be reliably detected, and the region for performing image processing can be limited to a narrow range, so that calculation processing can be performed in real time without using an ultra-high-speed computer. It becomes possible.

【0007】[0007]

【実施例】以下、この発明を図面に基づいて説明する。
図1は、この発明の第1の実施例を示すブロック図であ
る。図1において、距離測定手段60は、例えば光、電
波、超音波等を使用したレーダであり、物体までの距離
および方向情報が得られる。光を使用したものには、レ
ーザとフォトセンサを組み合わせ、レーザ光が物体に反
射して戻ってくるまでの経過時間を測定することによ
り、距離を計測するものがある。なお、発射するレーザ
光を上下左右に走査すれば、その方向での距離が計測で
きるので、距離と方向の情報が得られる。電波や超音波
を使用したものにおいても上記とほぼ同様の構成で実現
することが出来る。また、判断手段61は、距離測定手
段60の測定結果に基づいて画像処理の方法を判断して
設定する手段である。なお、上記の画像処理方法とは、
この実施例においては画像処理する領域の決定処理であ
る。また、イメージセンサ62は、車両周囲の画像情報
を入力する手段であり、例えばCCDを使用したビデオ
カメラ装置である。また、画像処理手段63は、例えば
パターン認識を行なわせる手段である。この画像処理手
段63と上記判断手段61は、例えばコンピュータで構
成することが出来る。なお、S1は距離・方向信号、S
2は画像信号、S3は判断信号、S4は特徴抽出信号で
ある。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing a first embodiment of the present invention. In FIG. 1, a distance measuring means 60 is a radar using, for example, light, radio waves, ultrasonic waves, and the like, and can obtain information on the distance to an object and direction. Some of the devices that use light measure the distance by combining a laser and a photo sensor and measuring the elapsed time until the laser light is reflected back to the object. If the emitted laser light is scanned up, down, left, and right, the distance in that direction can be measured, so that information on the distance and direction can be obtained. Even those using radio waves or ultrasonic waves can be realized with almost the same configuration as described above. The determining means 61 is a means for determining and setting an image processing method based on the measurement result of the distance measuring means 60. Note that the above image processing method is
In this embodiment, it is a process of determining an area for image processing. The image sensor 62 is means for inputting image information around the vehicle, and is, for example, a video camera device using a CCD. The image processing means 63 is means for performing, for example, pattern recognition. The image processing means 63 and the determination means 61 can be constituted by, for example, a computer. S1 is a distance / direction signal, S1
2 is an image signal, S3 is a judgment signal, and S4 is a feature extraction signal.

【0008】次に、図2は、車両と車外の物体との位置
関係を示す図であり、(a)は上面図、(b)は側面図
である。図2において、64は車両、65は車外の物体
である。また、図3は距離測定結果の一例を示す図表、
図4は図1の装置における処理手順を示すフローチャー
トである。以下、図2〜図4に基づいて図1の実施例の
作用を説明する。まず、車両の前方に存在する物体65
の距離と方向を、自車両64の先端に設けた距離測定手
段60(図2では図示省略)によって測定する。この距
離測定手段60は、車両の横方向にθx、高さ方向にθ
yを設定した場合(図2参照)、各方位に対して、距離
を示すデータがマトリクスL(θx,θy)上に得るこ
とが出来るものである。図3に示す距離測定結果の例
は、図2に示したような右方向に物体65がある場合の
結果である。判断手段61は、上記の測定結果に基づい
て物体の位置を推定する。この推定方法は、例えば次の
ように行なう。すなわち、全てのL(θx,θy)につ
いて、隣合ったL(θx′,θy′)との値を比較す
る。そして物体が存在する場所と存在しない場所との境
界部分では、L(θx,θy)とL(θx′,θy′)
の値は大きく異なるので、その位置に物体が存在するこ
とが判る。上述した例では、右方向に物体があることが
推定される。さらに、判断手段61は、上記の結果に基
づいて画像処理の方法を設定する。この実施例の場合に
は、画像処理の方法として、画像処理を行なう領域を決
定する処理を用いる。したがって判断手段61は、画像
処理を行なう領域を物体が存在する周辺に決定する。こ
の際の決定方法は、推定された物体の大きさに或る適当
な値を掛けて物体よりも大きな領域とする。次に、画像
処理手段63は、イメージセンサ62で求めた車両前方
の画像情報に対して、判断手段61から送られたデータ
に基づき、画像処理を行なう領域を設定し、その領域に
ついて重点的にデータ処理を行なう。上述した例では、
右方向の物体に対する画像処理を重点的に行なう。上記
のように、判断手段61によって自車両の走行を妨げる
ような物体の距離と方向を検知し、その物体を対象とし
て重点的に画像情報を抽出する処理を行なうことによ
り、画像処理手段63でデータ処理を行なう範囲が限定
されるため、扱うデータ数が大幅に減少し、処理過程が
高速になり、注視する物体の特徴抽出を高速に実行する
ことができる。
Next, FIGS. 2A and 2B are diagrams showing the positional relationship between the vehicle and an object outside the vehicle, wherein FIG. 2A is a top view and FIG. 2B is a side view. In FIG. 2, reference numeral 64 denotes a vehicle, and 65 denotes an object outside the vehicle. FIG. 3 is a chart showing an example of a distance measurement result,
FIG. 4 is a flowchart showing a processing procedure in the apparatus of FIG. The operation of the embodiment of FIG. 1 will be described below with reference to FIGS. First, an object 65 existing in front of the vehicle
Is measured by distance measuring means 60 (not shown in FIG. 2) provided at the front end of the host vehicle 64. The distance measuring means 60 calculates θx in the lateral direction of the vehicle and θx in the height direction.
When y is set (see FIG. 2), data indicating the distance for each direction can be obtained on the matrix L (θx, θy). The example of the distance measurement result illustrated in FIG. 3 is a result in a case where the object 65 is in the right direction as illustrated in FIG. The judging means 61 estimates the position of the object based on the measurement result. This estimation method is performed, for example, as follows. That is, for all L (θx, θy), the values of adjacent L (θx ′, θy ′) are compared. Then, at the boundary between the place where the object exists and the place where the object does not exist, L (θx, θy) and L (θx ′, θy ′)
Are greatly different from each other, which indicates that an object exists at that position. In the example described above, it is estimated that an object is present in the right direction. Further, the judgment means 61 sets an image processing method based on the above result. In the case of this embodiment, a process of determining a region to be subjected to image processing is used as an image processing method. Therefore, the determination means 61 determines the area where the image processing is to be performed around the object. The determination method at this time is to multiply the estimated size of the object by a certain appropriate value to obtain a region larger than the object. Next, the image processing means 63 sets an area for image processing based on the data sent from the determination means 61 with respect to the image information ahead of the vehicle obtained by the image sensor 62, and focuses on the area. Perform data processing. In the example above,
Image processing is mainly performed on the rightward object. As described above, the determination means 61 detects the distance and direction of an object that hinders the travel of the host vehicle, and performs processing for mainly extracting image information for the object. Since the range in which data processing is performed is limited, the number of data to be handled is significantly reduced, the processing speed is increased, and the feature extraction of the object to be watched can be performed at high speed.

【0009】次に、図5は、本発明の第2の実施例を示
すブロック図である。この実施例は、物体に対する詳細
な画像情報が必要な画像処理装置に本発明を適用したも
のである。図5において、距離測定手段66は、前記図
1のものと同様である。また、判断手段67は、前記図
1のものと同様に物体までの距離と方向を推定するが、
さらにイメージセンサ68を制御する信号を出力するも
のである。また、イメージセンサ68は、上記判断手段
67から与えられる制御信号に応じて、画像情報の拡
大、縮小、フォーカスおよび回転制御ができるイメージ
センサである。このようなイメージセンサとしては、ズ
ーム機構を持つレンズとカメラ全体を回転させることが
できる機構を有するビデオカメラ装置を用いることが出
来る。また、画像処理手段69は、例えば、車両のナン
バープレートを識別するような詳細な画像処理手段であ
る。なお、S1は距離・方向信号、S2は画像信号、S
3は判断信号、S4は特徴抽出信号、S5は拡大・縮小
・方向転換信号である。前記図2に示した環境では、右
方向に物体が存在している。距離測定手段66では、前
記図1と同様に、距離データがマトリクス上に得られ
る。判断手段67は、上記の結果に基づいて、前記第1
の実施例と同様に、物体までの距離と方向を推定し、イ
メージセンサ68のパン、チルト、ズーム、フォーカス
調整機構を制御する。例えば前記図3に示したデータが
得られた場合には、カメラを右側に動かし、距離に応じ
たフォーカスの調整を行なう。このように処理すること
により、画像処理のための最適な画像が得られる。した
がって、少ない画素データからは得られない詳細な情
報、例えば車両のナンバープレートを識別するような情
報を画像処理手段69から得ることができる。なお、上
記の画像処理手段69で得られる詳細な情報としては、
先行車両のブレーキランプ、方向指示器の点灯、車両の
大きさ、進行方向等があり、それらの特徴を抽出するこ
とが出来る。また、判断手段67で設定した注視物体に
ついて画像処理手段69が画像処理を行なうことによ
り、歩行者や建造物の特徴を抽出することも出来るし、
標識、信号機の位置、踏切の有無、道路設備等の状況を
認識することも出来る。
Next, FIG. 5 is a block diagram showing a second embodiment of the present invention. In this embodiment, the present invention is applied to an image processing apparatus that requires detailed image information on an object. In FIG. 5, the distance measuring means 66 is the same as that in FIG. Further, the determining means 67 estimates the distance and direction to the object as in the case of FIG.
Further, a signal for controlling the image sensor 68 is output. The image sensor 68 is an image sensor that can control enlargement, reduction, focus, and rotation of image information according to a control signal given from the determination unit 67. As such an image sensor, a video camera device having a lens having a zoom mechanism and a mechanism capable of rotating the entire camera can be used. The image processing means 69 is a detailed image processing means for identifying a license plate of a vehicle, for example. S1 is a distance / direction signal, S2 is an image signal, S
3 is a judgment signal, S4 is a feature extraction signal, and S5 is an enlargement / reduction / direction change signal. In the environment shown in FIG. 2, an object exists rightward. In the distance measuring means 66, distance data is obtained on a matrix as in FIG. The judging means 67 determines, based on the above result, the first
As in the embodiment, the distance and direction to the object are estimated, and the pan, tilt, zoom, and focus adjustment mechanisms of the image sensor 68 are controlled. For example, when the data shown in FIG. 3 is obtained, the camera is moved to the right and the focus is adjusted according to the distance. By performing such processing, an optimal image for image processing can be obtained. Therefore, detailed information which cannot be obtained from a small amount of pixel data, for example, information for identifying a license plate of a vehicle can be obtained from the image processing means 69. The detailed information obtained by the image processing means 69 includes:
There are the brake lamp of the preceding vehicle, the lighting of the direction indicator, the size of the vehicle, the traveling direction, and the like, and these characteristics can be extracted. Further, the image processing unit 69 performs image processing on the gazing object set by the determination unit 67, so that the characteristics of the pedestrian and the building can be extracted.
It is also possible to recognize the sign, the position of the traffic light, the presence / absence of a railroad crossing, the status of road facilities, and the like.

【0010】次に、図6は、本発明の第3の実施例のブ
ロック図である。図6において、距離測定手段70は、
前記第1の実施例に用いたものと同様である。また、車
速センサ71は、車両の走行速度を計測するものであ
り、例えば単位時間当たりの車輪の回転数を検知し、車
輪の円周の長さから車両の速度を計測するものや、光や
電波を路面に反射させ、ドップラ効果によって速度を計
測するもの等がある。また、舵角センサ72は、操舵角
を検出するものであり、例えばロータリエンコーダを内
蔵したステアリングホイールを用いることが出来る。ま
た、ヒューマンインターフェース73は、画像処理装置
と乗員との間で情報の交換を行なう装置であり、例えば
車室内に設けた操作スイッチや表示装置である。この操
作スイッチを乗員が操作して画像処理装置に信号を入力
し、また画像処理装置の情報を表示装置に表示して乗員
に与える。また、イメージセンサ74は、前記第2の実
施例に用いたものと同様のものである。また、判断基準
設定手段75は判断手段76の判断基準を設定する手段
(詳細後述)である。また、76は判断手段、77は画
像処理手段である。上記の判断基準設定手段75、上記
判断手段76および画像処理手段77は、例えばコンピ
ュータで構成することが出来る。なお、S1は距離・方
向信号、S2は画像信号、S3は判断信号、S4は特徴
抽出信号、S5は拡大・縮小・方向転換信号、S6は車
速信号、S7は舵角信号、S8は基準値設定用信号、S
9は基準信号である。
Next, FIG. 6 is a block diagram of a third embodiment of the present invention. In FIG. 6, the distance measuring means 70
This is the same as that used in the first embodiment. The vehicle speed sensor 71 measures the running speed of the vehicle. For example, the vehicle speed sensor 71 detects the number of rotations of the wheels per unit time, and measures the speed of the vehicle from the length of the circumference of the wheels. There are those that reflect radio waves to the road surface and measure the speed by the Doppler effect. The steering angle sensor 72 detects a steering angle, and for example, a steering wheel having a built-in rotary encoder can be used. The human interface 73 is a device for exchanging information between the image processing device and the occupant, and is, for example, an operation switch or a display device provided in the passenger compartment. The occupant operates this operation switch to input a signal to the image processing apparatus, and displays information of the image processing apparatus on a display device to give to the occupant. The image sensor 74 is the same as that used in the second embodiment. The criterion setting means 75 is means for setting the criterion of the determining means 76 (details will be described later). Reference numeral 76 denotes a determination unit, and 77 denotes an image processing unit. The judgment criterion setting means 75, the judgment means 76, and the image processing means 77 can be constituted by, for example, a computer. S1 is a distance / direction signal, S2 is an image signal, S3 is a determination signal, S4 is a feature extraction signal, S5 is an enlargement / reduction / direction change signal, S6 is a vehicle speed signal, S7 is a steering angle signal, and S8 is a reference value. Setting signal, S
9 is a reference signal.

【0011】次に、作用を説明する。車両前方に複数の
物体が存在する場合には、複数の画像処理領域を設定す
ることが必要になるが、本実施例は、このような場合
に、物体の大きさや距離、さらには自車両の走行状態等
に応じてどの物体を注視するかを変更するように構成し
たものである。判断基準設定手段75は、判断手段76
の判断基準を設定する。すなわち、判断手段76では、
自車両が現在どのような環境にあるかを判断し、それに
応じて注視すべき物体を決定するが、判断基準設定手段
75は、上記の判断における判断基準を設定する。例え
ば、自車両の状態の検知は、車速センサと舵角センサに
より、走行速度と操舵角とを検知することによって行な
い、走行速度が所定値以上で舵角が所定値以下の場合は
高速道路を走行中であると判断し、また、舵角が所定値
以上で車速が所定値以下の場合には交差点近傍を走行中
であると判断することが出来るが、判断基準設定手段7
5は、上記の判断の基準となる車速値や舵角値の閾値を
設定するものである。この基準値の設定は、乗員が操作
スイッチ等のヒューマンインターフェイス73を用いて
入力する。判断手段76は、上記のように高速道路を走
行中と判断した場合には前方の障害物を注視物体と判断
し、また、交差点近傍を走行中である判断した場合は、
前方の信号機を注視物体と判断する。そして画像処理手
段77では、その注視物体に対して画像処理を行なう。
なお、上記の説明では、判断基準設定手段73の基準値
の設定を、ヒューマンインターフェース73を用いて行
なう場合を説明したが、画像処理結果を入力することに
よって、環境設定を自動的に行なうことも可能である。
例えば、道路上の白線を画像処理手段77が検出するシ
ステムに本発明を適用した場合には、交差点近傍では連
続した白線は検知されないという特性を利用し、白線欠
落を検知した場合に交差点近傍と判断し、注視物体を前
方の信号機とするように設定することが出来る。以上を
まとめると次のようになる。まず、距離測定手段70に
よって物体の距離と方向を測定する。この測定結果と車
両の走行状況によって判断基準設定手段75と判断手段
76が画像処理を行なう対象物を決定する。例えば、高
速道路走行中と判断した場合は、先行車両を対象物と
し、交差点近傍を走行中と判断した場合は、信号機を対
象物に決める。ただし、状況に応じて適宜設定できるの
で、上記の例に限定されるものではない。また、判断手
段76は、画像処理を行なう上で、最適な画像になるよ
うにイメージセンサ74の調節(拡大、縮小、方向転換
等)を行ない、また、イメージセンサ74から取り込ま
れた画像のどの部分を処理するかを決定する。イメージ
センサ74の画像を取り込んだ画像処理手段77は、対
象物に応じた物体の特徴抽出を行なう。この特徴抽出
は、例えば、障害物の検出、衝突の危険性のある車両の
ブレーキランプ点灯の検出、標識に示された制限速度の
認識等である。さらに、距離情報の時間的変化を計算す
ることで、自車両と対象物との相対速度も検出すること
が出来る。なお、この実施例においても、前記第2の実
施例と同様に、画像処理手段77で得られる詳細な情報
としては、先行車両のブレーキランプ、方向指示器の点
灯、車両の大きさ、進行方向等があり、それらの特徴を
抽出することが出来る。また、判断手段76で設定した
注視物体について画像処理手段77が画像処理を行なう
ことにより、歩行者や建造物の特徴を抽出することも出
来るし、標識、信号機の位置、踏切の有無、道路設備等
の状況を認識することも出来る。また、距離測定手段7
0やイメージセンサ74は、車両の前後左右等必要に応
じ増設することもできる。この場合、それぞれ独立した
方向で物体の特徴抽出が可能になる。
Next, the operation will be described. When a plurality of objects are present in front of the vehicle, it is necessary to set a plurality of image processing regions. In this case, in this case, the size and distance of the objects, It is configured such that an object to be watched is changed according to a traveling state or the like. The judgment criterion setting means 75 is
Set criteria for That is, in the judgment means 76,
The environment in which the host vehicle is currently determined is determined, and an object to be watched is determined accordingly. The determination criterion setting unit 75 sets the determination criterion in the above determination. For example, the detection of the state of the own vehicle is performed by detecting a traveling speed and a steering angle by a vehicle speed sensor and a steering angle sensor, and when the traveling speed is equal to or more than a predetermined value and the steering angle is equal to or less than a predetermined value, the highway is detected. When it is determined that the vehicle is traveling, and when the steering angle is equal to or more than the predetermined value and the vehicle speed is equal to or less than the predetermined value, it can be determined that the vehicle is traveling near the intersection.
Reference numeral 5 is used to set a threshold value of a vehicle speed value or a steering angle value, which is a reference for the determination. The setting of the reference value is input by the occupant using the human interface 73 such as an operation switch. The judging means 76 judges that an obstacle in front is a gazing object when it is judged that the vehicle is traveling on the highway as described above, and when it is judged that the vehicle is traveling near an intersection,
The traffic signal ahead is determined to be the gazing object. Then, the image processing means 77 performs image processing on the watched object.
In the above description, the case where the reference value of the determination reference setting means 73 is set using the human interface 73 has been described. However, the environment setting may be automatically performed by inputting the image processing result. It is possible.
For example, when the present invention is applied to a system in which the image processing unit 77 detects a white line on a road, a characteristic that a continuous white line is not detected near an intersection is used. Judgment can be made and the gaze object can be set to be a traffic light ahead. The above is summarized as follows. First, the distance and direction of the object are measured by the distance measuring means 70. Based on the measurement result and the traveling state of the vehicle, the criterion setting means 75 and the deciding means 76 determine an object to be subjected to image processing. For example, when it is determined that the vehicle is traveling on a highway, the preceding vehicle is set as the target object, and when it is determined that the vehicle is running near the intersection, the traffic light is set as the target object. However, it is not limited to the above example, since it can be set appropriately according to the situation. Further, the determination means 76 adjusts (enlarges, reduces, changes direction, etc.) the image sensor 74 so as to obtain an optimal image in performing the image processing. Decide whether to process the part. The image processing unit 77 that has captured the image of the image sensor 74 performs feature extraction of the object according to the target. The feature extraction includes, for example, detection of an obstacle, detection of lighting of a brake lamp of a vehicle at risk of collision, recognition of a speed limit indicated on a sign, and the like. Further, by calculating the temporal change of the distance information, the relative speed between the host vehicle and the target object can be detected. In this embodiment, as in the second embodiment, the detailed information obtained by the image processing means 77 includes the brake lamp of the preceding vehicle, the lighting of the direction indicator, the size of the vehicle, and the traveling direction. Etc., and those features can be extracted. The image processing means 77 performs image processing on the gazing object set by the judging means 76, so that the characteristics of pedestrians and buildings can be extracted. It is also possible to recognize such situations. Further, the distance measuring means 7
0 and the image sensor 74 can be added as needed, such as the front, rear, left and right of the vehicle. In this case, the feature of the object can be extracted in independent directions.

【0012】次に、本発明を先行車両検出に応用した実
施例について説明する。従来の先行車両検出装置として
は、例えば特開昭61−23985号公報等に記載され
ているような電磁波の反射を用いたものがある。これ
は、車両前方に電磁波(例えばレーザ光など)を所定角
度掃引しながら放射し、反射体からの反射波を受信し、
所定の掃引角度毎に電磁波の放射から受信までの伝播遅
延時間に基づいて反射体までの距離を算出することによ
り、自車両から反射体までの距離と方向を検出するもの
であり、自車両から反射物までの方向と距離の情報を得
ることができる。なお、一般的に車両には後方からの視
認性を向上させるために、その後部にリフレックス・リ
フレクタが設置されているが、このリフレックス・リフ
レクタが反射体となって、レーザ光などの電磁波を反射
するため、容易に検出することができる。また、これ以
外にも車両前方に向けたテレビカメラ等を用いて、車両
前方の風景を入力し、入力された画像に対して画像処理
を行なって先行車両や道路を認識する装置も考えられて
いる。
Next, an embodiment in which the present invention is applied to detection of a preceding vehicle will be described. 2. Description of the Related Art As a conventional preceding vehicle detection device, there is one that uses electromagnetic wave reflection as described in, for example, Japanese Patent Application Laid-Open No. 61-23985. In this method, an electromagnetic wave (for example, a laser beam) is emitted while sweeping a predetermined angle in front of the vehicle, and a reflected wave from a reflector is received.
By calculating the distance to the reflector based on the propagation delay time from the emission of the electromagnetic wave to the reception at each predetermined sweep angle, the distance and direction from the own vehicle to the reflector are detected. Information on the direction and distance to the reflecting object can be obtained. In general, a vehicle is provided with a reflex reflector at the rear in order to improve visibility from the rear, and the reflex reflector serves as a reflector, and the electromagnetic wave such as a laser beam is used. Is reflected, so that it can be easily detected. In addition, a device that recognizes a preceding vehicle or a road by inputting a scene in front of the vehicle using a television camera or the like directed toward the front of the vehicle and performing image processing on the input image has been considered. I have.

【0013】しかしながら、このような従来の先行車両
検出装置においては、以下のような問題があった。ま
ず、レーザレーダ等の電磁波の反射を用いた先行車両検
出装置においては、反射体として車両後尾に設けられた
リフレックス・リフレクタだけでなく、道路の路側帯に
設置されたガードレール上のコーナ・リフレクタ等も考
えられるため、数多くの反射体の中から、先行車両のリ
フレックス・リフレクタからの反射だけを選別するのは
非常に困難である、という問題がある。また、反射体ま
での検出距離の単位時間における変化量を自車両の走行
車速と比較し、反射体が停止物であるか移動物体である
かを判別して移動物体のみを車両として認識することは
比較的容易に可能である。しかし、この方法では、例え
ば高速道路における渋滞の最後尾に停止している車両等
に関しては、停止物であるが故に車両ではないと判断し
てしまうので、先行車両の位置を検出することができ
ず、そのため精度の高い走行制御や、他車両への過剰接
近に対する適切な警報を発することができない、という
問題がある。また、テレビカメラからの画像を画像処理
して先行車両を認識するような先行車両検出装置におい
ては、現在の技術では画像処理を用いて路端や車線を示
す白線を認知することは比較的容易に可能であるが、先
行車両の識別に関してはあまり高精度は期待出来ない。
また、先行車両の識別については処理回数も多く必要で
あるため、大量の画像データを処理する必要がある。そ
して、車両の自動走行や追突警報装置などに適用する場
合には、このような処理を高速(リアルタイム)で行な
うことが必須であり、非常に高速な計算機が必要にな
る、という問題がある。また、先行車両検出目的以外の
通常の画像処理を用いた技術においては、全画面の中か
ら画像処理を行なう必要のある領域(注目領域)を限定
し、その中で各種処理を行なうことにより、全体の計算
量を減少させる方法を適用することが出来るが、先行車
両検出の場合には、先行車両が自車両のカメラの画面に
対して、どの領域にでも存在する可能性があり、単純に
注目領域を設定することができないため、この方法によ
る高速化は困難であった。本実施例は、上記のごとき従
来技術の問題を解決し、先行車両を確実に検出すること
が可能であり、かつ超高速計算機なしでも実用的に実現
可能な先行車両検出装置を提供するものである。
However, such a conventional preceding vehicle detection device has the following problems. First, in a preceding vehicle detection device using reflection of electromagnetic waves, such as a laser radar, not only a reflex reflector provided at the rear of the vehicle as a reflector, but also a corner reflector on a guardrail installed on the roadside zone of the road. Therefore, there is a problem that it is very difficult to select only the reflection from the reflex reflector of the preceding vehicle from many reflectors. Also, comparing the amount of change in the detection distance to the reflector in a unit time with the traveling vehicle speed of the own vehicle, determining whether the reflector is a stationary object or a moving object, and recognizing only the moving object as a vehicle. Is relatively easy. However, according to this method, for example, a vehicle stopped at the end of traffic congestion on an expressway is determined to be a stationary object and therefore not a vehicle, so that the position of the preceding vehicle can be detected. For this reason, there is a problem that it is not possible to perform high-precision traveling control or to issue an appropriate warning for an excessive approach to another vehicle. Also, in a preceding vehicle detection device that recognizes a preceding vehicle by processing an image from a television camera, it is relatively easy to recognize a white line indicating a roadside or a lane using image processing with current technology. However, it is not possible to expect very high accuracy in identifying the preceding vehicle.
In addition, since a large number of processes are required for identifying the preceding vehicle, a large amount of image data needs to be processed. When the present invention is applied to automatic running of a vehicle, a rear-end collision warning device, and the like, it is essential to perform such processing at a high speed (real time), and there is a problem that a very high-speed computer is required. Further, in a technique using normal image processing other than the purpose of detecting a preceding vehicle, an area (attention area) where image processing needs to be performed is limited from the entire screen, and various processing is performed within the area. Although a method of reducing the total calculation amount can be applied, in the case of the preceding vehicle detection, the preceding vehicle may exist in any area with respect to the screen of the camera of the own vehicle, and simply Since the attention area cannot be set, it is difficult to increase the speed by this method. This embodiment solves the problems of the prior art as described above, and provides a preceding vehicle detection device that can reliably detect a preceding vehicle and that can be practically realized without an ultra-high-speed computer. is there.

【0014】図7は、本実施例の機能ブロック図であ
る。図7において、反射体検出手段1は、所定角度範囲
を掃引しながら自車両の走行方向に電磁波を放射し、反
射体からの反射波を受信し、所定の掃引角度毎に電磁波
の放射から受信までの伝播遅延時間に基づいて反射体ま
での距離を算出することにより、自車両から反射体まで
の距離と方向を検出する。この反射体検出手段1は、例
えば、後記図8の実施例におけるレーザ光掃引方向検出
装置11、レーザ光掃引装置13およびレーザレーダ装
置21の部分に相当する。また、撮影手段3は、自車両
の走行方向前方の風景を撮影する。この撮影手段3は、
例えば後記図8の実施例におけるテレビカメラ23に相
当する。また、画像認識手段7は、上記撮影手段3によ
って撮影された車両前方の画像を処理して前方に存在す
る先行車両を検出する。この画像認識手段7は、例えば
後記図8の実施例における画像処理回路25の部分に相
当する。また、画像処理領域設定手段5は、画像認識手
段7における画像処理領域を、反射体検出手段1から検
出された距離および方向に応じて設定する。この画像処
理領域設定手段5は、例えば、後記図8の実施例におけ
る信号処理回路31の部分に相当する。また、先行車位
置出力手段9は、画像処理認識手段7によって先行車と
認識された反射体までの距離または方向もしくはその両
方を出力する。この先行車位置出力手段9は、例えば後
記図8の実施例における先行車両位置出力回路27の部
分に相当する。なお、画像処理領域設定手段5の内容と
しては、反射体検出手段1からの距離検出が行なわれた
方向から所定角度範囲内の領域でのみ画像処理を行なう
ように画像処理領域を設定するもの、反射体検出手段1
による検出距離が大きいほど画像処理領域を画面の上方
に設定する、反射体検出手段1による検出距離が大きい
ほど画像処理領域の面積を小さく設定するもの等が考え
られる。上記のごとく本実施例においては、反射体検出
手段1によって反射体までの距離と方向を検出し、その
結果に応じて画像処理認識手段7における処理領域を設
定する画像処理領域設定手段5を設け、反射体までの距
離と方向に応じて画像処理領域を定めるように構成して
いる。そのため、先行車両の位置を確実に検出すること
が可能になると共に、画像処理を行う領域を狭い範囲に
限定することが出来るので、超高速計算機を用いること
なしにリアルタイムで演算処理を行うことが可能とな
る。
FIG. 7 is a functional block diagram of this embodiment. In FIG. 7, the reflector detecting means 1 emits an electromagnetic wave in the traveling direction of the vehicle while sweeping a predetermined angle range, receives a reflected wave from the reflector, and receives from the emission of the electromagnetic wave at each predetermined sweep angle. The distance and direction from the host vehicle to the reflector are detected by calculating the distance to the reflector based on the propagation delay time up to the vehicle. The reflector detecting means 1 corresponds to, for example, a laser light sweep direction detecting device 11, a laser light sweeping device 13, and a laser radar device 21 in the embodiment of FIG. The photographing means 3 photographs a scene ahead of the own vehicle in the traveling direction. This photographing means 3
For example, it corresponds to the television camera 23 in the embodiment of FIG. Further, the image recognizing means 7 processes the image ahead of the vehicle photographed by the photographing means 3 to detect a preceding vehicle existing in front. This image recognition means 7 corresponds to, for example, a portion of an image processing circuit 25 in the embodiment of FIG. Further, the image processing area setting means 5 sets the image processing area in the image recognition means 7 according to the distance and direction detected by the reflector detecting means 1. The image processing area setting means 5 corresponds to, for example, a signal processing circuit 31 in the embodiment of FIG. Further, the preceding vehicle position output means 9 outputs the distance and / or direction to the reflector recognized as the preceding vehicle by the image processing recognition means 7. The preceding vehicle position output means 9 corresponds to, for example, a part of the preceding vehicle position output circuit 27 in the embodiment of FIG. The contents of the image processing area setting means 5 include setting an image processing area to perform image processing only in an area within a predetermined angle range from the direction in which the distance detection from the reflector detecting means 1 is performed; Reflector detecting means 1
It is conceivable that the image processing area is set to the upper side of the screen as the detection distance is larger, and the area of the image processing area is set to be smaller as the detection distance by the reflector detector 1 is larger. As described above, in this embodiment, the image processing area setting means 5 for detecting the distance and direction to the reflector by the reflector detecting means 1 and setting the processing area in the image processing recognizing means 7 according to the result is provided. The image processing area is determined according to the distance and direction to the reflector. As a result, the position of the preceding vehicle can be reliably detected, and the region for performing image processing can be limited to a narrow range, so that calculation processing can be performed in real time without using an ultra-high-speed computer. It becomes possible.

【0015】図8は、本実施例のブロック図である。な
お、図8は、自車両と先行車両との車間距離を所定の安
全距離以上に保つように自動的に制御する自動車間距離
制御装置に本発明を適用した場合を例示している。図8
において、レーザレーダ装置21は、レーザ光を放射す
る送光器15、この送光器15から出力されたレーザ光
の反射光を受光する受光器17、送光器15におけるレ
ーザ光の放射から受光器17における反射光の受光まで
のレーザ光の伝播遅延時間に基づいて反射体までの距離
を検出する距離検出回路19を備えている。この距離検
出回路19の出力は信号処理回路31に送られる。ま
た、レーザレーダ装置21の送光器15から放射される
レーザ光は、レーザ光掃引装置13によって車両の前方
方向を中心に左右に掃引されるように制御されている。
このレーザ光掃引装置13は、例えば、ミラーを用いて
レーザ光を左右方向に例えば振幅±10度程度、周波数
10Hz程度で掃引するものである。このレーザ光掃引
装置13の掃引角度はレーザ光掃引方向検出装置11に
よって検出され、信号処理回路31に供給される。上記
のように、信号処理回路31には、距離検出回路19か
らの距離信号とレーザ光掃引方向検出装置11からの掃
引角度信号とが入力される。したがって信号処理回路3
1に入力する信号は、所定の掃引角度毎における反射体
までの距離、すなわち、自車両から反射体までの距離と
方向の情報を有する信号となる。なお、上記のレーザ光
掃引方向検出装置11としては、上記レーザ光掃引装置
13のミラーを制御する手段として例えばステップモー
タを用いている場合にはこのステップモータを駆動する
パルス数に対応して掃引角度を出力する装置を用いるこ
とが出来、また、上記レーザ光掃引装置13として例え
ばガルバノメータ方式のものを用いた場合にはこのガル
バノメータを制御する制御信号を掃引角度に対応した信
号として出力する装置を用いることが出来る。次に、信
号処理回路31は、上記レーザレーダ装置21の距離検
出回路19から供給された距離と上記レーザ光掃引方向
検出装置11から供給された掃引角度とに基づいて画像
処理を行なうべき画像領域を設定し、画像処理装置29
の画像処理回路25に対して出力する。また、画像処理
装置29は、自車両前方の画像を取り込むためのテレビ
カメラ23と、取り込まれた画像を処理して先行車両を
認識する画像処理回路25と、画像処理回路25の結果
を出力する先行車両位置出力回路27からなっており、
検出された先行車両までの距離、方向、速度を出力す
る。なお、上記の信号処理回路31、画像処理回路25
および先行車両位置出力回路27の部分は、例えばマイ
クロコンピュータで構成することが出来る。また、車両
運動制御回路33は、上記の与えられた先行車両までの
距離、方向、速度に基づいて、安全車間距離を保って先
行車両に追従走行できるようにアクチュエータ35に対
して指令値を出力する。このアクチュエータ35によっ
てスロットル弁、ブレーキ、ハンドル等の操縦装置37
を制御することにより、安全に追従走行することが出来
る。
FIG. 8 is a block diagram of the present embodiment. FIG. 8 illustrates a case where the present invention is applied to an inter-vehicle distance control device that automatically controls the inter-vehicle distance between the host vehicle and the preceding vehicle to be equal to or longer than a predetermined safety distance. FIG.
, The laser radar device 21 includes a light transmitter 15 that emits laser light, a light receiver 17 that receives reflected light of the laser light output from the light transmitter 15, and a light receiver 15 that receives light from the laser light emitted from the light transmitter 15. A distance detecting circuit for detecting a distance to the reflector based on a propagation delay time of the laser beam until the reflected light is received by the detector. The output of the distance detection circuit 19 is sent to a signal processing circuit 31. The laser light emitted from the light transmitter 15 of the laser radar device 21 is controlled by the laser light sweeping device 13 so as to be swept right and left around the front direction of the vehicle.
The laser light sweeping device 13 sweeps laser light in the left-right direction, for example, with an amplitude of about ± 10 degrees and a frequency of about 10 Hz using a mirror, for example. The sweep angle of the laser light sweep device 13 is detected by the laser light sweep direction detection device 11 and supplied to the signal processing circuit 31. As described above, the signal processing circuit 31 receives the distance signal from the distance detection circuit 19 and the sweep angle signal from the laser light sweep direction detection device 11. Therefore, the signal processing circuit 3
The signal input to 1 is a signal having information on the distance to the reflector at each predetermined sweep angle, that is, the distance and direction from the host vehicle to the reflector. When the laser light sweep direction detecting device 11 uses, for example, a step motor as a means for controlling the mirror of the laser light sweep device 13, the sweep is performed in accordance with the number of pulses for driving the step motor. An apparatus that outputs an angle can be used, and when, for example, a galvanometer type is used as the laser light sweeping apparatus 13, an apparatus that outputs a control signal for controlling the galvanometer as a signal corresponding to the sweep angle is used. Can be used. Next, the signal processing circuit 31 performs an image area to be subjected to image processing based on the distance supplied from the distance detection circuit 19 of the laser radar device 21 and the sweep angle supplied from the laser light sweep direction detection device 11. Is set, and the image processing device 29 is set.
To the image processing circuit 25. In addition, the image processing device 29 outputs a television camera 23 for capturing an image ahead of the host vehicle, an image processing circuit 25 that processes the captured image to recognize a preceding vehicle, and a result of the image processing circuit 25. It consists of a preceding vehicle position output circuit 27,
The distance, direction, and speed to the detected preceding vehicle are output. The signal processing circuit 31 and the image processing circuit 25
The portion of the preceding vehicle position output circuit 27 can be constituted by a microcomputer, for example. Further, the vehicle motion control circuit 33 outputs a command value to the actuator 35 based on the given distance, direction, and speed to the preceding vehicle so that the vehicle can follow the preceding vehicle while maintaining a safe inter-vehicle distance. I do. A steering device 37 such as a throttle valve, a brake, and a steering wheel is operated by the actuator 35.
, It is possible to safely follow the vehicle.

【0016】次に、本実施例の全体の作用を説明する前
に、まず画像処理領域の設定方法について説明する。図
9は、自車両が緩い右カーブを走行中の状態を模式的に
示す平面図である。図9において、図示しないレーザレ
ーダ装置21から放射されたレーザ光は、車体中心線5
5を中心にして左右に角度θMの範囲で掃引されてい
る。また、図示しないテレビカメラ23は水平面内の画
角がレーザレーダ装置21の掃引範囲−θM〜θMと一
致するように設定され、この範囲の画像を取り込んでい
る。その他、41および43は路側帯に設けられた反射
器(例えばキャッツアイのごときもの)、45は先行車
両、47a、47bは先行車両に取り付けられたリフレ
ックス・リフレクタ、49はセンターライン、51およ
び53は路端を示すラインである。
Next, before describing the overall operation of this embodiment, a method of setting an image processing area will be described first. FIG. 9 is a plan view schematically showing a state in which the host vehicle is traveling on a gentle right curve. In FIG. 9, a laser beam emitted from a laser radar device 21 (not shown)
5 is swept left and right within the range of the angle θM. The television camera 23 (not shown) is set so that the angle of view in the horizontal plane coincides with the sweep range −θM to θM of the laser radar device 21, and captures images in this range. In addition, 41 and 43 are reflectors (such as cat's eyes) provided on the roadside belt, 45 is a preceding vehicle, 47a and 47b are reflex reflectors attached to the preceding vehicle, 49 is a center line, and 51 and Reference numeral 53 denotes a line indicating a road end.

【0017】次に、図10は、図9の状態においてテレ
ビカメラ23から取り込まれた車両前方画像を示す図で
あり、図9と同一のものの画像は同じ符号に「′」を付
けて示している。すなわち45′は先行車両の画像であ
り、同様に、41′、43′は左右の路側帯に設けられ
た反射器、47a′、47b′は先行車両に取り付けら
れたリフレックス・リフレクタ、49′はセンターライ
ン、51′および53′は路端を示すラインの画像を示
す。
Next, FIG. 10 is a diagram showing an image in front of the vehicle taken from the television camera 23 in the state of FIG. 9, and images of the same ones as those in FIG. I have. That is, 45 'is an image of the preceding vehicle, 41' and 43 'are reflectors provided on the left and right roadside zones, 47a' and 47b 'are reflex reflectors attached to the preceding vehicle, 49' Indicates an image of a center line, and 51 'and 53' indicate images of lines indicating roadsides.

【0018】次に、図11は、レーザ光掃引方向検出装
置11から出力された掃引方向θに対するレーザレーダ
装置21からの検出距離Lを示した図であり、図9と同
一のものの画像は同じ符号に「″」を付けて示してい
る。図11においては、先行車両に取り付けられたリフ
レックス・リフレクタ47a″、47b″、左右の路側
帯に設けられた反射器41″、43″およびセンターラ
イン55″が示されている。
Next, FIG. 11 is a diagram showing a detection distance L from the laser radar device 21 with respect to the sweep direction θ output from the laser beam sweep direction detection device 11, and the same image as FIG. Symbols are indicated with “″”. FIG. 11 shows reflex reflectors 47a "and 47b" attached to the preceding vehicle, reflectors 41 "and 43" provided on the left and right roadside zones, and a center line 55 ".

【0019】以下、図9〜図11に基づいて説明する。
図10に示す前方画像では、先行車両45の画像45′
は図示した位置に図示した大きさで表示されるが、この
表示される位置および大きさは、テレビカメラ23の画
角範囲や倍率が固定であれば、テレビカメラ23の中心
軸に対する先行車両45の方向角度θcから画像左右方
向(X方向)の位置が決まり、距離Lcから画像上下方
向(Y方向)の位置が決まる。また画像45′の大きさ
は距離Lcに反比例する。したがって、注目領域だけを
画像処理して先行車両を検出するには、信号処理回路3
1において、反射器47a、47bまでの距離および角
度から車両前方画像における画像処理を行なうべき注目
領域を、図12に示すような以下の計算方法で決定すれ
ばよい。 (1)反射物の検出角度θ(車体中心線55からの角
度、前記のθcに相当)に応じて、注目領域の中心点P
の左右方向(X方向)の位置(X0)を決定する。 (2)反射物の検出距離L(前記のLcに相当)に応じ
て、注目領域の中心点Pの上下方向(Y方向)の位置
(Y0)を決定する。 (3)反射物の検出距離Lに反比例して、注目領域の左
右方向の幅wおよび上下方向の幅hを決定する。 (4)注目領域は、以下の2点を対角の2頂点とする長
方形領域とする。 点A……(X0−w/2、Y0−h/2) 点C……(X0+w/2、Y0+h/2) 上記のごとく、本実施例における注目領域(画像処理領
域)の決定は、距離検出が行なわれた方向から所定角
度範囲内に領域を設定し(X方向)、検出距離が大き
いほど画像処理領域を画面の上方に設定し(Y方向)、
検出距離が大きいほど画像処理領域の面積を小さく設
定するものである。
A description will be given below with reference to FIGS.
In the front image shown in FIG.
Is displayed in the size shown in the figure at the position shown in the figure, and the displayed position and size may be different from those of the preceding vehicle 45 with respect to the center axis of the TV camera 23 if the angle of view range and magnification of the TV camera 23 are fixed. Determines the position in the image left-right direction (X direction), and the distance Lc determines the position in the image up-down direction (Y direction). The size of the image 45 'is inversely proportional to the distance Lc. Therefore, to detect the preceding vehicle by performing image processing only on the attention area, the signal processing circuit 3
In 1, the attention area to be subjected to the image processing in the image ahead of the vehicle may be determined from the distance and the angle to the reflectors 47a and 47b by the following calculation method as shown in FIG. (1) The center point P of the attention area according to the detection angle θ of the reflection object (the angle from the vehicle body center line 55, corresponding to the above θc).
Is determined in the left-right direction (X direction). (2) The position (Y0) in the vertical direction (Y direction) of the center point P of the attention area is determined according to the detection distance L (corresponding to Lc) of the reflection object. (3) The width w in the left-right direction and the width h in the vertical direction of the attention area are determined in inverse proportion to the detection distance L of the reflection object. (4) The attention area is a rectangular area having the following two points as two diagonal vertices. Point A (X0-w / 2, Y0-h / 2) Point C (X0 + w / 2, Y0 + h / 2) As described above, the determination of the attention area (image processing area) An area is set within a predetermined angle range from the direction in which the detection is performed (X direction), and the image processing area is set above the screen as the detection distance increases (Y direction).
The larger the detection distance is, the smaller the area of the image processing area is set.

【0020】次に、図13は、図8の実施例における処
理手順を示すフローチャートである。以下、図13に基
づいて図8に示す実施例の全体の作用を説明する。図1
3に示す処理手順は、大別すると、掃引角度毎の検出距
離を算出して記憶する角度・距離算出部101と、テレ
ビカメラから自車両前方の画像を取り込む画像取り込み
部103と、取り込まれた画像の画像処理を行なう領域
を決定し、その領域で画像処理を行なって先行車両を認
識する先行車両検出部105と、先行車両がある場合に
は算出された先行車両の位置を出力する先行車両位置出
力部107に分けられる。
FIG. 13 is a flowchart showing a processing procedure in the embodiment of FIG. Hereinafter, the overall operation of the embodiment shown in FIG. 8 will be described based on FIG. FIG.
The processing procedure shown in FIG. 3 is roughly divided into an angle / distance calculation unit 101 that calculates and stores a detection distance for each sweep angle, an image capture unit 103 that captures an image ahead of the vehicle from a television camera, A preceding vehicle detecting unit 105 that determines an area where image processing of an image is to be performed, performs image processing in the area, and recognizes a preceding vehicle, and a preceding vehicle that outputs the calculated position of the preceding vehicle if there is a preceding vehicle It is divided into a position output unit 107.

【0021】以下、処理手順を詳細に説明する。角度・
距離算出部101では、まず、ステップ121、123
で処理用の変数kとjを0にしている。すなわち、レー
ザの掃引は、角度−θM〜θMの範囲で行なわれるが、
この間を2θM/Kmax毎にレーザを出力し、一回の掃
引あたりKmax回の出力が行なわれる。変数kはこの一
回の掃引におけるレーザ出力の番号であり、最大値はK
maxである。また変数jは一回の掃引において、距離検
出があった回数である。次に、ステップ125で自車両
の走行車速を車速センサ39から読み込む。次に、ステ
ップ127〜141はループとなっており、このループ
が一回のレーザ出力毎に行なわれ、一回分掃引が終了す
ると、ステップ141から次の車両判別部103へ進
む。このループ内ではまず、掃引角θをレーザ光掃引方
向検出装置11から読み込み(ステップ127、12
9)、距離検出回路19から検出距離Lを読み込み(ス
テップ131)、距離検出がなければステップ139へ
進み、距離検出があればステップ135へ進む(ステッ
プ133)。ステップ135、137では、距離検出の
あった場合だけ配列D(j)にデータを取り込む。配列
D(j)は、角度θと距離Lの2つのデータを記憶する
ための配列であり、得られた角度θと距離Lを入力す
る。その後、次の掃引角度指令値を出力(ステップ13
9)したのち、ステップ141でkの値をKmaxと比較
し、kがKmax未満であれば今回の掃引はまだ終わりで
ないためステップ127へ戻り、そうでなければ今回の
掃引によるデータは全て検出、取得されたとして、今回
の掃引における距離検出のあった回数をJmaxに代入し
(ステップ143)、次の画像取り込み部103へ進
む。
Hereinafter, the processing procedure will be described in detail. angle·
In the distance calculation unit 101, first, steps 121 and 123
Sets the variables k and j for processing to 0. That is, the laser sweep is performed in the range of angles −θM to θM,
During this time, the laser is output every 2θM / Kmax, and the output is performed Kmax times per sweep. The variable k is the number of the laser output in this one sweep, and the maximum value is K
max. The variable j is the number of times a distance has been detected in one sweep. Next, at step 125, the traveling vehicle speed of the own vehicle is read from the vehicle speed sensor 39. Next, steps 127 to 141 form a loop. This loop is performed for each laser output. When one sweep is completed, the process proceeds from step 141 to the next vehicle determination unit 103. In this loop, first, the sweep angle θ is read from the laser beam sweep direction detecting device 11 (steps 127 and 12).
9) The detection distance L is read from the distance detection circuit 19 (step 131). If no distance is detected, the process proceeds to step 139. If there is a distance detection, the process proceeds to step 135 (step 133). In steps 135 and 137, data is taken into the array D (j) only when the distance is detected. The array D (j) is an array for storing two data of the angle θ and the distance L, and inputs the obtained angle θ and the distance L. Thereafter, the next sweep angle command value is output (step 13).
9) After that, in step 141, the value of k is compared with Kmax, and if k is smaller than Kmax, the current sweep is not over yet and the process returns to step 127. Otherwise, all data by the current sweep is detected. Assuming that it has been acquired, the number of times the distance has been detected in the current sweep is substituted for Jmax (step 143), and the process proceeds to the next image capturing unit 103.

【0022】次に、画像取り込み部103では、テレビ
カメラ23から自車両前方の画像を取り込む。次に、先
行車両検出部105では、まず、処理のための変数jを
0にする(ステップ145)。次のステップ147〜1
55が検出された反射体毎の処理ループを構成してい
る。まずステップ147では、検出された角度・距離情
報の配列D(j)=(θ,L)から画像処理を行なう注
目領域を決定する。この決定方法は前述した通りであ
り、以下のように算出する。 (1)中心点PのX座標: X0=K1×θ (K1は定数) (2)中心点PのY座標: Y0=K2×L+T1 (K2、T1は定数) (3)左右方向の幅: w=K3/L 上下方向の幅: h=K4/L (K3、K4は定数) (4)注目領域の各頂点の座標算出 点A……(X0−w/2、Y0−h/2) 点C……(X0+w/2、Y0+h/2) 次のステップ149においては、決定された注目領域に
関して画像処理を行なう。ここでは、例えばエッジ検
出、二値化等の処理を行なって次のステップ151で車
両の形状(ほぼ四角)を認識し易くなるような処理を行
なえばよい。次に、ステップ151では画像処理後の画
像に先行車両の形状が含まれるかどうかを検出する。こ
れには、あらかじめ車両と見なせるような形状パターン
(例えば長方形)を記憶しておいて、画像処理後の画像
にこの形状パターンが含まれているかどうかを判別する
ことで先行車両の認識が可能となる。例えば、距離デー
タが得られた反射体が道路の路側帯に設けられた反射器
41、43等のような車両以外であった場合には、その
周りを注目領域として画像処理、先行車両認識を行なっ
ても記憶された形状パターンに合致する画像は得られな
いため、先行車両ではないと認識される。この先行車両
認識処理(ステップ151)が終了すると、次の反射体
データに対して同じ処理を行ない、今回の掃引における
データ数に達するまで繰り返す。
Next, the image capturing section 103 captures an image ahead of the vehicle from the television camera 23. Next, the preceding vehicle detection unit 105 first sets a variable j for processing to 0 (step 145). Next steps 147-1
55 constitutes a processing loop for each detected reflector. First, in step 147, an attention area to be subjected to image processing is determined from the detected array of angle / distance information D (j) = (θ, L). This determination method is as described above, and is calculated as follows. (1) X coordinate of the central point P: X0 = K1 × θ (K1 is a constant) (2) Y coordinate of the central point P: Y0 = K2 × L + T1 (K2 and T1 are constants) (3) Width in the left-right direction: w = K3 / L Width in the vertical direction: h = K4 / L (K3 and K4 are constants) (4) Calculation of coordinates of each vertex of the attention area Point A (X0-w / 2, Y0-h / 2) Point C (X0 + w / 2, Y0 + h / 2) In the next step 149, image processing is performed on the determined attention area. Here, for example, processing such as edge detection and binarization may be performed, and processing may be performed in the next step 151 to facilitate recognition of the shape (substantially square) of the vehicle. Next, in step 151, it is detected whether or not the image after the image processing includes the shape of the preceding vehicle. For this, a shape pattern (for example, a rectangle) that can be regarded as a vehicle is stored in advance, and it is possible to recognize the preceding vehicle by determining whether or not the image after image processing includes the shape pattern. Become. For example, when the reflector from which the distance data is obtained is other than a vehicle such as the reflectors 41 and 43 provided on the roadside zone of the road, image processing and preceding vehicle recognition are performed with the surrounding area as the attention area. Even if this operation is performed, an image matching the stored shape pattern cannot be obtained, and thus it is recognized that the vehicle is not the preceding vehicle. When the preceding vehicle recognition processing (Step 151) is completed, the same processing is performed on the next reflector data, and the processing is repeated until the number of data in the current sweep is reached.

【0023】最後に先行車両位置出力部107に進み、
ステップ157において先行車両の検出があったかどう
かを判別し、先行車両がある場合には、その先行車両の
位置、すなわち角度・距離情報D(j)を出力する。
Finally, proceed to the preceding vehicle position output unit 107,
In step 157, it is determined whether or not a preceding vehicle has been detected. If there is a preceding vehicle, the position of the preceding vehicle, that is, angle / distance information D (j) is output.

【0024】以上説明したように、本実施例によれば、
反射体までの距離と方向を検出し、その結果に応じて画
像認識における処理領域を設定するように構成したこと
により、先行車両の位置を確実に検出することが可能に
なると共に、画像処理を行う領域を狭い範囲に限定する
ことが出来るので、超高速計算機なしで実用的に実現す
ることが出来る。したがって車両の自動走行装置や他車
両への接近警報装置等に適用することによって、より精
度の高い自動走行や、適切な警報を発生することができ
る、という効果が得られる。
As described above, according to the present embodiment,
By detecting the distance and direction to the reflector and setting the processing area in image recognition according to the result, it is possible to reliably detect the position of the preceding vehicle and perform image processing. Since the area to be performed can be limited to a narrow range, it can be realized practically without an ultra-high-speed computer. Therefore, by applying the present invention to an automatic traveling device of a vehicle, a warning device for approaching another vehicle, and the like, it is possible to obtain an effect that more accurate automatic traveling and an appropriate alarm can be generated.

【0025】[0025]

【発明の効果】以上説明してきたように、本発明によれ
ば、車外の物体までの距離と方向の情報に基づいて画像
処理手段における画像処理方法を設定するように構成し
たことにより、(1)画像処理を行なう物体が特定さ
れ、その物体に応じた処理を行なえば良いので、処理系
が簡素になる、(2)処理速度の向上が見込まれる、
(3)画像処理が最適になるように画像情報を調節でき
るため、より正確な物体の特徴抽出が可能となる、
(4)処理方式の変更が任意に設定できるため、環境に
応じた処理方式が選択できる、(5)車両運転時の警報
や、車両の走行制御のために必要な情報を正確に得るこ
とができる、(6)距離測定や画像処理だけでは検出不
可能な接近車両の挙動(例えば、車線変更の意思)を検
知することができる、(7)本発明の画像処理装置を適
用することにより、物体に対する距離、方向、特徴が得
られるため、衝突防止装置等の運転支援装置や、自律走
行車用の画像処理システムの性能を向上させることが出
来る、等の効果が得られる。また、本発明を先行車両検
出装置に適用したものにおいては、反射体までの距離と
方向を検出し、その結果に応じて画像認識における処理
領域を設定するように構成したことにより、先行車両の
位置を確実に検出することが可能になると共に、画像処
理を行う領域を狭い範囲に限定することが出来るので、
超高速計算機なしで実用的に実現することが出来る。し
たがって車両の自動走行装置や他車両への接近警報装置
等に適用することによって、より精度の高い自動走行
や、適切な警報を発生することができる、という効果が
得られる。
As described above, according to the present invention, (1) the image processing method in the image processing means is set based on information on the distance and direction to an object outside the vehicle. ) An object on which image processing is to be performed is specified, and processing according to the object may be performed, so that the processing system is simplified. (2) Improvement in processing speed is expected.
(3) Since image information can be adjusted so that image processing is optimized, more accurate object feature extraction becomes possible.
(4) Since the change of the processing method can be arbitrarily set, a processing method according to the environment can be selected. (5) It is possible to accurately obtain a warning at the time of vehicle driving and information necessary for vehicle driving control. (6) It is possible to detect the behavior of an approaching vehicle (for example, intention to change lanes) that cannot be detected only by distance measurement or image processing. (7) By applying the image processing device of the present invention, Since the distance, direction, and characteristics to the object can be obtained, effects such as improvement in the performance of a driving support device such as a collision prevention device and an image processing system for an autonomous vehicle can be obtained. Further, in a device in which the present invention is applied to a preceding vehicle detection device, by detecting a distance and a direction to a reflector and setting a processing region in image recognition according to the result, the preceding vehicle is detected. Since it is possible to reliably detect the position and to limit the area for performing image processing to a narrow range,
It can be realized practically without an ultra-high-speed computer. Therefore, by applying the present invention to an automatic traveling device of a vehicle, a warning device for approaching another vehicle, and the like, it is possible to obtain an effect that more accurate automatic traveling and an appropriate alarm can be generated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例のブロック図。FIG. 1 is a block diagram of a first embodiment of the present invention.

【図2】車両と車外の物体との位置関係を示す図であ
り、(a)は上面図、(b)は側面図。
FIGS. 2A and 2B are diagrams showing a positional relationship between a vehicle and an object outside the vehicle, wherein FIG. 2A is a top view and FIG.

【図3】距離測定結果の一例を示す図表。FIG. 3 is a table showing an example of a distance measurement result.

【図4】図1の装置における処理手順を示すフローチャ
ート。
FIG. 4 is a flowchart showing a processing procedure in the apparatus of FIG. 1;

【図5】本発明の第2の実施例のブロック図。FIG. 5 is a block diagram of a second embodiment of the present invention.

【図6】本発明の第3の実施例のブロック図。FIG. 6 is a block diagram of a third embodiment of the present invention.

【図7】本発明を先行車両検出装置に適用した場合の機
能ブロック図。
FIG. 7 is a functional block diagram when the present invention is applied to a preceding vehicle detection device.

【図8】本発明を先行車両検出装置に適用した場合の実
施例のブロック図。
FIG. 8 is a block diagram of an embodiment when the present invention is applied to a preceding vehicle detection device.

【図9】自車両が緩い右カーブを走行中の状態を模式的
に示す平面図。
FIG. 9 is a plan view schematically showing a state in which the host vehicle is traveling on a gentle right curve.

【図10】図9の状態においてテレビカメラから取り込
まれた車両前方画像を示す図。
FIG. 10 is a view showing an image in front of the vehicle taken from the television camera in the state of FIG. 9;

【図11】レーザ光掃引方向検出装置から出力された掃
引方向θに対するレーザレーダ装置からの検出距離Lを
示した図。
FIG. 11 is a diagram showing a detection distance L from a laser radar device with respect to a sweep direction θ output from a laser light sweep direction detection device.

【図12】画像処理を行なうべき注目領域を決定する方
法を説明するための図。
FIG. 12 is a view for explaining a method of determining a region of interest on which image processing is to be performed.

【図13】図8の実施例における処理手順を示すフロー
チャート。
FIG. 13 is a flowchart showing a processing procedure in the embodiment of FIG. 8;

【図14】従来の車両用画像処理装置の一例図。FIG. 14 is a diagram illustrating an example of a conventional vehicle image processing apparatus.

【符号の説明】[Explanation of symbols]

1…反射体検出手段 11…レーザ光掃
引方向検出装置 3…撮影手段 13…レーザ光掃
引装置 5…画像処理領域設定手段 15…送光器 7…画像処理認識手段 17…受光器 9…先行車位置出力手段 19…距離検出装
置 21…レーザレーダ装置 29…画像処理
装置 23…テレビカメラ 31…信号処理
回路 25…画像処理回路 33…車両運動
制御回路 27…先行車両位置出力回路 35…アクチュ
エータ 37…スロットル、ブレーキ、ハンドル等の操縦装置 60、66、70…距離測定手段 65…車外の物
体 61、67、76…判断手段 71…車速セン
サ 62、68、74…イメージセンサ 72…舵角セン
サ 63、69、77…画像処理手段 73…ヒューマ
ンインターフェイス 64…車両 75…判断基準
設定手段
DESCRIPTION OF SYMBOLS 1 ... Reflector detection means 11 ... Laser light sweep direction detection apparatus 3 ... Imaging means 13 ... Laser light sweeping apparatus 5 ... Image processing area setting means 15 ... Light transmitter 7 ... Image processing recognition means 17 ... Light receiver 9 ... Preceding vehicle Position output means 19 ... Distance detecting device 21 ... Laser radar device 29 ... Image processing device 23 ... TV camera 31 ... Signal processing circuit 25 ... Image processing circuit 33 ... Vehicle motion control circuit 27 ... Previous vehicle position output circuit 35 ... Actuator 37 ... Control devices such as throttles, brakes, steering wheels, etc. 60, 66, 70 distance measuring means 65 objects outside the vehicle 61, 67, 76 determining means 71 vehicle speed sensors 62, 68, 74 image sensors 72 steering angle sensors 63 69, 77: Image processing means 73: Human interface 64: Vehicle 75: Judgment standard setting means

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 1/00,7/00 G08G 1/16 G01B 11/00 - 11/30 Continuation of the front page (58) Fields investigated (Int. Cl. 7 , DB name) G06T 1/00, 7/00 G08G 1/16 G01B 11/00-11/30

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】車両に搭載され、車両周囲の画像情報を入
力するイメージセンサと、 車外に存在する単一あるいは複数の物体までの距離と方
向の情報を求める距離測定手段と、 上記距離と方向の情報に基づいて、上記物体の存在する
領域周辺を画像処理を行なう領域として決定する処理、
または上記物体のうちの何れかを画像処理を行なう対象
物として決定する処理の何れか一方を含む画像処理方法
を判断して設定する判断手段と、 上記イメージセンサで求めた画像情報に対して、上記判
断手段で設定した画像処理方法に基づいて画像処理を行
なう画像処理手段と、 を備えたことを特徴とする車両用画像処理装置。
1. An image sensor mounted on a vehicle for inputting image information around the vehicle, distance measuring means for obtaining information on the distance and direction to one or more objects existing outside the vehicle, and the distance and direction based on the information, the presence of the object
A process of determining the periphery of the region as a region for performing image processing,
Or the object to perform image processing on any of the above objects
Determining means for determining and setting an image processing method including any one of processing for determining an object; and performing image processing on the image information obtained by the image sensor based on the image processing method set by the determining means. An image processing device for a vehicle, comprising:
【請求項2】上記判断手段は、画像を拡大・縮小・方向
転換・焦点調整する処理のうちの少なくとも一つの処理
を含む画像処理方法を判断して設定するものであること
を特徴とする請求項1に記載の車両用画像処理装置。
Wherein said determination means is characterized in that it is used for setting to determine an image processing method including at least one processing of processing to scale, turning, focusing the images The vehicle image processing device according to claim 1.
【請求項3】上記イメージセンサは、上記判断手段で設
定した拡大・縮小・方向転換・焦点調整の処理に応じて
画像中の詳細な画像処理が必要な予め定めた物体を拡大
・縮小・方向転換・焦点調整するものであることを特徴
とする請求項に記載の車両用画像処理装置。
3. An image sensor according to claim 1, wherein said image sensor enlarges / reduces / orients a predetermined object requiring detailed image processing in accordance with the enlargement / reduction / direction change / focus adjustment processing set by said determination means. 3. The image processing apparatus for a vehicle according to claim 2 , wherein the apparatus performs conversion and focus adjustment .
【請求項4】自車両の走行状態を検出する測定手段を備
え、 上記判断手段は、上記測定手段の検出結果に応じて車両
の走行環境を判断し、判断した走行環境に対して予め定
めた物体を画像処を行なう対象物として決定するもの
であることを特徴とする請求項2または請求項3に記載
の車両用画像処理装置。
4. A vehicle according to claim 1, further comprising a measuring unit for detecting a traveling state of the host vehicle, wherein said determining unit determines a vehicle state according to a detection result of said measuring unit.
Judge the driving environment of the
The image processing system as recited in claim 2 or 3, characterized in that to determine the meta-object as an object for performing an image processing.
【請求項5】所定角度範囲を掃引しながら自車両の走行
方向に電磁波を放射し、反射体からの反射波を受信し、
所定の掃引角度毎に電磁波の放射から受信までの伝播遅
延時間に基づいて反射体までの距離を算出することによ
り、自車両から反射体までの距離と方向を検出する反射
体検出手段と、 自車両の走行方向前方の風景を撮影する撮影手段と、 上記撮影手段によって撮影された車両前方の画像を処理
して前方に存在する先行車両を検出する画像認識手段
と、 上記画像認識手段における画像処理領域を、上記反射体
検出手段から検出された距離および方向に応じて設定す
る画像処理領域設定手段と、 上記画像処理認識手段によって先行車と認識された反射
体までの距離または方向もしくはその両方を出力する先
行車位置出力手段と、 を備えたことを特徴とする車両用画像処理装置。
5. An electromagnetic wave is emitted in a traveling direction of the vehicle while sweeping a predetermined angle range, and a reflected wave from a reflector is received.
A reflector detecting means for detecting a distance and a direction from the host vehicle to the reflector by calculating a distance to the reflector based on a propagation delay time from emission of the electromagnetic wave to reception at each predetermined sweep angle; Photographing means for photographing a scene in front of the traveling direction of the vehicle; image recognizing means for processing an image in front of the vehicle photographed by the photographing means to detect a preceding vehicle existing ahead; image processing in the image recognizing means An image processing area setting means for setting an area according to the distance and direction detected by the reflector detection means; and a distance and / or a direction to the reflector recognized as a preceding vehicle by the image processing recognition means. A vehicle image processing device, comprising: a preceding vehicle position output means for outputting.
JP05138145A 1992-07-21 1993-06-10 Vehicle image processing device Expired - Fee Related JP3123303B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05138145A JP3123303B2 (en) 1992-07-21 1993-06-10 Vehicle image processing device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP19399392 1992-07-21
JP4-193993 1992-07-21
JP05138145A JP3123303B2 (en) 1992-07-21 1993-06-10 Vehicle image processing device

Publications (2)

Publication Number Publication Date
JPH06124340A JPH06124340A (en) 1994-05-06
JP3123303B2 true JP3123303B2 (en) 2001-01-09

Family

ID=26471263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05138145A Expired - Fee Related JP3123303B2 (en) 1992-07-21 1993-06-10 Vehicle image processing device

Country Status (1)

Country Link
JP (1) JP3123303B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006151125A (en) * 2004-11-26 2006-06-15 Omron Corp On-vehicle image processing device
JP2006258507A (en) * 2005-03-15 2006-09-28 Omron Corp Apparatus for recognizing object in front
JP2007233440A (en) * 2006-02-27 2007-09-13 Omron Corp On-vehicle image processor
KR20160015734A (en) * 2014-07-31 2016-02-15 현대엠엔소프트 주식회사 Apparatus for controlling focus of car back box and method thereof
KR101822157B1 (en) * 2016-05-23 2018-01-25 신후진 Display system for displaying front traffic signal on behind of vehicle

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9102220B2 (en) 1992-05-05 2015-08-11 American Vehicular Sciences Llc Vehicular crash notification system
WO1996034363A1 (en) * 1995-04-26 1996-10-31 Hitachi, Ltd. Image processor for vehicle
US9008854B2 (en) 1995-06-07 2015-04-14 American Vehicular Sciences Llc Vehicle component control methods and systems
JPH09264954A (en) * 1996-03-29 1997-10-07 Fujitsu Ten Ltd Image processing system using radar
US8209120B2 (en) 1997-10-22 2012-06-26 American Vehicular Sciences Llc Vehicular map database management techniques
US9177476B2 (en) 1997-10-22 2015-11-03 American Vehicular Sciences Llc Method and system for guiding a person to a location
US10240935B2 (en) 1998-10-22 2019-03-26 American Vehicular Sciences Llc Vehicle software upgrade techniques
JP3923200B2 (en) * 1998-10-23 2007-05-30 本田技研工業株式会社 Vehicle obstacle detection method
JP2001034900A (en) * 1999-07-23 2001-02-09 Toshiba Corp Method and device for detecting airplane
JP4308381B2 (en) 1999-09-29 2009-08-05 富士通テン株式会社 Perimeter monitoring sensor
JP2002189075A (en) 2000-12-20 2002-07-05 Fujitsu Ten Ltd Method for detecting stationary on-road object
GB2374743A (en) * 2001-04-04 2002-10-23 Instro Prec Ltd Surface profile measurement
DE60211497T2 (en) 2001-04-04 2006-12-14 Instro Precision Ltd., Broadstairs MEASUREMENT OF A SURFACE PROFILE
JP2005018548A (en) * 2003-06-27 2005-01-20 Alpine Electronics Inc Display device for peripheral vehicle
EP1662459A4 (en) * 2003-09-02 2007-03-21 Fujitsu Ltd Vehicle-mounted image processor
DE102004038494A1 (en) 2004-08-07 2006-03-16 Robert Bosch Gmbh Method and device for operating a sensor system
JP2008172441A (en) * 2007-01-10 2008-07-24 Omron Corp Detection device, method, and program
JP4935571B2 (en) * 2007-08-08 2012-05-23 株式会社デンソー Driving assistance device
JP4557041B2 (en) 2008-04-18 2010-10-06 株式会社デンソー Image processing apparatus for vehicle
EP2307907A1 (en) * 2008-07-24 2011-04-13 Koninklijke Philips Electronics N.V. Distance measurement
JP5907546B2 (en) * 2009-01-16 2016-04-26 日本電気株式会社 POSITION INFORMATION ANALYSIS DEVICE, POSITION INFORMATION ANALYSIS METHOD, POSITION INFORMATION ANALYSIS SYSTEM, AND PROGRAM
JP6212880B2 (en) * 2013-03-04 2017-10-18 株式会社デンソー Target recognition device
JP6736931B2 (en) * 2016-03-24 2020-08-05 日産自動車株式会社 Three-dimensional object detection method and three-dimensional object detection device
JP6679372B2 (en) * 2016-03-28 2020-04-15 セコム株式会社 Object detection device
US11987271B2 (en) 2018-12-07 2024-05-21 Sony Semiconductor Solutions Corporation Information processing apparatus, information processing method, mobile-object control apparatus, and mobile object

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006151125A (en) * 2004-11-26 2006-06-15 Omron Corp On-vehicle image processing device
JP2006258507A (en) * 2005-03-15 2006-09-28 Omron Corp Apparatus for recognizing object in front
JP2007233440A (en) * 2006-02-27 2007-09-13 Omron Corp On-vehicle image processor
KR20160015734A (en) * 2014-07-31 2016-02-15 현대엠엔소프트 주식회사 Apparatus for controlling focus of car back box and method thereof
KR102197196B1 (en) * 2014-07-31 2020-12-31 현대엠엔소프트 주식회사 Apparatus for controlling focus of car back box and method thereof
KR101822157B1 (en) * 2016-05-23 2018-01-25 신후진 Display system for displaying front traffic signal on behind of vehicle

Also Published As

Publication number Publication date
JPH06124340A (en) 1994-05-06

Similar Documents

Publication Publication Date Title
JP3123303B2 (en) Vehicle image processing device
JP3822515B2 (en) Obstacle detection device and method
JP3619628B2 (en) Driving environment recognition device
EP1881345B1 (en) Method for detecting stationary object located above road
US8320628B2 (en) Method and system for assisting driver
US9251708B2 (en) Forward collision warning trap and pedestrian advanced warning system
JP6471528B2 (en) Object recognition apparatus and object recognition method
US7684590B2 (en) Method of recognizing and/or tracking objects
EP1961613B1 (en) Driving support method and driving support device
US8175331B2 (en) Vehicle surroundings monitoring apparatus, method, and program
JPH07182484A (en) Recognition device for front of moving vehicle and vehicle travel controller
JP3857698B2 (en) Driving environment recognition device
JPH08156723A (en) Vehicle obstruction detecting device
JP4321142B2 (en) Sign recognition device
JP2007030603A (en) Vehicle travel assisting device
JP3070277B2 (en) Preceding vehicle detection device
JP3464368B2 (en) Rear side monitoring device for vehicles
JPH04193641A (en) Obstacle detection device for vehicle
JPH06162398A (en) Traffic lane detecting device, traffic lane deviation warning device and collision warning device
JPH0541087Y2 (en)
JP3823944B2 (en) Moving object notification device
JPH06341837A (en) Distance-between-cars measuring apparatus, camera-position correction device and collision warning device
JP2021059136A (en) Monitoring device
JPH08221698A (en) Obstacle detecting device for vehicle
JP3822275B2 (en) Image sensor for moving body and travel control device for moving body

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071027

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081027

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091027

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091027

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101027

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111027

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121027

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees