JP2002099908A - Detection of approaching vehicle, and image processing device detecting vehicle lane position - Google Patents

Detection of approaching vehicle, and image processing device detecting vehicle lane position

Info

Publication number
JP2002099908A
JP2002099908A JP2001191968A JP2001191968A JP2002099908A JP 2002099908 A JP2002099908 A JP 2002099908A JP 2001191968 A JP2001191968 A JP 2001191968A JP 2001191968 A JP2001191968 A JP 2001191968A JP 2002099908 A JP2002099908 A JP 2002099908A
Authority
JP
Japan
Prior art keywords
vehicle
lane
detecting
image processing
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001191968A
Other languages
Japanese (ja)
Other versions
JP3930268B2 (en
Inventor
Tatsuhiko Moji
竜彦 門司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2001191968A priority Critical patent/JP3930268B2/en
Publication of JP2002099908A publication Critical patent/JP2002099908A/en
Application granted granted Critical
Publication of JP3930268B2 publication Critical patent/JP3930268B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To realize an image processing device, enabling both of detection of a lane position and monitoring of a vehicle or the like approaching a blind spot area in each of the left and right directions, even when it approaches close to a vehicle ahead. SOLUTION: Two photographing parts, each having a photographing area ranging by 150 degrees in the horizontal direction and ranging by 60 degrees in the vertical direction, are arranged on both left and right sides of the front part of an own vehicle 10. The extension in the photographing depth direction of a central point of each of the photographing areas of the photographing parts 1 and 2 is set at an inclination of 45 degrees to the advancing direction of the own vehicle 10, with respect to the horizontal direction of the vehicle 10, and each of the photographing areas of the photographing parts 1 and 2 is an area limited by a boundary extending from the photographing part and tilting at 30 degrees toward the central axis direction of the vehicle 10 from the vehicle 10 advancing direction and a boundary extending from the photographing part and tilting backward at 30 degrees from the line at right angle from the vehicle 10 advancing direction. The extension in the photographing depth direction is set tilted downward by 3 degrees, with respect to the vertical direction of the own vehicle 10.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、車両の左右前方におけ
る車線位置検知と接近車両の検知を行う画像処理装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for detecting lane positions at the left and right front of a vehicle and detecting an approaching vehicle.

【0002】[0002]

【従来の技術】車両の検知を行う画像処理装置の従来の
技術としては、例えば、特開平11−59272号公報
に記載された技術がある。この公報記載の技術は、車両
の先端に設けられた撮像手段により、山形ミラーに反射
した車両左右前方の映像を撮影し、表示する。これによ
り、左右両方向の死角範囲を観察する事が可能である。
2. Description of the Related Art As a conventional technique of an image processing apparatus for detecting a vehicle, for example, there is a technique described in Japanese Patent Application Laid-Open No. H11-59272. The technique described in this publication captures and displays an image of the left and right front of the vehicle reflected on a chevron mirror by an image pickup means provided at the tip of the vehicle. Thereby, it is possible to observe the blind spot range in both the left and right directions.

【0003】また、上記公報と同様の技術としては、例
えば、特開平11−338074号公報、特開平11−
331834号公報、特開平10−19643号公報に
記載されたものがある。
[0003] As a technique similar to the above-mentioned publication, for example, Japanese Patent Application Laid-Open No. 11-338074, Japanese Patent Application Laid-Open
There are those described in JP-A-331834 and JP-A-10-19643.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上述し
た従来技術によれば、車両の左右両方向の死角範囲を観
察する事は可能であるが、前方方向の監視は行えない。
However, according to the above-mentioned prior art, it is possible to observe the blind spot in both the left and right directions of the vehicle, but it is not possible to monitor the forward direction.

【0005】そこで、車両の左右両方向を監視するカメ
ラと、車両の中央に配置し、前方方向を監視するカメラ
とを同時に用いることが考えられる。
Therefore, it is conceivable to use a camera that monitors both the left and right directions of the vehicle and a camera that is arranged at the center of the vehicle and monitors the front direction at the same time.

【0006】ところが、車両の中央に配置されたカメラ
では、その車両が先行車両に接近していると先行車両が
障害となって走行路の車線が監視できなくなり、車線位
置を検知することが困難になるという問題がある。
However, with a camera located in the center of the vehicle, if the vehicle is approaching the preceding vehicle, the preceding vehicle becomes an obstacle and the lane on the road cannot be monitored, making it difficult to detect the lane position. Problem.

【0007】本発明の目的は、先行車両に接近した場合
であっても、車線位置の検知と左右両方向の死角範囲の
監視との両方を可能にする画像処理装置を実現すること
である。
An object of the present invention is to realize an image processing apparatus capable of both detecting a lane position and monitoring a blind spot in both left and right directions even when approaching a preceding vehicle.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するた
め、本発明は次のように構成される。 (1)接近車両検知及び車線位置検知を行う画像処理装
置において、自車両に配置され、この自車両の前方領域
と一方の側方領域とを撮像領域とする第1の撮像部と、
自車両に配置され、この自車両の前方領域と他方の側方
領域とを撮像領域とする第2の撮像部とを備える。
In order to achieve the above object, the present invention is configured as follows. (1) In an image processing apparatus for detecting an approaching vehicle and a lane position, a first imaging unit disposed in the own vehicle and having an area in front of the own vehicle and one side area as an imaging area;
A second image pickup unit is provided in the host vehicle and has a front area and the other side area of the host vehicle as image pickup areas.

【0009】(2)好ましくは、上記(1)において、
第1の撮像部及び第2の撮像部のそれぞれは、上記自車
両の前方の走行車線を撮像領域の一方の半分の領域内で
撮像するとき、上記自車両の先端面の延長線を他方の半
分の領域内で撮像する。
(2) Preferably, in the above (1),
When each of the first imaging unit and the second imaging unit captures an image of the traveling lane ahead of the host vehicle in one half of the imaging area, the first imaging unit and the second imaging unit draw an extension of the front end surface of the host vehicle on the other side. Image within half area.

【0010】(3)また、好ましくは、上記(1)及び
(2)において、自車両が所定の車両速度以下の場合に
は、自車両が交差点に位置するか否かを判定し、自車両
が交差点内に位置するときには、接近する他車両が存在
するか否かを判定する。
(3) Preferably, in the above (1) and (2), when the own vehicle is at or below a predetermined vehicle speed, it is determined whether or not the own vehicle is located at an intersection, and Is located within the intersection, it is determined whether there is another vehicle approaching.

【0011】(4)また、好ましくは、上記(1)及び
(2)において、第1の撮像部又は第2の撮像部のいず
れか一方の撮像部の映像情報で車線位置検知ができない
ときには他方の撮像部の映像情報で車線位置検知を行
う。
(4) Preferably, in the above (1) and (2), when the lane position cannot be detected from the video information of one of the first and second imaging units, the other is used. The lane position is detected based on the image information of the imaging unit.

【0012】(5)また、好ましくは、上記(2)にお
いて、第1の撮像部及び第2の撮像部のそれぞれは、1
つもしくは複数の撮像デバイスを有し、上記撮像デバイ
ズにより水平方向に広い範囲を撮像する。
(5) Preferably, in the above (2), each of the first imaging unit and the second imaging unit is 1
One or a plurality of imaging devices, and the imaging device images a wide range in the horizontal direction.

【0013】(6)また、好ましくは、上記(1)及び
(2)において、撮像映像中の車線の消失点と車線の水
平方向との位置関係に基づいて、車線位置関係および車
線逸脱状況を判定する。
(6) Preferably, in the above (1) and (2), based on the positional relationship between the vanishing point of the lane in the captured image and the horizontal direction of the lane, the lane positional relationship and the lane departure situation are determined. judge.

【0014】(7)また、好ましくは、上記(1)及び
(2)において、第1の撮像部及び第2の撮像部のそれ
ぞれは、ウインカランプ等と一体成形するときに、ウイ
ンカランプ等の光を遮断する手段を有する。
(7) Preferably, in the above (1) and (2), each of the first imaging section and the second imaging section is integrally formed with the blinker lamp or the like. It has means for blocking light.

【0015】上述のように構成した本発明によれば、先
行車に接近してもどちらかの撮像部により車線が検出さ
れ、車線位置検知が確実に実行され、自車両の左右両方
向の監視も可能となる。
According to the present invention constructed as described above, even when approaching the preceding vehicle, the lane is detected by one of the imaging units, the lane position detection is reliably executed, and the monitoring of both the left and right directions of the own vehicle is also performed. It becomes possible.

【0016】[0016]

【発明の実施の形態】以下、本発明の実施の形態につい
て添付図面を参照して詳細に説明する。図1は、本発明
の一実施形態に係わる接近車両位置検知を行う画像処理
装置のシステム構成を示す図である。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1 is a diagram illustrating a system configuration of an image processing apparatus that detects an approaching vehicle position according to an embodiment of the present invention.

【0017】図1において、画像処理装置は、自車両の
右前方を撮像する撮像部1(第1の撮像部)と、自車両
の左前方を撮像する撮像部2(第2の撮像部)と、方向
指示操作器3と、自車速度検出部4と、ナビ装置5と、
警報器6と、モニタ7と、ステア制御器8と、処理部9
とを備える。
In FIG. 1, an image processing apparatus includes an image pickup unit 1 (first image pickup unit) for picking up the right front of the own vehicle, and an image pickup unit 2 (second image pickup unit) for picking up the left front of the host vehicle. A direction instruction operating device 3, a vehicle speed detecting unit 4, a navigation device 5,
Alarm 6, monitor 7, steer controller 8, processing unit 9
And

【0018】処理部9は、ナビ装置5からの交差点情報
と、自車速度検出部4からの自車速度情報と、方向指示
操作器3からの右左折情報とにより、左右の撮像部1、
2からの映像情報に対して車線位置検知処理、割込み車
両検知処理、交差点接近車両検知処理を行う。
The processing unit 9 uses the intersection information from the navigation device 5, the own vehicle speed information from the own vehicle speed detecting unit 4, and the right / left turn information from the direction indicating operating device 3 to obtain the left and right imaging units 1, 2.
The lane position detecting process, the interrupting vehicle detecting process, and the intersection approaching vehicle detecting process are performed on the video information from 2.

【0019】また、処理部9からの出力である車線位置
検知結果は、ステア制御器8に出力され、このステア制
御器8において、走行車線を基準にして、自車両の走行
を安定維持する制御を行う。
The lane position detection result output from the processing unit 9 is output to the steering controller 8, and the steering controller 8 controls the vehicle to stably maintain the traveling of the vehicle based on the traveling lane. I do.

【0020】また、処理部9は、割込み車両検知結果及
び交差点接近車両検知結果と、自車速度情報と右左折情
報等とから、自車両の危険度を推定し、警報器6を介し
て運転者に対して警報を行う。
The processing section 9 estimates the degree of danger of the own vehicle from the interrupted vehicle detection result, the intersection approaching vehicle detection result, the own vehicle speed information, the right / left turn information, and the like. Alert the person.

【0021】さらに、処理部9は、推定した危険度に応
じて、映像情報に加工を施し、モニタ7により運転者へ
表示する。例えば、モニタ7の表示では、自車両への接
近車両を検知したときには、検知した車両を囲むような
4角形を表示する。このとき、4角形を描画する線の色
を危険度が高くなるにつれ、緑色から黄色、赤色の変化
させ、運転者へ危険度を報知する。
Further, the processing section 9 processes the video information in accordance with the estimated degree of danger and displays it on the monitor 7 for the driver. For example, on the display of the monitor 7, when a vehicle approaching the host vehicle is detected, a quadrangle surrounding the detected vehicle is displayed. At this time, the color of the line drawing the quadrangle is changed from green to yellow and red as the degree of risk increases, and the driver is notified of the degree of risk.

【0022】次に、図2を参照して、撮像部1、2の自
車両への取付け位置を説明する。図2において、自車両
10の前方の両サイド(コーナー)の位置に撮像部1、2
を取り付ける。
Next, with reference to FIG. 2, the mounting positions of the imaging units 1 and 2 on the own vehicle will be described. In FIG. 2, the imaging units 1 and 2 are positioned at both sides (corners) in front of the vehicle 10.
Attach.

【0023】自車両10の前方両サイドに撮像部1、2
を取り付けた場合、撮像部1、2の撮像エリアは、それ
ぞれ水平方向に150度の範囲を持っており、垂直方向
には60度の範囲を備えている。
Image pickup units 1 and 2 are provided on both front sides of the vehicle 10.
Is attached, the imaging areas of the imaging units 1 and 2 each have a range of 150 degrees in the horizontal direction and a range of 60 degrees in the vertical direction.

【0024】また、撮像方向、つまり、撮像領域の中心
点の撮影深度方向への延長線は、自車両10の水平方向
に関しては、自車両10の進行方向から45度傾いた方
向に設定される。
Further, the extension of the imaging direction, that is, the extension of the center point of the imaging area in the imaging depth direction is set in a direction inclined by 45 degrees from the traveling direction of the own vehicle 10 with respect to the horizontal direction of the own vehicle 10. .

【0025】これによって、撮像部1、2は、自車両1
0の進行方向より、自車両10の中心軸方向に30度傾
斜した領域までが撮像領域となる。同様に、撮像部1、
2は、自車両10の進行方向から90度の方向より、自
車両10の後方側に30度傾斜した領域までが撮像領域
となる。
As a result, the imaging units 1 and 2
The region from the traveling direction of 0 to the region inclined by 30 degrees in the direction of the central axis of the vehicle 10 is the imaging region. Similarly, the imaging unit 1,
In 2, the imaging region is a region that is inclined 30 degrees rearward of the host vehicle 10 from a direction 90 degrees from the traveling direction of the host vehicle 10.

【0026】また、上記撮像深度方向への延長線は、自
車両10の垂直方向に関しては3度下向きに設定する。
Further, the extension line in the direction of the imaging depth is set three degrees downward in the vertical direction of the vehicle 10.

【0027】上述のような取付位置及び姿勢で自車両1
0に取り付けた撮像部1、2からの映像情報は、撮像部
1による撮像画面は、図3に示すような車線マーカのと
き、図4に示すようになり、また、撮像部2による撮像
画面は、撮像部1による撮像画面を左右を反転したよう
になる。
With the mounting position and posture as described above, the vehicle 1
The image information from the imaging units 1 and 2 attached to the camera 0 is as shown in FIG. 4 when the imaging screen of the imaging unit 1 is a lane marker as shown in FIG. Means that the imaging screen of the imaging unit 1 is inverted left and right.

【0028】なお、図3及び図4において、L2は、車
両10に関して左側路面に表された線、R1、R2は、
車両10に関して右側路面に表された線であり、C_X
は、自車両10が車線内を直進しているときの撮像画面
上で車線の消失点のあるX方向(水平方向)位置であり、
Hは地平線を示す。
In FIGS. 3 and 4, L2 is a line shown on the left road surface of the vehicle 10, and R1 and R2 are
It is a line represented on the right road surface with respect to the vehicle 10, and C_X
Is the position in the X direction (horizontal direction) where the lane vanishes on the imaging screen when the host vehicle 10 is traveling straight in the lane,
H indicates the horizon.

【0029】また、図3において、横軸は車両10の撮
像部1を取り付けた位置を基準として、右方向をプラ
ス、左方向をマイナスとした場合の距離を示し、縦軸は
車両10の撮像部1を取り付けた位置を基準として、図
3の上方向をプラス、下方向をマイナスとした場合の距
離を示す。
In FIG. 3, the horizontal axis represents the distance when the right direction is plus and the left direction is minus with reference to the position where the image pickup unit 1 of the vehicle 10 is mounted, and the vertical axis is the image of the vehicle 10. The distance in the case where the upper direction in FIG. 3 is plus and the lower direction is minus with reference to the position where the part 1 is attached is shown.

【0030】また、図4において、横軸及び縦軸は、撮
像画面における基準座標(0,0)に対す座標位置を示
す。
In FIG. 4, the horizontal axis and the vertical axis indicate the coordinate positions with respect to the reference coordinates (0, 0) on the image screen.

【0031】ここで、撮像部1、2の内部構成について
図5を用いて説明する。図5において、CCDもしくは
CMOSセンサからなる撮像デバイス21から出力され
るデジタル画像データは、1画素ずつ転送デバイス22
のバッファ22−1に取り込まれる。このバッファ22
−1に1ライン分のデータが転送されると、バッファ2
2−1から送信用のバッファ22−2にデータが転送さ
れ、これらのデータをまとめてRAM25内の映像デー
タ保存領域に転送される。
Here, the internal configuration of the imaging units 1 and 2 will be described with reference to FIG. In FIG. 5, digital image data output from an imaging device 21 composed of a CCD or a CMOS sensor is
Buffer 22-1. This buffer 22
When one line of data is transferred to -1, the buffer 2
The data is transferred from 2-1 to the transmission buffer 22-2, and the data is collectively transferred to the video data storage area in the RAM 25.

【0032】これらのデータの転送は、T/G(タイミ
ングジェネレータ)27から出力する同期信号に従い動
作する。この同期信号とは、1画面の区切り、1ライン
の区切り、1画素の区切りなどを表す信号である。
The transfer of these data operates in accordance with a synchronization signal output from a T / G (timing generator) 27. The synchronizing signal is a signal indicating one screen segment, one line segment, one pixel segment, or the like.

【0033】そして、1画面分の画像データがRAM2
5内の映像データ保存領域に転送されると、ROM24
に記述されているプログラムに従い、CPU23は画像
処理、画像認識を行う。
The image data for one screen is stored in the RAM 2
5 is transferred to the video data storage area in the ROM 5.
CPU 23 performs image processing and image recognition in accordance with the program described in.

【0034】このCPU23による画像処理と画像認識
とにより、車線マーカや車両を抽出する。抽出方法につ
いては、ここでは省略する。この抽出した情報がCAN
26から出力される。
The lane marker and the vehicle are extracted by the image processing and image recognition by the CPU 23. The extraction method is omitted here. This extracted information is CAN
26.

【0035】また、ウインカランプ11、12の点滅信
号が入出力ポート28から入力され、プログラムに従い
CPU23は、ランプ点灯時には、撮像デバイス21の
露光制御において受光光量が少なくするように調整す
る。
The blinking signals of the turn signal lamps 11 and 12 are input from the input / output port 28, and according to the program, the CPU 23 adjusts the amount of light received in the exposure control of the image pickup device 21 when the lamp is turned on.

【0036】例えば、CPU23は、シャッタ速度を1
/60から1/120と速くすることにより、受光光量
を少なくする。逆に、ウインカランプ11、12消灯時
には、撮像デバイス21の露光制御により受光光量を大
きくする。
For example, the CPU 23 sets the shutter speed to 1
By increasing the speed from / 60 to 1/120, the amount of received light is reduced. Conversely, when the turn signal lamps 11 and 12 are turned off, the amount of received light is increased by exposure control of the imaging device 21.

【0037】さらに、CPU23は、抽出した車線マー
カの情報から車線の曲率、車線と自車両10との横方向
距離、車線に対する自車両10の進行方向角度を算出す
る。
Further, the CPU 23 calculates the curvature of the lane, the lateral distance between the lane and the host vehicle 10, and the traveling direction angle of the host vehicle 10 with respect to the lane from the information of the extracted lane marker.

【0038】また、自車両10の前方両サイドに撮像部
1、2を取り付けた場合、上述した説明では、撮像部
1、2の各部で各々1つの撮像デバイス21で撮像エリ
アを、水平方向には150度の範囲、垂直方向には60
度の範囲としていた。
When the imaging units 1 and 2 are mounted on both front sides of the vehicle 10, the above description has been made such that each imaging unit 1 and 2 uses one imaging device 21 to set the imaging area in the horizontal direction. Is in the range of 150 degrees and 60 in the vertical direction
Had a range of degrees.

【0039】しかしながら、1つの撮像部に2つの撮像
デバイス21−1、21−2を備えたものでも良い。以
下、図6、図7を参照して、1つの撮像部に2つの撮像
デバイス21−1、21−2を備えた構成について説明
する。図6及び図7において、1つの撮像デバイス21
−1の撮像方向、つまり、撮像領域の中心点の撮影深度
方向への延長線は、自車両10の水平方向に関しては、
自車両10の進行方向に設定される。他方の撮像デバイ
ス21−2の撮像方向は、自車両10の進行方向から7
0度傾いた方向に設定される。
However, a single image pickup unit may be provided with two image pickup devices 21-1 and 21-2. Hereinafter, a configuration in which one imaging unit includes two imaging devices 21-1 and 21-2 will be described with reference to FIGS. 6 and 7, one imaging device 21
The imaging direction of −1, that is, the extension line of the center point of the imaging region in the imaging depth direction is, with respect to the horizontal direction of the host vehicle 10,
It is set in the traveling direction of the vehicle 10. The imaging direction of the other imaging device 21-2 is 7
It is set in the direction inclined by 0 degrees.

【0040】ここで、撮像デバイス21−1、21−2
の撮像エリアは、互いに10度のエリアを重ねて撮像す
ることとなる。
Here, the imaging devices 21-1 and 21-2
In the image pickup area, images are obtained by overlapping an area of 10 degrees with each other.

【0041】これによって、撮像部1、2は、自車両1
0の進行方向より、自車両10の中心軸方向に30度傾
斜した領域までが撮像領域となる。同様に、撮像部1、
2は、自車両10の進行方向から90度の方向より、自
車両10の後方側に30度傾斜した領域までが撮像領域
となる。
As a result, the imaging units 1 and 2
The region from the traveling direction of 0 to the region inclined by 30 degrees in the direction of the central axis of the vehicle 10 is the imaging region. Similarly, the imaging unit 1,
In 2, the imaging region is a region that is inclined 30 degrees rearward of the host vehicle 10 from a direction 90 degrees from the traveling direction of the host vehicle 10.

【0042】また、上記撮像深度方向への延長線は、自
車両10の垂直方向に関しては3度下向きに設定する。
The extension line in the imaging depth direction is set downward by 3 degrees in the vertical direction of the vehicle 10.

【0043】ここで、撮像部1、2の内部構成について
図7を用いて説明する。図7において、CCDもしくは
CMOSセンサからなる撮像デバイス21−1、21−
2から出力されるデジタル画像データは、転送デバイス
22のバッファ22−1、22−3に1画素ずつ取り込
まれる。1ライン分のデータがバッファ22−1、22
−3に転送されると、まず、バッファ22−1のデータ
が送信用のバッファ22−2に転送され、これらのデー
タをまとめてRAM25内の映像データ保存領域に転送
する。
Here, the internal configuration of the imaging units 1 and 2 will be described with reference to FIG. In FIG. 7, imaging devices 21-1 and 21- 21 each comprising a CCD or a CMOS sensor.
The digital image data output from 2 is taken into the buffers 22-1 and 22-3 of the transfer device 22 one pixel at a time. One line of data is stored in buffers 22-1, 22.
When the data is transferred to -3, the data in the buffer 22-1 is transferred to the transmission buffer 22-2, and the data is collectively transferred to the video data storage area in the RAM 25.

【0044】その後、バッファ22−3のデータが送信
用のバッファ22−2に転送され、これらのデータがま
とめられてRAM25内の映像データ保存領域に転送さ
れる。これらのデータの転送は、T/G(タイミングジ
ェネレータ)から出力する同期信号に従い、動作する。
この同期信号とは、1画面の区切り、1ラインの区切
り、1画素の区切りなどを表す信号である。
Thereafter, the data in the buffer 22-3 is transferred to the transmission buffer 22-2, and these data are put together and transferred to the video data storage area in the RAM 25. The transfer of these data operates according to a synchronization signal output from a T / G (timing generator).
The synchronizing signal is a signal indicating one screen segment, one line segment, one pixel segment, or the like.

【0045】そして、2つの撮像デバイス21−1、2
1−2の各1画面分の画像データがRAM25内の映像
データ保存領域に転送されると、ROM24に格納され
ているプログラムに従い、CPU23は画像処理、画像
認識を行う。
Then, the two imaging devices 21-1 and 21-2
When the image data for one screen of 1-2 is transferred to the video data storage area in the RAM 25, the CPU 23 performs image processing and image recognition according to a program stored in the ROM 24.

【0046】CPU23による画像処理と画像認識とに
より、車線マーカや車両を抽出する。抽出方法について
は、ここでは省略する。この抽出した情報がCAN26
から出力される。
A lane marker and a vehicle are extracted by image processing and image recognition by the CPU 23. The extraction method is omitted here. This extracted information is CAN26
Output from

【0047】また、ウインカランプ11、12の点滅信
号を入出力ポート28から入力し、プログラムに従いC
PU23は、ランプ点灯時には、撮像デバイス21−
1、21−2の露光制御により受光光量を少なくするよ
うに調整する。
Also, a blink signal of the turn signal lamps 11 and 12 is inputted from the input / output port 28, and C is inputted according to the program.
When the lamp is turned on, the PU 23 operates the imaging device 21-.
Adjustments are made so as to reduce the amount of received light by the exposure control of 1 and 21-2.

【0048】例えば、CPU23は、シャッタ速度を1
/60から1/120と速くすることにより、受光光量
を少なくする。逆に、ランプ消灯時には、撮像デバイス
21−1、21−2の露光制御により受光光量を大きく
する。
For example, the CPU 23 sets the shutter speed to 1
By increasing the speed from / 60 to 1/120, the amount of received light is reduced. Conversely, when the lamp is turned off, the amount of received light is increased by exposure control of the imaging devices 21-1 and 21-2.

【0049】さらに、CPU23は、抽出した車線マー
カの情報から車線の曲率、車線と自車両との横方向距
離、車線に対する自車両の進行方向角度を算出する。
Further, the CPU 23 calculates the curvature of the lane, the lateral distance between the lane and the own vehicle, and the traveling direction angle of the own vehicle with respect to the lane from the information of the extracted lane marker.

【0050】上述のような取付位置及び姿勢で自車両1
0に取り付けた撮像部1からの映像情報は、図8に示す
ような状態の撮像デバイス22−1、つまり、撮像デバ
イス22−1が、線L2とR2との間にあり、R2の方
に近いところに位置し、線R1は撮像領域には無い状態
の場合には、図9に示すような撮像画面となる。
With the mounting position and posture as described above, the vehicle 1
The image information from the image pickup unit 1 attached to the image pickup device 0 indicates that the image pickup device 22-1 is in a state as shown in FIG. 8, that is, the image pickup device 22-1 is between the lines L2 and R2, and When the line R1 is located near and is not in the imaging area, an imaging screen as shown in FIG. 9 is obtained.

【0051】また、図10に示すような状態の撮像デバ
イス22−2、つまり、撮像デバイス22−2が、線L
2とR2との間にあり、R2の方に近いところに位置
し、線R1、R2は撮像領域内にあるが線L1は無い状
態の場合には、図11に示すような撮像画面となる。
The imaging device 22-2 in the state shown in FIG. 10, that is, the imaging device 22-2 is a line L
2 and R2, which is located closer to R2, and when the lines R1 and R2 are in the imaging region but there is no line L1, an imaging screen as shown in FIG. 11 is obtained. .

【0052】なお、図8、図9、図10、図11におい
て、L1、L2は、車両10に関して左側路面に表され
た線、R1、R2は、車両10に関して右側路面に表さ
れた線であり、C_Xは、自車両10が車線内を直進し
ているときの撮像画面上での車線の消失点のあるX方向
(水平方向)位置であり、Hは地平線を示す。ここで、処
理部9の内部構成について図12を用いて説明する。図
12において、ROM24に格納されているプログラム
に従い、CPU23は車線位置検出、車両検出などの処
理を行う。これらの処理行う上で必要な情報は、CAN
25を介して接続されているさまざまな機器から入手す
る。さらに、処理の結果をCAN26を介して、必要な
機器に出力する。
In FIGS. 8, 9, 10, and 11, L1 and L2 are lines shown on the left road surface with respect to the vehicle 10, and R1 and R2 are lines shown on the right road surface with respect to the vehicle 10. Yes, C_X is the X direction with the vanishing point of the lane on the imaging screen when the vehicle 10 is traveling straight in the lane.
(Horizontal direction), and H indicates the horizon. Here, the internal configuration of the processing unit 9 will be described with reference to FIG. In FIG. 12, the CPU 23 performs processing such as lane position detection and vehicle detection in accordance with a program stored in a ROM 24. Information required for performing these processes is CAN
25 from a variety of devices connected to it. Further, the processing result is output to necessary devices via the CAN 26.

【0053】次に、図13を用いて、撮像部1、2及び
処理部9における検出処理のメインとなる処理について
詳細に説明する。なお、初期化処理、画像取込処理等の
説明は、ここでは省略する。
Next, the main processing of the detection processing in the imaging units 1, 2 and the processing unit 9 will be described in detail with reference to FIG. The description of the initialization processing, image capture processing, and the like is omitted here.

【0054】図13において、step1では、左側の
撮像部2において取込んだ上記2つの露光制御による映
像情報に対して平均化する合成処理を行い、明るい領域
と暗い領域との両方が適切な明るさとする。
In FIG. 13, in step 1, a synthesizing process for averaging video information obtained by the above two exposure controls taken in the left imaging section 2 is performed, and both bright and dark areas have appropriate brightness. And

【0055】次に、step2では、step1で合成
された映像に対して、左側エッジ抽出処理を行い、この
エッジ抽出処理に基づいて、step3で、左側車線位
置検知を行う。(処理結果として撮像画面上での白癬の
位置座標を算出し、CAN26を介して処理部に出力す
る。
Next, in step 2, a left edge extraction process is performed on the image synthesized in step 1, and based on the edge extraction process, a left lane position detection is performed in step 3. (The position coordinates of ringworm on the imaging screen are calculated as the processing result, and output to the processing unit via the CAN 26.

【0056】続いて、step4では、(自車速度検出
部から受け取った)自車両10の車速が10km/h以
上であるか否かの判定を行う。そして、step4にお
いて、自車両10の車速が10km/h以上であれば、
step12に進み、CAN26を介して撮像部2に対
して左側前側車両の検出処理を行うように指示する。
Subsequently, in step 4, it is determined whether or not the vehicle speed of the host vehicle 10 (received from the host vehicle speed detection unit) is 10 km / h or more. Then, in step 4, if the vehicle speed of the own vehicle 10 is 10 km / h or more,
Proceeding to step 12, an instruction is issued to the imaging unit 2 via the CAN 26 to perform a process of detecting the left front vehicle.

【0057】step4において、車速が10km/h
未満であれば、step11に進み、処理部9において
左側の交差点の判定を行う。
In step 4, the vehicle speed is 10 km / h
If it is less, the process proceeds to step 11, and the processing unit 9 determines the left intersection.

【0058】このstep11における交差点の判定に
は、車線の検出結果やナビからの情報を用いて行う。そ
して、step11において、交差点では無いと判定す
れば、step12に進み、それ以降の処理を行う。
The determination of the intersection in step 11 is made using the detection result of the lane and the information from the navigation. If it is determined in step 11 that the vehicle is not at an intersection, the process proceeds to step 12, and the subsequent processing is performed.

【0059】step11において、交差点であると判
定すれば、step13に進み、自車両10の左側側方
接近車両の検出処理を行う。すなわち、自車両10の走
行車線に平行する車線内、さらには交差する車線内の車
両の有無を検出する。そして、処理は、step14に
進む。
If it is determined in step 11 that the vehicle is an intersection, the process proceeds to step 13 in which a process of detecting a vehicle approaching the left side of the host vehicle 10 is performed. That is, it detects the presence or absence of a vehicle in a lane parallel to the traveling lane of the host vehicle 10 and further in an intersecting lane. Then, the process proceeds to step 14.

【0060】step14においては、step12又
はstep13における車両検出結果により、自車両の
左側に対して、割込み車両あるいは対向車両との衝突の
危険度を判定する。
At step 14, the risk of collision with the interrupted vehicle or the oncoming vehicle is determined for the left side of the own vehicle based on the vehicle detection result at step 12 or 13.

【0061】次に、処理はstep21に進み、右側の
撮像部1における取込んだ2つの露光制御による映像情
報に対して平均化する合成処理を行い、明るい領域と暗
い領域の両方を適切な明るさとする。
Next, the process proceeds to step 21 in which synthesis processing for averaging video information obtained by the two exposure controls taken in the right imaging unit 1 is performed, and both bright and dark areas are adjusted to appropriate brightness. And

【0062】続いて、処理はstep22に進み、st
ep21で得られた合成映像に対して、右側エッジ抽出
処理を行い、step23で、エッジ抽出結果を用いて
右側車線位置検知処理を行う。処理結果として、撮像画
面上での白線の位置座標を算出し、CAN26を介して
処理部9に出力する。
Subsequently, the processing proceeds to step 22, where st
A right edge extraction process is performed on the composite video obtained in ep21, and a right lane position detection process is performed in step 23 using the edge extraction result. As a processing result, the position coordinates of the white line on the imaging screen are calculated and output to the processing unit 9 via the CAN 26.

【0063】次に、step24で、自車速度検出器4
から受け取った自車両10の車速が10km/h以上で
あるか否かの判定を行う。step24で車速が10k
m/h以上であると判定すれば、step32におい
て、CAN26を介して撮像部1に対して右側前側方車
両の検出処理を行う。そして、処理はstep32から
step34に進む。
Next, in step 24, the own vehicle speed detector 4
It is determined whether or not the vehicle speed of the vehicle 10 received from the vehicle is 10 km / h or more. Vehicle speed is 10k in step 24
If it is determined that the speed is equal to or more than m / h, in step 32, a process of detecting the right front side vehicle is performed on the imaging unit 1 via the CAN 26. Then, the process proceeds from step 32 to step 34.

【0064】step24で、車速が10km/h未満
であると判定すれば、step31において、処理部9
で右側の交差点の判定を行う。このstep31におけ
る交差点の判定には、車線の検出結果やナビからの情報
を用いて行う。
If it is determined in step 24 that the vehicle speed is less than 10 km / h, in step 31, the processing unit 9
Is used to determine the right intersection. The determination of the intersection in step 31 is performed using the detection result of the lane or the information from the navigation.

【0065】step31において、交差点でないと判
定すれば、step32以降の処理を行う。
If it is determined in step 31 that the vehicle is not at an intersection, the processing after step 32 is performed.

【0066】step31において、交差点であると判
定すれば、step33に進み、右側側方接近車両の検
出処理を行う。すなわち、自車両10の走行車線に平行
する車線内、さらには交差する車線内の車両の有無を検
出する。そして、処理はstep34に進む。
If it is determined in step 31 that the vehicle is at an intersection, the flow proceeds to step 33 to perform a process for detecting a vehicle approaching on the right side. That is, it detects the presence or absence of a vehicle in a lane parallel to the traveling lane of the host vehicle 10 and further in an intersecting lane. Then, the process proceeds to step 34.

【0067】step34では、step32又はst
ep33の車両検出結果により、自車の右側に対して、
割込み車両あるいは対向車両との衝突の危険度を判定す
る。そして、処理はステップstep41に進む。
In step 34, step 32 or st
According to the vehicle detection result of ep33, for the right side of the own vehicle,
The risk of collision with the interrupting vehicle or the oncoming vehicle is determined. Then, the process proceeds to step step41.

【0068】step41では、step3、step
23にて処理された左右の車線位置検知結果から自車両
と車線との位置関係を算出して、それを表す情報(車線
位置検知結果)を出力する。
In step 41, step 3, step
A positional relationship between the host vehicle and the lane is calculated from the left and right lane position detection results processed in 23, and information (a lane position detection result) representing the positional relationship is output.

【0069】次に、車線と自車両10との位置関係を、
図3、図4、図14〜図17を用いて説明する。図3
は、撮像部1から右側に1m離れた所に右側の白線があ
り、車線幅は3mの位置関係を示している。このとき撮
像部1で撮像される映像は図4に示すようになる。
Next, the positional relationship between the lane and the vehicle 10 will be described.
This will be described with reference to FIGS. 3, 4 and 14 to 17. FIG.
Indicates a right white line 1 m away from the imaging unit 1 on the right side, and indicates a positional relationship of 3 m in lane width. At this time, the video imaged by the imaging unit 1 is as shown in FIG.

【0070】図14は、撮像部1と同じ位置に右側の白
線があるときの位置関係を示している。このとき撮像部
1で撮像される映像は図15となる。
FIG. 14 shows the positional relationship when the right white line is located at the same position as the image pickup section 1. At this time, the video imaged by the imaging unit 1 is as shown in FIG.

【0071】図16は、撮像部1から左側に1m離れた
所に右側の白線があり、車線幅は3mの位置関係を示し
ている。このとき撮像部1で撮像される映像は図17と
なる。
FIG. 16 shows a positional relationship where the right white line is located 1 m to the left of the image pickup unit 1 and the lane width is 3 m. At this time, the image captured by the imaging unit 1 is as shown in FIG.

【0072】ここで、自車両10は車線に対して直進し
ている。このとき、撮像映像の図4、図15、図17に
おいて、車線の消失点の位置は変化しない。また、自車
両10が車線内を走行しているときは、図4に示すよう
に、右側の白線は、消失点より右側にある。また、白線
上に撮像部1、2が位置したときは、図15に示すよう
に、消失点の垂直線上にある。また、自車両10が車線
を逸脱しているときは、図17に示すように右側の白線
は、消失点より左側にある。
Here, the host vehicle 10 is traveling straight in the lane. At this time, the position of the vanishing point of the lane does not change in FIGS. 4, 15, and 17 of the captured video. When the vehicle 10 is traveling in the lane, the white line on the right side is on the right side of the vanishing point as shown in FIG. When the imaging units 1 and 2 are located on the white line, they are on the vertical line of the vanishing point as shown in FIG. When the vehicle 10 is deviating from the lane, the right white line is on the left side of the vanishing point as shown in FIG.

【0073】すなわち、消失点の水平方向の位置C_X
を記憶しておき、検知された白線の延長線と車線位置判
定線との交点の水平方向位置J_Xを算出し、C_X−
J_Xの値で車線位置を判断することができる。
That is, the horizontal position C_X of the vanishing point
Is calculated, and the horizontal position J_X of the intersection of the detected extension line of the white line and the lane position determination line is calculated, and C_X−
The lane position can be determined from the value of J_X.

【0074】また、自車両10が車線に対して斜めに走
行しているとき、消失点位置は、右斜めに走行時は左
に、左斜めに走行時は、右に移動する。車線がカーブし
ているときも消失点が移動することとなる。そこで、こ
の移動量から逸脱時間を推定することができる。
When the vehicle 10 is traveling diagonally with respect to the lane, the vanishing point moves to the left when traveling diagonally to the right and to the right when traveling diagonally to the left. The vanishing point also moves when the lane is curving. Therefore, the departure time can be estimated from the movement amount.

【0075】撮像部1、2が2つの撮像デバイス21−
1、21−2から構成される場合は、図8、図9に示す
ように同様の手法を用いることができる。
The imaging units 1 and 2 are composed of two imaging devices 21-
1 and 21-2, the same method can be used as shown in FIGS.

【0076】そして、step42では、step41
により得られた車線位置検知結果から自車両の車線逸脱
度合いを判定処理する。
Then, in step 42, step 41
The lane departure degree of the own vehicle is determined from the lane position detection result obtained by the above.

【0077】続いて、step43では、step1
4、34で判定された危険度に基づいて、接近車両の存
在の報知と、衝突の危険度に応じて警報とを行う。さら
には、step42で判定された車線逸脱度合いに応じ
た警報を行う。
Subsequently, in step 43, step 1
Based on the degree of risk determined in steps 4 and 34, a notification of the presence of an approaching vehicle and an alarm are issued in accordance with the degree of collision risk. Further, an alarm is issued in accordance with the degree of lane departure determined in step 42.

【0078】以上のstep1〜step43の処理を
繰り返し行うことで、警報や車線位置検知結果の出力を
行う。
By repeatedly performing the above-described steps 1 to 43, an alarm and a result of lane position detection are output.

【0079】ここで、step41の処理を行う上で重
要となる消失点の位置は、撮像部1、2の取り付け方向
がずれると消失点位置もずれ、車線位置検出結果などに
影響する。そこで、図18を用いて、消失点位置の補正
方法を示す。
Here, the position of the vanishing point, which is important in performing the processing in step 41, is shifted when the mounting direction of the imaging units 1 and 2 is shifted, and the vanishing point position is also shifted, which affects the lane position detection result and the like. Therefore, a method of correcting the vanishing point position will be described with reference to FIG.

【0080】図18のstep71から73において、
自車両10が直進走行中であるかを判定する。直進走行
中であると判断したときには、step74で白線が検
知されているか否かを判定し、白線が検知されている場
合には、step75において、所定時間経過したか否
かが判定される。
In steps 71 to 73 in FIG.
It is determined whether the vehicle 10 is traveling straight. When it is determined that the vehicle is traveling straight, it is determined whether or not a white line is detected in step 74, and if the white line is detected, it is determined in step 75 whether or not a predetermined time has elapsed.

【0081】step75で所定時間が経過していない
と判定された場合には、step76で消失点の時間的
平均位置を算出する。
If it is determined in step 75 that the predetermined time has not elapsed, a temporal average position of the vanishing point is calculated in step 76.

【0082】step75で、所定時間経過したと判定
された場合は、step77に進み、算出した消失点の
平均位置の分散が小さいか否かを判定する。このste
p77において、消失点の平均位置の分散が小さいと
き、すなわち、直線車線を直進走行したと判定したとき
には、step78に進み、消失点位置を算出した平均
位置に更新する。
If it is determined in step 75 that the predetermined time has elapsed, the flow advances to step 77 to determine whether or not the variance of the calculated average position of the vanishing point is small. This stee
In p77, when the variance of the average position of the vanishing point is small, that is, when it is determined that the vehicle has traveled straight in the straight lane, the process proceeds to step 78, and the vanishing point position is updated to the calculated average position.

【0083】以上のように、本発明の一実施形態によれ
ば、自車両10の前方の両サイドの位置に、撮像エリア
が、水平方向には150度の範囲を備え、垂直方向には
60度の範囲を備える撮像部1、2を取り付ける。そし
て、撮像部1、2の撮像領域の中心点の撮影深度方向へ
の延長線は、自車両10の水平方向に関しては、自車両
10の進行方向から45度傾いた方向に設定される。ま
た、上記撮像深度方向への延長線は、自車両10の垂直
方向に関しては3度下向きとなるように、撮像部1、2
を設定する。
As described above, according to the embodiment of the present invention, the imaging area has a range of 150 degrees in the horizontal direction and 60 degrees in the vertical direction at the positions on both sides in front of the vehicle 10. The imaging units 1 and 2 having a range of degrees are attached. The extension line of the center point of the imaging area of the imaging units 1 and 2 in the imaging depth direction is set in a direction inclined by 45 degrees from the traveling direction of the own vehicle 10 with respect to the horizontal direction of the own vehicle 10. Further, the extension lines in the imaging depth direction are set to be 3 degrees downward with respect to the vertical direction of the host vehicle 10 so that the imaging units 1, 2
Set.

【0084】したがって、先行車両に接近した場合であ
っても、車線位置の検知と左右両方向の死角範囲に接近
する車両等の監視との両方を可能にする画像処理装置を
実現することができる。
Therefore, even when approaching a preceding vehicle, it is possible to realize an image processing apparatus capable of both detecting a lane position and monitoring a vehicle approaching a blind spot in both the left and right directions.

【0085】なお、上記撮像部1、2は、単独で車両1
0に取り付けられてもよく、さらには、防水構造のヘッ
ドランプ、ウインカランプ等と一体成形することも可能
である。この場合、撮像部1、2の光学系のレンズとし
て、ウインカランプの拡散板の一部に加工を施して、ウ
インカランプからの光は遮断し、外界からの光を集光す
るように使用することも可能である。
The image pickup units 1 and 2 can be used independently of the vehicle 1
It may be attached to a headlight, a blinker lamp or the like having a waterproof structure. In this case, as a lens of the optical system of the imaging units 1 and 2, a part of the diffusion plate of the turn signal lamp is processed so as to block light from the turn signal lamp and to collect light from the outside. It is also possible.

【0086】撮像部1、2をヘッドランプ等と一体成形
した場合には、撮像部1、2の取付け方向調整や取付け
性などを向上することができる。
When the imaging units 1 and 2 are integrally formed with a headlamp or the like, the adjustment of the mounting direction of the imaging units 1 and 2 and the ease of attachment can be improved.

【0087】さらには、撮像部1、2と一体成形したも
のの前方透過部分にヘッドランプと撮像部1、2につい
た雨などを拭き取るワイパーなどが装着されていれば、
なお良い。
Further, if a headlamp and a wiper for wiping rain and the like attached to the image pickup units 1 and 2 are attached to the front transparent portion, which is integrally formed with the image pickup units 1 and 2,
Still better.

【0088】また、撮像部1、2には、ウインカランプ
11、12あるいはターニングランプからの動作情報を
入力し、ウインカランプ11、12の点滅などによる露
光条件の悪化を防ぐように撮像部1、2が露光を制御し
て撮像対象物に確認性を向上する。
Operation information from the turn signal lamps 11 and 12 or turning lamps is input to the image pickup units 1 and 2 so as to prevent deterioration of exposure conditions due to blinking of the turn signal lamps 11 and 12 and the like. 2 controls the exposure to improve the confirmation of the object to be imaged.

【0089】さらに、接近車両(対向車など)のヘッドラ
イトの明かりを撮像部1、2が受けたときにも、撮像部
1、2は、最適な露光条件となるよう露光を制御する。
Further, even when the imaging units 1 and 2 receive the light of the headlights of an approaching vehicle (such as an oncoming vehicle), the imaging units 1 and 2 control the exposure so that the optimal exposure condition is obtained.

【0090】すなわち、特に、夜間において、自車両1
0のヘッドライトにより照らされた領域は明るく、それ
以外の領域は暗い。
That is, especially at night, the vehicle 1
The area illuminated by the 0 headlight is bright, and the other areas are dark.

【0091】そこで、撮像部1、2は、明るい領域に適
した露光制御と暗い領域に適した露光制御を交互に高速
に行い、処理部9に映像情報を出力する。
Therefore, the imaging units 1 and 2 alternately perform high-speed exposure control suitable for bright areas and exposure control suitable for dark areas, and output video information to the processing unit 9.

【0092】そして、処理部9は、明るい領域に適した
露光制御と暗い領域に適した露光制御との2つの露光制
御による映像情報を取込み、この映像情報を用いて車線
等の検出処理を行う。
Then, the processing section 9 takes in image information by two exposure controls of exposure control suitable for a bright area and exposure control suitable for a dark area, and performs detection processing of a lane or the like using the image information. .

【0093】さらに、ウインカランプ11、12あるい
はターニングランプの点滅により明るさが変化する。
Further, the blinking of the turn signal lamps 11, 12 or the turning lamp changes the brightness.

【0094】したがって、この点滅の周期に同期させ
て、明るい領域に適した露光制御と暗い領域に適した露
光制御の制御量を若干修正して露光制御を交互に高速に
行い、処理部9に映像情報を出力する。
Therefore, in synchronism with the flickering cycle, the control amounts of the exposure control suitable for the bright area and the exposure control suitable for the dark area are slightly corrected, and the exposure control is alternately performed at a high speed. Output video information.

【0095】処理部9においては、撮像部1、2のおけ
るこれらの露光制御による映像情報を取込み、この映像
情報を用いて車線等の検出処理を行う。
The processing section 9 fetches image information obtained by these exposure controls in the image pickup sections 1 and 2 and performs detection processing of a lane or the like using the image information.

【0096】[0096]

【発明の効果】本発明によれば、自車両の前方の両サイ
ドの位置に、それぞれ、車両前方と側方とを撮像可能な
2台の撮像部が配置される。
According to the present invention, two imaging units capable of imaging the front and side of the vehicle are disposed at both front positions of the own vehicle.

【0097】したがって、先行車両に接近した場合であ
っても、車線位置の検知と左右両方向の死角範囲に接近
する車両等の監視との両方を可能にする画像処理装置を
実現することができる。
Therefore, even when approaching a preceding vehicle, it is possible to realize an image processing apparatus capable of both detecting a lane position and monitoring a vehicle approaching a blind spot in both the left and right directions.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態である画像処理装置のシス
テム構成図である。
FIG. 1 is a system configuration diagram of an image processing apparatus according to an embodiment of the present invention.

【図2】本発明の一実施形態である画像処理装置の車両
への取り付け位置の説明図である。
FIG. 2 is an explanatory diagram of a mounting position of an image processing apparatus according to an embodiment of the present invention on a vehicle.

【図3】本発明の一実施形態における撮像映像を説明す
る図である。
FIG. 3 is a diagram illustrating a captured image according to an embodiment of the present invention.

【図4】本発明の一実施形態における撮像映像を説明す
る図である。
FIG. 4 is a diagram illustrating a captured image according to an embodiment of the present invention.

【図5】本発明の一実施形態における撮像部の構成図で
ある。
FIG. 5 is a configuration diagram of an imaging unit according to an embodiment of the present invention.

【図6】本発明の一実施形態である画像処理装置の車両
への取り付け位置の説明図である。
FIG. 6 is an explanatory diagram of a mounting position of an image processing apparatus according to an embodiment of the present invention on a vehicle.

【図7】本発明の一実施形態における撮像部の構成図で
ある。
FIG. 7 is a configuration diagram of an imaging unit according to an embodiment of the present invention.

【図8】本発明の一実施形態における撮像映像を説明す
る図である。
FIG. 8 is a diagram illustrating a captured image according to an embodiment of the present invention.

【図9】本発明の一実施形態における撮像映像を説明す
る図である。
FIG. 9 is a diagram illustrating a captured image according to an embodiment of the present invention.

【図10】本発明の一実施形態における撮像映像を説明
する図である。
FIG. 10 is a diagram illustrating a captured image according to an embodiment of the present invention.

【図11】本発明の一実施形態における撮像映像を説明
する図である。
FIG. 11 is a diagram illustrating a captured image according to an embodiment of the present invention.

【図12】本発明の一実施形態である画像処理装置の動
作フローチャートである。
FIG. 12 is an operation flowchart of the image processing apparatus according to the embodiment of the present invention;

【図13】本発明の一実施形態である処理部の構成図で
ある。
FIG. 13 is a configuration diagram of a processing unit according to an embodiment of the present invention.

【図14】本発明の一実施形態における撮像映像を説明
する図である。
FIG. 14 is a diagram illustrating a captured image according to an embodiment of the present invention.

【図15】本発明の一実施形態における撮像映像を説明
する図である。
FIG. 15 is a diagram illustrating a captured image according to an embodiment of the present invention.

【図16】本発明の一実施形態における撮像映像を説明
する図である。
FIG. 16 is a diagram illustrating a captured image according to an embodiment of the present invention.

【図17】本発明の一実施形態における撮像映像を説明
する図である。
FIG. 17 is a diagram illustrating a captured image according to an embodiment of the present invention.

【図18】本発明の一実施形態である消失点位置の補正
フローチャートである。
FIG. 18 is a flowchart of correcting a vanishing point position according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1、2 撮像部 3 方向指示操作部 4 自車速度検出部 5 ナビ装置 6 警報器 7 モニタ 8 ステア制御器 9 処理部 10 自車両 11、12 ウインカランプ 21 撮像デバイス 21−1、21−2 撮像デバイス 22 転送デバイス 22−1、22−2 バッファ 22−3 バッファ 23 CPU 24 ROM 25 RAM 26 CAN 27 T/G 28 入出力ポート 1, 2 imaging unit 3 direction instruction operation unit 4 own vehicle speed detection unit 5 navigation device 6 alarm 7 monitor 8 steer controller 9 processing unit 10 own vehicle 11, 12 blinker lamp 21 imaging device 21-1, 21-2 imaging Device 22 Transfer device 22-1, 22-2 Buffer 22-3 Buffer 23 CPU 24 ROM 25 RAM 26 CAN 27 T / G 28 Input / output port

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B60R 21/00 626 B60R 21/00 626G G06T 7/60 150 G06T 7/60 150B 200 200J H04N 7/18 H04N 7/18 J // G08G 1/16 G08G 1/16 C Fターム(参考) 5B057 AA16 CA12 CA20 CB12 CC03 CH01 DA07 DA15 DA16 DB02 DC03 DC16 5C054 AA05 CA04 CC02 CE01 DA08 EA01 FA00 FF02 HA30 5H180 AA01 CC04 LL01 LL06 LL15 5L096 BA04 CA05 DA01 DA03 FA06 FA67 FA69 FA76 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) B60R 21/00 626 B60R 21/00 626G G06T 7/60 150 G06T 7/60 150B 200 200J H04N 7/18 H04N 7/18 J // G08G 1/16 G08G 1/16 CF term (reference) 5B057 AA16 CA12 CA20 CB12 CC03 CH01 DA07 DA15 DA16 DB02 DC03 DC16 5C054 AA05 CA04 CC02 CE01 DA08 EA01 FA00 FF02 HA30 5H180 AA01 CC04 LL01 LL06 LL01 BA04 CA05 DA01 DA03 FA06 FA67 FA69 FA76

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】接近車両検知及び車線位置検知を行う画像
処理装置において、 自車両に配置され、この自車両の前方領域と一方の側方
領域とを撮像領域とする第1の撮像部と、 自車両に配置され、この自車両の前方領域と他方の側方
領域とを撮像領域とする第2の撮像部と、 を備えることを特徴とする接近車両検知及び車線位置検
知を行う画像処理装置。
1. An image processing apparatus for detecting an approaching vehicle and a lane position, comprising: a first imaging unit disposed in a host vehicle, and having a front region and one side region of the host vehicle as a shooting region; An image processing apparatus for detecting approaching vehicles and lane positions, comprising: a second imaging unit disposed in the own vehicle and having an imaging region in front of the own vehicle and the other side region. .
【請求項2】請求項1記載の接近車両検知及び車線位置
検知を行う画像処理装置において、第1の撮像部及び第
2の撮像部のそれぞれは、上記自車両の前方の走行車線
を撮像領域の一方の半分の領域内で撮像するとき、上記
自車両の先端面の延長線を他方の半分の領域内で撮像す
ることを特徴とする接近車両検知及び車線位置検知を行
う画像処理装置。
2. An image processing apparatus for detecting an approaching vehicle and a lane position according to claim 1, wherein each of the first imaging section and the second imaging section captures a traveling lane in front of the host vehicle. An image processing apparatus for detecting an approaching vehicle and a lane position, wherein an image of an extension of the front end surface of the host vehicle is imaged in the other half area when the image is picked up in one half area.
【請求項3】請求項1及び請求項2のうちのいずれか一
項記載の接近車両検知及び車線位置検知を行う画像処理
装置において、自車両が所定の車両速度以下の場合に
は、自車両が交差点に位置するか否かを判定し、自車両
が交差点内に位置するときには、接近する他車両が存在
するか否かを判定することを特徴とする接近車両検知及
び車線位置検知を行う画像処理装置。
3. An image processing apparatus for detecting an approaching vehicle and a lane position according to any one of claims 1 and 2, wherein when the own vehicle is at a predetermined vehicle speed or less, Determining whether or not the vehicle is located at an intersection, and determining whether or not there is another approaching vehicle when the own vehicle is located within the intersection. Processing equipment.
【請求項4】請求項1及び請求項2のうちのいずれか一
項記載の接近車両検知及び車線位置検知を行う画像処理
装置において、第1の撮像部又は第2の撮像部のいずれ
か一方の撮像部の映像情報で車線位置検知ができないと
きには他方の撮像部の映像情報で車線位置検知を行うこ
とを特徴とする接近車両検知及び車線位置検知を行う画
像処理装置画像処理装置。
4. An image processing apparatus for detecting an approaching vehicle and a lane position according to claim 1, wherein one of the first imaging unit and the second imaging unit. An image processing apparatus for detecting an approaching vehicle and detecting a lane position, wherein the lane position is detected based on the image information of the other imaging unit when the lane position cannot be detected by the image information of the imaging unit.
【請求項5】請求項2記載の接近車両検知及び車線位置
検知を行う画像処理装置において、第1の撮像部及び第
2の撮像部のそれぞれは、1つもしくは複数の撮像デバ
イスを有し、上記撮像デバイズにより水平方向に広い範
囲を撮像することを特徴とする接近車両検知及び車線位
置検知を行う画像処理装置。
5. An image processing apparatus for detecting an approaching vehicle and a lane position according to claim 2, wherein each of the first imaging unit and the second imaging unit has one or a plurality of imaging devices. An image processing apparatus for detecting an approaching vehicle and detecting a lane position, wherein the imaging device captures a wide range in the horizontal direction by the imaging device.
【請求項6】請求項1及び請求項2のうちのいずれか一
項記載の接近車両検知及び車線位置検知を行う画像処理
装置において、撮像映像中の車線の消失点と車線の水平
方向との位置関係に基づいて、車線位置関係および車線
逸脱状況を判定することを特徴とする接近車両検知及び
車線位置検知を行う画像処理装置。
6. An image processing apparatus for detecting an approaching vehicle and a lane position according to any one of claims 1 and 2, wherein a position of a vanishing point of the lane in the captured image and a horizontal direction of the lane are determined. An image processing device for detecting an approaching vehicle and a lane position, wherein the image processing device determines a lane position relationship and a lane departure state based on the positional relationship.
【請求項7】請求項1又は請求項2のうちのいずれか一
項記載の接近車両検知及び車線位置検知を行う画像処理
装置において、第1の撮像部及び第2の撮像部のそれぞ
れは、ウインカランプ等と一体成形するときに、ウイン
カランプ等の光を遮断する手段を有することを特徴とす
る接近車両検知及び車線位置検知を行う画像処理装置。
7. An image processing apparatus for detecting an approaching vehicle and a lane position according to claim 1 or 2, wherein each of the first imaging unit and the second imaging unit includes: An image processing apparatus for detecting an approaching vehicle and detecting a lane position, comprising means for blocking light from a turn signal lamp or the like when integrally formed with the turn signal lamp or the like.
JP2001191968A 2000-06-26 2001-06-25 Image processing device for detecting approaching vehicle and lane position Expired - Lifetime JP3930268B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001191968A JP3930268B2 (en) 2000-06-26 2001-06-25 Image processing device for detecting approaching vehicle and lane position

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-190397 2000-06-26
JP2000190397 2000-06-26
JP2001191968A JP3930268B2 (en) 2000-06-26 2001-06-25 Image processing device for detecting approaching vehicle and lane position

Publications (2)

Publication Number Publication Date
JP2002099908A true JP2002099908A (en) 2002-04-05
JP3930268B2 JP3930268B2 (en) 2007-06-13

Family

ID=26594621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001191968A Expired - Lifetime JP3930268B2 (en) 2000-06-26 2001-06-25 Image processing device for detecting approaching vehicle and lane position

Country Status (1)

Country Link
JP (1) JP3930268B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7676094B2 (en) 2004-01-14 2010-03-09 Denso Corporation Road surface reflection detecting apparatus
JP2012120088A (en) * 2010-12-03 2012-06-21 Fujitsu Ten Ltd Image recognition device
JP2012123751A (en) * 2010-12-10 2012-06-28 Toshiba Alpine Automotive Technology Corp Image processor for vehicle and image processing method for vehicle
US8818042B2 (en) 2004-04-15 2014-08-26 Magna Electronics Inc. Driver assistance system for vehicle
US8842176B2 (en) 1996-05-22 2014-09-23 Donnelly Corporation Automatic vehicle exterior light control
US8917169B2 (en) 1993-02-26 2014-12-23 Magna Electronics Inc. Vehicular vision system
US8993951B2 (en) 1996-03-25 2015-03-31 Magna Electronics Inc. Driver assistance system for a vehicle
US9171217B2 (en) 2002-05-03 2015-10-27 Magna Electronics Inc. Vision system for vehicle
US9436880B2 (en) 1999-08-12 2016-09-06 Magna Electronics Inc. Vehicle vision system
WO2017014023A1 (en) * 2015-07-17 2017-01-26 日立オートモティブシステムズ株式会社 Onboard environment recognition device
US10071676B2 (en) 2006-08-11 2018-09-11 Magna Electronics Inc. Vision system for vehicle
US11044415B2 (en) 2016-11-11 2021-06-22 Denso Corporation Image processing device adjusting pixel-luminance characteristics

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102435406B1 (en) * 2020-07-03 2022-08-24 현대모비스 주식회사 Asynchronous control system in camera built-in lamp and method thereof

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8917169B2 (en) 1993-02-26 2014-12-23 Magna Electronics Inc. Vehicular vision system
US8993951B2 (en) 1996-03-25 2015-03-31 Magna Electronics Inc. Driver assistance system for a vehicle
US8842176B2 (en) 1996-05-22 2014-09-23 Donnelly Corporation Automatic vehicle exterior light control
US9436880B2 (en) 1999-08-12 2016-09-06 Magna Electronics Inc. Vehicle vision system
US10351135B2 (en) 2002-05-03 2019-07-16 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US9555803B2 (en) 2002-05-03 2017-01-31 Magna Electronics Inc. Driver assistance system for vehicle
US10683008B2 (en) 2002-05-03 2020-06-16 Magna Electronics Inc. Vehicular driving assist system using forward-viewing camera
US10118618B2 (en) 2002-05-03 2018-11-06 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US9171217B2 (en) 2002-05-03 2015-10-27 Magna Electronics Inc. Vision system for vehicle
US9834216B2 (en) 2002-05-03 2017-12-05 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US11203340B2 (en) 2002-05-03 2021-12-21 Magna Electronics Inc. Vehicular vision system using side-viewing camera
US9643605B2 (en) 2002-05-03 2017-05-09 Magna Electronics Inc. Vision system for vehicle
US7676094B2 (en) 2004-01-14 2010-03-09 Denso Corporation Road surface reflection detecting apparatus
US9428192B2 (en) 2004-04-15 2016-08-30 Magna Electronics Inc. Vision system for vehicle
US10462426B2 (en) 2004-04-15 2019-10-29 Magna Electronics Inc. Vehicular control system
US9609289B2 (en) 2004-04-15 2017-03-28 Magna Electronics Inc. Vision system for vehicle
US11847836B2 (en) 2004-04-15 2023-12-19 Magna Electronics Inc. Vehicular control system with road curvature determination
US9736435B2 (en) 2004-04-15 2017-08-15 Magna Electronics Inc. Vision system for vehicle
US9191634B2 (en) 2004-04-15 2015-11-17 Magna Electronics Inc. Vision system for vehicle
US11503253B2 (en) 2004-04-15 2022-11-15 Magna Electronics Inc. Vehicular control system with traffic lane detection
US9948904B2 (en) 2004-04-15 2018-04-17 Magna Electronics Inc. Vision system for vehicle
US10015452B1 (en) 2004-04-15 2018-07-03 Magna Electronics Inc. Vehicular control system
US10735695B2 (en) 2004-04-15 2020-08-04 Magna Electronics Inc. Vehicular control system with traffic lane detection
US10110860B1 (en) 2004-04-15 2018-10-23 Magna Electronics Inc. Vehicular control system
US9008369B2 (en) 2004-04-15 2015-04-14 Magna Electronics Inc. Vision system for vehicle
US10187615B1 (en) 2004-04-15 2019-01-22 Magna Electronics Inc. Vehicular control system
US10306190B1 (en) 2004-04-15 2019-05-28 Magna Electronics Inc. Vehicular control system
US8818042B2 (en) 2004-04-15 2014-08-26 Magna Electronics Inc. Driver assistance system for vehicle
US11396257B2 (en) 2006-08-11 2022-07-26 Magna Electronics Inc. Vehicular forward viewing image capture system
US10071676B2 (en) 2006-08-11 2018-09-11 Magna Electronics Inc. Vision system for vehicle
US11148583B2 (en) 2006-08-11 2021-10-19 Magna Electronics Inc. Vehicular forward viewing image capture system
US10787116B2 (en) 2006-08-11 2020-09-29 Magna Electronics Inc. Adaptive forward lighting system for vehicle comprising a control that adjusts the headlamp beam in response to processing of image data captured by a camera
US11951900B2 (en) 2006-08-11 2024-04-09 Magna Electronics Inc. Vehicular forward viewing image capture system
US11623559B2 (en) 2006-08-11 2023-04-11 Magna Electronics Inc. Vehicular forward viewing image capture system
JP2012120088A (en) * 2010-12-03 2012-06-21 Fujitsu Ten Ltd Image recognition device
JP2012123751A (en) * 2010-12-10 2012-06-28 Toshiba Alpine Automotive Technology Corp Image processor for vehicle and image processing method for vehicle
CN107852465B (en) * 2015-07-17 2020-09-15 日立汽车系统株式会社 Vehicle-mounted environment recognition device
JP2017027220A (en) * 2015-07-17 2017-02-02 日立オートモティブシステムズ株式会社 In-vehicle environment recognition apparatus
CN107852465A (en) * 2015-07-17 2018-03-27 日立汽车系统株式会社 Vehicle environment identification device
WO2017014023A1 (en) * 2015-07-17 2017-01-26 日立オートモティブシステムズ株式会社 Onboard environment recognition device
US10509973B2 (en) 2015-07-17 2019-12-17 Hitachi Automotive Sytems, Ltd. Onboard environment recognition device
US11044415B2 (en) 2016-11-11 2021-06-22 Denso Corporation Image processing device adjusting pixel-luminance characteristics

Also Published As

Publication number Publication date
JP3930268B2 (en) 2007-06-13

Similar Documents

Publication Publication Date Title
US11308720B2 (en) Vehicular imaging system
JP5233583B2 (en) In-vehicle monitoring device
EP2026247B1 (en) Automatic headlamp control system
US8477191B2 (en) On-vehicle image pickup apparatus
JP2008001182A (en) Vehicular visual information presenting device and method
JP2002074339A (en) On-vehicle image pickup unit
JP3972722B2 (en) In-vehicle image processing device
JP2000295604A (en) Rear and side monitoring device for vehicle
JP2000259998A (en) Back monitoring device for vehicle
JP2002099908A (en) Detection of approaching vehicle, and image processing device detecting vehicle lane position
JP4980970B2 (en) Image pickup means adjustment device and object detection device
JP2000242896A (en) Monitor device
WO2015129280A1 (en) Image processing device and image processing method
JP3980304B2 (en) Parking assistance device
JP2009166624A (en) Rear monitoring device and rear monitoring method for vehicle
JP2009205360A (en) Vehicle obstacle detection device and vehicle obstacle detection method
JP2008098858A (en) Vehicle periphery monitoring device
JP2020068499A (en) Vehicle periphery image display system and vehicle periphery image display method
JP4798576B2 (en) Attachment detection device
JPH08172620A (en) Image input means for vehicle
JP2004051063A (en) Device for visual recognition around vehicle
JP2001071790A (en) Vehicular display device
KR20120136156A (en) Method and apparatus for recognizing vehicles
JP2008146404A (en) In-vehicle image recognition device
CN110774976B (en) Device and method for controlling a vehicle headlight

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070214

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070308

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3930268

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110316

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110316

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110316

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110316

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120316

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130316

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130316

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140316

Year of fee payment: 7

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term