JP2003178290A - Vehicle periphery monitoring device - Google Patents
Vehicle periphery monitoring deviceInfo
- Publication number
- JP2003178290A JP2003178290A JP2001378476A JP2001378476A JP2003178290A JP 2003178290 A JP2003178290 A JP 2003178290A JP 2001378476 A JP2001378476 A JP 2001378476A JP 2001378476 A JP2001378476 A JP 2001378476A JP 2003178290 A JP2003178290 A JP 2003178290A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- obstacle
- image
- distance
- notification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、自車両と障害物と
の距離を算出する車両周囲監視装置に関し、特に、障害
物の大きさが既知であるか否かに依らずに自車両と障害
物との距離を算出することが可能な車両周囲監視装置に
関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle surroundings monitoring device for calculating a distance between an own vehicle and an obstacle, and particularly to an obstacle for the own vehicle regardless of whether or not the size of the obstacle is known. The present invention relates to a vehicle surroundings monitoring device capable of calculating a distance to an object.
【0002】[0002]
【従来の技術】車載カメラにより撮像された障害物の画
像情報から自車両と障害物との距離を算出し、この距離
が所定距離以内になると運転者に警報を発する技術が、
特開2001−213254号公報に開示されている。2. Description of the Related Art A technique of calculating a distance between a vehicle and an obstacle from image information of an obstacle taken by an in-vehicle camera and issuing a warning to a driver when the distance is within a predetermined distance is known.
It is disclosed in Japanese Patent Laid-Open No. 2001-213254.
【0003】ここで、自車両と障害物との距離を算出す
る方法として、自車両に搭載されたカメラにより撮像さ
れた画像情報の中から、大きさが既知の物体、例えば障
害物が車両であれば車両のナンバープレートを抽出し、
このナンバープレートの画像上の大きさに基づき自車両
と障害物との距離を算出する方法が知られている。Here, as a method of calculating the distance between the own vehicle and the obstacle, an object of a known size, for example, an obstacle is a vehicle from the image information picked up by a camera mounted on the own vehicle. If there is, extract the license plate of the vehicle,
A method is known in which the distance between the vehicle and the obstacle is calculated based on the size of the license plate on the image.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、従来の
自車両と障害物との距離を算出する方法においては、既
知の大きさを有する物体の画像上の大きさに基づいて、
自車両と障害物との距離を算出するため、大きさが既知
の物体を有する障害物の場合は特に問題ないが、例え
ば、複数の大きさが存在する電信柱のような障害物の場
合には、障害物を的確に抽出することが困難となる。However, in the conventional method for calculating the distance between the own vehicle and the obstacle, the following method is used based on the size of the object having a known size on the image.
Since the distance between the host vehicle and the obstacle is calculated, there is no particular problem in the case of an obstacle having an object of known size.For example, in the case of an obstacle such as a telephone pole having a plurality of sizes, Would make it difficult to accurately extract obstacles.
【0005】本発明は、このような従来技術の問題点に
鑑みてなされたものであり、障害物の大きさが既知であ
るか否かに依らずに自車両と障害物との距離を算出する
ことが可能な車両周囲監視装置を提供することを目的と
する。The present invention has been made in view of the above problems of the prior art, and calculates the distance between the host vehicle and the obstacle regardless of whether the size of the obstacle is known. It is an object of the present invention to provide a vehicle surroundings monitoring device that can be used.
【0006】[0006]
【課題を解決するための手段】(1)上記目的を達成す
るために、本発明によれば、自車両に搭載されると共
に、自車両の周囲の状況を撮像する撮像手段と、前記撮
像手段により第1の時間に撮像された第1の画像情報に
対して画像処理を行い、前記自車両の周囲に存在する物
体の特徴域を抽出する特徴域抽出部、前記特徴域の輝度
分布を取得する特徴域輝度取得部、前記撮像手段により
前記第1の時間と異なる第2の時間に撮像された第2の
画像情報から、前記特徴域の領域を拡張した領域である
検索域を抽出する検索域抽出部、前記検索域の輝度分布
を取得する検索域輝度取得部、前記検索域の輝度分布と
前記特徴域の輝度分布との一致部分を検索し、この検索
結果に基づいて、前記特徴域の画像上の移動量を算出す
る移動量算出部及び少なくとも、前記特徴域の画像上の
移動量と、前記自車両の移動量とから前記物体と前記自
車両との距離を算出する距離算出部を含む画像処理手段
と、を備えた車両周囲監視装置が提供される。(1) In order to achieve the above object, according to the present invention, an image pickup means which is mounted on a vehicle and picks up an image of a situation around the vehicle, and the image pickup means. By performing image processing on the first image information imaged at the first time by means of, a characteristic region extraction unit that extracts a characteristic region of an object existing around the own vehicle, and obtains a luminance distribution of the characteristic region. A characteristic region luminance acquisition unit, a search for extracting a search region which is a region obtained by expanding the region of the characteristic region, from the second image information captured by the image capturing unit at a second time different from the first time. A region extraction unit, a search region luminance acquisition unit that acquires the luminance distribution of the search region, searches for a matching portion between the luminance distribution of the search region and the luminance distribution of the characteristic region, and based on this search result, the characteristic region A movement amount calculation unit that calculates the movement amount on the image of Even if it does not, the vehicle surroundings monitor including an image processing unit including a distance calculation unit that calculates the distance between the object and the own vehicle from the amount of movement of the characteristic region on the image and the amount of movement of the own vehicle. A device is provided.
【0007】第1の時間に撮像手段により撮像された第
1の画像情報から特徴域を抽出し、当該特徴域の輝度分
布を取得し、第1の時間と異なる第2の時間に撮像手段
により撮像された画像情報から特徴域の領域を拡張した
領域である検索域を抽出し、当該検索域の輝度分布を取
得し、検索域輝度分布における特徴域輝度分布と一致す
る部分の検索により、特徴物の画像上での移動量を算出
し、少なくとも当該特徴物の画面上移動量と、自車両の
移動量とから自車両と特徴物との距離を算出することが
可能となる。The characteristic region is extracted from the first image information imaged by the image pickup means at the first time, the brightness distribution of the characteristic region is acquired, and the image pickup means is operated at the second time different from the first time. A search area, which is an expanded area of the feature area, is extracted from the captured image information, the brightness distribution of the search area is acquired, and the search is performed for a portion of the search area brightness distribution that matches the feature area brightness distribution. It is possible to calculate the amount of movement of the object on the image, and to calculate the distance between the own vehicle and the characteristic object based on at least the amount of movement of the characteristic object on the screen and the amount of movement of the own vehicle.
【0008】(2)さらに、上記発明においては、特に
限定されないが、前記撮像手段が、前記自車両の前方部
に搭載され、前記自車両の前側方の状況を撮像すること
がより好ましい。(2) Further, in the above invention, although not particularly limited, it is more preferable that the image pickup means is mounted on a front portion of the own vehicle to pick up an image of a situation of a front side of the own vehicle.
【0009】撮像手段を自車両の前方部に搭載し、自車
両の前側方の状況を撮像することにより、自車両の前側
方の周囲に存在する特徴物体との距離を算出することが
可能となる。It is possible to calculate the distance to the characteristic object existing around the front side of the own vehicle by mounting the image pickup means on the front part of the own vehicle and picking up the situation of the front side of the own vehicle. Become.
【0010】(3)さらに、上記発明においては、特に
限定されないが、運転者に対して報知を行う報知手段
と、前記報知手段に対して報知の出力の指示を行う報知
処理手段とを備え、前記報知処理手段は、前記画像処理
手段の前記距離算出部により算出された前記自車両と前
記物体との距離が、所定の距離値以下の場合に、前記報
知手段に対し報知の出力の指示を行うことがより好まし
い。(3) Further, in the above invention, although not particularly limited, it is provided with notifying means for notifying the driver, and notifying means for instructing the notifying means to output the notification. The notification processing unit instructs the notification unit to output a notification when the distance between the vehicle and the object calculated by the distance calculation unit of the image processing unit is equal to or less than a predetermined distance value. It is more preferable to carry out.
【0011】画像処理手段の距離算出部により算出され
た自車両と障害物との距離と、所定の距離値との比較を
行い、当該距離算出手段により算出された自車両と障害
物との距離が、所定の距離値以下の場合には、報知処理
手段が報知手段へ報知内容の出力の指示を行い、運転者
に対して報知を行う必要性が低いような場合、即ち、自
車両と障害物との距離が所定の距離値よりも大きい場合
には、報知内容の出力を行わないように報知処理手段が
制御を行うことにより、頻繁な報知をなくし、より的確
な報知を行うことが可能となる。The distance between the host vehicle and the obstacle calculated by the distance calculator of the image processing means is compared with a predetermined distance value, and the distance between the host vehicle and the obstacle calculated by the distance calculating means. However, when the distance value is equal to or less than the predetermined distance value, the notification processing means instructs the notification means to output the content of the notification, and when it is less necessary to notify the driver, that is, the own vehicle and the obstacle. When the distance to the object is larger than the predetermined distance value, the notification processing means controls so as not to output the notification content, so that frequent notifications can be eliminated and more accurate notification can be performed. Becomes
【0012】(4)さらに、上記発明においては、特に
限定されないが、前記画像処理手段が、前記特徴域の輝
度分布の幅と前記検索域の輝度分布の幅との変化に基づ
き、前記物体の接近度合を判断する接近度合判断部を有
し、前記報知処理手段が、前記画像処理手段の前記接近
度合判断部により判断された前記物体の接近度合に基づ
き、前記報知手段に対して報知の出力の指示を行うこと
がより好ましい。(4) Further, in the above invention, although not particularly limited, the image processing means is configured to detect the object based on a change in the width of the luminance distribution of the characteristic region and the width of the luminance distribution of the search region. The notification processing unit has a proximity determination unit that determines the proximity, and the notification processing unit outputs a notification to the notification unit based on the proximity of the object determined by the proximity determination unit of the image processing unit. It is more preferable to give the instructions.
【0013】画像処理手段に接近度合判断部を設け、当
該接近度合判断部により特徴物の輝度分布の幅と、検索
域の輝度分布の幅と、の変化に基づいて、特徴域の輝度
分布の幅が検索域の輝度分布の幅より小さい場合は、自
車両が障害物に対して接近していると判断し、特徴域の
輝度分布の幅が検索域の輝度分布の幅より大きい場合
は、自車両が障害物から離遠していると判断することが
可能となる。さらに、上記特徴域の輝度分布の幅と、上
記検索域の輝度分布の幅との自車両の障害物に対する接
近、或いは、離遠の判断に基づいた、運転者に対するよ
り適切な報知を行うことが可能となる。The image processing means is provided with a degree-of-approach judging unit, and the degree-of-approach judging unit determines the brightness distribution of the characteristic region based on the change in the width of the brightness distribution of the feature and the width of the brightness distribution of the search region. When the width is smaller than the width of the brightness distribution in the search area, it is determined that the vehicle is approaching the obstacle, and when the width of the brightness distribution in the feature area is larger than the width of the brightness distribution in the search area, It is possible to determine that the host vehicle is far from the obstacle. Further, a more appropriate notification is given to the driver based on the judgment of the approaching distance or the leaving distance of the own vehicle with respect to the width of the brightness distribution in the characteristic area and the width of the brightness distribution in the search area. Is possible.
【0014】[0014]
【発明の効果】請求項1記載の発明によれば、特徴物の
画像上での移動量を算出し、少なくともこの特徴物画面
上移動量と、自車両の移動量とから自車両と特徴物との
距離を算出することが可能となるので、特徴物(障害
物)の大きさが既知であるか否かに依らずに、自車両と
障害物と間の距離を算出することが可能となる。According to the first aspect of the present invention, the amount of movement of the characteristic object on the image is calculated, and based on at least the amount of movement of the characteristic object screen and the amount of movement of the own vehicle, the own vehicle and the characteristic object are detected. Since it is possible to calculate the distance between the vehicle and the obstacle, it is possible to calculate the distance between the host vehicle and the obstacle regardless of whether the size of the feature (obstacle) is known. Become.
【0015】請求項2記載の発明によれば、自車両の前
側方の周囲に存在する障害物との距離を算出することが
可能となる。According to the second aspect of the present invention, it is possible to calculate the distance to the obstacle existing around the front side of the host vehicle.
【0016】請求項3記載の発明によれば、自車両と障
害物との算出された距離と所定の距離値との比較に基づ
き、算出された距離が所定の距離値以下の場合には、報
知処理手段が報知手段に報知内容の出力の指示を行い、
運転者に対して報知を行う必要性が低いような場合、即
ち、算出された距離が自車両と障害物との距離が所定の
距離値よりも大きい場合には、報知内容の出力を行わな
いように報知処理手段が制御を行うことにより、頻繁な
報知をなくし、運転者に対して的確な報知を行うことが
可能となる。According to the third aspect of the present invention, when the calculated distance is equal to or less than the predetermined distance value based on the comparison between the calculated distance between the vehicle and the obstacle and the predetermined distance value, The notification processing means instructs the notification means to output the content of the notification,
If it is not necessary to notify the driver, that is, if the calculated distance is greater than the predetermined distance value between the vehicle and the obstacle, the notification content is not output. By performing the control by the notification processing means in this manner, it becomes possible to eliminate frequent notifications and give accurate notifications to the driver.
【0017】請求項4記載の発明によれば、自車両と障
害物との距離の算出に加え、障害物の画像上の幅の変化
に基づいて、自車両が障害物に対して接近している場
合、或いは、自車両が障害物から離遠している場合の判
断が可能となる。さらに、当該自車両の障害物に対する
接近、或いは、離遠の判断に基づいて報知を行うことが
可能となり、自車両と障害物との距離のみの場合の報知
と比較して、運転者に対してより適切な報知が可能とな
る。According to the fourth aspect of the present invention, in addition to the calculation of the distance between the own vehicle and the obstacle, the own vehicle approaches the obstacle based on the change in the width on the image of the obstacle. It is possible to judge when the vehicle is moving or when the host vehicle is far from the obstacle. Furthermore, it becomes possible to make a notification based on the judgment of approaching or moving away from the obstacle of the own vehicle, and compared with the notification when only the distance between the own vehicle and the obstacle, the driver can be notified. It becomes possible to provide more appropriate notification.
【0018】[0018]
【発明の実施の形態】以下、本発明の実施形態を図面に
基づいて説明する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.
【0019】[第1実施形態]図1は、第1実施形態に
おける車両周囲監視装置1の基本構成を示すブロック図
である。図2は、自車両1003から自車両1003の
側方に存在する障害物までの距離の算出(以下、側方障
害物距離算出ともいう。)の方法の説明のための俯瞰図
であり、図3は、側方障害物距離算出の方法の説明のた
めの画像を示す図である。[First Embodiment] FIG. 1 is a block diagram showing the basic arrangement of a vehicle surroundings monitoring apparatus 1 according to the first embodiment. FIG. 2 is a bird's-eye view for explaining a method of calculating a distance from the own vehicle 1003 to an obstacle existing on the side of the own vehicle 1003 (hereinafter, also referred to as side obstacle distance calculation). FIG. 3 is a diagram showing an image for explaining a method of calculating a lateral obstacle distance.
【0020】図2は、側方障害物距離算出の方法を説明
するための俯瞰図であり、時間T−Δt及び時間Tにお
ける自車両1003が、走行道路1005を進行方向
(図2において矢印で示す。)に走行している図を示し
ており、時間Tにおける自車両1003の位置は、図2
における実線塗りつぶし部で、時間T−Δtにおける自
車両の位置1004は、破線白抜き部で示している。ま
た、図2に示されるように、走行道路1005に沿っ
て、自車両1003の進行方向に対して右側に、壁10
01が併設してあり、自車両1003が、時間T−Δt
及び時間Tの間において壁1001と一定の距離を維持
して、実際の移動量ΔXを進行方向に自車速度Vで移動
している。さらに、図2に示されるように、障害物であ
る電信柱1002が壁1001に近接して設置されてお
り、自車両1003は、時間T−Δt及び時間Tのいず
れにおいても電信柱1002から図中のy軸方向に距離
Y1を維持している。さらに、図2に示されるように、
当該電信柱1002は、時間Tにおける前側方カメラ
(右)10aの画角α1に含まれ、また、時間T−Δt
における前側方カメラ(右)10aの画角α2にも含ま
れる。なお、側方障害物距離算出の方法については、後
に詳述する。FIG. 2 is a bird's-eye view for explaining the method of calculating the lateral obstacle distance. The own vehicle 1003 at time T-Δt and time T travels along the traveling road 1005 (indicated by an arrow in FIG. 2). 2) and the position of the own vehicle 1003 at time T is shown in FIG.
The position 1004 of the host vehicle at the time T-Δt is indicated by a solid white line in FIG. Further, as shown in FIG. 2, along the traveling road 1005, on the right side with respect to the traveling direction of the host vehicle 1003, the wall 10
01 is installed side by side, and the own vehicle 1003 operates at time T-Δt.
During the time period T and the time T, the actual movement amount ΔX is moved at the own vehicle speed V in the traveling direction while maintaining a constant distance from the wall 1001. Further, as shown in FIG. 2, an electric pole 1002, which is an obstacle, is installed close to the wall 1001, and the host vehicle 1003 is viewed from the electric pole 1002 at both time T-Δt and time T. The distance Y1 is maintained in the inside y-axis direction. Further, as shown in FIG.
The telephone pole 1002 is included in the angle of view α1 of the front side camera (right) 10a at time T, and at time T-Δt.
Also included in the angle of view α2 of the front side camera (right) 10a in FIG. The method of calculating the lateral obstacle distance will be described later in detail.
【0021】図1に示すように、車両周囲監視装置1
は、2つの前側方カメラ10a、10bと、画像処理手
段20と、車速センサ30と、超音波センサ40と、報
知処理手段50と、報知用インジケータ60と、報知用
ブザー70と、車載モニタ80とから構成されている。As shown in FIG. 1, a vehicle surroundings monitoring device 1
Are two front side cameras 10a and 10b, an image processing unit 20, a vehicle speed sensor 30, an ultrasonic sensor 40, a notification processing unit 50, a notification indicator 60, a notification buzzer 70, and an in-vehicle monitor 80. It consists of and.
【0022】前側方カメラ10a、10bは、自車両1
003の前側方の状況を撮像するための撮像手段であ
り、自車両1003の前方部の左右にそれぞれに搭載さ
れている。例えば、図2では、前側方カメラ(右)10
aの光軸OPが、自車両1003の進行方向に対して右
側方向に直角になるように、自車両1003の前方部に
搭載されている。そして、当該前側方カメラ(右)10
aにて撮像された画像情報は、接続された画像処理手段
20に常時送信される。画像処理手段20に送信された
画像情報は、後述する画像処理のために画像処理手段2
0の内部に取得されると共に、車室内に設置された車載
モニタ80に送信される。また、図2には図示していな
いが、前側方カメラ(左)10bは、例えば、当該前側
方カメラ(左)10bの光軸OPが、自車両1003の
進行方向に対して左側方向に直角になるように搭載され
ており、当該前側方カメラ(左)10bにて撮像された
画像情報は、接続された画像処理手段20に常時送信さ
れる。画像処理手段20に送信された画像情報は、後述
する画像処理のために画像処理手段20の内部に取得さ
れると共に、車室内に設置された車載モニタ80に送信
され、車載モニタ80により運転者に対して表示され
る。The front side cameras 10a and 10b are used for the vehicle 1
Image pickup means for picking up an image of the front side of 003, which is mounted on the left and right of the front part of the vehicle 1003. For example, in FIG. 2, the front side camera (right) 10
The optical axis OP of a is mounted on the front part of the own vehicle 1003 so that the optical axis OP is perpendicular to the right direction with respect to the traveling direction of the own vehicle 1003. Then, the front side camera (right) 10
The image information captured in a is constantly transmitted to the connected image processing means 20. The image information transmitted to the image processing means 20 is used by the image processing means 2 for image processing described later.
It is acquired inside 0 and transmitted to the in-vehicle monitor 80 installed in the vehicle compartment. Although not shown in FIG. 2, in the front side camera (left) 10b, for example, the optical axis OP of the front side camera (left) 10b is perpendicular to the traveling direction of the host vehicle 1003 in the left direction. The image information captured by the front side camera (left) 10b is always transmitted to the connected image processing unit 20. The image information transmitted to the image processing unit 20 is acquired inside the image processing unit 20 for image processing described later, and is also transmitted to the in-vehicle monitor 80 installed in the vehicle interior, and the in-vehicle monitor 80 causes the driver to operate. Is displayed against.
【0023】車速センサ30は、自車両1003の自車
速度Vを検出する車速検出手段であり、当該車速センサ
30にて検出された自車速度情報は、画像処理手段20
及び報知処理手段50に常時送信される。The vehicle speed sensor 30 is a vehicle speed detecting means for detecting the own vehicle speed V of the own vehicle 1003, and the own vehicle speed information detected by the vehicle speed sensor 30 is obtained by the image processing means 20.
And is constantly transmitted to the notification processing means 50.
【0024】超音波センサ40は、超音波を発信し、障
害物により当該超音波の進行が遮蔽され、反射された超
音波を受信することにより、その超音波の発信と受信の
時間差である時間差情報を検出する超音波検出手段であ
り、自車両1003の前側方を検知範囲とし、例えば、
自車両1003の前方部に搭載される。当該超音波セン
サ40にて検出された時間差情報は、接続された報知処
理手段50に常時送信される。The ultrasonic sensor 40 emits an ultrasonic wave, the progress of the ultrasonic wave is blocked by an obstacle, and the reflected ultrasonic wave is received, so that the time difference between the transmission and the reception of the ultrasonic wave is a time difference. It is an ultrasonic wave detecting means for detecting information, and the front side of the own vehicle 1003 is set as a detection range.
It is mounted in the front part of the own vehicle 1003. The time difference information detected by the ultrasonic sensor 40 is constantly transmitted to the connected notification processing means 50.
【0025】画像処理手段20は、前側方カメラ10
a、10bにより撮像され送信された画像情報に対して
画像処理を行う画像処理手段であり、接近物認識手段2
1と、側方障害物距離算出手段22とから構成されてい
る。当該画像処理手段20を構成する接近物認識手段2
1は、速度センサ30により検出され送信される自車速
度情報に基づき、交差点の状況を確認するために交差点
付近にて一時停止中、或いは、徐行中に、撮像された画
像情報に対して画像処理を行い、交差点において接近し
てくる物体の認識を行う手段である。また、当該画像処
理手段20を構成する側方障害物距離算出手段22は、
自車両と、自車両の側方に存在する障害物との距離の算
出を行う手段である。The image processing means 20 includes the front and side cameras 10.
The approaching object recognition means 2 is an image processing means for performing image processing on the image information picked up and transmitted by a and b.
1 and side obstacle distance calculation means 22. Approaching object recognizing means 2 constituting the image processing means 20
1 is an image corresponding to the image information captured while the vehicle is temporarily stopped near the intersection to check the condition of the intersection or while traveling slowly based on the vehicle speed information detected and transmitted by the speed sensor 30. It is a means for performing processing and recognizing an approaching object at an intersection. In addition, the lateral obstacle distance calculation means 22 constituting the image processing means 20 is
It is means for calculating the distance between the own vehicle and an obstacle existing on the side of the own vehicle.
【0026】当該画像処理手段20は、前側方カメラ1
0a、10bと、車速センサ30と、報知処理手段50
とから情報が送信されるように接続されており、報知処
理手段50と、車載モニタ80とに情報を送信するよう
に接続されている。当該画像処理手段20は、前側方カ
メラ10a、10bから画像情報を受信し、車速センサ
30から自車速度情報を受信し、報知処理手段50から
画像情報の車載モニタ80への送信の指示である画像送
信指示と、画像処理の開始の指示である画像処理開始指
示とを受信する。さらに、当該画像処理手段20は、前
側方カメラ10a、10bにより撮像され送信された画
像情報に対して接近物認識手段21により認識された接
近物認識情報と、側方障害物距離算出手段22により算
出された障害物距離Y1である障害物距離情報とを報知
処理手段50に送信し、画像情報を車載モニタ80に送
信する。The image processing means 20 comprises the front side camera 1
0a, 10b, vehicle speed sensor 30, and notification processing means 50
Are connected so as to transmit information, and are connected so as to transmit information to the notification processing means 50 and the in-vehicle monitor 80. The image processing means 20 receives image information from the front and side cameras 10a and 10b, receives own vehicle speed information from the vehicle speed sensor 30, and issues an instruction from the notification processing means 50 to transmit image information to the in-vehicle monitor 80. An image transmission instruction and an image processing start instruction which is an instruction to start image processing are received. Further, the image processing means 20 uses the approaching object recognition information recognized by the approaching object recognizing means 21 with respect to the image information captured and transmitted by the front and side cameras 10a and 10b, and the lateral obstacle distance calculating means 22. Obstacle distance information, which is the calculated obstacle distance Y1, is transmitted to the notification processing unit 50, and image information is transmitted to the vehicle-mounted monitor 80.
【0027】当該側方障害物距離算出手段22は、さら
に、特徴域抽出部22aと、特徴域輝度取得部22b
と、検索域抽出部22cと、検索域輝度取得部22d
と、移動量算出部22eと、距離算出部22fとから構
成されている。特徴域抽出部22aは、時間T−Δtに
おける前側方カメラ10a、10bにより撮像され送信
された画像情報から側方障害物距離算出を行うための特
徴域200の抽出を行う手段であり、特徴域輝度取得部
22bは、当該抽出された特徴域200の輝度分布であ
る特徴域輝度分布400の取得を行う手段である。そし
て、検索域抽出部22cは、時間T−Δtから時間Δt
後の画像である時間Tにおける前側方カメラ10a、1
0bにより撮像され送信された画像情報から検索域30
0の抽出を行う手段であり、検索域輝度取得部22d
は、当該抽出された検索域300の輝度分布である検索
域輝度分布500の取得を行う手段である。さらに、移
動量算出部22eは、特徴域輝度分布400と検索域輝
度分布500との比較から、特徴域200の画像上での
移動量、即ち、図3における障害物である電信柱100
2の画像上の水平方向の移動量である障害物画像上移動
量Δx1の算出を行う手段であり、距離算出部22f
は、少なくとも当該算出された障害物画像上移動量Δx
1と、自車両1003の移動量である図3におけるカメ
ラ移動量ΔXとから、自車両1003と障害物との距離
である障害物距離Y1の算出を行う手段である。なお、
上記各部の詳細及び図3については、後に詳述する。The lateral obstacle distance calculating means 22 further includes a characteristic region extracting section 22a and a characteristic region luminance acquiring section 22b.
A search area extraction unit 22c and a search area brightness acquisition unit 22d
And a movement amount calculation unit 22e and a distance calculation unit 22f. The characteristic region extraction unit 22a is means for extracting the characteristic region 200 for calculating the lateral obstacle distance from the image information captured and transmitted by the front and side cameras 10a and 10b at time T-Δt, The luminance acquisition unit 22b is a unit that acquires a characteristic region luminance distribution 400 that is the luminance distribution of the extracted characteristic region 200. Then, the search area extraction unit 22c calculates the time Δt from the time T−Δt.
Front side cameras 10a, 1 at time T, which is a later image
0b from the image information captured and transmitted by the search area 30
Is a means for extracting 0, and is a search area brightness acquisition unit 22d.
Is a means for acquiring a search area brightness distribution 500 that is the extracted brightness distribution of the search area 300. Further, the movement amount calculation unit 22e compares the characteristic region luminance distribution 400 and the search region luminance distribution 500 with each other, and the movement amount on the image of the characteristic region 200, that is, the utility pole 100 which is the obstacle in FIG.
The distance calculating unit 22f is means for calculating the moving amount Δx1 on the obstacle image, which is the moving amount in the horizontal direction on the second image.
Is at least the calculated movement amount Δx on the obstacle image.
1 and the camera movement amount ΔX in FIG. 3, which is the movement amount of the own vehicle 1003, is a means for calculating an obstacle distance Y1 which is a distance between the own vehicle 1003 and an obstacle. In addition,
The details of each of the above parts and FIG. 3 will be described later.
【0028】報知処理手段50は、超音波センサ40に
より検出され送信される時間差情報に基づき障害物と自
車両1003との距離を算出し、当該算出された距離
と、所定の距離との比較、或いは、画像処理手段20に
おいて算出される障害物と自車両1003との距離であ
る障害物距離情報と、所定の距離値との比較を行う手段
である。さらに、当該比較の結果、或いは、画像処理手
段20の接近物認識手段21から送信される接近物認識
情報に基づき、接続された報知用インジケータ60と、
報知用ブザー70とに、運転者に対して報知内容を出力
させるための指示である報知内容出力指示を送信する手
段である。当該報知処理手段50は、車速センサ30
と、超音波センサ40と、画像処理手段20とからそれ
ぞれ情報が送信されるように接続されており、画像処理
手段20と、報知用インジケータ60と、報知用ブザー
70とにそれぞれ指示を送信できるように接続されてい
る。The notification processing means 50 calculates the distance between the obstacle and the host vehicle 1003 based on the time difference information detected and transmitted by the ultrasonic sensor 40, and compares the calculated distance with a predetermined distance. Alternatively, it is means for comparing obstacle distance information, which is the distance between the obstacle and the host vehicle 1003, calculated by the image processing means 20, with a predetermined distance value. Further, based on the result of the comparison or the approaching object recognition information transmitted from the approaching object recognizing means 21 of the image processing means 20, a connected notification indicator 60,
The notification buzzer 70 is means for transmitting a notification content output instruction, which is an instruction for outputting the notification content to the driver. The notification processing means 50 uses the vehicle speed sensor 30.
, The ultrasonic sensor 40, and the image processing means 20 are connected so that information is respectively transmitted, and instructions can be transmitted to the image processing means 20, the notification indicator 60, and the notification buzzer 70, respectively. Are connected as.
【0029】当該報知処理手段50は、超音波センサ4
0から時間差情報、速度センサ30から自車速度情報、
画像処理手段20から障害物距離情報及び接近物認識情
報を受信する。また、当該報知処理手段50は、障害物
と自車両1003との距離である障害物距離情報、或い
は、接近物認識情報に基づき、報知用インジケータ60
と、報知用ブザー70とに報知内容の出力の指示である
報知内容出力指示を送信し、画像情報の車載モニタ80
への送信の指示である画像送信指示と、自車速度情報に
応じて、画像処理の開始の指示である画像処理開始指示
とを画像処理手段20に送信する。なお、当該報知処理
手段50は、車速センサ30により検出され送信される
自車速度情報に応じて、自車両1003と障害物との距
離の算出のための情報として、超音波センサ40から送
信される時間差情報を用いるか、或いは、画像処理手段
20により算出される障害物距離情報を用いるか、の判
断を行う手段でもある。The notification processing means 50 is the ultrasonic sensor 4
Time difference information from 0, vehicle speed information from the speed sensor 30,
Obstacle distance information and approaching object recognition information are received from the image processing means 20. Further, the notification processing means 50 is based on the obstacle distance information that is the distance between the obstacle and the own vehicle 1003 or the approaching object recognition information, and the notification indicator 60.
And an informing content output instruction that is an instruction to output the informing content to the informing buzzer 70, and the in-vehicle monitor 80 of the image information is transmitted.
An image transmission instruction, which is an instruction for transmission to the image processing unit 20, and an image processing start instruction, which is an instruction for starting image processing, are transmitted to the image processing unit 20 according to the vehicle speed information. The notification processing unit 50 is transmitted from the ultrasonic sensor 40 as information for calculating the distance between the own vehicle 1003 and the obstacle according to the own vehicle speed information detected and transmitted by the vehicle speed sensor 30. It is also a means for determining whether to use the time difference information or the obstacle distance information calculated by the image processing means 20.
【0030】報知用インジケータ60は、画像処理手段
20により認識、算出された障害物への接近の有無、自
車両1003から障害物までの距離である障害物距離情
報を出力するための車室内に設置された報知手段であ
り、接続された報知処理手段50から送信される報知内
容出力指示に基づき、障害物の有無及び障害物距離情報
を運転者に対して視覚的に報知内容を出力する。ここ
で、運転者に対する報知は、単なる点灯表示、或いは、
点滅表示により出力するものでもよく、また、例えば、
算出された自車両1003と障害物との距離である障害
物距離Y1を数値表示にて出力するものでもよい。The notification indicator 60 is provided in the passenger compartment for outputting the obstacle distance information, which is the distance from the host vehicle 1003 to the obstacle, which is recognized and calculated by the image processing means 20, and the distance to the obstacle. The notification means is installed and visually outputs the content of the obstacle and the obstacle distance information to the driver based on the notification content output instruction transmitted from the connected notification processing means 50. Here, the notification to the driver is a simple lighting display, or
It may be output by blinking display, for example,
An obstacle distance Y1 that is the calculated distance between the own vehicle 1003 and the obstacle may be output as a numerical display.
【0031】報知用ブザー70は、画像処理手段20に
より認識、算出された障害物の有無及び自車両1003
から障害物までの距離である障害物距離情報を聴覚的に
運転者に報知するための報知手段であり、接続された報
知処理手段50から送信される報知内容出力指示に基づ
き、障害物の有無、障害物までの距離等の報知内容を運
転者に対して聴覚的に出力する。ここで、運転者に対す
る報知は、単なる警告音による出力でもよく、また、例
えば、算出された自車両1003と障害物との距離であ
る障害物距離Y1の情報を音声にて出力してもよい。The notification buzzer 70 detects the presence / absence of the obstacle recognized and calculated by the image processing means 20 and the own vehicle 1003.
Is a notification means for audibly notifying the driver of obstacle distance information that is the distance from the vehicle to the obstacle, and the presence or absence of the obstacle based on the notification content output instruction transmitted from the connected notification processing means 50. , The content of notification such as the distance to the obstacle is audibly output to the driver. Here, the notification to the driver may be output by a mere warning sound, or, for example, information of the obstacle distance Y1 which is the calculated distance between the own vehicle 1003 and the obstacle may be output by voice. .
【0032】車載モニタ80は、前側方カメラ10a、
10bにより撮像され送信され、さらに画像処理手段2
0より送信された画像情報を表示するための表示手段で
あり、運転者が視認できるように車室内に設置されてい
る。The in-vehicle monitor 80 includes a front side camera 10a,
The image processing means 2 further captures and transmits the image by 10b.
It is a display unit for displaying the image information transmitted from 0, and is installed in the vehicle compartment so that the driver can visually recognize it.
【0033】以下に、作用について述べる。The operation will be described below.
【0034】図4は、当該車両周囲監視装置1の報知処
理手段50による処理を示すフローチャートである。当
該フローチャートに基づき、以下に、報知処理手段50
による当該車両周囲監視装置1の全体の処理について説
明する。FIG. 4 is a flow chart showing the processing by the notification processing means 50 of the vehicle surroundings monitoring apparatus 1. Based on the flowchart, the notification processing means 50 will be described below.
The entire processing of the vehicle surroundings monitoring device 1 by means of will be described.
【0035】ステップS50において、報知処理手段5
0は、速度センサ30により検出され送信される自車速
度情報を受信する。次に、ステップS100において、
報知処理手段50は、画像処理手段20に対して、前側
方カメラ10a、10bにより撮像され送信される画像
情報の車載モニタ80への送信の指示である画像送信指
示を送信し、画像処理手段20は、当該指示に基づき画
像情報を車載モニタ80に送信し、車載モニタ80は当
該送信された画像情報を画像に出力する。In step S50, the notification processing means 5
0 receives the own vehicle speed information detected and transmitted by the speed sensor 30. Next, in step S100,
The notification processing means 50 transmits to the image processing means 20 an image transmission instruction which is an instruction to transmit to the vehicle-mounted monitor 80 image information captured and transmitted by the front and side cameras 10a, 10b, and the image processing means 20. Transmits image information to the in-vehicle monitor 80 based on the instruction, and the in-vehicle monitor 80 outputs the transmitted image information to an image.
【0036】次に、ステップS200において、報知処
理手段50は、車速センサ30により検出され送信され
る自車速度情報と、所定の車速値(例えば、20km/
h)との比較を行う。Next, in step S200, the notification processing means 50 causes the vehicle speed information detected and transmitted by the vehicle speed sensor 30 and a predetermined vehicle speed value (for example, 20 km /
h) is compared.
【0037】当該比較において、自車速度情報が所定の
車速値以下の場合(ステップS200においてYES)
は、ステップS300において、接近物報知処理を行
う。当該接近物報知処理においては、特にその処理の流
れを図示しないが、超音波センサ40により検出され送
信される時間差情報に基づいて、報知処理手段50が検
知範囲内に存在する障害物、或いは、接近物と自車両1
003との距離の算出を行う。さらに、報知処理手段5
0は、当該算出された障害物、或いは、接近物と自車両
1003との距離と、予め設定された第1の所定の距離
値とを比較を行う。そして、算出された距離が、第1の
所定の距離値以下の場合に、報知インジケータ60及び
報知ブザー70に、報知内容出力指示を送信する。この
報知処理手段50からの報知内容出力指示により、報知
インジケータ60は、運転者に対して報知内容を視覚的
に出力し、報知ブザー70は、運転者に対して報知内容
を聴覚的に出力する。In the comparison, if the vehicle speed information is equal to or less than the predetermined vehicle speed value (YES in step S200).
Performs approaching object notification processing in step S300. In the approaching object notifying process, although the flow of the process is not particularly shown, an obstacle existing in the detection range by the notifying process means 50 based on the time difference information detected and transmitted by the ultrasonic sensor 40, or Approaching object and own vehicle 1
The distance to 003 is calculated. Further, the notification processing means 5
0 compares the calculated distance between the obstacle or the approaching object and the vehicle 1003 with a preset first predetermined distance value. Then, when the calculated distance is equal to or smaller than the first predetermined distance value, the notification content output instruction is transmitted to the notification indicator 60 and the notification buzzer 70. In response to the notification content output instruction from the notification processing means 50, the notification indicator 60 visually outputs the notification content to the driver, and the notification buzzer 70 acoustically outputs the notification content to the driver. .
【0038】なお、ステップS200において、例え
ば、自車速度情報が0km/hから20km/hの場合
(ステップS200においてYES)、即ち、自車両1
003が停車中、或いは、徐行中の場合は、ステップS
300において、報知処理手段50は、接近物報知処理
として、画像処理手段20の接近物認識手段21から送
信される接近物認識情報に基づいて、報知用インジケー
タ60及び報知用ブザー70に対して、接近物に対する
適切な報知内容出力指示を送信してもよい。In step S200, for example, when the own vehicle speed information is 0 km / h to 20 km / h (YES in step S200), that is, the own vehicle 1
If 003 is stopped or slowing down, step S
In 300, the notification processing unit 50 performs the approaching object notification process on the notification indicator 60 and the notification buzzer 70 based on the approaching object recognition information transmitted from the approaching object recognition unit 21 of the image processing unit 20. An appropriate notification content output instruction for an approaching object may be transmitted.
【0039】また、ステップS200における判断にお
いて、自車速度情報が、所定の車速値より大きい場合
(ステップS200においてNO)は、次に、ステップ
S400において、報知処理手段50は、画像処理手段
20に画像処理の開始の指示である画像処理開始指示を
送信する。そして、画像処理手段20は、当該画像処理
開始指示に従い、先述のステップS100にて前側方カ
メラ10a、10bにより撮像され送信された画像情報
を取り込み、当該画像情報に対して画像処理により自車
両1003と、自車両1003の側方に存在する障害
物、例えば、図2において電信柱1002、との距離の
算出を行い、算出された自車両1003と障害物との距
離Y1である障害物距離情報を報知処理手段50に送信
する。なお、当該ステップS400における側方障害物
距離算出の方法については、後に詳述する。If it is determined in step S200 that the vehicle speed information is greater than the predetermined vehicle speed value (NO in step S200), then in step S400, the notification processing means 50 causes the image processing means 20 to perform processing. An image processing start instruction, which is an instruction to start image processing, is transmitted. Then, in accordance with the image processing start instruction, the image processing means 20 takes in the image information picked up and transmitted by the front and side cameras 10a and 10b in step S100 described above, and the own vehicle 1003 performs image processing on the image information. And an obstacle existing on the side of the own vehicle 1003, for example, a telephone pole 1002 in FIG. 2, is calculated, and obstacle distance information is the calculated distance Y1 between the own vehicle 1003 and the obstacle. Is transmitted to the notification processing means 50. The method of calculating the lateral obstacle distance in step S400 will be described in detail later.
【0040】次に、ステップS500において、報知処
理手段50は、画像処理手段20により算出され送信さ
れた障害物距離情報と、予め設定された第2の所定距離
値とを比較し、当該比較した結果に基づいて、報知イン
ジケータ60及び報知ブザー70に報知内容出力指示を
送信する。なお、上記の第1の所定距離値と、第2の所
定距離値とは、等しい距離値でもよく、異なる距離値で
もよい。Next, in step S500, the notification processing means 50 compares the obstacle distance information calculated and transmitted by the image processing means 20 with a preset second predetermined distance value, and the comparison is made. Based on the result, a notification content output instruction is transmitted to the notification indicator 60 and the notification buzzer 70. The first predetermined distance value and the second predetermined distance value may be equal distance values or different distance values.
【0041】当該報知内容出力指示を受信した報知イン
ジケータ60は、例えば、障害物距離情報に基づいて障
害物距離Y1の数値情報の出力を行うことにより、運転
者に対して視覚的な報知を行う。また、報知処理手段5
0からの報知内容出力指示を受信した報知ブザー70
は、例えば、障害物距離情報に基づいて障害物距離Y1
の数値情報を音声にて運転者に対して出力を行う。The notification indicator 60 that has received the notification content output instruction outputs visual information to the driver, for example, by outputting numerical information of the obstacle distance Y1 based on the obstacle distance information. . Also, the notification processing means 5
Notification buzzer 70 that has received the notification content output instruction from 0
Is the obstacle distance Y1 based on the obstacle distance information, for example.
The numerical information of is output to the driver by voice.
【0042】以上のように自車両と障害物との距離に基
づいた報知内容を運転者に対して報知することにより、
適切な報知を行うことが可能となる。By informing the driver of the content of the notification based on the distance between the own vehicle and the obstacle as described above,
It becomes possible to give an appropriate notification.
【0043】また、図4のステップS300及びステッ
プS500において、算出された距離値と所定の距離値
とを比較し、算出された距離が所定の距離値以下の場合
には、報知処理手段50が、報知用インジケータ60及
び報知用ブザー70に報知内容の出力の指示を行い、運
転者に対して報知を行う必要性が低いような場合、即
ち、自車両と障害物との距離が所定の距離値よりも大き
い場合には、報知内容の出力を行わないように報知処理
手段50が制御を行ってもよい。このことにより、頻繁
な報知をなくし、より的確な報知を行うことが可能とな
る。Further, in steps S300 and S500 of FIG. 4, the calculated distance value is compared with a predetermined distance value, and if the calculated distance is less than or equal to the predetermined distance value, the notification processing means 50 In the case where it is less necessary to give an instruction to output the notification content to the notification indicator 60 and the notification buzzer 70 to notify the driver, that is, the distance between the host vehicle and the obstacle is a predetermined distance. If it is larger than the value, the notification processing means 50 may control not to output the notification content. As a result, frequent notifications can be eliminated and more accurate notifications can be performed.
【0044】なお、ステップS200において、報知処
理手段50が、自車両1003と障害物との距離の算出
を行うための情報として、自車速度情報が所定の車速値
以下の場合には超音波センサ40により検出される時間
差情報を用い、自車速度情報が所定の車速値より大きい
場合には画像処理手段20により算出された障害物距離
Y1である障害物距離情報を用いることにより、自車速
度に応じて報知処理のための情報の使い分けを行ってい
る。この情報の使い分けにより、中高速度領域におい
て、風切音を誤検出する等により測定の精度が劣る超音
波センサ40の短所と、低速度領域において十分な移動
量が確保できないため測定の精度が劣る画像処理手段2
0の短所を相殺し、低速度領域から高速度領域までの安
定した測定の精度を確保することが可能となる。これに
より、例えば、高速道路などのような、高速度が要求さ
れ、走行道路と壁との間隔が比較的狭く、走行中に壁へ
の接近が生じうる可能性のある場所であっても運転者に
対して適切な報知を行うことが可能となる。In step S200, the ultrasonic wave sensor is used as the information for the notification processing means 50 to calculate the distance between the own vehicle 1003 and the obstacle when the own vehicle speed information is equal to or less than a predetermined vehicle speed value. By using the time difference information detected by 40 and by using the obstacle distance information which is the obstacle distance Y1 calculated by the image processing means 20 when the own vehicle speed information is larger than the predetermined vehicle speed value, the own vehicle speed The information is selectively used for the notification process according to the above. Due to the proper use of this information, the accuracy of measurement is poor in the middle and high speed regions due to erroneous detection of wind noise, and the disadvantage of the ultrasonic sensor 40, and the accuracy of measurement is poor because a sufficient movement amount cannot be secured in the low speed region. Image processing means 2
It becomes possible to offset the disadvantage of 0 and to secure stable measurement accuracy from the low speed region to the high speed region. As a result, even when driving at a place where high speed is required, the distance between the road and the wall is relatively narrow, and the possibility of approaching the wall during driving may occur, such as on a highway. It is possible to give appropriate notification to the person.
【0045】また、従来の車両周囲監視装置にて使用さ
れるカメラ及び車載モニタは、例えば、先述の画像処理
手段20の接近物認識手段21のように交差点の状況を
確認するために自車両1003が停止、或いは、徐行し
ている場合に利用されることが多く、中高速度領域にお
いては、これらの装置が作動していることは少なく、そ
の利用頻度が低い場合がある。しかし、これらの装置を
低速度領域においては、従来の技術により交差点の状況
を確認するために利用し、また、中高速度領域において
は、第1実施形態、第2実施形態のように利用すること
により、これらの装置を全速度領域において利用するこ
とが可能となる。Further, the camera and the vehicle-mounted monitor used in the conventional vehicle surroundings monitoring device are, for example, like the approaching object recognizing means 21 of the image processing means 20 described above, the own vehicle 1003 for confirming the condition of the intersection. Is often used when the vehicle is stopped or slowing down, and in the middle and high speed regions, these devices are rarely operated and the frequency of use thereof may be low. However, these devices can be used in the low speed region to confirm the condition of the intersection by the conventional technique, and can be used in the medium and high speed regions as in the first and second embodiments. This makes it possible to use these devices in the entire speed range.
【0046】図5は、図4のステップS400における
画像処理手段20による側方障害物距離算出の処理を示
すフローチャートである。当該フローチャートに基づ
き、画像処理手段20による側方障害物距離算出の処理
について、以下に説明する。FIG. 5 is a flow chart showing the process of calculating the lateral obstacle distance by the image processing means 20 in step S400 of FIG. The process of calculating the lateral obstacle distance by the image processing means 20 will be described below based on the flowchart.
【0047】ここで、図2は、上述した通りであり、側
方障害物距離算出の方法の説明のための俯瞰図であり、
前側方カメラ(右)10bは、自車両1003の進行方
向に対して光軸OPが直角になるように自車両1003
の前方左側部に搭載されている。Here, FIG. 2 is as described above, and is a bird's-eye view for explaining the method of calculating the lateral obstacle distance.
The front side camera (right) 10b controls the vehicle 1003 so that the optical axis OP is perpendicular to the traveling direction of the vehicle 1003.
It is mounted on the front left side of the.
【0048】また、図3は、側方障害物距離算出の方法
の説明のための画像を示す図である。図3の上段の四角
部は、図2における時間T−Δtにおける自車両の位置
1004の前側方カメラ(右)10aから撮像された画
像情報を画面上に表示した場合の画像を示している。こ
の場合、図2において、電信柱1002は、前側方カメ
ラ(右)10aの画角α2中の時間T−Δtの光軸OP
に対して左寄りに位置しているため、前側方カメラ
(右)10aに撮像された画像情報は、図3の上段の四
角部に示されるように、電信柱1002が、画像上にお
いて中心に対して左寄りに表示される。また、図3の下
段の四角部は、図2における時間Tにおける自車両10
03の前側方カメラ(右)10aから撮像された画像情
報を画面上に表示した場合の画像を示している。この場
合、図2において、電信柱1002は、前側方カメラ
(右)10aの画角α1中の時間Tの光軸OPに対して
右寄りに位置しているため、前側方カメラ(右)10a
に撮像された画像情報は、図3の下段の四角に示される
ように、電信柱1002が、画像上において中心に対し
て右寄りに表示される。なお、図3における上段部の四
角部の時間T−Δtにおける画像上の電信柱1002の
位置と、下段部の四角部の時間Tにおける画像上の電信
柱1002の位置との差が、障害物である電信柱100
2の画像上の移動量である障害物画像上移動量Δx1に
相当する。Further, FIG. 3 is a diagram showing an image for explaining a method of calculating a lateral obstacle distance. The upper square in FIG. 3 shows an image when the image information captured by the front side camera (right) 10a at the position 1004 of the vehicle at time T-Δt in FIG. 2 is displayed on the screen. In this case, in FIG. 2, the telephone pole 1002 is the optical axis OP of time T-Δt during the angle of view α2 of the front side camera (right) 10a.
Since the image information captured by the front side camera (right) 10a is located on the left side of FIG. Is displayed to the left. Further, the lower square portion in FIG. 3 indicates the own vehicle 10 at time T in FIG.
The image information when the image information imaged from the front side camera (right) 10a of No. 03 is displayed on the screen is shown. In this case, in FIG. 2, since the telephone pole 1002 is located on the right side with respect to the optical axis OP at the time T in the angle of view α1 of the front side camera (right) 10a, the front side camera (right) 10a.
In the image information captured in the above, the telephone pole 1002 is displayed on the right side of the center of the image, as shown in the lower square of FIG. It should be noted that the difference between the position of the telephone pole 1002 on the image at the time T-Δt of the upper square portion in FIG. 3 and the position of the telephone pole 1002 on the image at the time T of the lower square portion is the obstacle. Telephone pole 100
2 corresponds to the moving amount Δx1 on the obstacle image, which is the moving amount on the image.
【0049】上述のように図4のステップS200にお
いて、報知処理手段50により車速センサ30により検
出され送信された自車速度情報が、所定の車速値より大
きいと判断された場合、ステップS400に進み(ステ
ップS200においてNO)、図5のステップS410
に進む。ステップS410において、側方障害物距離算
出のために必要となる障害物画像上移動量Δx1の算出
を行い、ステップS420に進む。なお、ステップS4
10における障害物画像上移動量Δx1の算出の方法に
ついては、後に詳述する。As described above, in step S200 of FIG. 4, when it is determined that the vehicle speed information detected by the vehicle speed sensor 30 and transmitted by the notification processing means 50 is larger than the predetermined vehicle speed value, the process proceeds to step S400. (NO in step S200), step S410 in FIG.
Proceed to. In step S410, the amount of movement Δx1 on the obstacle image necessary for calculating the lateral obstacle distance is calculated, and the process proceeds to step S420. Note that step S4
A method of calculating the movement amount Δx1 on the obstacle image in 10 will be described in detail later.
【0050】ステップS420において、側方障害物距
離算出手段22の距離算出部22fは、車速センサ30
により検出され送信された自車速度情報と、あるフレー
ムにおける画像情報を撮像した時間T−Δt及びその直
後の次のフレームにおける画像情報を撮像した時間Tと
の差であるフレーム間時間Δtとから自車両1003の
実際の移動量であり、前側方カメラ10a、10bの実
際の移動量であるカメラ移動量ΔXを算出する。In step S420, the distance calculation unit 22f of the lateral obstacle distance calculation means 22 determines the vehicle speed sensor 30.
From the own vehicle speed information detected and transmitted by the inter-frame time Δt, which is the difference between the time T-Δt at which the image information in a certain frame was captured and the time T at which the image information in the next frame immediately after that was captured. The camera movement amount ΔX, which is the actual movement amount of the vehicle 1003 and the actual movement amount of the front side cameras 10a and 10b, is calculated.
【0051】次に、ステップS430において、側方障
害物距離算出手段22の距離算出部22fは、車速セン
サ30により検出された自車速度情報と、ステップS4
10において算出された障害物画像上移動量Δx1と、
ステップS420において算出されたカメラ移動量ΔX
と、前側方カメラ10a、10bの搭載位置、光軸OP
の向き、画素数、画角、焦点距離等の前側方カメラ10
a、10bのカメラパラメータとから、例えば、三角測
量の原理に基づき、側方障害物と前側方カメラ10a、
10bの間の距離Y1である障害物距離を算出する。な
お、当該側方の障害物の距離の算出の方法は、短いフレ
ーム間時間Δtの間において、自車両1003の側方に
存在する障害物である電信柱1002と、前側方カメラ
10a、10bとの間の図2におけるy軸方向の距離が
実質的に一定である場合、即ち、自車両1003と壁1
001との距離が実質的に一定である場合にのみ当該方
法を採用することができる。Next, in step S430, the distance calculation unit 22f of the lateral obstacle distance calculation means 22 detects the vehicle speed information detected by the vehicle speed sensor 30, and the step S4.
The movement amount Δx1 on the obstacle image calculated in 10;
Camera movement amount ΔX calculated in step S420
And the mounting positions of the front and side cameras 10a and 10b, the optical axis OP
Front side camera 10 such as direction, number of pixels, angle of view, focal length, etc.
From the camera parameters of a and 10b, for example, based on the principle of triangulation, the side obstacle and the front side camera 10a,
The obstacle distance, which is the distance Y1 between 10b, is calculated. In addition, the method of calculating the distance of the side obstacle is as follows: the telephone pole 1002, which is an obstacle existing on the side of the vehicle 1003, and the front and side cameras 10a and 10b during the short inter-frame time Δt. 2 in the y-axis direction in FIG. 2 is substantially constant, that is, the own vehicle 1003 and the wall 1
The method can be adopted only when the distance from 001 is substantially constant.
【0052】次に、図4に戻り、ステップS500にお
いて、報知処理手段50は、ステップS430において
算出された障害物距離Y1である障害物距離情報と、予
め設定された第2の所定距離値とを比較した結果に基づ
いて、報知インジケータ60及び報知ブザー70に報知
内容出力指示を送信し、そして、報知インジケータ6
0、報知ブザー70は、その報知内容出力指示に従い運
転者に対して適切な報知内容の出力を行う。Next, returning to FIG. 4, in step S500, the notification processing means 50 sets the obstacle distance information which is the obstacle distance Y1 calculated in step S430 and the preset second predetermined distance value. Based on the result of the comparison, the notification content output instruction is transmitted to the notification indicator 60 and the notification buzzer 70, and the notification indicator 6
0, the notification buzzer 70 outputs appropriate notification content to the driver in accordance with the notification content output instruction.
【0053】図6は、図5のステップS410における
画像処理手段20による障害物画像上移動量Δx1の算
出の処理を示すフローチャートである。当該フローチャ
ートに基づき、画像処理手段20による障害物画像上移
動量Δx1の算出の処理について、以下に説明する。な
お、図7、図8、図9、図10、図11、図12は、障
害物画像上移動量Δx1の算出の方法の説明のための画
像、或いは、抽出された特徴域或いは検索域及びそれら
の取得された輝度分布を示す図である。FIG. 6 is a flowchart showing the process of calculating the moving amount Δx1 on the obstacle image by the image processing means 20 in step S410 of FIG. The process of calculating the moving amount Δx1 on the obstacle image by the image processing means 20 will be described below based on the flowchart. 7, FIG. 9, FIG. 9, FIG. 10, FIG. 11, and FIG. 12 are images for explaining the method of calculating the movement amount Δx1 on the obstacle image, or the extracted feature area or search area and It is a figure which shows those acquired brightness distributions.
【0054】上述のように図4のステップS200にお
いて、報知処理手段50により車速センサ30により検
出され送信された自車速度情報が、所定の車速値より大
きいと判断された場合、ステップS400に進み(ステ
ップS200においてNO)、画像処理手段20は、報
知処理手段50から送信される画像処理開始指示を受信
する。次に、図5のステップS410に進み、さらに、
図6のステップS411に進む。当該ステップS411
において、画像処理手段20の側方障害物距離算出手段
22は、時間T−Δtにおける前側方カメラ10a、1
0bにより撮像され送信される画像情報を側方障害物距
離算出手段22の内部に取得する。図7は、時間T−Δ
tにおける前側方カメラ(右)10aにより撮像され送
信され当該側方障害物距離算出手段22の内部に取得さ
れた画像情報を画面に表示した画像を示す図である。図
7に示されるように、当該画像情報には、走行道路10
05と、走行道路1005に併設されている壁1001
と、当該壁1001に近接して設置されている障害物で
ある電信柱1002とが撮像されている。As described above, in step S200 of FIG. 4, when it is determined that the vehicle speed information detected by the vehicle speed sensor 30 and transmitted by the notification processing means 50 is larger than the predetermined vehicle speed value, the process proceeds to step S400. (NO in step S200), the image processing means 20 receives the image processing start instruction transmitted from the notification processing means 50. Next, in step S410 of FIG. 5, further,
It progresses to step S411 of FIG. Step S411
At, the lateral obstacle distance calculation means 22 of the image processing means 20 causes the front lateral cameras 10a, 1a at the time T-Δt.
The image information captured and transmitted by 0b is acquired inside the lateral obstacle distance calculation means 22. FIG. 7 shows time T-Δ
It is a figure which shows the image which displayed on the screen the image information imaged and transmitted by the front side camera (right) 10a in t, and acquired inside the said side obstacle distance calculation means 22. As shown in FIG. 7, the image information includes the traveling road 10
05 and the wall 1001 attached to the road 1005
And a telephone pole 1002, which is an obstacle installed near the wall 1001, are imaged.
【0055】次に、ステップS412において、側方障
害物距離算出手段22の特徴域抽出部22aは、先ず、
当該取得した画像情報に対して、当該画像情報内の信号
の急激な変化の変化分を取り出す水平方向の微分を行
い、垂直方向エッジ100の抽出を行う。図8は、時間
T−Δtにおける前側方カメラ(右)10aにより撮像
され送信された画像情報に対して、特徴域抽出部22a
により当該垂直方向エッジ100の抽出の処理を行なわ
れた画像を示す図である。図8では、障害物である電信
柱1002の輪郭に相当する垂直方向エッジ100が抽
出されている。Next, in step S412, the characteristic region extraction section 22a of the lateral obstacle distance calculation means 22 first
The acquired image information is subjected to horizontal differentiation for extracting a change amount of abrupt change of the signal in the image information, and the vertical edge 100 is extracted. FIG. 8 shows the characteristic region extraction unit 22a for the image information captured and transmitted by the front side camera (right) 10a at time T-Δt.
FIG. 6 is a diagram showing an image on which a process of extracting the vertical edge 100 has been performed according to FIG. In FIG. 8, the vertical edge 100 corresponding to the contour of the telephone pole 1002 that is an obstacle is extracted.
【0056】なお、上記のエッジ処理は、垂直方向エッ
ジの抽出に限られず、空間微分による垂直方向の成分を
有するエッジの抽出であってもよい。従って、上記の例
では、電信柱1002に基づいて自車両1003と障害
物である電信柱1002との距離Y1の算出する方法に
ついて説明したが、当該障害物からの距離Y1を測定す
るための当該処理の対象となる特徴は、電信柱1002
のような壁1001に近接するものに限定されず、壁の
つなぎ目や、壁に貼られたポスター等のように、垂直方
向成分のエッジを有する壁1001の部分、或いは、壁
1001に付随する物体であってもよい。なお、壁10
01自体は、例えば、無地、或いは、模様が周期的に繰
り返される場合が多く、強いエッジが得られる程の特徴
を有していないため、当該処理に適していない場合があ
る。The above edge processing is not limited to the extraction of the vertical edge, but may be the extraction of an edge having a vertical component by spatial differentiation. Therefore, in the above example, the method of calculating the distance Y1 between the own vehicle 1003 and the telephone pole 1002 which is an obstacle based on the telephone pole 1002 has been described, but the distance Y1 from the obstacle is measured. The feature to be processed is a telephone pole 1002.
The present invention is not limited to the one close to the wall 1001 like the above, but a part of the wall 1001 having a vertical component edge such as a joint between walls or a poster attached to the wall, or an object attached to the wall 1001. May be The wall 10
01 itself is often unsuitable for the processing, since it is often plain or a pattern is repeatedly repeated in many cases, and does not have the characteristic of obtaining a strong edge.
【0057】次に、ステップS413において、側方障
害物距離算出手段22の特徴域抽出部22aは、当該抽
出された垂直方向エッジ100の中からエッジ強度が高
い部分を選択し、当該選択されたエッジ強度が強い部分
を含む画面上の水平方向の広い領域を特徴域200とし
て抽出する。図9は、時間T−Δtにおける前側方カメ
ラ10a、10bにより撮像され送信された画像情報に
対して、ステップS412までの処理を行い、ステップ
S413において、垂直方向エッジ100の中からエッ
ジ強度が強い部分が選択され、当該エッジ強度が強い部
分を含む画像上の水平方向の広い領域を特徴域200
(太線破線部)として抽出した画像を示す図である。Next, in step S413, the characteristic region extraction section 22a of the lateral obstacle distance calculation means 22 selects a portion having a high edge strength from the extracted vertical edges 100, and the selected portion is selected. A wide area in the horizontal direction on the screen including a portion having a strong edge strength is extracted as the characteristic area 200. In FIG. 9, the processing up to step S412 is performed on the image information captured and transmitted by the front and side cameras 10a and 10b at time T-Δt, and in step S413, the edge strength of the vertical edge 100 is strong. A portion is selected, and a wide area in the horizontal direction on the image including the portion having the strong edge strength is selected as the characteristic region 200.
It is a figure which shows the image extracted as (thick broken line part).
【0058】次に、ステップS414において、側方障
害物距離算出手段22の特徴域輝度分布取得部22b
は、当該抽出された領域である特徴域200についての
水平方向の輝度分布である特徴域輝度分布400を取得
する。図10は、上段に抽出された特徴域200を示
し、下段に当該抽出された特徴域200の取得された水
平方向の特徴域輝度分布400を示す図である。図10
の下段の特徴域輝度分布400において、波形が高い部
分は、輝度が強い部分であり、また、波形が低い部分
は、輝度が弱い部分を示している。なお、当該ステップ
S414において、特徴域輝度分布400が取得された
ら、当該特徴域輝度分布400の画像上の水平方向の位
置を算出し、時間T−Δtにおける特徴域200の画像
上の水平方向の位置である特徴域位置情報として、例え
ば、側方障害物距離算出手段22に記憶される。Next, in step S414, the characteristic region luminance distribution acquisition section 22b of the lateral obstacle distance calculation means 22.
Acquires a characteristic region luminance distribution 400, which is a horizontal luminance distribution of the extracted characteristic region 200. FIG. 10 is a diagram showing the extracted characteristic region 200 in the upper stage and the acquired horizontal characteristic region luminance distribution 400 of the extracted characteristic region 200 in the lower stage. Figure 10
In the characteristic region luminance distribution 400 in the lower part, a portion having a high waveform indicates a portion having a strong luminance, and a portion having a low waveform indicates a portion having a weak luminance. In step S414, when the characteristic region luminance distribution 400 is acquired, the horizontal position of the characteristic region luminance distribution 400 on the image is calculated, and the horizontal position on the image of the characteristic region 200 at time T-Δt is calculated. The characteristic area position information, which is the position, is stored in the lateral obstacle distance calculation means 22, for example.
【0059】次に、ステップS415において、側方障
害物距離算出手段22は、時間Tにおける前側方カメラ
10a、10bにより撮像され送信される画像情報を側
方障害物距離算出手段22の内部に取得する。Next, in step S415, the lateral obstacle distance calculating means 22 acquires the image information captured and transmitted by the front lateral cameras 10a, 10b at the time T inside the lateral obstacle distance calculating means 22. To do.
【0060】次に、ステップS416において、側方障
害物距離算出手段22の検索域抽出部22cは、先述の
特徴域200の領域の画像上の領域を、画像上の水平方
向の全域に渡る長さに拡張した領域である検索域300
を抽出する。さらに、側方障害物距離算出手段22の検
索域輝度取得部22dが、当該抽出された検索域300
の水平方向の輝度分布である検索域輝度分布500を取
得する。図11は、時間Tにおける前側方カメラ10
a、10bにより撮像され送信された画像情報に対し
て、ステップS416の処理により、検索域400(太
線破線部)を抽出した画像を示す図である。なお、図1
1と、図9とを比較すると検索域300の水平方向の長
さは、特徴域200の水平方向の長さより長いことが分
かる。Next, in step S416, the search area extraction unit 22c of the lateral obstacle distance calculation means 22 extends the area of the above-mentioned characteristic area 200 on the image over the entire area in the horizontal direction on the image. Search area 300, which is an area expanded to
To extract. Further, the search area brightness acquisition unit 22d of the lateral obstacle distance calculation means 22 causes the extracted search area 300 to be extracted.
A search area brightness distribution 500, which is a brightness distribution in the horizontal direction of, is acquired. FIG. 11 shows the front side camera 10 at time T.
It is a figure which shows the image which extracted the search area | region 400 (thick broken line part) by the process of step S416 with respect to the image information imaged and transmitted by a and 10b. Note that FIG.
Comparing 1 with FIG. 9, it can be seen that the horizontal length of the search area 300 is longer than the horizontal length of the feature area 200.
【0061】次に、ステップS417において、側方障
害物距離算出手段22の移動量算出手段22eは、先
ず、ステップS416にて取得された検索域輝度分布5
00における、特徴域輝度分布400のパターンと実質
的に一致する箇所の検索を行う。図12は、ステップS
416にて所得された検索域輝度分布400に対して、
ステップS414にて取得された特徴域輝度分布300
のパターンと実質的に一致する箇所の検索を行った図で
ある。図12の(a)部の上段は、ステップS413に
おいて抽出された特徴域200を示し、下段は、ステッ
プS414において取得された特徴域輝度分布400を
示す。また、図12の(b)部の上段は、ステップS4
16において抽出された検索域300を示し、下段は、
ステップS416において取得された検索域輝度分布5
00を示している。なお、図12の(a)部の下段の特
徴域輝度分布400、及び、(b)部の下段の検索域輝
度分布500において、波形が高い部分は、輝度が強い
部分であり、また、波形が低い部分は、輝度が弱い部分
を示している。図12において、(a)の特徴域輝度分
布400のパターンが、(b)の検索域輝度分布500
の図12に示す位置にて実質的に一致したことを示して
いる。Next, in step S417, the movement amount calculation means 22e of the lateral obstacle distance calculation means 22 first searches the search area luminance distribution 5 acquired in step S416.
In 00, a search is performed for a portion that substantially matches the pattern of the characteristic region luminance distribution 400. FIG. 12 shows step S
With respect to the search range luminance distribution 400 obtained at 416,
Feature area luminance distribution 300 acquired in step S414
It is the figure which searched the place which substantially corresponds to the pattern of. The upper part of part (a) of FIG. 12 shows the characteristic region 200 extracted in step S413, and the lower part shows the characteristic region luminance distribution 400 acquired in step S414. In addition, the upper part of the part (b) of FIG.
The search area 300 extracted in 16 is shown below,
Search area brightness distribution 5 acquired in step S416
00 is shown. In the characteristic region luminance distribution 400 in the lower part of FIG. 12A and the search region luminance distribution 500 in the lower part of FIG. 12B, the portion with a high waveform is the portion with a strong luminance, and the waveform The low part indicates a part with low brightness. In FIG. 12, the pattern of the characteristic region luminance distribution 400 in (a) is the pattern of the search region luminance distribution 500 in (b).
12 shows that the positions substantially coincide with each other.
【0062】以上のような検索により、時間T−Δtに
おける障害物が、フレーム間時間Δtの間に画像上の移
動を行った後の、時間Tにおける障害物の画像上の位置
の把握を行うことが可能となる。By the above search, the position of the obstacle on the image at time T is grasped after the obstacle at time T-Δt moves on the image during the interframe time Δt. It becomes possible.
【0063】次に、ステップS418において、側方障
害物距離算出手段22の移動量算出手段22eは、上述
のような例えばステップS414において側方障害物距
離推定手段22に記憶されている時間T−Δtにおける
特徴域200の画像上の水平方向の位置である特徴域位
置情報と、当該検索された検索域輝度分布500の一致
箇所の画像上の水平方向の位置とから、画像情報上の障
害物の移動量である障害物画像上移動量Δx1を算出す
る。図3において、電信柱1002の画像情報上の移動
量である障害物画像上移動量Δx1が示されている。Next, in step S418, the movement amount calculating means 22e of the lateral obstacle distance calculating means 22 stores the time T- stored in the lateral obstacle distance estimating means 22 in step S414 as described above, for example. From the characteristic area position information, which is the horizontal position on the image of the characteristic area 200 at Δt, and the horizontal position on the image of the matching portion of the searched search area luminance distribution 500, the obstacle on the image information. The amount of movement Δx1 on the obstacle image, which is the amount of movement, is calculated. In FIG. 3, the moving amount Δx1 on the obstacle image, which is the moving amount of the telephone pole 1002 on the image information, is shown.
【0064】次に、図5に戻り、ステップS420に進
み、側方障害物距離算出部22の距離算出部22fは、
自車速度情報と、フレーム間時間Δtとからカメラ移動
量ΔXを算出する。次に、ステップS430において、
側方障害物距離算出部22の距離算出部22fは、自車
速度情報と、上記の図6のステップ418において算出
された障害物画像上移動量Δx1と、ステップS420
において算出されたカメラ移動量ΔXと、前側方カメラ
10a、10bのカメラパラメータとから、自車両10
03から障害物までの距離である障害物距離Y1を算出
する。Next, returning to FIG. 5, proceeding to step S420, the distance calculation unit 22f of the lateral obstacle distance calculation unit 22
The camera movement amount ΔX is calculated from the own vehicle speed information and the inter-frame time Δt. Then, in step S430,
The distance calculation unit 22f of the lateral obstacle distance calculation unit 22 determines the vehicle speed information, the obstacle image movement amount Δx1 calculated in step 418 of FIG. 6, and step S420.
Based on the camera movement amount ΔX calculated in step S1 and the camera parameters of the front and side cameras 10a and 10b,
An obstacle distance Y1 which is a distance from 03 to the obstacle is calculated.
【0065】次に、図4に戻り、ステップS500にお
いて、報知処理手段50は、当該算出された障害物距離
Y1である障害物距離情報と、予め設定された第2の所
定距離値とを比較し、当該比較した結果に基づいて、報
知インジケータ60及び報知ブザー70に報知内容出力
指示を送信し、そして、報知インジケータ60及び報知
ブザー70は、当該報知内容出力指示に従い運転者に対
して報知内容の出力を行う。Next, returning to FIG. 4, in step S500, the notification processing means 50 compares the obstacle distance information, which is the calculated obstacle distance Y1, with the preset second predetermined distance value. Then, based on the result of the comparison, the notification content output instruction is transmitted to the notification indicator 60 and the notification buzzer 70, and the notification indicator 60 and the notification buzzer 70 notify the driver of the notification content according to the notification content output instruction. Is output.
【0066】以上のように、フレーム間時間の差で撮像
された2画像に対して画像処理を行い、障害物の画像上
での移動量を算出し、当該移動量に基づいて、自車両と
障害物との距離を算出することにより、障害物の大きさ
が既知であるか否かに依らずに自車両と障害物との距離
を算出することが可能となり、さらに、当該算出された
距離に基づいた報知内容を指示することにより、運転者
に対して、適切な報知内容を出力することが可能とな
る。As described above, the image processing is performed on the two images picked up by the difference in the inter-frame time, the movement amount on the image of the obstacle is calculated, and based on the movement amount, the own vehicle is detected. By calculating the distance to the obstacle, it becomes possible to calculate the distance between the host vehicle and the obstacle regardless of whether the size of the obstacle is known or not. By instructing the notification content based on, it becomes possible to output appropriate notification content to the driver.
【0067】上記の実施形態は、自車両が障害物に対し
て平行に走行している場合について説明したが、以下
に、フレーム間時間Δtの間に、自車両1003が、側
方に存在する障害物に接近したり、自車両1003が側
方に存在する障害物から離遠する場合の車両周囲監視装
置1について説明する。In the above embodiment, the case where the host vehicle is running in parallel to the obstacle has been described, but the host vehicle 1003 is present laterally during the interframe time Δt. The vehicle surroundings monitoring device 1 when approaching an obstacle or moving away from an obstacle existing on the side of the vehicle 1003 will be described.
【0068】[第2実施形態]図1は、第2実施形態に
おける車両周囲監視装置1の基本構成を示すブロック図
である。図14は、接近度合いの判断の説明のための俯
瞰図であり、図15は、自車両1003が障害物へ接近
した場合の説明のための画像を示す図である。[Second Embodiment] FIG. 1 is a block diagram showing the basic arrangement of a vehicle surroundings monitoring apparatus 1 according to the second embodiment. FIG. 14 is a bird's-eye view for explaining the determination of the degree of approach, and FIG. 15 is a diagram showing an image for explaining when the own vehicle 1003 approaches an obstacle.
【0069】図1に示すように、第2実施形態における
車両周囲監視装置1は、第1実施形態の場合と同様に、
2つの前側方カメラ10a、10bと、画像処理手段2
0と、車速センサ30と、超音波センサ40と、報知処
理手段50と、報知用インジケータ60と、報知用ブザ
ー70と、車載モニタ80とから構成されている。As shown in FIG. 1, the vehicle surroundings monitoring apparatus 1 according to the second embodiment is similar to that of the first embodiment.
Two front side cameras 10a and 10b, and image processing means 2
0, a vehicle speed sensor 30, an ultrasonic sensor 40, a notification processing means 50, a notification indicator 60, a notification buzzer 70, and an in-vehicle monitor 80.
【0070】前側方カメラ10a、10bと、車速セン
サ30と、超音波センサ40と、報知処理手段50と、
報知用インジケータ60と、報知用ブザー70と車載モ
ニタ80とは、いずれも第1実施形態と同様の手段及び
構成である。The front and side cameras 10a and 10b, the vehicle speed sensor 30, the ultrasonic sensor 40, the notification processing means 50,
The notification indicator 60, the notification buzzer 70, and the vehicle-mounted monitor 80 all have the same means and configuration as in the first embodiment.
【0071】画像処理手段20は、接近物認識手段21
と、側方障害物距離算出部22とから構成され、接近物
認識手段21は、第1実施形態と同様の手段である。The image processing means 20 has an approaching object recognition means 21.
And the lateral obstacle distance calculation unit 22, and the approaching object recognition unit 21 is the same unit as that of the first embodiment.
【0072】側方障害物距離算出手段22は、第1実施
形態と同様の、特徴域抽出部22aと、特徴域輝度取得
部22bと、検索域抽出部22cと、検索域輝度取得部
22dと、移動量算出部22eと、距離算出部22fと
から構成されており、さらに、第2実施形態において
は、接近度合判断部(不図示)とから構成されている。
当該接近度合判断部は、障害物の画像上の幅に基づい
て、自車両1003の障害物への接近の度合を判断する
手段である。ここで、当該接近度合判断部の判断では、
自車両1003の障害物への接近の判断、或いは、自車
両1003の障害物からの離遠の判断がなされるため、
これに伴い、画像処理手段20から報知処理手段50に
送信される情報としては、第1実施形態における接近物
認識情報及び障害物距離情報に、障害物接近情報及び障
害物離遠情報が追加される。The lateral obstacle distance calculating means 22 includes a characteristic region extracting section 22a, a characteristic region luminance acquiring section 22b, a retrieval region extracting section 22c, and a retrieval region luminance acquiring section 22d, as in the first embodiment. The moving amount calculation unit 22e and the distance calculation unit 22f are included, and in the second embodiment, an approach degree determination unit (not shown) is included.
The approach degree determination unit is means for determining the degree of approach of the host vehicle 1003 to the obstacle based on the width of the obstacle on the image. Here, in the judgment of the approach degree judgment unit,
Since it is determined whether the host vehicle 1003 approaches the obstacle or the host vehicle 1003 moves away from the obstacle,
Along with this, as information transmitted from the image processing unit 20 to the notification processing unit 50, obstacle approach information and obstacle separation information are added to the approach object recognition information and obstacle distance information in the first embodiment. It
【0073】これに応じて、報知処理手段50は、報知
インジケータ60及び報知ブザー70に送信する報知内
容出力指示に、障害物接近情報及び障害物離遠情報を基
づく報知内容出力指示が追加され、これに伴い、報知イ
ンジケータ60及び報知ブザー70は、運転者に対して
障害物に接近する内容及び障害物から離遠する内容の報
知内容を出力が可能なように構成されている。In response to this, the notification processing means 50 adds the notification content output instruction based on the obstacle approach information and the obstacle separation information to the notification content output instruction transmitted to the notification indicator 60 and the notification buzzer 70, Along with this, the notification indicator 60 and the notification buzzer 70 are configured to be able to output the notification content of the content of approaching the obstacle and the content of leaving the obstacle to the driver.
【0074】以下に作用について述べる。The operation will be described below.
【0075】図4は、当該車両周囲監視装置1の報知処
理手段50における処理を示すフローチャートである。
第2実施形態における報知処理手段50による処理は、
第1実施形態の報知処理手段50の処理と同様であり、
上述の図4に示すフローチャートに従った処理と同様の
処理が行われる。FIG. 4 is a flowchart showing the processing in the notification processing means 50 of the vehicle surroundings monitoring apparatus 1.
The processing by the notification processing means 50 in the second embodiment is
It is similar to the processing of the notification processing means 50 of the first embodiment,
The same process as the process according to the flowchart shown in FIG. 4 described above is performed.
【0076】図13は、図4のステップS400におけ
る画像処理手段20による側方障害物距離算出の処理を
示すフローチャートである。当該フローチャートに基づ
き、フレーム間時間Δtの間の自車両1003の障害物
に対する接近、或いは、離遠の場合の画像処理手段20
による当該障害物に対する接近の接近度合の判断の処理
について、以下に説明する。FIG. 13 is a flow chart showing the process of calculating the lateral obstacle distance by the image processing means 20 in step S400 of FIG. Based on the flowchart, the image processing means 20 when the own vehicle 1003 approaches or departs from an obstacle during the inter-frame time Δt.
The process of determining the degree of approach of the obstacle by the method will be described below.
【0077】上述のように図4のステップS200にお
いて、報知処理手段50により車速センサ30により検
出され送信された自車速度情報が、所定の車速値より大
きいと判断された場合、ステップS400に進み(ステ
ップS200においてNO)、画像処理手段20は、報
知処理手段50から送信される画像処理開始指示を受信
する。次に、図13のステップS440に進み、当該ス
テップS440において、側方障害物距離算出のために
必要となる障害物の画像上の移動量である障害物画像上
移動量Δx1の算出を行い、ステップS450に進む。
なお、障害物画像上移動量Δx1の算出の方法について
は、上述の第1実施形態における図6の処理と同様であ
る。As described above, in step S200 of FIG. 4, when it is determined that the vehicle speed information detected by the vehicle speed sensor 30 and transmitted by the notification processing means 50 is larger than the predetermined vehicle speed value, the process proceeds to step S400. (NO in step S200), the image processing means 20 receives the image processing start instruction transmitted from the notification processing means 50. Next, proceeding to step S440 of FIG. 13, in step S440, the amount of movement Δx1 on the obstacle image, which is the amount of movement on the image of the obstacle necessary for calculating the lateral obstacle distance, is calculated. It proceeds to step S450.
The method of calculating the moving amount Δx1 on the obstacle image is the same as the process of FIG. 6 in the above-described first embodiment.
【0078】ステップS450において、側方障害物距
離算出手段22の接近度合判断部は、障害物の画像上の
幅に基づいて、自車両1003の障害物への接近の度合
の判断を行う。In step S450, the approach degree determination unit of the lateral obstacle distance calculation means 22 determines the degree of approach of the host vehicle 1003 to the obstacle based on the width on the image of the obstacle.
【0079】ここで以下に、当該障害物への接近の度合
の判断の方法について、図14及び図15と、先述の図
2及び図3に基づき具体的に説明する。Here, a method of judging the degree of approach to the obstacle will be specifically described below with reference to FIGS. 14 and 15 and the above-described FIGS. 2 and 3.
【0080】図14は、障害物への接近の度合の判断の
方法を説明するための俯瞰図であり、図2とほぼ同様の
状況である。図14の図2と異なる点は、自車両100
3と障害物である電信柱1002との距離が、時間T−
Δtにおける自車両の位置1004と電信柱1002と
の距離Y2から、時間Tにおける距離Y2より短い距離
である自車両1003の位置と電信柱1002との距離
Y1に変化している、即ち、自車両1003がフレーム
間時間Δtの間に電信柱1002の方向に接近している
点である。FIG. 14 is a bird's-eye view for explaining a method of judging the degree of approach to an obstacle, which is almost the same as FIG. The difference from FIG. 2 in FIG. 14 is that the own vehicle 100
3 is the time T-
The distance Y2 between the position 1004 of the own vehicle at Δt and the telephone pole 1002 changes from the distance Y1 at the time T to the distance Y1 between the position of the own vehicle 1003 and the telephone pole 1002, that is, the own vehicle. The point 1003 approaches the direction of the telephone pole 1002 during the interframe time Δt.
【0081】また、図15は、障害物への接近の度合の
判断の方法の説明のための画像を示す図である。図15
の上段の四角部は、図14における時間T−Δtにおけ
る自車両の位置1004の前側方カメラ(右)10aか
ら撮像された画像情報を画面上に表示した場合の画像を
示している。この場合、電信柱1002は、前側方カメ
ラ(右)10aの画角α2中の時間T−Δtの光軸OP
に対して左寄りに位置しているため、図15の上段の四
角部に示されるように、電信柱1002は、前側方カメ
ラ(右)10aに撮像された画像上において中心に対し
て左寄りに表示されている。但し、自車両の位置100
4と電信柱1002との距離Y2が、時間Tにおける障
害物距離Y1より大きな距離値であるため、図15の上
段の四角部の画像上の電信柱1002の幅w2は、図3
の上段の四角部の画像上の電信柱1002の幅w1と比
較して、狭い幅で表示されている。Further, FIG. 15 is a diagram showing an image for explaining a method of judging the degree of approach to an obstacle. Figure 15
The upper square portion of FIG. 14 shows an image when the image information captured by the front side camera (right) 10a at the position 1004 of the vehicle at time T-Δt in FIG. 14 is displayed on the screen. In this case, the telephone pole 1002 is the optical axis OP of time T-Δt during the angle of view α2 of the front side camera (right) 10a.
Since it is located on the left side with respect to the left side, the telephone pole 1002 is displayed on the left side with respect to the center on the image captured by the front side camera (right) 10a, as shown in the upper square in FIG. Has been done. However, the position of the own vehicle is 100
4 and the telephone pole 1002 have a distance Y2 larger than the obstacle distance Y1 at time T, the width w2 of the telephone pole 1002 in the upper square image of FIG.
The width is displayed narrower than the width w1 of the telephone pole 1002 on the upper square image.
【0082】また、図15の下段の四角部は、図14に
おける時間Tにおける自車両1003の前側方カメラ
(右)10aから撮像された画像情報を画面上に表示し
た場合の画像を示している。この場合、電信柱1002
は、前側方カメラ(右)10aの画角α1中の時間Tの
光軸OPに対して右寄りに位置しているため、図15の
下段の四角部に示されるように、電信柱1002は、前
側方カメラ(右)10aに撮像された画像上において中
心に対して右寄りに表示されている。また、自車両10
03と障害物である電信柱1002との距離Y1が、図
3の下段の四角部の自車両1003と障害物である電信
柱1002との距離Y1と同じであるため、図15の下
段の四角部の画像上の電信柱1002の幅w1は、図3
の上段の四角部の画像上の電信柱1002の幅w1と同
様の幅で表示されている。The lower square in FIG. 15 shows an image when the image information taken by the front side camera (right) 10a of the vehicle 1003 at time T in FIG. 14 is displayed on the screen. . In this case, the telephone pole 1002
Is located on the right side with respect to the optical axis OP of the time T in the angle of view α1 of the front side camera (right) 10a, and therefore, as shown in the lower square in FIG. It is displayed to the right of the center on the image captured by the front side camera (right) 10a. In addition, the own vehicle 10
03 and the telephone pole 1002 which is an obstacle are the same as the distance Y1 between the own vehicle 1003 and the telephone pole 1002 which is an obstacle in the lower square of FIG. The width w1 of the telephone pole 1002 on the partial image is shown in FIG.
It is displayed with the same width as the width w1 of the telephone pole 1002 on the image of the upper square part.
【0083】従って、図15より、自車両1003が、
障害物である電信柱1002に接近している場合に、障
害物の画像上の幅が時間T−Δtから時間Tまでの間に
大きくなることが分かる。Therefore, from FIG. 15, the own vehicle 1003 is
It can be seen that the width on the image of the obstacle increases between the time T-Δt and the time T when the utility pole 1002, which is the obstacle, is approached.
【0084】以上のように、本発明の第2実施形態にお
ける接近の度合の判断は、自車両1003の接近、或い
は、離遠の際に伴う障害物の画像上の幅が変化する関係
に基づいて行う。なお、時間T−Δtの障害物の画像上
の幅が、時間Tの障害物の画像上の幅より小さくなる場
合は、自車両1003が障害物から離遠していると判断
し、時間T−Δtの障害物の画像上の幅と、時間Tの障
害物の画像上の幅とに変化が生じない場合は、車両10
03が障害物と平行に走行していると判断する。As described above, the determination of the degree of approach in the second embodiment of the present invention is based on the relationship that the width of the obstacle on the image changes as the vehicle 1003 approaches or departs. Do it. When the width of the obstacle image at time T-Δt is smaller than the width of the obstacle image at time T, it is determined that the host vehicle 1003 is far from the obstacle, and the time T If there is no change between the width of the obstacle image of −Δt and the width of the obstacle image of time T, the vehicle 10
It is determined that 03 is traveling parallel to the obstacle.
【0085】ここで、当該接近度合判断部における判断
の具体的な処理としては、例えば、第1実施形態にて説
明した処理と同様に、画像処理手段20の側方障害物距
離算出手段22の特徴域抽出部22aにより、垂直方向
エッジの抽出に基づき特徴域200を抽出し、特徴域輝
度取得部22bにより特徴域輝度分布400を取得し、
さらに、検索域抽出部22cにより検索域300を抽出
し、検索域輝度取得部22dにより検索域輝度分布50
0を取得する。次に、移動量算出部22eにより特徴域
輝度分布400と検索域輝度分布500の比較により、
例えば、互いに水平方向の輝度分布のパターンが実質的
に類似する部分を検索し、接近度合判断部によりパター
ンが実質的に類似する部分の特徴域輝度分布400の輝
度が強い部分の画像上の幅と、検索域輝度分布500の
輝度が強い部分の画像上の幅との比較に基づき判断を行
う。Here, as a concrete process of the judgment in the approaching degree judging section, for example, the side obstacle distance calculating means 22 of the image processing means 20 is similar to the processing described in the first embodiment. The characteristic region extraction unit 22a extracts the characteristic region 200 based on the extraction of the vertical edge, and the characteristic region luminance acquisition unit 22b acquires the characteristic region luminance distribution 400,
Further, the search area extraction unit 22c extracts the search area 300, and the search area brightness acquisition unit 22d extracts the search area brightness distribution 50.
Get 0. Next, by comparing the characteristic region luminance distribution 400 and the search region luminance distribution 500 by the movement amount calculation unit 22e,
For example, a portion where the patterns of the luminance distributions in the horizontal direction are substantially similar to each other is searched, and the width of the characteristic region luminance distribution 400 of the portion where the patterns are substantially similar to each other by the approach degree determination unit on the image. And the width of the portion of the search area luminance distribution 500 where the luminance is strong on the image are compared.
【0086】なお、当該判断において、例えば、障害物
の画像上の幅の変化の割合を所定の変化の割合と比較す
ることにより、例えば、自車両1003の障害物への急
激な接近と、緩やかな接近とを認識し、その認識に基づ
いて、運転者に対するより的確な報知が可能となる。In the determination, for example, by comparing the rate of change in the width of the image of the obstacle with a predetermined rate of change, for example, the host vehicle 1003 approaches the obstacle abruptly and gently. It is possible to more accurately notify the driver based on the recognition that the vehicle is approaching.
【0087】図13に戻りステップS450の判断にお
いて、自車両1003が、障害物に接近、或いは、障害
物から離遠している場合(ステップS450にてYE
S)、自車両1003と障害物との距離の如何に関わら
ず直ちに運転者に対して報知を行う必要があるので、自
車両1003と障害物との算出を行わずに、次に、ステ
ップS460において側方障害物距離算出手段22は、
自車両1003が障害物に接近している情報である障害
物接近情報、或いは、自車両1003が障害物から離遠
している情報である障害物離遠情報を報知処理手段50
に送信する。Returning to FIG. 13, when it is determined in step S450 that the vehicle 1003 is approaching or distant from the obstacle (YE in step S450).
S) Since it is necessary to immediately notify the driver regardless of the distance between the own vehicle 1003 and the obstacle, the driver does not need to calculate the own vehicle 1003 and the obstacle, and next, step S460. In the lateral obstacle distance calculation means 22,
Obstacle approach information, which is information that the own vehicle 1003 is approaching an obstacle, or obstacle separation information, which is information that the own vehicle 1003 is far from the obstacle, is informing processing means 50.
Send to.
【0088】次に、図4に戻り、図4のステップS50
0において、報知処理手段50は、障害物接近情報、或
いは、障害物離遠情報に応じて適切な報知内容を出力す
るように、報知インジケータ60及び報知ブザー70に
報知内容出力指示を送信する。当該報知内容出力指示を
受信した報知インジケータ60は、運転者に対して障害
物へ接近、或いは、障害物から離遠している内容の視覚
的な報知内容の出力を行う。また、報知処理手段から当
該報知内容出力指示を受信した報知ブザー70は、運転
者に対して障害物へ接近、或いは、障害物から離遠して
いる内容の聴覚的な報知内容の出力を行う。Next, returning to FIG. 4, step S50 in FIG.
At 0, the notification processing unit 50 transmits a notification content output instruction to the notification indicator 60 and the notification buzzer 70 so as to output appropriate notification content according to the obstacle approach information or the obstacle separation information. The notification indicator 60 that has received the notification content output instruction outputs a visual notification content to the driver indicating that the driver is approaching the obstacle or moving away from the obstacle. Further, the notification buzzer 70, which has received the notification content output instruction from the notification processing means, outputs to the driver the audible notification content indicating that the driver is approaching the obstacle or moving away from the obstacle. .
【0089】また、図13のステップS450の判断に
おいて、側方障害物距離推定手段22の接近度合判断部
により、画像上の障害物の幅に変化がなく、自車両10
03が、障害物への接近、或いは障害物からの離遠が生
じておらず、障害物に対して平行に走行していると判断
された場合(ステップS450にてNO)、次に、図1
3のステップS420において、側方障害物距離算出手
段22の距離算出部22fは、自車速度情報と、フレー
ム間時間Δtとからカメラ移動量ΔXを算出する。な
お、当該ステップの詳細については、上述の第1実施形
態における図5のステップS420と同様である。Further, in the determination of step S450 of FIG. 13, the approach degree determination unit of the lateral obstacle distance estimation means 22 indicates that the width of the obstacle on the image does not change and the own vehicle 10
If 03 is determined to be traveling in parallel to the obstacle without approaching or moving away from the obstacle (NO in step S450), 1
In step S420 of 3, the distance calculation unit 22f of the lateral obstacle distance calculation means 22 calculates the camera movement amount ΔX from the own vehicle speed information and the interframe time Δt. The details of this step are the same as step S420 of FIG. 5 in the above-described first embodiment.
【0090】次に、図13のステップS430におい
て、側方障害物距離算出手段22の距離算出部22f
は、自車速度情報と、図13ステップS440において
算出された障害物画像上移動量Δx1と、ステップS4
20において算出されたカメラ移動量ΔXと、前側方カ
メラ10a、10bのカメラパラメータとから、障害物
距離情報Y1を算出する。なお、当該ステップの詳細に
ついては、上記の図5のステップS430と同様であ
る。Next, in step S430 of FIG. 13, the distance calculation unit 22f of the lateral obstacle distance calculation means 22.
Is the vehicle speed information, the moving amount Δx1 on the obstacle image calculated in step S440 in FIG. 13, and step S4.
The obstacle distance information Y1 is calculated from the camera movement amount ΔX calculated in 20 and the camera parameters of the front and side cameras 10a and 10b. Note that the details of this step are the same as step S430 in FIG. 5 described above.
【0091】次に、図4に戻り、ステップS500にお
いて、報知処理手段50は、図13のステップS430
において算出された障害物距離情報と、予め設定された
第2の所定距離値とを比較し、当該比較した結果に基づ
いて、障害物との間の距離に応じて適切な報知を出力す
るように、報知インジケータ60及び報知ブザー70に
報知内容の出力の指示を送信し、そして、報知インジケ
ータ60、報知ブザー70は、運転者に対して報知内容
を出力する。Next, returning to FIG. 4, in step S500, the notification processing means 50 causes step S430 in FIG.
The obstacle distance information calculated in step 1 is compared with a preset second predetermined distance value, and an appropriate notification is output according to the distance to the obstacle based on the comparison result. To the notification indicator 60 and the notification buzzer 70, and the notification indicator 60 and the notification buzzer 70 output the notification content to the driver.
【0092】以上のように、障害物の画像上の幅の変化
に基づいて、自車両の障害物への接近を判断することに
より第1実施形態における算出された自車両と障害物と
の距離に加えて、自車両の障害物に対する接近の度合い
を判断することが可能となり、運転者に対してより適切
な報知が可能となる。As described above, the distance between the own vehicle and the obstacle calculated in the first embodiment is determined by determining the approach of the own vehicle to the obstacle based on the change in the width of the obstacle on the image. In addition to this, it is possible to determine the degree of approach of the host vehicle to the obstacle, and it is possible to provide a more appropriate notification to the driver.
【0093】なお、第1実施形態及び第2実施形態にお
いてカメラは前側方を画角となるように搭載されていた
が、前側方に限らず、車両の周囲全てに対して適用する
ことが可能である。In the first and second embodiments, the camera is mounted so that the front side is at the angle of view, but the camera is not limited to the front side and can be applied to all areas around the vehicle. Is.
【0094】なお、以上説明した実施形態は、本発明の
理解を容易にするために記載されたものであって、本発
明を限定するために記載されたものではない。したがっ
て、上記の実施形態に開示された各要素は、本発明の技
術的範囲に属する全ての設計変更や均等物をも含む趣旨
である。The embodiments described above are described for facilitating the understanding of the present invention, and not for limiting the present invention. Therefore, each element disclosed in the above-described embodiment is intended to include all design changes and equivalents within the technical scope of the present invention.
【図1】本発明の第1実施形態及び第2実施形態におけ
る車両周囲監視装置の基本構成を示すブロック図であ
る。FIG. 1 is a block diagram showing a basic configuration of a vehicle surroundings monitoring device according to a first embodiment and a second embodiment of the present invention.
【図2】本発明の第1実施形態における側方障害物距離
算出の方法を説明するための俯瞰図である。FIG. 2 is an overhead view for explaining a method of calculating a lateral obstacle distance according to the first embodiment of the present invention.
【図3】本発明の第1実施形態における側方障害物距離
算出の方法を説明するための画像を示す図である。FIG. 3 is a diagram showing an image for explaining a method of calculating a lateral obstacle distance in the first embodiment of the present invention.
【図4】本発明の第1実施形態及び第2実施形態におけ
る車両周囲監視装置1の報知処理手段50による処理を
示すフローチャートである。FIG. 4 is a flowchart showing processing by the notification processing means 50 of the vehicle surroundings monitoring device 1 according to the first and second embodiments of the present invention.
【図5】本発明の第1実施形態における画像処理手段に
よる側方障害物距離算出の処理を示すフローチャートで
ある。FIG. 5 is a flowchart showing a process of calculating a lateral obstacle distance by the image processing means according to the first embodiment of the present invention.
【図6】本発明の第1実施形態及び第2実施形態におけ
る画像処理手段による障害物画像上移動量算出の処理を
示すフローチャートである。FIG. 6 is a flowchart showing a process of calculating a moving amount on an obstacle image by the image processing means in the first embodiment and the second embodiment of the present invention.
【図7】本発明の第1実施形態における時間T−Δtに
前側方カメラにより撮像された画像を示す図である。FIG. 7 is a diagram showing an image captured by a front side camera at a time T-Δt according to the first embodiment of the present invention.
【図8】本発明の第1実施形態における時間T−Δtに
前側方カメラにより撮像された画像情報に対して垂直方
向エッジを抽出した画像を示す図である。FIG. 8 is a diagram showing an image in which vertical edges are extracted from image information captured by a front side camera at a time T-Δt according to the first embodiment of the present invention.
【図9】本発明の第1実施形態における時間T−Δtに
前側方カメラにより撮像された画像情報から特徴域を抽
出した画像を示す図である。FIG. 9 is a diagram showing an image in which a characteristic region is extracted from image information captured by a front side camera at time T-Δt according to the first embodiment of the present invention.
【図10】本発明の第1実施形態における時間T−Δt
に前側方カメラにより撮像された画像情報から画像処理
により抽出された特徴域及び特徴域輝度分布を示す図で
ある。FIG. 10 is a time T-Δt according to the first embodiment of the present invention.
FIG. 9 is a diagram showing a characteristic region and a characteristic region luminance distribution extracted by image processing from image information captured by the front and side cameras.
【図11】本発明の第1実施形態における時間Tに前側
方カメラにより撮像された画像情報から画像処理により
検索域を抽出した画像を示す図である。FIG. 11 is a diagram showing an image in which a search area is extracted by image processing from image information captured by a front side camera at time T in the first embodiment of the present invention.
【図12】本発明の第1実施形態における特徴域輝度分
布と、検索域輝度分布との比較を示す図である。FIG. 12 is a diagram showing a comparison between a characteristic region luminance distribution and a search region luminance distribution in the first embodiment of the present invention.
【図13】本発明の第2実施形態における画像処理手段
での側方障害物距離算出の処理を示すフローチャートで
ある。FIG. 13 is a flowchart showing a process of calculating a lateral obstacle distance by the image processing means according to the second embodiment of the present invention.
【図14】本発明の第2実施形態における接近度合判断
の方法の説明のための俯瞰図である。FIG. 14 is an overhead view for explaining a method of determining a degree of approach in the second embodiment of the present invention.
【図15】本発明の第2実施形態における接近度合判断
の方法の説明のための画像を示す図である。FIG. 15 is a diagram showing an image for explaining a method of determining a degree of approach in the second embodiment of the present invention.
1…車両周囲監視装置 10a…前側方カメラ(左) 10b…前側方カメラ(右) 20…画像処理手段 21…接近物認識手段 22…側方障害物距離算出手段 22a…特徴域抽出部 22b…特徴域輝度取得部 22c…検索域抽出部 22d…検索域輝度取得部 22e…移動量算出部 22f…距離算出部 30…車速センサ 40…超音波センサ 50…報知処理手段 60…報知用インジケータ 70…報知用ブザー 80…車載モニタ 100…垂直方向エッジ 200…特徴域 300…検索域 400…特徴域輝度分布 500…検索域輝度分布 1001…壁 1002…電信柱 1003…自車両 1004…時間T−Δtにおける自車両の位置 1005…走行道路 α1…時間Tにおける画角 α2…時間T−Δtにおける画角 OP…光軸 V…自車速度 ΔX…カメラ移動量 w1…距離Y1時の画像上の電信柱の幅 w2…距離Y2時の画像上の電子柱の幅 Δx1…障害物画像上移動量 Y1…障害物(電信柱)からの距離 Y2…障害物(電信柱)からの距離 1 ... Vehicle surroundings monitoring device 10a ... Front side camera (left) 10b ... Front side camera (right) 20 ... Image processing means 21 ... Approaching object recognition means 22 ... Side obstacle distance calculation means 22a ... Feature area extraction unit 22b ... Characteristic region brightness acquisition unit 22c ... Search area extraction unit 22d ... Search area brightness acquisition unit 22e ... Movement amount calculation unit 22f ... Distance calculation unit 30 ... Vehicle speed sensor 40 ... Ultrasonic sensor 50 ... Notification processing means 60 ... Notification indicator 70 ... Notification buzzer 80 ... Car monitor 100 ... Vertical edge 200 ... Characteristic area 300 ... Search area 400 ... Feature area brightness distribution 500 ... Search area brightness distribution 1001 ... wall 1002 ... Telephone pole 1003 ... Own vehicle 1004 ... Position of own vehicle at time T-Δt 1005 ... Driving road α1 ... Angle of view at time T α2 ... Angle of view at time T-Δt OP ... optical axis V ... Vehicle speed ΔX ... camera movement amount w1 ... width of telephone pole on image at distance Y1 w2 ... Width of electron column on image at distance Y2 Δx1 ... Amount of movement on the obstacle image Y1 ... Distance from obstacle (telephone pole) Y2 ... Distance from obstacle (telegraph pole)
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B60R 21/00 B60R 21/00 621M 622 622C 622F 622L 622Q 622T 624 624C 624E 626 626B 626F 626G G01B 11/00 G01B 11/00 H G06T 7/00 200 G06T 7/00 200B 250 250 7/20 7/20 B 7/60 180 7/60 180B H04N 7/18 H04N 7/18 J Fターム(参考) 2F065 AA06 AA09 FF64 FF67 JJ03 JJ05 JJ19 JJ26 QQ31 SS02 SS13 SS15 5B057 AA16 CA12 CH01 DA08 DA16 DC16 DC23 DC32 5C054 AA04 CA04 CE12 CH01 DA01 EA01 FC04 FC12 FC15 FE07 FF06 HA30 5L096 BA02 BA04 CA04 DA03 FA06 FA37 FA66 GA08 HA04 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI Theme Coat (reference) B60R 21/00 B60R 21/00 621M 622 622C 622F 622L 622Q 622T 624 624C 624E 626 626B 626B 001G 612G 612G 601G 11/00 H G06T 7/00 200 G06T 7/00 200B 250 250 7/20 7/20 B 7/60 180 7/60 180B H04N 7/18 H04N 7/18 JF term (reference) 2F065 AA06 AA09 FF64 FF67 JJ03 JJ05 JJ19 JJ26 QQ31 SS02 SS13 SS15 5B057 AA16 CA12 CH01 DA08 DA16 DC16 DC23 DC32 5C054 AA04 CA04 CE12 CH01 DA01 EA01 FC04 FC12 FC15 FE07 FF06 HA30 5L096 BA02 BA04 CA04 DA03 FA06 FA37 FA66 GA08 HA04
Claims (4)
の状況を撮像する撮像手段と、 前記撮像手段により第1の時間に撮像された第1の画像
情報に対して画像処理を行い、前記自車両の周囲に存在
する物体の特徴域を抽出する特徴域抽出部、 前記特徴域の輝度分布を取得する特徴域輝度取得部、 前記撮像手段により前記第1の時間と異なる第2の時間
に撮像された第2の画像情報から、前記特徴域の領域を
拡張した領域である検索域を抽出する検索域抽出部、 前記検索域の輝度分布を取得する検索域輝度取得部、 前記検索域の輝度分布と前記特徴域の輝度分布との一致
部分を検索し、この検索結果に基づいて、前記特徴域の
画像上の移動量を算出する移動量算出部及び少なくと
も、前記特徴域の画像上の移動量と、前記自車両の移動
量とから前記物体と前記自車両との距離を算出する距離
算出部を含む画像処理手段と、を備えた車両周囲監視装
置。1. An image pickup means which is mounted on a host vehicle and which captures an image of a situation around the host vehicle, and which performs image processing on first image information imaged at a first time by the image capturing means. A characteristic region extraction unit that extracts a characteristic region of an object existing around the vehicle, a characteristic region luminance acquisition unit that obtains a luminance distribution of the characteristic region, and a second region different from the first time by the imaging unit. A search area extraction unit that extracts a search area that is an area obtained by expanding the area of the characteristic area from second image information captured at time, a search area brightness acquisition unit that acquires a brightness distribution of the search area, and the search And a movement amount calculation unit that calculates a movement amount on the image of the characteristic region based on the search result by searching a matching portion between the luminance distribution of the characteristic region and the luminance distribution of the characteristic region, and an image of the characteristic region. The amount of movement above and the amount of movement of the vehicle Vehicle surrounding monitoring device including an image processing unit, a containing distance calculation unit that calculates a distance between the vehicle and the object from.
載され、前記自車両の前側方の状況を撮像する請求項1
記載の車両周囲監視装置。2. The image pickup means is mounted on a front portion of the own vehicle and picks up an image of a situation of a front side of the own vehicle.
The vehicle surroundings monitoring device described.
記報知手段に対して報知の出力の指示を行う報知処理手
段とを備え、前記報知処理手段は、前記画像処理手段の
前記距離算出部により算出された前記自車両と前記物体
との距離が、所定の距離値以下の場合に、前記報知手段
に対し報知の出力の指示を行う請求項1又は2記載の車
両周囲監視装置。3. An informing means for informing a driver, and an informing processing means for instructing the informing means to output an informing, wherein the informing processing means is the distance of the image processing means. 3. The vehicle surrounding monitoring device according to claim 1, wherein when the distance between the vehicle and the object calculated by the calculation unit is equal to or less than a predetermined distance value, the notification unit is instructed to output a notification.
布の幅と前記検索域の輝度分布の幅との変化に基づき、
前記物体の接近度合を判断する接近度合判断部を有し、 前記報知処理手段が、前記画像処理手段の前記接近度合
判断部により判断された前記物体の接近度合に基づき、
前記報知手段に対して報知の出力の指示を行う請求項1
〜3の何れかに記載の車両周囲監視装置。4. The image processing means, based on a change in the width of the brightness distribution of the characteristic area and the width of the brightness distribution of the search area,
An approach degree determination unit that determines the degree of approach of the object, the notification processing unit, based on the approach degree of the object determined by the approach degree determination unit of the image processing unit,
The instruction to output the notification is given to the notification means.
The vehicle surroundings monitoring device according to any one of 1 to 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001378476A JP2003178290A (en) | 2001-12-12 | 2001-12-12 | Vehicle periphery monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001378476A JP2003178290A (en) | 2001-12-12 | 2001-12-12 | Vehicle periphery monitoring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003178290A true JP2003178290A (en) | 2003-06-27 |
Family
ID=19186189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001378476A Pending JP2003178290A (en) | 2001-12-12 | 2001-12-12 | Vehicle periphery monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003178290A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007304712A (en) * | 2006-05-09 | 2007-11-22 | Denso Corp | Operation support device |
JP2011070580A (en) * | 2009-09-28 | 2011-04-07 | Mitsubishi Motors Corp | Driving support device |
CN111937002A (en) * | 2018-04-16 | 2020-11-13 | 三菱电机株式会社 | Obstacle detection device, automatic braking device using obstacle detection device, obstacle detection method, and automatic braking method using obstacle detection method |
JP2021098494A (en) * | 2019-12-23 | 2021-07-01 | パナソニックIpマネジメント株式会社 | Correction amount setting device, ultrasonic-type object detecting device, correction amount setting method and correction amount setting program |
-
2001
- 2001-12-12 JP JP2001378476A patent/JP2003178290A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007304712A (en) * | 2006-05-09 | 2007-11-22 | Denso Corp | Operation support device |
JP2011070580A (en) * | 2009-09-28 | 2011-04-07 | Mitsubishi Motors Corp | Driving support device |
CN111937002A (en) * | 2018-04-16 | 2020-11-13 | 三菱电机株式会社 | Obstacle detection device, automatic braking device using obstacle detection device, obstacle detection method, and automatic braking method using obstacle detection method |
JP2021098494A (en) * | 2019-12-23 | 2021-07-01 | パナソニックIpマネジメント株式会社 | Correction amount setting device, ultrasonic-type object detecting device, correction amount setting method and correction amount setting program |
JP7253748B2 (en) | 2019-12-23 | 2023-04-07 | パナソニックIpマネジメント株式会社 | Correction amount setting device, ultrasonic object detection device, correction amount setting method, and correction amount setting program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105620489B (en) | Driving assistance system and vehicle real-time early warning based reminding method | |
US7298247B2 (en) | Vehicle periphery monitoring system | |
US10346694B2 (en) | Vehicle start support device | |
JP2004301567A (en) | Collision predicting apparatus | |
JP2007323117A (en) | Road communication system, mobile device and information processing method for mobile device | |
KR19980018699A (en) | Distance measuring device | |
KR101326943B1 (en) | Overtaking vehicle warning system and overtaking vehicle warning method | |
JP3888166B2 (en) | Vehicle driving support device | |
JP2002117494A (en) | Peripheral information display device | |
JP6129268B2 (en) | Vehicle driving support system and driving support method | |
JP3574780B2 (en) | Vehicle safe driving support system | |
JP2007164671A (en) | Device for deciding approaching obstacle and system for warning collision with obstacle | |
JP2002314989A (en) | Peripheral monitor for vehicle | |
JPH08202999A (en) | Surrounding status monitoring device for vehicle | |
JP2008059178A (en) | Operation support device and program | |
JP2004354326A (en) | Surrounding display device for vehicle | |
JP2011103058A (en) | Erroneous recognition prevention device | |
JP2003077099A (en) | Preceding vehicle recognition system | |
JP2003178290A (en) | Vehicle periphery monitoring device | |
JPH1186192A (en) | Vehicle information providing system | |
JP2006285695A (en) | Inter-vehicle communication system | |
JP2005022578A (en) | Vehicle braking apparatus and method | |
JP2021092928A (en) | Road sign recognition device | |
KR101891920B1 (en) | Pedestrian detecting system, automatic cruise control apparatus and method thereof | |
JP4585356B2 (en) | Inter-vehicle communication system |