JP2003067727A - Environmental complexity arithmetic system, environmental recognition level estimation system and obstruction warning system - Google Patents

Environmental complexity arithmetic system, environmental recognition level estimation system and obstruction warning system

Info

Publication number
JP2003067727A
JP2003067727A JP2001258170A JP2001258170A JP2003067727A JP 2003067727 A JP2003067727 A JP 2003067727A JP 2001258170 A JP2001258170 A JP 2001258170A JP 2001258170 A JP2001258170 A JP 2001258170A JP 2003067727 A JP2003067727 A JP 2003067727A
Authority
JP
Japan
Prior art keywords
environment
obstacle
complexity
degree
red
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001258170A
Other languages
Japanese (ja)
Other versions
JP4752158B2 (en
Inventor
Tetsuo Kurahashi
哲郎 倉橋
Yoshiyuki Umemura
祥之 梅村
Hiroyuki Konishi
浩之 古西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2001258170A priority Critical patent/JP4752158B2/en
Publication of JP2003067727A publication Critical patent/JP2003067727A/en
Application granted granted Critical
Publication of JP4752158B2 publication Critical patent/JP4752158B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To support obstruction recognition efficiently and accurately without presenting a driver with excessive information. SOLUTION: A microcomputer 70 divides a pickup image produced by an obstruction imaging CCD camera 21 into regions A to D, and computes complexity C of traffic environment in each of the regions B to D according to the following expression: C=α.C1+β.C2+γ.C1.C2, where the index C1 represents a total number of brightness-divided blocks, the index C2 represents a total number of red-system-divided blocks, and α, β and γ are weight coefficients of respective given values.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、環境複雑度演算装
置、環境認識度合推定装置及び障害物警報装置に係り、
特に、車両周囲の交通環境に応じてドライバの障害物認
識支援を行う環境複雑度演算装置、環境認識度合推定装
置及び障害物警報装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an environment complexity calculation device, an environment recognition degree estimation device and an obstacle warning device,
In particular, the present invention relates to an environment complexity calculation device, an environment recognition degree estimation device, and an obstacle warning device that support obstacle recognition of a driver according to the traffic environment around a vehicle.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】車両の
運転において、車両の直進時では左右からの飛び出しの
確認をすることや、車両の右左折時では進行方向に対し
て左右の横断物の確認を行うことは、事故を防止する上
で重要である。左右から飛び出したり横断する移動体
は、例えば、歩行者、2輪車、4輪車などの種々のもの
が考えられる。
2. Description of the Related Art When driving a vehicle, it is necessary to check whether the vehicle is running straight ahead or out of the left or right, and when the vehicle is turning left or right, crossing objects to the left or right with respect to the traveling direction. Confirmation is important to prevent accidents. As the moving body that jumps out or crosses from the left and right, various kinds of pedestrians, two-wheeled vehicles, four-wheeled vehicles, etc. can be considered.

【0003】特開平3−260813号公報では、この
ような移動体を検出する環境認識装置が提案されてい
る。環境認識装置は、明度情報の差分や閉区間領域を抽
出することで輪郭情報を得て、輪郭情報から移動物体を
認識している。しかし、車両を取り巻く照明条件は刻々
と変わり、また外乱光などの影響があるため、輪郭を完
全にかつ鮮明に抽出できることは少ない。したがって、
上記環境認識装置は、輪郭情報のみを用いて画像認識を
行うので、情報量の少なさから環境変化への対応が弱
い。特に、車両に搭載されて障害物等を検出する場合で
は、上述した影響を大きく受けるので、最適に移動体を
検出することができるとは言いがたい。また、明度情報
から直接閉区間を抽出する処理は、影や外乱光などの影
響を受けやすく、外乱光によって変化した明度が直接に
重心や面積の変化に影響を与えるため、困難である。
Japanese Patent Application Laid-Open No. 3-26013 proposes an environment recognition device for detecting such a moving body. The environment recognition device obtains contour information by extracting a difference in brightness information and a closed section region, and recognizes a moving object from the contour information. However, the lighting conditions surrounding the vehicle change from moment to moment, and due to the influence of ambient light, etc., it is rare that the contour can be extracted completely and clearly. Therefore,
Since the environment recognition device performs image recognition using only contour information, it is weak in coping with environmental changes due to the small amount of information. In particular, when it is mounted on a vehicle and detects an obstacle or the like, it is difficult to say that the moving body can be detected optimally because it is greatly affected by the above-mentioned influence. Further, it is difficult to directly extract the closed section from the lightness information, because it is easily affected by shadows and ambient light, and the lightness changed by the ambient light directly affects the change of the center of gravity and the area.

【0004】このほか、テンプレートマッチングやテク
スチャーマッチングなど輪郭情報に内部情報を加えた検
出手法も提案されている。しかし、処理時間がかかって
しまったり、テンプレートに関する膨大な情報を予め用
意する手間がかかってしまうなどの問題がある。
In addition, detection methods such as template matching and texture matching in which internal information is added to contour information have been proposed. However, there are problems that it takes a long processing time, and it takes time and effort to prepare a large amount of information about the template in advance.

【0005】こうした背景の下、例えば近年、画像情報
を圧縮する技術から派生して、カメラの撮像情報を明度
データの分布ととらえる技術が提案されている。
Under such a background, for example, in recent years, a technique has been proposed, which is derived from a technique for compressing image information, and captures image pickup information of a camera as a distribution of lightness data.

【0006】特開平11−142168号公報では、多
変量解析の1つである主成分分析などを行い、撮像情報
を正規化主成分特徴量で張られた情報空間に写像し、情
報空間内でのデータの挙動を解析することによって画像
認識する手法を改良した技術が提案されている。この技
術は、正規化主成分特徴量を車両運動情報、操作情報を
用いてよりロバストな環境認識を行うものである。ま
た、特開2000−19259号公報では、可視光線映
像情報と可視光以外の赤外線映像情報とを用いて物体を
認識する技術が提案されている。
In Japanese Laid-Open Patent Publication No. 11-142168, a principal component analysis, which is one of multivariate analysis, is performed, imaging information is mapped to an information space defined by normalized principal component feature quantities, and the information space is mapped in the information space. A technique has been proposed in which the image recognition method is improved by analyzing the behavior of the data of. This technique is to perform more robust environment recognition of the normalized principal component feature amount using vehicle motion information and operation information. Further, Japanese Patent Laid-Open No. 2000-19259 proposes a technique for recognizing an object using visible light image information and infrared image information other than visible light.

【0007】しかし、これらの技術は、例えばガードレ
ールや停止車輌等の物体の認識を妨げる要因が多く存在
する場合、移動体を認識することが困難である。例え
ば、車両が通行する路面上以外の歩道や交差点における
歩行者、自転車の待機場所や停止車輌間から飛び出して
きた歩行者を認識することができない問題がある。
However, these techniques make it difficult to recognize a moving body when there are many factors that hinder recognition of an object such as a guardrail or a stopped vehicle. For example, there is a problem that a pedestrian on a sidewalk or an intersection other than a road surface on which a vehicle passes, a pedestrian who jumps out from a standby position of a bicycle, or between stopped vehicles cannot be recognized.

【0008】これに対して、例えば特開平11−301
343号では、障害物そのものだけでなく、カメラ(可
視光、赤外)を用いた、環境(道路形状)認識により移
動障害物の出現確率を予測する車両用照明装置が提案さ
れている。また、特開平11−232569号では、交
差点等に歩行者が近づいたか否かを車輌側へ発信する装
置をもつ歩行者警報システムが提案されている。さら
に、特開平6−144129号公報では、移動障害物を
積極的に認識することなく、同一の注意すべき状態に対
して複数用意されていた注意項目をランダムに1つ選択
して運転手に報知することで注意喚起を図る注意喚起ア
シスト装置が提案されている。
On the other hand, for example, Japanese Patent Laid-Open No. 11-301
No. 343 proposes a vehicle lighting device that predicts the probability of appearance of a moving obstacle by recognizing the environment (road shape) using not only the obstacle itself but also a camera (visible light, infrared). Further, Japanese Patent Application Laid-Open No. 11-232569 proposes a pedestrian warning system having a device for transmitting to a vehicle side whether or not a pedestrian approaches an intersection or the like. Further, in Japanese Unexamined Patent Publication No. 6-144129, a driver is selected by randomly selecting one of a plurality of caution items prepared for the same attention state without positively recognizing a moving obstacle. An alerting assist device has been proposed that alerts users by giving a notification.

【0009】このように、移動障害物の自動認識、移動
物体の出現確率を考慮したもの、あるいは歩行者の接近
警告などを行うことによって、ドライバに対して障害物
認識支援をする移動障害物認識支援が提案されている。
As described above, by automatically recognizing a moving obstacle, by considering the appearance probability of a moving object, or by giving a warning of a pedestrian's approach, the moving obstacle recognition assists the driver in obstacle recognition. Support is proposed.

【0010】しかし、最終的に移動障害物を認識するの
はドライバ自身である。そのドライバの視覚認知、認知
特性を考慮しなければ、大量の情報をドライバに提示し
すぎたために、かえってドライバーを混乱させる可能性
がある。また、注意項目を場所にあわせてランダムに提
示する方法は、情報提示量は少ないものの非効率であ
る。
However, it is the driver himself who finally recognizes the moving obstacle. Unless the driver's visual perception and cognitive characteristics are taken into consideration, too much information is presented to the driver, which may rather confuse the driver. In addition, the method of randomly presenting cautionary items according to location is inefficient, although the amount of information presented is small.

【0011】本発明は、上述した課題を解決するために
提案されたものであり、ドライバに過剰な情報を提示す
ることなく効率的かつ的確に障害物認識支援を行うこと
ができる環境複雑度演算装置、環境認識度合推定装置及
び障害物警報装置を提供することを目的とする。
The present invention has been proposed to solve the above-mentioned problems, and an environmental complexity calculation capable of efficiently and accurately supporting obstacle recognition without presenting excessive information to the driver. An object is to provide a device, an environment recognition degree estimation device, and an obstacle warning device.

【0012】[0012]

【課題を解決するための手段】請求項1記載の発明は、
環境からの撮像光に基づいて撮像画像を生成する撮像手
段と、前記撮像手段で生成された撮像画像に含まれる輝
度の変化の分布、前記撮像画像に含まれる赤色系画素の
分布の少なくとも一方に基づいて、環境の複雑度を演算
する複雑度演算手段と、を備えている。
The invention according to claim 1 is
At least one of an image capturing unit that generates a captured image based on image capturing light from the environment, a distribution of changes in luminance included in the captured image generated by the image capturing unit, and a distribution of red pixels included in the captured image. And a complexity calculation means for calculating the complexity of the environment.

【0013】請求項1記載の発明では、撮像手段は、例
えば車両前席から正面の交通環境を撮像するように設置
されているのが好ましい。複雑度演算手段は、撮像画像
に含まれる輝度変化の分布から、画像の複雑さを示す空
間周波数を求めることができる。また、複雑度演算手段
は、撮像画像に含まれる赤色系画素の分布から画像の複
雑度を求めることができる。
In the invention according to claim 1, it is preferable that the image pickup means is installed so as to pick up an image of a traffic environment from the front seat of the vehicle to the front. The complexity calculation means can obtain the spatial frequency indicating the complexity of the image from the distribution of the luminance change included in the captured image. Further, the complexity calculating means can obtain the complexity of the image from the distribution of the red pixels included in the captured image.

【0014】請求項2記載の発明は、請求項1記載の発
明において、前記複雑度演算手段は、前記撮像手段で生
成された撮像画像に輝度分割ブロックを設定し、設定さ
れた輝度分割ブロック内において各画素の輝度値が均質
であると判断されるまで、前記輝度分割ブロックを分割
して新たな輝度分割ブロックを設定することを繰り返
し、前記撮像画像に対して、各画素の輝度値が均質にな
った輝度分割ブロックの数に基づいて環境の複雑度を演
算することを特徴とする。
According to a second aspect of the present invention, in the first aspect of the present invention, the complexity calculation means sets a luminance division block in the imaged image generated by the image pickup means, and the luminance division block is set in the set luminance division block. Until it is determined that the luminance value of each pixel is uniform, the luminance division block is divided and the new luminance division block is set repeatedly, and the luminance value of each pixel is uniform with respect to the captured image. It is characterized in that the degree of complexity of the environment is calculated based on the number of the luminance division blocks.

【0015】請求項2記載の発明では、複雑度演算手段
は、撮像画像に対して輝度分割ブロックを設定する。最
初に設定される輝度分割ブロックは、複雑度を演算する
領域を示している。そして、輝度分割ブロック内におい
て、各画素の輝度値が均質であると判断されるまで、前
記輝度分割ブロックを分割し、分割された輝度分割ブロ
ックを新たな輝度分割ブロックとして設定し、この処理
を繰り返す。ここで、各画素の輝度値が均質であると
は、各画素の輝度値が一致する場合に限らず、輝度値の
最大値と輝度値の最小値の差が所定値以下であればよ
い。すなわち、各画素の輝度値のばらつきが所定値以下
になっていればよい。
According to the second aspect of the present invention, the complexity calculating means sets the luminance division block for the captured image. The luminance division block set first indicates an area for which the complexity is calculated. Then, in the luminance division block, the luminance division block is divided until the luminance value of each pixel is determined to be uniform, and the divided luminance division block is set as a new luminance division block. repeat. Here, that the brightness value of each pixel is uniform is not limited to the case where the brightness values of the pixels are the same, and the difference between the maximum value of the brightness value and the minimum value of the brightness value may be a predetermined value or less. That is, it is sufficient that the variation in the brightness value of each pixel is less than or equal to a predetermined value.

【0016】そして、すべての輝度分割領域内の各画素
の輝度値が均質であると判断されると、これらのすべて
の輝度分割ブロックの数を環境の複雑度として求める。
このような輝度分割ブロックの数は空間周波数に対応し
ている。すなわち、総数が多いと高周波成分が多く、撮
像画像が複雑である。また、総数が少ないと高周波成分
が少なく、撮像画像は単純である。このように、輝度分
割ブロックの数を求めることで、環境の複雑度を求める
ことができる。
When it is determined that the luminance values of the pixels in all the luminance division areas are uniform, the number of all these luminance division blocks is calculated as the complexity of the environment.
The number of such luminance division blocks corresponds to the spatial frequency. That is, if the total number is large, there are many high-frequency components and the captured image is complicated. Further, when the total number is small, the high frequency component is small and the captured image is simple. In this way, by calculating the number of luminance division blocks, the complexity of the environment can be calculated.

【0017】請求項3記載の発明は、請求項1記載の発
明において、前記複雑度演算手段は、前記撮像手段で生
成された撮像画像に赤色系分割ブロックを設定し、設定
された赤色系分割ブロックが所定の赤色系画素のみで構
成されるまで、前記赤色系分割ブロックを分割して新た
な赤色系分割ブロックを設定することを繰り返し、前記
撮像画像に対して、前記所定の赤色系画素のみで構成さ
れる赤色系分割ブロックの数に基づいて環境の複雑度を
演算することを特徴とする。
According to a third aspect of the present invention, in the first aspect of the present invention, the complexity calculating means sets a red-based division block in the captured image generated by the imaging means, and the set red-based division is set. Repeating dividing the red-colored divided block and setting a new red-colored divided block until the block is configured only with the predetermined red-colored pixel, and only the predetermined red-colored pixel is added to the captured image. It is characterized in that the complexity of the environment is calculated based on the number of red-colored divided blocks configured by.

【0018】請求項3記載の発明では、複雑度演算手段
は、撮像画像に対して赤色系分割ブロックを設定する。
最初に設定される赤色系分割ブロックは、複雑度を演算
する領域を示している。赤色系分割ブロックが所定の赤
色系画素のみで構成されるまで、当該赤色系分割ブロッ
クを分割する。そして、分割された赤色系分割ブロック
を新たな赤色系分割ブロックとして設定し、この処理を
繰り返す。すべての赤色系分割ブロックが所定の赤色系
画素のみで構成されると、これらのすべての赤色系分割
ブロックの数を環境の複雑度として求める。赤色は緑色
に比べて誘目性が高い特性があり、赤色系分割ブロック
の数は画像の複雑さを示している。したがって、上記赤
色系分割ブロックの数を演算することで、環境の複雑度
を求めることができる。
According to the third aspect of the invention, the complexity calculating means sets a red-color division block for the picked-up image.
The red-colored divided block set first indicates an area for calculating the complexity. The red-colored divided block is divided until the red-colored divided block is composed of only predetermined red-colored pixels. Then, the divided red-colored divided block is set as a new red-colored divided block, and this processing is repeated. If all the red-colored divided blocks are composed of only predetermined red-colored pixels, the number of all these red-colored divided blocks is obtained as the complexity of the environment. Red has a characteristic that it is more attractive than green, and the number of red-based divided blocks indicates the complexity of the image. Therefore, the complexity of the environment can be obtained by calculating the number of red-colored divided blocks.

【0019】請求項4記載の発明は、請求項1記載の発
明において、前記複雑度演算手段は、前記撮像手段で生
成された撮像画像に輝度分割ブロックを設定し、設定さ
れた輝度分割ブロック内において各画素の輝度値が均質
であると判断されるまで、前記輝度分割ブロックを分割
して新たな輝度分割ブロックを設定することを繰り返
し、前記撮像画像に対して、各画素の輝度値が均質にな
った輝度分割ブロックの数を演算し、前記撮像手段で生
成された撮像画像に赤色系分割ブロックを設定し、設定
された赤色系分割ブロックが所定の赤色系画素のみで構
成されるまで、前記赤色系分割ブロックを分割して新た
な赤色系分割ブロックを設定することを繰り返し、前記
撮像画像に対して、前記所定の赤色系画素のみで構成さ
れる赤色系分割ブロックの数を演算し、前記輝度分割ブ
ロックの数と、赤色系分割ブロックの数と、に基づいて
環境の複雑度を演算することを特徴とする。
According to a fourth aspect of the present invention, in the first aspect of the present invention, the complexity calculating means sets a luminance division block in the picked-up image generated by the image pickup means, and within the set luminance division block. Until it is determined that the luminance value of each pixel is uniform, the luminance division block is divided and the new luminance division block is set repeatedly, and the luminance value of each pixel is uniform with respect to the captured image. Until a red-colored divided block is set in the captured image generated by the image pickup means, and the set red-colored divided block is composed of only predetermined red-colored pixels, Repeating the division of the red-colored divided block and setting of a new red-colored divided block, the red-colored divided block composed of only the predetermined red-colored pixels for the captured image. Calculates the number of click, the number of the luminance divided blocks, the number of red divided blocks, characterized by calculating the complexity of the environment based on.

【0020】請求項4記載の発明では、複雑度演算手段
は、請求項2記載の発明と同様にして輝度分割ブロック
の数を求め、さらに、請求項3記載の発明と同様にして
赤色系分割ブロックの数を求め、これらの総数に基づい
て環境の複雑度を求める。環境の複雑度としては、輝度
分割ブロックの数、赤色系分割ブロックの数、輝度分割
ブロックの数と赤色系分割ブロックの数との積、にそれ
ぞれ所定の重み付け係数を乗して、これらの総和を求め
るのが好ましい。
In the invention according to claim 4, the complexity calculating means obtains the number of luminance division blocks in the same manner as in the invention in claim 2, and further, in the same manner as in the invention in claim 3, the red-based division is performed. The number of blocks is calculated, and the complexity of the environment is calculated based on these total numbers. As the complexity of the environment, the number of luminance division blocks, the number of red color division blocks, and the product of the number of luminance division blocks and the number of red color division blocks are multiplied by predetermined weighting factors, respectively, and the sum of these is added. Is preferred.

【0021】請求項5記載の発明は、請求項1から4の
いずれか1項記載の複雑度演算装置と、前記複雑度演算
装置で演算された複雑度に基づいて、環境の認識度合を
推定する環境認識度合推定手段と、を備えている。
According to a fifth aspect of the present invention, the degree of recognition of the environment is estimated based on the complexity calculation device according to any one of the first to fourth aspects and the complexity calculated by the complexity calculation device. And an environment recognition degree estimating means for performing.

【0022】請求項5記載の発明では、複雑度演算装置
で演算された複雑度は、環境の撮像画像の複雑さを示し
ていることから、観察者の環境の認識度合を推定するた
めのパラメータとして用いられる。すなわち、環境認識
度合推定手段は、上記複雑度に基づいて環境の認識度合
を推定することができる。
According to the fifth aspect of the present invention, the complexity calculated by the complexity calculating device indicates the complexity of the imaged image of the environment. Therefore, the parameter for estimating the degree of recognition of the environment by the observer. Used as. That is, the environment recognition degree estimation means can estimate the environment recognition degree based on the complexity.

【0023】請求項6記載の発明は、請求項5記載の発
明において、前記環境認識度合推定手段は、前記複雑度
演算装置で演算された複雑度が閾値以上であるときは環
境の認識度合が低いと推定し、前記複雑度演算装置で演
算された複雑度が閾値より小さいときは環境の認識度合
が高いと推定することを特徴とする。
According to a sixth aspect of the present invention, in the fifth aspect of the invention, the environment recognition degree estimating means determines the degree of environment recognition when the complexity calculated by the complexity calculating device is equal to or more than a threshold value. It is estimated that the degree of recognition of the environment is high when the degree of complexity calculated by the complexity calculating device is smaller than the threshold value.

【0024】請求項6記載の発明では、環境の認識度合
の基準値となる閾値を設定する。すなわち、閾値は、環
境が複雑と単純の中間を示す複雑度の値である。そこ
で、環境認識度合推定手段は、この閾値を用いること
で、複雑度が閾値以上であるときは環境の認識度合が低
いと推定し、複雑度が閾値より小さいときは環境の認識
度合が高いと推定することができる。
According to the sixth aspect of the invention, a threshold value is set as a reference value of the degree of recognition of the environment. That is, the threshold is a value of complexity indicating that the environment is between complicated and simple. Therefore, the environment recognition degree estimation means uses this threshold value to estimate that the environment recognition degree is low when the complexity is equal to or higher than the threshold value, and the environment recognition degree is high when the complexity degree is lower than the threshold value. Can be estimated.

【0025】請求項7記載の発明は、請求項5または6
記載の発明において、環境の照度を検出する照度検出手
段を更に備え、前記環境認識度合推定手段は、前記照度
検出手段により検出された照度に対応する前記閾値を設
定し、設定された閾値を用いて環境の認識度合を推定す
ることを特徴とする。
The invention according to claim 7 is the invention according to claim 5 or 6.
In the invention described above, further comprising an illuminance detection means for detecting the illuminance of the environment, the environment recognition degree estimation means sets the threshold value corresponding to the illuminance detected by the illuminance detection means, using the set threshold value It is characterized by estimating the degree of recognition of the environment.

【0026】請求項7記載の発明では、複雑度が一定で
あっても、車両外部が明るかったり暗くなったりする
と、観察者は環境が複雑と感じたり単純と感じることが
あることがある。そこで、このような照度の変化による
環境の認識度合の変化を補正するため、照度に対応する
閾値が予め記述された閾値テーブルを用いるのが好まし
い。これにより、照度検出手段により照度が検出される
と、検出された照度に対応する閾値を設定することがで
きる。そして、設定された閾値を用いて環境の認識度合
を推定することができる。この結果、照度がどのような
値であっても、環境の認識度合を正確に推定することが
できる。
According to the seventh aspect of the invention, even if the complexity is constant, when the outside of the vehicle becomes bright or dark, the observer sometimes feels that the environment is complicated or simple. Therefore, in order to correct the change in the degree of recognition of the environment due to such a change in illuminance, it is preferable to use a threshold table in which thresholds corresponding to illuminance are described in advance. Thereby, when the illuminance detecting means detects the illuminance, it is possible to set a threshold value corresponding to the detected illuminance. Then, the degree of environment recognition can be estimated using the set threshold. As a result, the recognition degree of the environment can be accurately estimated regardless of the value of the illuminance.

【0027】請求項8記載の発明は、請求項5から7の
いずれか1項記載の発明において、観察者の姿勢変化を
検出する姿勢変化検出手段を更に備え、前記環境認識度
合推定手段は、前記姿勢変化検出手段で検出された観察
者の姿勢変化が大きくなるに従って閾値を大きく設定
し、前記姿勢変化検出手段で検出された観察者の姿勢変
化が小さくなるに従って閾値を小さく設定し、設定され
た閾値を用いて環境の認識度合を推定することを特徴と
する。
The invention according to claim 8 is the invention according to any one of claims 5 to 7, further comprising a posture change detecting means for detecting a posture change of the observer, wherein the environment recognition degree estimating means comprises: The threshold is set to be larger as the change in the posture of the observer detected by the posture change detection means becomes larger, and the threshold is set to be smaller as the change in the posture of the observer detected by the posture change detection means becomes smaller. It is characterized in that the degree of recognition of the environment is estimated using the thresholds.

【0028】請求項8記載の発明では、観察者は、姿勢
変化が大きい場合には、環境を認識する度合が高い傾向
にある。環境認識度合推定手段は、観察者の姿勢変化が
大きくなるに従って閾値を大きく設定し、観察者の姿勢
変化が小さくなるに従って閾値を小さく設定すること
で、観察者の実際の視覚特性に合致するように、環境の
認識度合を正確に推定することができる。
According to the eighth aspect of the invention, the observer tends to recognize the environment more when the posture change is large. The environment recognition degree estimating means sets a larger threshold value as the observer's posture change becomes larger, and sets a smaller threshold value as the observer's posture change becomes smaller, so that the actual visual characteristics of the observer are met. Moreover, the degree of recognition of the environment can be accurately estimated.

【0029】請求項9記載の発明は、所定領域毎に環境
の認識度合を推定する請求項5から8のいずれか1項記
載の環境認識度合推定装置と、障害物の位置を検出する
障害物位置検出手段と、前記障害物検出手段で検出され
た障害物の位置を含む所定領域が、前記環境認識度合推
定手段によって環境の認識度合が低いと推定されたとき
に、前記障害物に関する警報を行う警報手段と、を備え
ている。
The invention according to claim 9 is the environment recognition degree estimation device according to any one of claims 5 to 8 for estimating the degree of recognition of the environment for each predetermined area, and an obstacle for detecting the position of the obstacle. When a predetermined area including the position detection means and the position of the obstacle detected by the obstacle detection means is estimated by the environment recognition degree estimation means to have a low degree of environment recognition, a warning regarding the obstacle is issued. And an alarming means to perform.

【0030】請求項9記載の発明では、障害物位置検出
手段は、障害物の位置を検出する。このとき、環境認識
度合推定装置は、障害物が検出された位置を含む所定領
域の環境の認識度合を推定する。ここで、環境の認識度
合が高い場合、観察者は、障害物位置検出手段によって
検出された障害物を十分認識することができる。一方、
環境の認識度合が低い場合、観察者は、障害物位置検出
手段によって検出された障害物を認識することができな
い可能性がある。そこで、警報手段は、障害物の位置を
含む所定領域が環境の認識度合が低いと推定されたとき
に、障害物に関する警報を行う。これにより、観察者
は、環境の認識度合が低い領域に障害物がある場合で
も、障害物があることを事前に認識して、事故を回避す
ることができる。なお、警報手段は、画像又は音声を出
力することによって、観察者に注意を喚起させることが
できるまた、警報手段は、障害物の位置を含む所定領域
が環境の認識度合が高いと推定されたときに、障害物に
関する警報は行わない。これにより、観察者は、環境の
認識度合が高い領域に障害物がある場合では、その障害
物を認識することができるので、余計な警報によって煩
わしさを受けることがない。
In the ninth aspect of the invention, the obstacle position detecting means detects the position of the obstacle. At this time, the environment recognition degree estimation device estimates the degree of recognition of the environment in a predetermined area including the position where the obstacle is detected. Here, when the degree of environment recognition is high, the observer can sufficiently recognize the obstacle detected by the obstacle position detecting means. on the other hand,
When the degree of environment recognition is low, the observer may not be able to recognize the obstacle detected by the obstacle position detection means. Therefore, the warning means issues a warning about the obstacle when it is estimated that the degree of recognition of the environment in the predetermined area including the position of the obstacle is low. Thereby, even if there is an obstacle in a region where the degree of recognition of the environment is low, the observer can recognize in advance that there is an obstacle and avoid an accident. Note that the warning means can alert the observer by outputting an image or a sound. Further, the warning means is estimated to have a high degree of environment recognition in a predetermined area including the position of the obstacle. Occasionally, there is no warning about obstacles. Accordingly, the observer can recognize the obstacle when the obstacle is present in a region where the degree of recognition of the environment is high, and thus the observer is not bothered by an extra alarm.

【0031】請求項10記載の発明は、請求項9記載の
発明において、前記環境認識度合推定装置は、撮像画像
の下部を除く領域を複数の推定領域に分割し、分割され
た推定領域毎に環境の認識度合を推定し、前記警報手段
は、前記障害物位置検出手段により検出された障害物の
位置が前記推定領域のいずれにあり、かつ、当該推定領
域の環境の認識度合が前記環境認識度合推定手段によっ
て低いと推定されたときに、優先度の高い推定領域に存
在する障害物に関する警報を行うことを特徴とする。
According to a tenth aspect of the present invention, in the invention of the ninth aspect, the environment recognition degree estimation device divides an area excluding a lower portion of the captured image into a plurality of estimation areas, and each divided estimation area. The degree of recognition of the environment is estimated, and the warning unit is configured such that the position of the obstacle detected by the obstacle position detection unit is in any of the estimation regions and the degree of recognition of the environment of the estimation region is the environment recognition. When it is estimated that the degree is low by the degree estimating means, a warning is given regarding an obstacle existing in the estimation area having a high priority.

【0032】請求項10記載の発明では、環境認識度合
推定装置は、撮像画像の下部を除く領域を複数の推定領
域に分割し、分割された推定領域毎に環境の認識度合を
推定する。つまり、撮像画像の下部については環境の認
識度合を推定しない。その理由は、撮像画面の下部は、
観察者直前の環境の画像を示しており、その環境の認識
の度合を推定する意味がないからである。
According to the tenth aspect of the present invention, the environment recognition degree estimation device divides the area excluding the lower part of the captured image into a plurality of estimation areas, and estimates the environment recognition degree for each of the divided estimation areas. That is, the degree of environment recognition is not estimated for the lower part of the captured image. The reason is that the lower part of the imaging screen is
This is because the image of the environment immediately before the observer is shown, and it is meaningless to estimate the degree of recognition of the environment.

【0033】警報手段は、前記障害物位置検出手段によ
り検出された障害物の位置が前記推定領域のいずれにあ
り、かつ、当該推定領域の環境の認識度合が前記環境認
識度合推定手段によって低いと推定されたかを判定す
る。ここでは、障害物が検出され、かつ環境の認識度合
が低い推定領域をすべて選択する。そして、選択された
指定領域のうち優先度の高い推定領域について、障害物
が存在する旨の警報を行う。これにより、最も危険な領
域を観察者に注意させることで大きな事故を回避するこ
とができると共に、あまり危険でない領域については観
察者に報知しないことで観察者が情報過多になって混乱
するのを防止することができる。
In the alarm means, the position of the obstacle detected by the obstacle position detecting means is in any of the estimation areas, and the degree of environment recognition of the estimation area is low by the environment recognition degree estimating means. Determine if it was estimated. Here, all the estimation regions where the obstacle is detected and the degree of environment recognition is low are selected. Then, an alarm indicating that an obstacle is present is given to an estimated area having a high priority among the selected specified areas. With this, it is possible to avoid a large accident by alerting the observer to the most dangerous area, and by not notifying the less dangerous area to the observer, it is possible that the observer becomes confused by excessive information. Can be prevented.

【0034】[0034]

【発明の実施の形態】以下、本発明の好ましい実施の形
態について図面を参照しながら詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

【0035】[第1の実施の形態]本発明の第1の実施
の形態は、例えば図1に示す構成の障害物警報装置1に
適用することができる。障害物警報装置1は、車両外部
のインフラからインフラ情報を検出するインフラ情報を
インフラ情報検出部10と、道路及びその周辺の障害物
に関する情報を検出する障害物情報検出部20と、自車
両の動作状態を検出する自車状態検出部30と、ドライ
バや車両外部の環境を検出する環境情報検出部40と、
ドライバの環境認識の度合を示す視覚特性を入力するた
めのスライダパネル50と、障害物情報を出力する障害
物情報出力部60と、各部において検出された情報に基
づいて全体の制御を行うマイクロコンピュータ70と、
を備えている。
[First Embodiment] The first embodiment of the present invention can be applied to, for example, an obstacle warning device 1 having the configuration shown in FIG. The obstacle warning device 1 includes an infrastructure information detection unit 10 that detects infrastructure information that detects infrastructure information from an infrastructure outside the vehicle, an obstacle information detection unit 20 that detects information about roads and obstacles around the road, and A vehicle state detection unit 30 that detects an operating state, an environment information detection unit 40 that detects the environment of the driver or the outside of the vehicle,
A slider panel 50 for inputting visual characteristics indicating the degree of environmental recognition of the driver, an obstacle information output unit 60 for outputting obstacle information, and a microcomputer for performing overall control based on the information detected by each unit. 70,
Is equipped with.

【0036】インフラ情報検出部10は、GPS(Gl
obal PositioningSystem)信号
を受信するGPS受信回路11と、DVDディスクに記
録されている地図情報を読み出すDVDドライブ12
と、接近情報を受信する接近情報受信回路13と、を備
えている。
The infrastructural information detection unit 10 uses the GPS (Gl
GPS Positioning Circuit 11 for receiving the signal of the Global Positioning System and a DVD drive 12 for reading the map information recorded on the DVD disc.
And an approach information receiving circuit 13 for receiving approach information.

【0037】GPS受信回路11は、GPSアンテナ1
1aを介して、時刻及びGPS衛星の位置情報を有する
GPS信号を受信し、データバス5を介してマイクロコ
ンピュータ70に供給する。DVDドライブ12は、車
両が現在走行している位置情報に基づいて、DVDディ
スクから地図情報を読み出し、データバス5を介して、
マイクロコンピュータ70に供給する。接近情報受信回
路13は、後述するデータキャリアリーダから送信され
た接近情報を受信し、データバス5を介して、マイクロ
コンピュータ70に供給する。
The GPS receiving circuit 11 includes the GPS antenna 1
The GPS signal having the time and the position information of the GPS satellite is received via 1a and supplied to the microcomputer 70 via the data bus 5. The DVD drive 12 reads the map information from the DVD disk based on the position information of the vehicle currently traveling, and through the data bus 5,
It is supplied to the microcomputer 70. The approach information receiving circuit 13 receives the approach information transmitted from a data carrier reader, which will be described later, and supplies it to the microcomputer 70 via the data bus 5.

【0038】障害物情報検出部20は、道路上や道路周
囲の障害物を撮影するための障害物撮影用CCDカメラ
21と、道路上や道路周囲の障害物を赤外線により撮影
するための赤外カメラ22と、前方障害物を認識するた
めのレーダ送受信機23と、を備えている。
The obstacle information detection unit 20 includes an obstacle photographing CCD camera 21 for photographing obstacles on and around the road and an infrared ray for photographing obstacles on and around the road by infrared rays. A camera 22 and a radar transceiver 23 for recognizing a front obstacle are provided.

【0039】障害物撮影用CCDカメラ21及び赤外カ
メラ22は、車両前方方向の物体を撮像できるように設
置されている。そして、障害物撮影用CCDカメラ21
及び赤外カメラ22は、撮影した撮影画像を、データバ
ス5を介してマイクロコンピュータ70に供給する。レ
ーダ送受信機23は、前方障害物を認識するために、当
該障害物に対してパルス状の光レーダを鋭く絞って2次
元方向に送信すると共に、障害物によって反射された光
レーダを受光する。なお、レーダ送受信機23は、光レ
ーダを送受信するもの限らず、電波レーダを送受信する
ものであってもよい。
The CCD camera 21 for photographing obstacles and the infrared camera 22 are installed so that an object in the front direction of the vehicle can be photographed. Then, the CCD camera 21 for photographing obstacles
The infrared camera 22 supplies the captured image to the microcomputer 70 via the data bus 5. In order to recognize an obstacle ahead, the radar transceiver 23 sharply narrows the pulsed optical radar to the obstacle and transmits it in a two-dimensional direction, and receives the optical radar reflected by the obstacle. The radar transceiver 23 is not limited to one that transmits and receives an optical radar, but may be one that transmits and receives a radio wave radar.

【0040】自車状態検出部30は、例えば、車輪速セ
ンサ、操舵角センサ、スロットルバルブセンサ、マスタ
シリンダ油圧センサ、ヨーレートセンサ、前後加速度セ
ンサ、横加速度センサ等を備えている。そして、自車状
態検出部30は、車速、ハンドル操舵角度、アクセル操
作量、ブレーキ操作量、ヨーレート、ロールレート、ピ
ッチレート、前後加速度、横加速度、ウィンカ操作量を
検出して、マイクロコンピュータ70に供給する。
The vehicle state detector 30 includes, for example, a wheel speed sensor, a steering angle sensor, a throttle valve sensor, a master cylinder oil pressure sensor, a yaw rate sensor, a longitudinal acceleration sensor, a lateral acceleration sensor, and the like. Then, the vehicle state detection unit 30 detects the vehicle speed, the steering wheel steering angle, the accelerator operation amount, the brake operation amount, the yaw rate, the roll rate, the pitch rate, the longitudinal acceleration, the lateral acceleration, and the blinker operation amount, and causes the microcomputer 70 to detect them. Supply.

【0041】環境情報検出部40は、車両外部の照度を
検出する照度センサ41と、ドライバを撮影するドライ
バ撮影用CCDカメラ42と、を備えている。ここで
は、ドライバ撮影用CCDカメラ42は1つだけ設けら
れているが、ドライバの姿勢変化を容易に検出できるよ
うに、ドライバの正面前方、右前方、左前方をそれぞれ
撮像する3つのCCDカメラを設けてもよい。
The environment information detecting section 40 is provided with an illuminance sensor 41 for detecting the illuminance outside the vehicle and a driver photographing CCD camera 42 for photographing the driver. Here, only one CCD camera 42 for photographing the driver is provided, but three CCD cameras for respectively photographing the front front, right front, and left front of the driver are provided so that the posture change of the driver can be easily detected. It may be provided.

【0042】スライダパネル50は、外部環境の複雑さ
を示す視覚特性をドライバの主観に従って操作入力する
ためのものである。スライダパネル50、図2に示すよ
うに、左右に移動可能なスライダ51を有している。ド
ライバは、例えば、自分自身が交通環境を見落としがち
である場合、つまり車両外部の交通環境を認識しにくい
と判断する場合は、スライダ51を「弱」の方向に操作
する。また、ドライバは、交通環境をよく見ることがで
きる場合、つまり車両外部の交通環境を認識しやすい場
合はスライダ51を「強」の方向に操作する。これによ
り、詳しくは後述するが、マイクロコンピュータ70
は、ドライバの現在の視覚特性を考慮して環境認識度合
を推定することができる。
The slider panel 50 is for inputting visual characteristics indicating the complexity of the external environment in accordance with the subjectivity of the driver. The slider panel 50, as shown in FIG. 2, has a slider 51 that is movable left and right. For example, when the driver tends to overlook the traffic environment, that is, when it is difficult to recognize the traffic environment outside the vehicle, the driver operates the slider 51 in the “weak” direction. In addition, the driver operates the slider 51 in the “strong” direction when the traffic environment can be seen well, that is, when the traffic environment outside the vehicle can be easily recognized. As a result, the microcomputer 70 will be described in detail later.
Can estimate the degree of environmental recognition in consideration of the driver's current visual characteristics.

【0043】障害物情報出力部60は、画像により障害
物情報を出力するLCD(Liquid Crysta
l Display)61と、音声により障害物情報を
出力するスピーカ62と、を備えている。
The obstacle information output section 60 is an LCD (Liquid Crystal) which outputs obstacle information by an image.
l Display) 61 and a speaker 62 for outputting obstacle information by voice.

【0044】マイクロコンピュータ70は、図示されて
いないCPU(Central Processing
Unit)、データのワークエリアであるRAM(R
andom Access Memory)、後述する
各種のルーチン処理を実行するプログラムや出現範囲推
定テーブルや閾値テーブルが記憶されているROM(R
ead Only Memory)により構成されてい
る。マイクロコンピュータ70は、各部からの情報に基
づいて、出現可能性のある障害物を推定したり、ドライ
バの環境認識度合を推定したり、障害物情報の警報を行
う。
The microcomputer 70 is a CPU (Central Processing) (not shown).
Unit), RAM (R which is a work area of data
and ROM (R) that stores a program for executing various routine processes described later, an appearance range estimation table, and a threshold table.
ead Only Memory). The microcomputer 70 estimates obstacles that may appear, estimates the degree of environmental recognition of the driver, and issues an obstacle information alarm based on the information from each unit.

【0045】(メインルーチン)以上のように構成され
た障害物警報装置1において、マイクロコンピュータ7
0は、図3に示すステップST1からステップST3ま
での処理を実行する。ここでは、最初にステップST1
からステップST3までの処理を簡単に説明し、その後
各処理の具体的なサブルーチンについて説明する。
(Main Routine) In the obstacle warning device 1 configured as described above, the microcomputer 7
0 executes the processing from step ST1 to step ST3 shown in FIG. Here, first, step ST1
The processing from step ST3 to step ST3 will be briefly described, and then a specific subroutine of each processing will be described.

【0046】マイクロコンピュータ70は、インフラ情
報検出部10で検出された情報に基づいて自車位置を検
出すると共に、自車の進行方向に出現する可能性のある
障害物を推定する(ステップST1)。そして、自車の
進行方向の環境の撮像画像を分割し、分割された領域毎
にドライバが認識しやすいかを示す環境認識度合を推定
する(ステップST2)。最後に、マイクロコンピュー
タ70は、出現可能性のある障害物情報と、所定の領域
毎の環境認識度合とに基づき、必要に応じて画像又は音
声によりドライバに対して障害物に関する警報を行う
(ステップST3)。
The microcomputer 70 detects the position of the own vehicle based on the information detected by the infrastructure information detecting section 10 and estimates obstacles that may appear in the traveling direction of the own vehicle (step ST1). . Then, the captured image of the environment in the traveling direction of the own vehicle is divided, and the degree of environment recognition indicating whether the driver can easily recognize each divided area is estimated (step ST2). Finally, the microcomputer 70 warns the driver of an obstacle with an image or a voice as necessary based on the obstacle information that may appear and the degree of environment recognition for each predetermined area (step). ST3).

【0047】(ステップST1)ステップST1では、
マイクロコンピュータ70は、自車の進行方向に出現す
る可能性のある障害物を推定すべく、具体的には図4に
示すステップST11からステップST14までの処理
を実行する。
(Step ST1) In step ST1,
The microcomputer 70 specifically executes the processing from step ST11 to step ST14 shown in FIG. 4 in order to estimate an obstacle that may appear in the traveling direction of the vehicle.

【0048】ステップST11では、マイクロコンピュ
ータ70は、自車の位置を検出すると共に、自車位置周
辺であってドライバの視界範囲外の移動障害物を検出す
る。なお、ここでは、例えば以下に説明するようなイン
フラが用いられている。
In step ST11, the microcomputer 70 detects the position of the own vehicle, and also detects a moving obstacle around the position of the own vehicle and outside the driver's visual range. Here, for example, the infrastructure described below is used.

【0049】例えば図5に示すように、歩行者は、デー
タキャリア16が設けられた物品(例えば、携帯電話)
を常時携帯している。また、2輪車や4輪車には、デー
タキャリア16が設けられている。データキャリア16
は数種類の接近情報を出力することができ、歩行者、2
輪車及び4輪車のデータキャリア16はそれぞれ異なる
接近情報を出力する。一方、見通しの悪い交差点や横断
歩道には、接近情報を受信するデータキャリアリーダ1
7が設置されている。データキャリアリーダ17は、デ
ータキャリア16が接近すると、接近情報を受信して、
この接近情報を障害物警報装置1に送信する。
For example, as shown in FIG. 5, a pedestrian is an article (for example, a mobile phone) provided with the data carrier 16.
Always carry. A data carrier 16 is provided in a two-wheeled vehicle or a four-wheeled vehicle. Data carrier 16
Can output several types of approach information,
The data carriers 16 for wheeled vehicles and four-wheeled vehicles output different approach information. On the other hand, at intersections and pedestrian crossings with poor visibility, a data carrier reader 1 that receives approach information
7 is installed. When the data carrier 16 approaches, the data carrier reader 17 receives the approach information,
This approach information is transmitted to the obstacle warning device 1.

【0050】障害物警報装置1のマイクロコンピュータ
70は、データキャリアリーダ17から送信された接近
情報を接近情報受信回路13で受信すると、障害物の場
所を特定することができ、さらにその障害物が歩行者、
2輪車、4輪車のいずれであるかを認識することができ
る。
When the approach information receiving circuit 13 receives the approach information transmitted from the data carrier reader 17, the microcomputer 70 of the obstacle warning device 1 can specify the location of the obstacle, and the obstacle can be detected. Pedestrian,
It is possible to recognize whether the vehicle is a two-wheeled vehicle or a four-wheeled vehicle.

【0051】そして、マイクロコンピュータ70は、G
PS受信回路11により受信されたGPS信号と、DV
Dドライブ12から読み出された地図情報と、接近情報
受信回路13により受信された接近情報と、に基づいて
自車の位置を検出すると共に、自車位置周辺であってド
ライバの視界範囲外の移動障害物を検出し、当該移動障
害物の種別(人、2輪車、4輪車のいずれか)を認識す
る。
Then, the microcomputer 70 uses the G
GPS signal received by the PS receiver circuit 11 and DV
The position of the own vehicle is detected based on the map information read from the D drive 12 and the approach information received by the approach information receiving circuit 13, and the position of the own vehicle is detected and is outside the driver's visual range around the own vehicle position. A moving obstacle is detected, and the type of the moving obstacle (person, two-wheeled vehicle, or four-wheeled vehicle) is recognized.

【0052】さらに、マイクロコンピュータ70は、図
6に示す出現範囲推定テーブルを参照して、移動障害物
の種別に基づいて、自車周辺の路上における移動障害物
が出現する可能性のある範囲を推定する。例えば、マイ
クロコンピュータ70は、移動障害物として4輪車を認
識したときは、当該4輪車は現在の位置から進行方向に
10mの範囲内に出現する可能性があると推定する。ま
た、移動障害物として歩行者を認識したときは、当該歩
行者は現在位置から半径1mの範囲内に出現する可能性
があると推定する。
Further, the microcomputer 70 refers to the appearance range estimation table shown in FIG. 6 and determines the range in which the moving obstacle may appear on the road around the vehicle based on the type of the moving obstacle. presume. For example, when recognizing a four-wheeled vehicle as a moving obstacle, the microcomputer 70 estimates that the four-wheeled vehicle may appear within a range of 10 m in the traveling direction from the current position. When a pedestrian is recognized as a moving obstacle, it is estimated that the pedestrian may appear within a radius of 1 m from the current position.

【0053】マイクロコンピュータ70は、自車の進行
方向軸及び進行方向軸に直交する軸からなる座標系(以
下「自車周辺座標系」という。)を設定し、移動障害物
の出現可能性範囲を自車周辺座標系に記述して、ステッ
プST12に移行する。
The microcomputer 70 sets a coordinate system (hereinafter referred to as a "coordinate system around the vehicle") consisting of the traveling direction axis of the vehicle and an axis orthogonal to the traveling direction axis, and the range of possibility of appearance of a moving obstacle. Is described in the own vehicle peripheral coordinate system, and the process proceeds to step ST12.

【0054】ステップST12では、マイクロコンピュ
ータ70は、ドライバの視界範囲内にある障害物を検出
する。ここでは、マイクロコンピュータ70は、障害物
撮影用CCDカメラ21及び赤外カメラ22を駆動さ
せ、障害物撮影用CCDカメラ21及び赤外カメラ22
により生成された撮像画像を取得する。そして、各カメ
ラにより生成された画像の差分を求めることで、安全上
特に問題となる人間や車をそれ以外のものと十分にコン
トラストを付けた画像を得ることによって、移動障害物
を検出する。
At step ST12, the microcomputer 70 detects an obstacle within the driver's visual field. Here, the microcomputer 70 drives the obstacle photographing CCD camera 21 and the infrared camera 22, and the obstacle photographing CCD camera 21 and the infrared camera 22.
The captured image generated by is acquired. Then, by obtaining the difference between the images generated by the cameras, a moving obstacle is detected by obtaining an image in which humans and vehicles, which are especially problematic in terms of safety, are sufficiently contrasted with those other than that.

【0055】また、マイクロコンピュータ70は、レー
ダ送受信機23による送信から受信までの光レーダの往
復時間に基づいて、自車の前方障害物の距離画像を得
て、前方障害物を認識する。マイクロコンピュータ70
は、このようにして認識された移動障害物を自車周辺座
標系に記述して、ステップST13に移行する。
The microcomputer 70 also obtains a distance image of the front obstacle of the vehicle based on the round-trip time of the optical radar from transmission to reception by the radar transceiver 23 and recognizes the front obstacle. Microcomputer 70
Describes the moving obstacle recognized in this way in the own vehicle peripheral coordinate system, and proceeds to step ST13.

【0056】ステップST13では、マイクロコンピュ
ータ70は、自車状態検出部30からの情報に基づいて
自車状態を検出する。ここでは、例えば特開平11−3
01343号公報に記載されているように、マイクロコ
ンピュータ70は、車速、ハンドル操舵角度、アクセル
操作量、ブレーキ操作量、ヨーレート、ロールレート、
ピッチレート、前後加速度、横加速度及びウィンカ操作
量を検出し、自車の進行方向を推定して、自車の進行方
向の推定結果を自車周辺座標系に記述して、ステップS
T14に移行する。
In step ST13, the microcomputer 70 detects the vehicle state based on the information from the vehicle state detection unit 30. Here, for example, Japanese Patent Laid-Open No. 11-3
As described in Japanese Patent No. 01343, the microcomputer 70 uses a vehicle speed, a steering wheel steering angle, an accelerator operation amount, a brake operation amount, a yaw rate, a roll rate,
The pitch rate, the longitudinal acceleration, the lateral acceleration, and the blinker operation amount are detected, the traveling direction of the own vehicle is estimated, the estimation result of the traveling direction of the own vehicle is described in the own vehicle peripheral coordinate system, and step S
Move to T14.

【0057】ステップST14では、マイクロコンピュ
ータ70は、ステップST11からステップST13ま
での処理によって得られた自車周辺座標系に対して、自
車の進行予測範囲内に出現する可能性のある移動障害物
の情報のみを残し、その他の情報を除去する。そして、
マイクロコンピュータ70は、自車周辺座標系に記述さ
れた移動障害物に関する情報を障害物表示画面としてL
CD61に表示させると、サブルーチンを抜けて図3に
示したステップST2に移行する。
At step ST14, the microcomputer 70 causes the moving obstacle which may appear within the predicted travel range of the own vehicle with respect to the own vehicle peripheral coordinate system obtained by the processing from step ST11 to step ST13. Keep only the information of and remove other information. And
The microcomputer 70 displays information about the moving obstacle described in the coordinate system around the vehicle as an obstacle display screen.
When it is displayed on the CD 61, the process exits the subroutine and proceeds to step ST2 shown in FIG.

【0058】ここで、障害物表示画面は、例えば図7に
示すように、自車が走行している周囲の地図と、自車の
現在位置と、自車の進行予測範囲と、移動障害物(人や
車など)及びその出現可能範囲を表示している。障害物
表示画面に表示された移動障害物の大きさは、当該移動
障害物が出現する可能性のある範囲を示している。
Here, the obstacle display screen is, for example, as shown in FIG. 7, a map around the vehicle, the current position of the vehicle, the predicted travel range of the vehicle, and moving obstacles. (People, cars, etc.) and their possible appearance range are displayed. The size of the moving obstacle displayed on the obstacle display screen indicates a range in which the moving obstacle may appear.

【0059】(ステップST2)ステップST2では、
マイクロコンピュータ70は、車両周囲環境をドライバ
が認識する度合を推定すべく、具体的には図8に示すス
テップST21からステップST24までの処理を実行
する。
(Step ST2) In step ST2,
The microcomputer 70 specifically executes the processing from step ST21 to step ST24 shown in FIG. 8 in order to estimate the degree to which the driver recognizes the vehicle surrounding environment.

【0060】ステップST21では、マイクロコンピュ
ータ70は、環境情報検出部40からの情報を用いてド
ライバの姿勢の変化を検出する。すなわち、マイクロコ
ンピュータ70は、ドライバ撮影用CCDカメラ42か
らの撮像画像についてフレーム間毎に差分を求め、撮像
画像の差分値をドライバの移動領域量として検出する。
In step ST21, the microcomputer 70 detects a change in the driver's posture using the information from the environment information detecting section 40. That is, the microcomputer 70 obtains a difference for each frame of the imaged image from the driver photographing CCD camera 42, and detects the difference value of the imaged image as the moving area amount of the driver.

【0061】マイクロコンピュータ70は、移動領域量
が所定の閾値以上のときは「1」をカウントし、移動領
域量が所定の閾値より小さいときはカウントを行わな
い。そして、例えば過去5分間のカウント値を求め、当
該カウント値が閾値TH1未満のときは姿勢変化が
「小」であると判定し、当該カウント値が閾値TH1以
上であり閾値TH2(>TH1)未満のときは姿勢変化
が「中」であると判定し、当該カウント値が閾値TH2
以上のときは姿勢変化が「大」であると判定する。ま
た、マイクロコンピュータ70は、照度センサ41によ
り検出された車両外部の照度を取得して、ステップST
22に移行する。
The microcomputer 70 counts "1" when the movement area amount is equal to or larger than the predetermined threshold value, and does not count when the movement area amount is smaller than the predetermined threshold value. Then, for example, the count value for the past 5 minutes is obtained, and when the count value is less than the threshold TH1, it is determined that the posture change is “small”, and the count value is equal to or more than the threshold TH1 and less than the threshold TH2 (> TH1). When it is, it is determined that the posture change is “medium”, and the count value is the threshold TH2.
In the above case, it is determined that the posture change is “large”. In addition, the microcomputer 70 acquires the illuminance outside the vehicle detected by the illuminance sensor 41, and proceeds to step ST
Move to 22.

【0062】ステップST22では、マイクロコンピュ
ータ70は、図7に示した障害物表示画面の所定領域毎
に、環境の複雑度Cを演算する。なお、ここにいう複雑
度Cとは、ドライバの交通環境の認識度合を推定するた
めに用いられるパラメータをいう。
In step ST22, the microcomputer 70 calculates the environmental complexity C for each predetermined area of the obstacle display screen shown in FIG. The complexity C mentioned here is a parameter used to estimate the degree of recognition of the traffic environment of the driver.

【0063】最初に、マイクロコンピュータ70は、ス
テップST1で得られた障害物表示画面のうち、障害物
及びその出現可能範囲のある領域を、距離・方向で4分
割する。ここでは図9に示すように、障害物表示画面を
領域A,領域B,領域C及び領域Dに分割する。これに
より、上記障害物表示画面は、自車の前方正面近距離の
領域である領域Aと、領域Aに隣接し、かつ自車の前方
正面遠距離の領域である領域Bと、領域A及びBに隣接
し、かつ自車の前方左遠距離の領域である領域Cと、領
域A及びBに隣接し、かつ自車の前方右遠距離の領域で
ある領域Dと、を有している。なお、障害物表示画面領
域Aから領域Dは、模式的には図10に示すように分割
される。
First, the microcomputer 70 divides the obstacle display screen obtained in step ST1 into four areas in which obstacles and their appearance ranges are present in distance and direction. Here, as shown in FIG. 9, the obstacle display screen is divided into areas A, B, C and D. As a result, the obstacle display screen has an area A that is a front front short distance area of the vehicle, an area B that is adjacent to the area A and is a front front long distance area of the vehicle, the area A, and It has a region C that is adjacent to B and is a front left long distance region of the own vehicle, and a region D that is adjacent to regions A and B and is a front right long distance region of the own vehicle. . The obstacle display screen areas A to D are typically divided as shown in FIG.

【0064】次に、マイクロコンピュータ70は、領域
B、領域C及び領域Dのそれぞれについて、次の式
(1)に基づいて交通環境の複雑度Cを演算する。
Next, the microcomputer 70 calculates the complexity C of the traffic environment for each of the areas B, C and D based on the following equation (1).

【0065】[0065]

【数1】 [Equation 1]

【0066】指標C1は輝度分割ブロックの数、指標C
2は赤色系分割ブロックの数を示している。また、α、
β、γは、重み付け係数であり、それぞれ所定の値をと
る。
Index C1 is the number of luminance division blocks, index C
2 indicates the number of red-color divided blocks. Also, α,
β and γ are weighting coefficients and take predetermined values.

【0067】ここで、指標C1の演算について説明す
る。なお、マイクロコンピュータ70は、上述したよう
に領域B、領域C及び領域Dについて指標C1を演算す
るが、ここでは、領域Bについて図11に示す撮像画像
を用いて指標C1を演算することについて説明する。
Here, the calculation of the index C1 will be described. Note that the microcomputer 70 calculates the index C1 for the region B, the region C, and the region D as described above, but here, the calculation of the index C1 for the region B using the captured image shown in FIG. 11 will be described. To do.

【0068】マイクロコンピュータ70は、障害物撮影
用CCDカメラ21を駆動させ、例えば図11に示すよ
うな撮像画像を得る。そして、当該撮像画像全体を輝度
分割ブロックとして設定する。
The microcomputer 70 drives the obstacle photographing CCD camera 21 to obtain a picked-up image as shown in FIG. 11, for example. Then, the entire captured image is set as a brightness division block.

【0069】マイクロコンピュータ70は、設定された
輝度分割ブロック内において各画素の輝度値の最大値と
最小値の差を演算する。マイクロコンピュータ70は、
輝度値の最大値と最小値の差が所定の閾値以上であるか
を判定し、上記差が所定の閾値を超えているときは輝度
分割ブロックを4つに分割する。このとき、マイクロコ
ンピュータ70は、縦横ほぼ同じ画素数で構成されるよ
うに、かつ可能な限り大きくするように、輝度分割ブロ
ックを分割するのが好ましい。
The microcomputer 70 calculates the difference between the maximum value and the minimum value of the brightness value of each pixel in the set brightness division block. The microcomputer 70
It is determined whether the difference between the maximum value and the minimum value of the brightness value is equal to or more than a predetermined threshold value, and when the difference exceeds the predetermined threshold value, the brightness division block is divided into four. At this time, it is preferable that the microcomputer 70 divides the luminance division block so that it is composed of substantially the same number of pixels vertically and horizontally and is as large as possible.

【0070】撮像画像の輝度値が例えば図12(A)に
示すようになっている場合、マイクロコンピュータ70
は、輝度値の最大値(180)と最小値(000)の差
を演算する。そして、輝度値の最大値と最小値の差(1
80)が閾値(例えば40)以上であるかを判定し、こ
こでは上記差が閾値(40)を超えているので、図12
(A)に示すように輝度分割ブロックを4つに分割す
る。
When the brightness value of the picked-up image is as shown in FIG. 12A, for example, the microcomputer 70
Calculates the difference between the maximum brightness value (180) and the minimum brightness value (000). Then, the difference between the maximum and minimum luminance values (1
80) is greater than or equal to a threshold value (for example, 40). Since the above difference exceeds the threshold value (40) in FIG.
As shown in (A), the luminance division block is divided into four.

【0071】マイクロコンピュータ70は、分割された
各輝度分割ブロック内において各画素の輝度値の最大値
と最小値の差が所定の閾値以下になるまで、前記輝度分
割ブロックを4つに分割し、新たな輝度分割ブロックを
設定することを繰り返す。
The microcomputer 70 divides the luminance division block into four until the difference between the maximum value and the minimum value of the luminance value of each pixel in each divided luminance division block becomes equal to or less than a predetermined threshold value. The setting of a new luminance division block is repeated.

【0072】例えば、図12(A)に示す輝度分割ブロ
ックBK1は4×4画素で構成され、輝度値の最大値は
180、輝度値の最小値は20である。マイクロコンピ
ュータ70は、輝度分割ブロックBK1の輝度値の最大
値と最小値の差(160)を求め、上記差が閾値(4
0)以上であるので、図12(B)に示すように、輝度
分割ブロックBK1を4つ(BK2,BK3,BK4,
BK5)に分割する。
For example, the brightness division block BK1 shown in FIG. 12A is composed of 4 × 4 pixels, and the maximum brightness value is 180 and the minimum brightness value is 20. The microcomputer 70 obtains the difference (160) between the maximum value and the minimum value of the brightness values of the brightness division block BK1, and the difference is the threshold value (4).
0) or more, and therefore, as shown in FIG. 12B, four luminance division blocks BK1 (BK2, BK3, BK4,
BK5).

【0073】そして、マイクロコンピュータ70は、輝
度分割ブロックBK2の輝度値の最大値と最小値の差
(39)は閾値(40)以上でないので、輝度分割ブロ
ックBK2に対しては分割を行わない。一方、輝度分割
ブロックBK3,BK4,BK5については、輝度値の
最大値と最小値の差は閾値(40)以上であるので、図
12(C)に示すように、各輝度分割ブロックBKを分
割する。
Since the difference (39) between the maximum value and the minimum value of the brightness value of the brightness division block BK2 is not larger than the threshold value (40), the microcomputer 70 does not divide the brightness division block BK2. On the other hand, with respect to the brightness division blocks BK3, BK4, BK5, the difference between the maximum value and the minimum value of the brightness values is equal to or more than the threshold value (40), and therefore each brightness division block BK is divided as shown in FIG. To do.

【0074】このような処理を経て、マイクロコンピュ
ータ70は、各画素の輝度値の最大値と最小値の差が所
定の閾値(40)以下になった輝度分割ブロックの数を
示す指標C1を求める。これにより、マイクロコンピュ
ータ70は、輝度分割ブロックを構成する各画素の輝度
値を均質にする。
Through the above processing, the microcomputer 70 obtains the index C1 indicating the number of brightness division blocks in which the difference between the maximum value and the minimum value of the brightness value of each pixel is equal to or less than the predetermined threshold value (40). . As a result, the microcomputer 70 makes the luminance values of the pixels forming the luminance division block uniform.

【0075】なお、指標C1は、各画素の輝度値の最大
値と最小値の差が所定の閾値以下になった輝度分割ブロ
ックの数に限定されるものではない。例えば、指標C1
は、撮像画像の輝度値の分散値であってもよい。また、
指標C1は、撮像画像の2次元高速フーリエ変換(FF
T:Fast Fourier Transform)
の高周波成分の総和であってもよい。
The index C1 is not limited to the number of brightness division blocks in which the difference between the maximum value and the minimum value of the brightness value of each pixel is less than or equal to a predetermined threshold value. For example, the index C1
May be a variance value of the brightness values of the captured image. Also,
The index C1 is a two-dimensional fast Fourier transform (FF) of the captured image.
T: Fast Fourier Transform)
It may be the sum of the high frequency components of.

【0076】また、マイクロコンピュータ70は、図1
2(C)に示すように、輝度分割ブロックBKが1×1
画素になるまで分割したが、輝度分割ブロックBKを分
割して予め定めた大きさ(例えば、4×4画素)になっ
たときに、分割を終了してもよい。
The microcomputer 70 shown in FIG.
As shown in FIG. 2 (C), the luminance division block BK is 1 × 1.
Although the pixel is divided into pixels, the division may be ended when the luminance division block BK is divided into a predetermined size (for example, 4 × 4 pixels).

【0077】つぎに、指標C2の演算について説明す
る。なお、マイクロコンピュータ70は、上述したよう
に所定領域毎に赤色系分割ブロックの数を示すC2を演
算するが、ここでは、領域Bについて、図13(A)に
示す撮像画像を用いて指標C2を演算することについて
説明する。
Next, the calculation of the index C2 will be described. Note that the microcomputer 70 calculates C2 indicating the number of red-colored divided blocks for each predetermined region as described above, but here, for the region B, the index C2 is obtained using the captured image shown in FIG. The calculation of is explained.

【0078】マイクロコンピュータ70は、障害物撮影
用CCDカメラ21を駆動させ、例えば図13(A)に
示すような撮像画像を得る。そして、当該撮像画像から
明度0.3以上、彩度0.1以上を抽出して、例えば図
13(B)に示すような撮像画像を得る。さらに、マイ
クロコンピュータ70は、0.1以下又は0.75以上
の色相を抽出すると、図13(C)に示すような撮像画
像を得る。
The microcomputer 70 drives the obstacle photographing CCD camera 21 to obtain a picked-up image as shown in FIG. 13 (A), for example. Then, the brightness of 0.3 or more and the saturation of 0.1 or more are extracted from the captured image to obtain a captured image as shown in FIG. 13B, for example. Furthermore, when the microcomputer 70 extracts a hue of 0.1 or less or 0.75 or more, a captured image as shown in FIG. 13C is obtained.

【0079】マイクロコンピュータ70は、図13
(C)に示すような撮像画像に対して、同一の赤色系分
割ブロック内が赤色系画素のみで占めるようにブロック
分割を繰り返し、図13(D)に示すように、赤色系画
素(1)又は赤色系画素以外の画素(0)で構成された
赤色系分割ブロックを得る。そして、マイクロコンピュ
ータ70は、赤色系画素のみで構成された赤色系分割ブ
ロックの数である指標C2を求める。
The microcomputer 70 is shown in FIG.
With respect to the captured image as shown in (C), block division is repeated so that the same red-colored divided block is occupied by only red-colored pixels, and as shown in FIG. Alternatively, a red-based divided block including pixels (0) other than the red-based pixels is obtained. Then, the microcomputer 70 obtains an index C2, which is the number of red-colored divided blocks composed of only red-colored pixels.

【0080】マイクロコンピュータ70は、求められた
輝度分割ブロックの数を示す指標C1及び赤色系分割ブ
ロックの数を示す指標C2を用いて、上述した式(1)
に従って環境の複雑度Cを演算して、ステップST23
に移行する。なお、以上のようにして演算された複雑度
Cの値は、例えば図14に示すように、時刻によって変
化する。
The microcomputer 70 uses the index C1 indicating the number of luminance division blocks and the index C2 indicating the number of red color division blocks thus obtained, and uses the above-mentioned formula (1).
The complexity C of the environment is calculated according to step ST23.
Move to. The value of the complexity C calculated as described above changes with time, as shown in FIG. 14, for example.

【0081】なお、指標C2は、赤色系分割ブロックの
数に限定されるものではなく、例えば、次のような値で
もよい。
The index C2 is not limited to the number of red-colored divided blocks and may be, for example, the following value.

【0082】マイクロコンピュータ70は、所定の領域
の撮像画像に対して、マンセル色票において色票が2.
5RP,5RP,7.5RP,10RP,2.5R,5
R,7.5R,10R,2.5YR,5YRに属し、ク
ロマ2以上、明度3以上の赤色系の画素のみを抽出して
もよい。そして、同一の分割ブロック内が上記赤色系画
素のみ、赤色系画素以外の画素のみで構成されるまで、
上記分割ブロックを分割することを繰り返し、得られた
分割ブロックの数を指標C2とすればよい。
The microcomputer 70 determines that the Munsell color chart has a color chart of 2.
5RP, 5RP, 7.5RP, 10RP, 2.5R, 5
R, 7.5R, 10R, 2.5YR, and 5YR may be extracted, and only red pixels having a chroma of 2 or more and a brightness of 3 or more may be extracted. Then, until the same divided block is composed of only the red-colored pixels and pixels other than the red-colored pixels,
The division of the above divided blocks is repeated, and the obtained number of divided blocks may be used as the index C2.

【0083】また、マイクロコンピュータ70は、所定
の領域の撮像画像に対して、マンセル色票において色票
が2.5RP,5RP,7.5RP,10RP,2.5
R,5R,7.5R,10R,2.5YR,5YRに属
し、クロマ2以上、明度3以上の赤色系の画素のみを抽
出し、上記赤色系の画素の数を指標C2としてもよい。
あるいは、撮像画像の中央から上述した各赤色系画素の
距離の総和を指標C2としてもよい。
Further, the microcomputer 70 applies color images of 2.5 RP, 5 RP, 7.5 RP, 10 RP, 2.5 in Munsell color chart to the imaged image of the predetermined area.
R, 5R, 7.5R, 10R, 2.5YR, 5YR may be extracted, and only the red pixels having a chroma of 2 or more and a brightness of 3 or more may be extracted, and the number of the red pixels may be used as the index C2.
Alternatively, the sum of the distances of the above-described red pixels from the center of the captured image may be used as the index C2.

【0084】ステップST23では、マイクロコンピュ
ータ70は、環境認識度合を判定するための閾値thを
設定する。閾値thは、車両外部の環境照度によって異
なるように設定される。その理由は、複雑度Cの値が一
定であっても、車両外部が明るかったり暗くなったりす
ると、ドライバは交通環境が複雑と感じたり単純と感じ
ることがあるからである。
At step ST23, the microcomputer 70 sets a threshold th for judging the degree of environment recognition. The threshold th is set to be different depending on the environmental illuminance outside the vehicle. The reason is that even if the value of the complexity C is constant, the driver may feel that the traffic environment is complicated or simple when the outside of the vehicle is bright or dark.

【0085】マイクロコンピュータ70には、例えば図
15に示すように、環境照度に対する閾値thを記述し
た閾値テーブルが記憶されている。図15によると、閾
値thは、環境照度がゼロからS1までの場合は最小値
(一定)となり、環境照度がS1からS2まで大きくな
るに従って一定の割合で大きくなる。そして、閾値th
は、環境照度がS2からS3までの場合は最大値(一
定)となり、環境照度がS3より大きくなるに従って一
定の割合で小さくなる。なお、図15に示す閾値テーブ
ルは本実施の形態の一例であり、本発明はこれに限定さ
れるものではない。
The microcomputer 70 stores, as shown in FIG. 15, for example, a threshold value table in which the threshold value th for the environmental illuminance is described. According to FIG. 15, the threshold th has a minimum value (constant) when the environmental illuminance is from zero to S1, and increases at a constant rate as the environmental illuminance increases from S1 to S2. And the threshold th
Becomes the maximum value (constant) when the environmental illuminance is from S2 to S3, and decreases at a constant rate as the environmental illuminance becomes larger than S3. The threshold value table shown in FIG. 15 is an example of the present embodiment, and the present invention is not limited to this.

【0086】そこで、マイクロコンピュータ70は、上
記閾値テーブルを参照して、照度センサ41によって検
出された環境照度に基づいて、閾値thを設定する。さ
らに、マイクロコンピュータ70は、ドライバの操作入
力値やドライバの姿勢変化に応じて、閾値thの最大値
を再設定することができる。
Therefore, the microcomputer 70 refers to the threshold value table and sets the threshold value th based on the environmental illuminance detected by the illuminance sensor 41. Furthermore, the microcomputer 70 can reset the maximum value of the threshold value th according to the operation input value of the driver and the posture change of the driver.

【0087】最初に、マイクロコンピュータ70は、ス
ライダパネル50に設けられたスライダ51の入力値に
応じて、閾値thの最大値を設定する。例えば、ドライ
バがスライダ51を「強」の方にスライドしている場合
は、図15に示すように、マイクロコンピュータ70は
閾値thの最大値を大きく設定する。逆に、ドライバが
スライダ51を「弱」の方にスライドしている場合は、
マイクロコンピュータ70は閾値thの最大値を小さく
設定する。なお、スライダ51が「強」と「弱」の中間
にある場合は、マイクロコンピュータ70は、環境照度
に基づいて設定されたデフォルトの閾値thのままでよ
い。
First, the microcomputer 70 sets the maximum value of the threshold value th in accordance with the input value of the slider 51 provided on the slider panel 50. For example, when the driver slides the slider 51 toward “strong”, the microcomputer 70 sets the maximum value of the threshold th to be large as shown in FIG. On the contrary, when the driver slides the slider 51 toward “weak”,
The microcomputer 70 sets the maximum value of the threshold th to be small. When the slider 51 is between “strong” and “weak”, the microcomputer 70 may keep the default threshold value th set based on the environmental illuminance.

【0088】次に、マイクロコンピュータ70は、ドラ
イバの姿勢変化に応じて、閾値thの最大値を設定す
る。その理由は、ドライバは、頻繁に姿勢の変化がある
場合では種々の環境を認識し易い傾向があり、姿勢の変
化がない場合では環境を認識しにくい傾向があるからで
ある。そこで、マイクロコンピュータ70は、交通環境
の認識のしやすさとドライバの姿勢変化の関係を考慮し
て、以下のように閾値thを設定する。
Next, the microcomputer 70 sets the maximum value of the threshold value th in accordance with the change in the attitude of the driver. The reason is that the driver tends to easily recognize various environments when the posture changes frequently, and tends to hardly recognize the environment when the posture does not change. Therefore, the microcomputer 70 sets the threshold value th as follows in consideration of the relationship between the recognizability of the traffic environment and the change in the posture of the driver.

【0089】マイクロコンピュータ70は、例えば上述
したステップST21においてドライバの姿勢変化が
「小」であると判定した場合、図16に示すように、閾
値thの最大値を小さく設定する。逆に、例えばステッ
プST21においてドライバの姿勢変化が「大」である
と判定した場合は、閾値thの最大値を大きく設定す
る。なお、マイクロコンピュータ70は、ドライバの姿
勢変化が「中」であると判定した場合は、環境照度に基
づいて設定されたデフォルトの閾値thのままでよい。
For example, when the microcomputer 70 determines that the posture change of the driver is "small" in the above-mentioned step ST21, the microcomputer 70 sets the maximum value of the threshold th to be small as shown in FIG. On the contrary, for example, when it is determined that the driver's posture change is “large” in step ST21, the maximum value of the threshold th is set to be large. When it is determined that the posture change of the driver is “medium”, the microcomputer 70 may keep the default threshold value th set based on the environmental illuminance.

【0090】このように、マイクロコンピュータ70
は、環境照度に対応する閾値thが記述された閾値テー
ブルと、スライダパネル50に設けられたスライダ51
の入力値と、更にドライバの姿勢変化と、に基づいて閾
値thを設定すると、ステップST24に移行する。
Thus, the microcomputer 70
Is a threshold value table in which the threshold value th corresponding to the ambient illuminance is described, and the slider 51 provided on the slider panel 50.
When the threshold value th is set based on the input value of, and the change in the posture of the driver, the process proceeds to step ST24.

【0091】ステップST24では、マイクロコンピュ
ータ70は、図17に示すように、ステップST22で
演算された複雑度Cと、ステップST23で設定された
閾値thとを比較する。そして、複雑度Cが閾値thを
超えていなかったときは、環境は複雑でない、すなわち
単純であると判定する。また、複雑度Cが閾値thを超
えていたときは、環境は複雑であると判定する。
In step ST24, the microcomputer 70 compares the complexity C calculated in step ST22 with the threshold value th set in step ST23, as shown in FIG. Then, when the complexity C does not exceed the threshold th, it is determined that the environment is not complex, that is, simple. If the complexity C exceeds the threshold th, it is determined that the environment is complicated.

【0092】マイクロコンピュータ70は、障害物撮影
用CCDカメラ21で得られた撮像画像が例えば図18
に示すような前方風景の場合は、交通環境が「単純」で
あると判定し、例えば図19に示すような前方風景の場
合は、交通環境が「複雑」であると判定する。そして、
サブルーチン処理を終了して、図3に示すステップST
3に移行する。
In the microcomputer 70, the picked-up image obtained by the CCD camera 21 for picking up obstacles is shown in FIG.
In the case of the forward landscape as shown in FIG. 11, it is determined that the traffic environment is “simple”, and in the case of the forward landscape as shown in FIG. 19, the traffic environment is determined to be “complex”. And
After the subroutine processing is completed, step ST shown in FIG.
Move to 3.

【0093】(ステップST3)ステップST3では、
マイクロコンピュータ70は、ドライバに対して障害物
の警報を行う。ここでは、領域毎に警報要請フラグがあ
るかを判定し、優先順位の高いフラグを用いてドライバ
に所定の警報を行う。なお、ここにいう警報要請フラグ
とは、上記所定領域について障害物等の存在によりドラ
イバに警報を行う必要があることを示すフラグをいう。
そして、マイクロコンピュータ70は、具体的には図2
0に示すステップST31からステップST42までの
処理を実行する。
(Step ST3) In step ST3,
The microcomputer 70 warns the driver of an obstacle. Here, it is determined whether or not there is a warning request flag for each area, and a predetermined warning is given to the driver by using the flag with a high priority. The warning request flag mentioned here is a flag indicating that the driver needs to be warned due to the presence of an obstacle or the like in the predetermined area.
The microcomputer 70 is specifically shown in FIG.
The processing from step ST31 to step ST42 shown in 0 is executed.

【0094】ステップST31では、マイクロコンピュ
ータ70は、領域Aの警報要請フラグを生成するか否か
を判定する。ここでは、具体的には図21に示すステッ
プST51からステップST54までのサブルーチンを
実行する。
At step ST31, the microcomputer 70 determines whether or not to generate the warning request flag for the area A. Here, specifically, the subroutine from step ST51 to step ST54 shown in FIG. 21 is executed.

【0095】ステップST51では、マイクロコンピュ
ータ70は、領域Aにおいて障害物を検出したか、又は
現在の自車位置が障害物出現範囲内にあるかを判定し、
いずれか一方の条件を満たすときはステップST52に
移行し、いずれの条件も満たさないときはサブルーチン
処理を終了する。
In step ST51, the microcomputer 70 determines whether an obstacle is detected in the area A or whether the current vehicle position is within the obstacle appearance range.
If either condition is satisfied, the process proceeds to step ST52, and if neither condition is satisfied, the subroutine process ends.

【0096】ステップST52では、マイクロコンピュ
ータ70は、上述したステップST13で検出された自
車状態に基づいて、障害物に対して自車が回避行動をと
っているかを判定し、回避行動をとっているときはステ
ップST53に移行し、回避行動をとっていないときは
サブルーチン処理を終了する。
At step ST52, the microcomputer 70 determines whether or not the own vehicle is taking an avoiding action with respect to the obstacle based on the own vehicle state detected at the above-mentioned step ST13, and takes the avoiding action. If so, the process proceeds to step ST53, and if no avoidance action is taken, the subroutine process ends.

【0097】ステップST53では、マイクロコンピュ
ータ70は、ステップST1において検出された障害物
に関する情報及び自車状態に基づいて、自車が障害物を
回避することが不可能であるかを判定する。そして、例
えばドライバがブレーキペダルを踏んだり、ハンドルを
操作して、障害物に対する回避行動をとっていたとして
も、自車が障害物を回避することができないときはステ
ップST54に移行し、自車が障害物を回避することが
できるときはサブルーチン処理を終了する。
In step ST53, the microcomputer 70 determines whether or not the own vehicle cannot avoid the obstacle based on the information about the obstacle detected in step ST1 and the state of the own vehicle. Then, for example, even if the driver depresses the brake pedal or operates the steering wheel to take the avoidance action against the obstacle, if the own vehicle cannot avoid the obstacle, the process proceeds to step ST54 and the own vehicle is operated. When is able to avoid the obstacle, the subroutine processing is ended.

【0098】ステップST54では、マイクロコンピュ
ータ70は、領域Aにおける警報要請フラグを発生して
サブルーチン処理を終了する。マイクロコンピュータ7
0は、このようなサブルーチン処理を終了すると、図2
0に示すステップST32に移行する。
In step ST54, the microcomputer 70 generates an alarm request flag in the area A and ends the subroutine processing. Microcomputer 7
0, when such a subroutine process is completed,
Then, the process proceeds to step ST32 shown in 0.

【0099】ステップST32では、マイクロコンピュ
ータ70は、領域B,C及びDのそれぞれに対して警報
要請フラグを生成するか否かの判定を行う。具体的には
図22に示すステップST61からステップST64ま
でのサブルーチン処理を実行する。なお、ここではいず
れの領域でも同じ処理を行うので、領域Bの処理を例に
挙げて説明する。
In step ST32, the microcomputer 70 determines whether to generate the warning request flag for each of the areas B, C and D. Specifically, the subroutine processing from step ST61 to step ST64 shown in FIG. 22 is executed. Since the same process is performed in any of the areas, the process in the area B will be described as an example.

【0100】ステップST61では、マイクロコンピュ
ータ70は、領域Bにおいて障害物を検出したか、又は
現在の自車位置が障害物出現範囲内にあるかを判定し、
いずれか一方の条件を満たすときはステップST62に
移行し、いずれの条件も満たさないときはサブルーチン
処理を終了する。
At step ST61, the microcomputer 70 determines whether an obstacle is detected in the area B or whether the current vehicle position is within the obstacle appearance range.
When either one of the conditions is satisfied, the process proceeds to step ST62, and when neither condition is satisfied, the subroutine process ends.

【0101】ステップST62では、マイクロコンピュ
ータ70は、上述したステップST2において領域Bは
複雑であると判定したか、すなわち、ステップST2に
おいて領域Bの複雑度Cが閾値thを超えたかを判定す
る。そして、領域Bの複雑度Cが閾値thを超えたとき
はステップST63に移行し、閾値thを超えていない
ときはサブルーチン処理を終了する。
At step ST62, the microcomputer 70 determines at step ST2 that the area B is complex, that is, at step ST2, the complexity C of the area B exceeds the threshold th. Then, when the complexity C of the area B exceeds the threshold th, the process proceeds to step ST63, and when the complexity C does not exceed the threshold th, the subroutine process is ended.

【0102】ステップST63では、マイクロコンピュ
ータ70は、障害物又は障害物出現範囲の場所が初めて
警報を発する場所であるかを判定し、初めて警報を発す
る場所であるときはステップST64に移行し、初めて
警報を発する場所でないときはサブルーチン処理を終了
する。
In step ST63, the microcomputer 70 determines whether the obstacle or the place in the obstacle appearance range is the place where the alarm is issued for the first time. If it is the place where the alarm is issued for the first time, the microcomputer 70 proceeds to step ST64 and When it is not the place to issue an alarm, the subroutine processing is ended.

【0103】ステップST64では、マイクロコンピュ
ータ70は、領域Bにおける警報要請フラグを発生して
サブルーチン処理を終了する。マイクロコンピュータ7
0は、以上のようなサブルーチン処理を終了すると、図
20に示すステップST33に移行する。
At step ST64, the microcomputer 70 generates an alarm request flag in the area B and ends the subroutine processing. Microcomputer 7
When 0 completes the above subroutine processing, the process proceeds to step ST33 shown in FIG.

【0104】ステップST33では、マイクロコンピュ
ータ70は、領域Aの警報要請フラグがあるか否かを判
定し、領域Aの警報要請フラグがあったときはステップ
ST39に移行し、領域Aの警報要請フラグがなかった
ときはステップST34に移行する。
At step ST33, the microcomputer 70 determines whether or not there is the warning request flag for the area A, and when there is the warning request flag for the area A, the microcomputer 70 proceeds to step ST39 and the warning request flag for the area A. If there is not, the process proceeds to step ST34.

【0105】ステップST34では、マイクロコンピュ
ータ70は、領域C又は領域Dの警報要請フラグがある
か否かを判定する。そして、各領域の少なくとも一方に
警報要請フラグがあったときはステップST38に移行
し、各領域のいずれにも警報要請フラグがないときはス
テップST35に移行する。
At step ST34, the microcomputer 70 determines whether or not there is a warning request flag for the area C or the area D. Then, if there is an alarm request flag in at least one of the areas, the process proceeds to step ST38, and if there is no alarm request flag in any of the areas, the process proceeds to step ST35.

【0106】ステップST35では、マイクロコンピュ
ータ70は、領域Bの警報要請フラグがあるか否かを判
定し、領域Bの警報要請フラグがあったときはステップ
ST36に移行し、領域Bの警報要請フラグがなかった
ときはサブルーチン処理を終了する。
At step ST35, the microcomputer 70 determines whether or not there is the warning request flag for the area B, and when there is the warning request flag for the area B, the microcomputer 70 proceeds to step ST36 and the warning request flag for the area B. If there is not, the subroutine processing is ended.

【0107】このように、マイクロコンピュータ70
は、ステップST33からステップST35の順に処理
を実行することで、領域A、領域C又は領域D、領域B
の順に優先順位を設定し、優先順位の高い領域から障害
物の警報を行っている。
Thus, the microcomputer 70
Performs the processing in the order of step ST33 to step ST35 to obtain area A, area C or area D, area B.
The priority order is set in the order of, and the warning of the obstacle is given from the area having the higher priority order.

【0108】ステップST36では、マイクロコンピュ
ータ70は、前回の判定処理で領域Aの警報要請フラグ
があったかを判定し、領域Aの警報要請フラグがあった
ときはステップST37に移行し、領域Aの警報要請フ
ラグがなかったときはサブルーチン処理を終了する。
In step ST36, the microcomputer 70 determines whether or not there is the warning request flag for the area A in the previous determination processing, and when there is the warning request flag for the area A, the process proceeds to step ST37 and the warning for the area A is issued. When there is no request flag, the subroutine processing ends.

【0109】ステップST37では、マイクロコンピュ
ータ70は、ドライバに領域Bの警報を行う。マイクロ
コンピュータ70は、ドライバに対する警報として、
「前方障害物に注意してください。」、「交差点に近づ
きます。歩行者の飛び出しに注意してください。」など
をLCD61に表示させたり、音声によりスピーカ62
から出力させて、サブルーチン処理を終了する。
In step ST37, the microcomputer 70 warns the driver of the area B. The microcomputer 70, as an alarm to the driver,
"Be careful of obstacles ahead,""You are approaching the intersection. Be careful of pedestrians jumping out."
, And the subroutine processing is ended.

【0110】また、ステップST34で領域C、領域D
の少なくとも一方の警報要請フラグがあったと判定して
移行したときのステップST38では、マイクロコンピ
ュータ70は、警報要請フラグのあった領域について、
ドライバに対して警報を行う。警報要請の一例として
は、ステップST37と同様である。
In step ST34, the area C and the area D
In step ST38 when it is determined that there is at least one of the alarm request flags, the microcomputer 70
Alert the driver. An example of the alarm request is the same as step ST37.

【0111】一方、ステップST33で領域Aの警報要
請フラグがあったと判定して移行したときのステップS
T39では、領域Aの警報要請フラグが所定数以上ある
か否かを判定し、警報要請フラグが所定数以上あるとき
はステップST40に移行し、警報要請フラグが所定数
以上ないときはステップST42に移行する。
On the other hand, when it is determined in step ST33 that the warning request flag of the area A is present, the process proceeds to step S
At T39, it is determined whether or not the number of warning request flags in the area A is equal to or larger than a predetermined number. If the number of warning request flags is equal to or larger than a predetermined number, the process proceeds to step ST40. Transition.

【0112】ステップST40では、マイクロコンピュ
ータ70は、自車状態検出部30により検出された車速
が所定値以上であるかを判定し、車速が所定値以上であ
るときはステップST41に移行し、車速が所定値以上
でないときはステップST42に移行する。
In step ST40, the microcomputer 70 determines whether or not the vehicle speed detected by the vehicle state detecting section 30 is equal to or higher than a predetermined value. If the vehicle speed is equal to or higher than the predetermined value, the process proceeds to step ST41 and the vehicle speed is When is not greater than or equal to the predetermined value, the process proceeds to step ST42.

【0113】ステップST41では、マイクロコンピュ
ータ70は、ドライバに対して領域Aにおける第1警報
を行う。マイクロコンピュータ70は、ドライバに対す
る第1警報として、例えば「衝突注意。減速してくださ
い。」などをLCD61に表示させたり、音声によりス
ピーカ62から出力させて、サブルーチン処理を終了す
る。
In step ST41, the microcomputer 70 gives the driver a first alarm in the area A. The microcomputer 70 causes the LCD 61 to display, for example, “Collision caution. Please decelerate.” As a first warning to the driver, or causes the speaker 62 to output by voice, and then the subroutine processing ends.

【0114】ステップST42では、マイクロコンピュ
ータ70は、ドライバに対して領域Aにおける第2警報
を行う。マイクロコンピュータ70は、ドライバに対す
る第2警報として、例えば「障害物を回避してくださ
い。」などをLCD61に表示させたり、音声によりス
ピーカ62から出力させて、サブルーチン処理を終了す
る。
In step ST42, the microcomputer 70 gives the driver a second alarm in the area A. The microcomputer 70 causes the LCD 61 to display, for example, "Avoid obstacles" as the second alarm for the driver, or causes the speaker 62 to output by voice, and then the subroutine processing ends.

【0115】マイクロコンピュータ70は、ステップS
T3のサブルーチン処理を終了すると、ドライバに対す
る警報を終了する。このように、マイクロコンピュータ
70は、各領域の警報要請フラグに優先順位を設定して
処理を行うことによって、ドライバに対する警報を最小
限に抑制し、情報過多になってドライバが混乱すること
を防止することができる。
The microcomputer 70 executes the step S.
When the subroutine processing of T3 is completed, the warning to the driver is ended. In this way, the microcomputer 70 sets the priority to the warning request flag of each area and performs the processing, thereby suppressing the warning to the driver to the minimum and preventing the driver from being confused due to excessive information. can do.

【0116】以上のように、第1の実施の形態に係る障
害物警報装置1は、移動障害物を自動的に認識し、移動
障害物の出現可能範囲を推定し、更に、移動障害物の出
現場所において、ドライバの交通環境の認識度合を考慮
することによって、ドライバを混乱させることなく、移
動障害物をドライバに認識させることができる。また、
障害物警報装置1は、ドライバに提示するべき情報量が
多いときは、自車の車速を低下させるように促して、事
故を未然に防止することができる。
As described above, the obstacle warning device 1 according to the first embodiment automatically recognizes a moving obstacle, estimates the appearance range of the moving obstacle, and further detects the moving obstacle. By considering the degree of recognition of the traffic environment of the driver at the appearance location, the driver can be made to recognize the moving obstacle without confusing the driver. Also,
When the amount of information to be presented to the driver is large, the obstacle warning device 1 can prompt the vehicle speed of the host vehicle to be reduced and prevent an accident from occurring.

【0117】障害物警報装置1は、図10に示した領域
Aから領域Dのいずれにおいても障害物を検出した場合
には、自車直前の領域Aを最優先し、領域Aに存在する
障害物に対して警報を行う。これにより、障害物警報装
置1は、直前に迫った危機を回避することができる。
When the obstacle warning device 1 detects an obstacle in any of the areas A to D shown in FIG. 10, it gives the highest priority to the area A immediately before the own vehicle, and the obstacle existing in the area A. Give an alarm to an object. As a result, the obstacle warning device 1 can avoid the crisis that is approaching immediately before.

【0118】[他の実施の形態]つぎに、本発明の他の
実施の形態について説明する。なお、第1の実施の形態
と重複する箇所については同一の符号を付し、詳細な説
明は省略する。
[Other Embodiments] Next, other embodiments of the present invention will be described. The same parts as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

【0119】(撮像画像の分割の態様)第1の実施の形
態では、マイクロコンピュータ70は、図10に示すよ
うに、撮像領域を領域Aから領域Dまでの4つに分割
し、領域B、領域C及び領域Dにおいて指標C1及び指
標C2を演算していた これに対して、マイクロコンピュータ70は、例えば図
23(A)に示す撮像画像を、図23(B)に示すよう
に4つの領域に分割してもよい。つまり、マイクロコン
ピュータ70は、長方形状の撮像画像を2つの対角線に
沿って分割することによって、撮像画像を4つの領域に
分割している。そして、第1の実施の形態と同様に、各
領域について指標C1及び指標C2を演算すればよい。
(Aspect of Dividing Imaged Image) In the first embodiment, the microcomputer 70 divides the imaged region into four regions A to D as shown in FIG. While the indices C1 and C2 were calculated in the regions C and D, the microcomputer 70, for example, changes the captured image shown in FIG. 23 (A) into four regions as shown in FIG. 23 (B). You may divide into. That is, the microcomputer 70 divides the rectangular captured image along the two diagonal lines to divide the captured image into four regions. Then, as in the first embodiment, the indices C1 and C2 may be calculated for each region.

【0120】また、マイクロコンピュータ70は、例え
ば図24(A)に示す撮像画像を、図24(B)に示す
ように、領域(1)、2つの領域(2)、領域(3)の
4つの領域に分割してもよい。ここで、領域(1)は、
自車の前方直前の車両を示す領域である。領域(2)
は、領域(1)の両外側の領域である。領域(3)は、
領域(1)及び領域(2)以外の領域である。
Further, the microcomputer 70, for example, as shown in FIG. 24 (B), the captured image shown in FIG. 24 (A) is divided into a region (1), two regions (2) and a region (3). It may be divided into two areas. Here, the region (1) is
This is an area showing the vehicle immediately in front of the own vehicle. Area (2)
Are areas on both sides of the area (1). Area (3) is
Areas other than the area (1) and the area (2).

【0121】マイクロコンピュータ70は、領域(1)
については輝度分割ブロックを1×1画素まで分割し、
領域(2)については2×2画素まで分割し、領域
(3)については2×2画素まで分割して、各領域で指
標C1を演算することができる。さらに、マイクロコン
ピュータ70は、各領域において赤色系分割ブロックを
1×1画素まで分割して、図24(C)に示す画像を得
て、各領域で指標C2を演算することができる。
The microcomputer 70 has the area (1)
For, the luminance division block is divided into 1 × 1 pixels,
The region (2) can be divided into 2 × 2 pixels, and the region (3) can be divided into 2 × 2 pixels, and the index C1 can be calculated in each region. Further, the microcomputer 70 can divide the red-colored divided block into 1 × 1 pixel in each area to obtain the image shown in FIG. 24C, and calculate the index C2 in each area.

【0122】さらに、マイクロコンピュータ70は、撮
像画像を次のように分割することもできる。例えば図2
5に示すように、撮像画像を「画面下部」、「画面中
央」、「画面左方」、「画面右方」に分割してもよい。
「画面下部」は、撮像画像の下側の縦方向約1/5から
1/4までの長方形状の領域である。「画面中央」は、
三角形状の領域であり、その三角形の一辺が「画面下
部」に隣接し、その一辺の対角が撮像画面の上端に位置
している。「画面左方」は、「画面下部」及び「画面中
央」以外の領域のうち左側の台形状の領域である。「画
面右方」は、「画面下部」及び「画面中央」以外の領域
のうち右側の台形状の領域である。
Further, the microcomputer 70 can divide the picked-up image as follows. Figure 2
As shown in FIG. 5, the captured image may be divided into “bottom part of screen”, “center part of screen”, “left part of screen”, and “right part of screen”.
The "lower part of the screen" is a rectangular area of about 1/5 to 1/4 in the vertical direction on the lower side of the captured image. "Center of screen" is
It is a triangular area, and one side of the triangle is adjacent to the “lower part of the screen”, and the diagonal of the one side is located at the upper end of the imaging screen. The “left side of the screen” is a trapezoidal area on the left side of the area other than the “lower part of the screen” and the “center of the screen”. The “right side of the screen” is a trapezoidal area on the right side of the area other than the “bottom of the screen” and the “center of the screen”.

【0123】画面中央については、図26に示すよう
に、さらに分割してもよい。
The center of the screen may be further divided as shown in FIG.

【0124】(閾値thの設定)マイクロコンピュータ
70は、第1の実施の形態のように、ドライバ個人によ
って操作されたスライダ51の入力値に従って閾値th
を設定する場合に限らず、例えば複数のドライバによっ
て操作されたスライダ51の各入力値に従って設定する
ようにしてもよい。
(Setting of Threshold Th) The microcomputer 70, like the first embodiment, sets the threshold th according to the input value of the slider 51 operated by the individual driver.
However, the setting may be made according to each input value of the slider 51 operated by a plurality of drivers.

【0125】図27は、10名のドライバに10枚の撮
像画像を提示した場合に、ドライバによって入力された
環境の認識度合をプロットした図である。マイクロコン
ピュータ70は、例えばこれらの値の平均を演算するこ
とで妥当な閾値thを設定することができる。
FIG. 27 is a diagram in which the degree of recognition of the environment input by the driver is plotted when 10 captured images are presented to 10 drivers. The microcomputer 70 can set an appropriate threshold th by calculating the average of these values, for example.

【0126】(複雑度Cの他の演算手法)マイクロコン
ピュータ70は、式(1)に従って複雑度Cを演算し、
複雑度Cと閾値thとを比較することによって環境認識
度合を推定していたが、本発明はこれに限定されるもの
ではない。
(Other Calculation Method of Complexity C) The microcomputer 70 calculates the complexity C according to the equation (1),
Although the degree of environment recognition is estimated by comparing the complexity C and the threshold th, the present invention is not limited to this.

【0127】マイクロコンピュータ70は、例えば図2
8に示すように、指標C1及び指標C2によって決定さ
れる認識度合を示す認識度合マップを記憶してもよい。
このとき、マイクロコンピュータ70は、第1の実施の
形態と同様にして指標C1及び指標C2を演算し、上記
認識度合マップを参照して環境の認識度合を推定すれば
よい。例えば、マイクロコンピュータ70は、(C1,
C2)=(a,b)のときは環境の認識度合が高いと判
定し、(C1,C2)=(c,d)のときは環境の認識
度合が低いと判定することができる。
The microcomputer 70 is shown in FIG.
As shown in FIG. 8, a recognition degree map indicating the degree of recognition determined by the indicators C1 and C2 may be stored.
At this time, the microcomputer 70 may calculate the index C1 and the index C2 in the same manner as in the first embodiment, and estimate the environment recognition degree by referring to the recognition degree map. For example, the microcomputer 70 uses (C1,
When C2) = (a, b), it can be determined that the degree of environment recognition is high, and when (C1, C2) = (c, d), it can be determined that the degree of environment recognition is low.

【0128】(3次元空間配置)マイクロコンピュータ
70は、撮像画像を予め所定領域に分割し、所定領域毎
に、第1の実施の形態と同様に指標C1及び指標C2を
演算し、さらに、指標C1・C2を演算する。そして、
指標C1、指標C2、指標C1・C2を、図29に示す
ように、3次元ベクトル空間に配置し、各画素上での移
動ベクトルの値(大きさ、向き)を複雑度Cとして用い
ることもできる。
(Three-dimensional space arrangement) The microcomputer 70 divides the picked-up image into predetermined areas in advance, calculates the indexes C1 and C2 for each predetermined area as in the first embodiment, and further calculates the indexes. Calculate C1 and C2. And
It is also possible to arrange the indices C1, C2, and C1 and C2 in a three-dimensional vector space as shown in FIG. 29, and use the value (size, orientation) of the movement vector on each pixel as the complexity C. it can.

【0129】このとき、例えば図30に示すように、3
次元ベクトル空間内に、環境の認識度合が低いと推定さ
れる第1の領域と、環境の認識度合が高いと推定される
第2の領域とを設けてもよい。マイクロコンピュータ7
0は、上記3次元空間を用いて求められた複雑度Cが上
記領域のいずれに属するかを判定し、複雑度Cが第1の
領域にあるとドライバは環境認識の度合が低いと推定
し、複雑度Cが第2の領域にあるとドライバは環境認識
の度合が高いと推定することができる。
At this time, for example, as shown in FIG.
In the dimensional vector space, a first area estimated to have a low degree of environment recognition and a second area estimated to have a high degree of environment recognition may be provided. Microcomputer 7
0 determines which of the above-mentioned areas the complexity C obtained using the three-dimensional space belongs to, and if the complexity C is in the first area, the driver estimates that the degree of environment recognition is low. If the complexity C is in the second area, the driver can estimate that the degree of environment recognition is high.

【0130】(ニューラルネット)マイクロコンピュー
タ70は、ニューラルネットを用いて環境の認識度合を
推定してもよい。図31は、ニューラルネットを用いて
環境の認識度合を推定するマイクロコンピュータ70の
機能的な構成を示すブロック図である。
(Neural Net) The microcomputer 70 may estimate the degree of environment recognition by using a neural net. FIG. 31 is a block diagram showing the functional configuration of the microcomputer 70 that estimates the degree of recognition of the environment using a neural network.

【0131】マイクロコンピュータ70は、更新可能な
データベースを有する変換関数からなるニューラルネッ
ト71と、ドライバの環境の認識度合を推定する認識度
合推定部72と、入力値から推定値を減算する処理を行
う演算器73と、を備えている。なお、ニューラルネッ
ト71の代わりに、統計的手法によって学習機能を備え
たものであってもよい 演算器73は、図2に示したスライダ51の入力値か
ら、認識度合推定部72で推定された環境の認識度合の
推定値を減算する。ニューラルネット71は、演算器7
3により減算された減算値と、複雑度Cとに基づいて逐
次学習し、学習済みの複雑度Cを認識度合推定部72に
供給する。認識度合推定部72は、ニューラルネット7
1からの学習済みの複雑度Cを用いて、ドライバ毎に環
境の認識度合を推定すればよい。
The microcomputer 70 performs a process of subtracting an estimated value from an input value, a neural net 71 formed of a conversion function having an updatable database, a recognition degree estimation unit 72 for estimating the degree of recognition of the driver's environment. And a computing unit 73. Note that the computing unit 73, which may have a learning function by a statistical method instead of the neural network 71, is estimated by the recognition degree estimating unit 72 from the input value of the slider 51 shown in FIG. The estimated value of the degree of recognition of the environment is subtracted. The neural network 71 is a calculator 7
Sequential learning is performed based on the subtraction value subtracted by 3 and the complexity C, and the learned complexity C is supplied to the recognition degree estimation unit 72. The recognition degree estimation unit 72 uses the neural network 7
The degree of recognition of the environment may be estimated for each driver using the learned complexity C from 1.

【0132】この結果、マイクロコンピュータ70は、
ドライバの実際の環境認識を考慮して逐次学習し、ドラ
イバ個人の視覚特性に応じて、交通環境の認識度合を正
確に推定することができる。
As a result, the microcomputer 70
Sequential learning can be performed in consideration of the driver's actual environment recognition, and the degree of recognition of the traffic environment can be accurately estimated according to the visual characteristics of the driver.

【0133】[0133]

【発明の効果】本発明に係る環境複雑度演算装置は、前
記撮像手段で生成された撮像画像に含まれる輝度の変化
の分布、前記撮像画像に含まれる赤色系画素の分布の少
なくとも一方に基づいて、環境の複雑度を演算すること
によって、環境の認識のしにくさ、すなわち環境の複雑
さを示す複雑度を求めることができる。
The environmental complexity calculation apparatus according to the present invention is based on at least one of the distribution of changes in luminance included in the captured image generated by the image capturing means and the distribution of red pixels included in the captured image. Then, by calculating the complexity of the environment, it is possible to obtain the degree of difficulty in recognizing the environment, that is, the complexity indicating the complexity of the environment.

【0134】本発明に係る環境認識度合推定装置は、複
雑度演算装置で演算された複雑度に基づいて環境の認識
度合を推定することによって、観察者の環境の認識度合
を客観的かつ正確に推定することができる。
The environment recognition degree estimating apparatus according to the present invention estimates the degree of environment recognition based on the complexity calculated by the complexity calculating apparatus, thereby objectively and accurately estimating the degree of environment recognition of the observer. Can be estimated.

【0135】本発明に係る障害物警報装置は、障害物の
位置を検出し、検出された障害物の位置を含む所定領域
が環境の認識度合が低いと推定されたときに、前記障害
物に関する警報を行うことによって、環境の認識度合の
低い領域に障害物があるときに当該障害物の存在を観察
者に警報することができる。一方、環境の認識度合の高
い領域に障害物があるときに警報を行わないので、観察
者が余計な警報によって煩わしさを受けることを防止す
ることができる。
The obstacle warning device according to the present invention relates to the obstacle when the position of the obstacle is detected and it is estimated that the predetermined area including the detected position of the obstacle has a low degree of environment recognition. By issuing an alarm, when there is an obstacle in a region where the degree of recognition of the environment is low, it is possible to warn the observer of the presence of the obstacle. On the other hand, since the alarm is not issued when there is an obstacle in the region where the degree of recognition of the environment is high, it is possible to prevent the observer from being bothered by the extra alarm.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態に係る障害物警報装置の構
成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an obstacle warning device according to an embodiment of the present invention.

【図2】障害物警報装置に備えられたスライダパネルの
構成を示す図である。
FIG. 2 is a diagram showing a configuration of a slider panel included in the obstacle warning device.

【図3】障害物警報装置に備えられたマイクロコンピュ
ータの動作手順のメインルーチンを示すフローチャート
である。
FIG. 3 is a flowchart showing a main routine of an operation procedure of a microcomputer provided in the obstacle warning device.

【図4】メインルーチンにおけるステップST1の具体
的な動作手順を示すフローチャートである。
FIG. 4 is a flowchart showing a specific operation procedure of step ST1 in the main routine.

【図5】データキャリアとデータキャリアリーダの概要
を説明するための図である。
FIG. 5 is a diagram for explaining an outline of a data carrier and a data carrier reader.

【図6】マイクロコンピュータに記憶された出現範囲推
定テーブルを示す図である。
FIG. 6 is a diagram showing an appearance range estimation table stored in a microcomputer.

【図7】LCDに表示される障害物表示画面を示す図で
ある。
FIG. 7 is a diagram showing an obstacle display screen displayed on the LCD.

【図8】メインルーチンにおけるステップST2の具体
的な動作手順を示すフローチャートである。
FIG. 8 is a flowchart showing a specific operation procedure of step ST2 in the main routine.

【図9】障害物表示画面を領域Aから領域Dに分割した
状態を説明する図である。
FIG. 9 is a diagram illustrating a state in which the obstacle display screen is divided into an area A and an area D.

【図10】障害物表示画面を模式的に領域Aから領域D
に分割した状態を説明する図である。
FIG. 10 schematically shows an obstacle display screen from area A to area D
It is a figure explaining the state divided into.

【図11】領域Bで指標C1を演算するときの撮像画像
の一例を示す図である。
FIG. 11 is a diagram illustrating an example of a captured image when the index C1 is calculated in the area B.

【図12】撮像画像の輝度値の一例を示す図である。FIG. 12 is a diagram showing an example of luminance values of a captured image.

【図13】撮像画像の一例を示す図である。FIG. 13 is a diagram showing an example of a captured image.

【図14】複雑度Cが時刻によって変化する状態を説明
する図である。
FIG. 14 is a diagram illustrating a state in which the complexity C changes with time.

【図15】環境照度に対する閾値が記述された閾値テー
ブルを示す図である。
FIG. 15 is a diagram showing a threshold value table in which threshold values for environmental illuminance are described.

【図16】ドライバの姿勢変化に応じて閾値thが変化
する状態を説明する図である。
FIG. 16 is a diagram illustrating a state in which the threshold th changes according to a change in the posture of the driver.

【図17】複雑度Cと閾値thとを比較して環境の認識
度合を推定するための図である。
FIG. 17 is a diagram for estimating the degree of environment recognition by comparing the complexity C with a threshold th.

【図18】交通環境が単純である風景画像の一例を示す
図である。
FIG. 18 is a diagram showing an example of a landscape image with a simple traffic environment.

【図19】交通環境が複雑である風景画像の一例を示す
図である。
FIG. 19 is a diagram showing an example of a landscape image with a complicated traffic environment.

【図20】メインルーチンにおけるステップST3の具
体的な動作手順を示すフローチャートである。
FIG. 20 is a flowchart showing a specific operation procedure of step ST3 in the main routine.

【図21】サブルーチンにおけるステップST31の具
体的な動作手順を示すフローチャートである。
FIG. 21 is a flowchart showing a specific operation procedure of step ST31 in the subroutine.

【図22】サブルーチンにおけるステップST32の具
体的な動作手順を示すフローチャートである。
FIG. 22 is a flowchart showing a specific operation procedure of step ST32 in the subroutine.

【図23】撮像画像の分割の他の手法を説明するための
図である。
FIG. 23 is a diagram for explaining another method of dividing a captured image.

【図24】撮像画像の分割の他の手法を説明するための
図である。
FIG. 24 is a diagram for explaining another method of dividing a captured image.

【図25】撮像画像の分割の他の手法を説明するための
図である。
FIG. 25 is a diagram for explaining another method of dividing a captured image.

【図26】画面中央の分割の一例を示す図である。FIG. 26 is a diagram showing an example of division at the center of the screen.

【図27】10名のドライバに10枚の撮像画像を提示
した場合に、ドライバによって入力された環境の認識度
合をプロットした図である。
FIG. 27 is a diagram in which the degree of recognition of the environment input by the driver is plotted when 10 captured images are presented to 10 drivers.

【図28】指標C1及び指標C2によって決定される認
識度合を示す認識度合マップを示す図である。
FIG. 28 is a diagram showing a recognition degree map showing the degree of recognition determined by the indicators C1 and C2.

【図29】指標C1、指標C2、指標C1・C2からな
る3次元ベクトル空間を示す図である。
FIG. 29 is a diagram showing a three-dimensional vector space including indices C1, C2, and C1 · C2.

【図30】3次元ベクトル空間内に、環境の認識度合が
低いと推定される第1の領域と、環境の認識度合が高い
と推定される第2の領域とを設けた状態を説明する図で
ある。
FIG. 30 is a diagram illustrating a state in which a first region estimated to have a low degree of environment recognition and a second region estimated to have a high degree of environment recognition are provided in a three-dimensional vector space. Is.

【図31】ニューラルネットを用いて環境の認識度合を
推定するマイクロコンピュータの機能的な構成を示すブ
ロック図である。
FIG. 31 is a block diagram showing a functional configuration of a microcomputer that estimates a degree of environment recognition using a neural network.

【符号の説明】[Explanation of symbols]

1 障害物警報装置 10 インフラ情報検出部 20 障害物情報検出部 40 環境情報検出部 60 障害物情報出力部 70 マイクロコンピュータ 1 Obstacle warning device 10 Infrastructure information detector 20 Obstacle information detector 40 Environmental information detector 60 Obstacle information output section 70 Microcomputer

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B60R 21/00 626 B60R 21/00 626A 626G 628 628F G06T 7/00 100 G06T 7/00 100B 7/20 300 7/20 300Z (72)発明者 古西 浩之 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 Fターム(参考) 5B057 AA06 AA16 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CE11 CE17 DA07 DA13 DA15 DB03 DB06 DB09 DC23 DC25 DC39 5L096 AA02 AA06 AA09 BA04 CA02 DA03 FA37 FA52 FA64 GA07 GA38 GA40 GA41 GA51 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) B60R 21/00 626 B60R 21/00 626A 626G 628 628F G06T 7/00 100 G06T 7/00 100B 7/20 300 7/20 300Z (72) Inventor Hiroyuki Konishi Nagakute-cho, Aichi-gun, Aichi 1-41 Yokomichi, Nakamichi 1 F-term in Toyota Central Research Laboratory Co., Ltd. (reference) 5B057 AA06 AA16 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CE11 CE17 DA07 DA13 DA15 DB03 DB06 DB09 DC23 DC25 DC39 5L096 AA02 AA06 AA09 BA04 CA02 DA03 FA37 FA52 FA64 GA07 GA38 GA40 GA41 GA51

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 環境からの撮像光に基づいて撮像画像を
生成する撮像手段と、 前記撮像手段で生成された撮像画像に含まれる輝度の変
化の分布、前記撮像画像に含まれる赤色系画素の分布の
少なくとも一方に基づいて、環境の複雑度を演算する複
雑度演算手段と、 を備えた環境複雑度演算装置。
1. An image pickup unit that generates a picked-up image based on picked-up light from an environment, a distribution of changes in luminance included in the picked-up image generated by the image pickup unit, and a red-based pixel included in the picked-up image. An environment complexity calculation device comprising: a complexity calculation means for calculating the complexity of an environment based on at least one of distributions.
【請求項2】 前記複雑度演算手段は、 前記撮像手段で生成された撮像画像に輝度分割ブロック
を設定し、 設定された輝度分割ブロック内において各画素の輝度値
が均質であると判断されるまで、前記輝度分割ブロック
を分割して新たな輝度分割ブロックを設定することを繰
り返し、 前記撮像画像に対して、各画素の輝度値が均質になった
輝度分割ブロックの数に基づいて環境の複雑度を演算す
ることを特徴とする請求項1記載の環境複雑度演算装
置。
2. The complexity calculation unit sets a brightness division block in the captured image generated by the imaging unit, and it is determined that the brightness value of each pixel is uniform in the set brightness division block. Up to the step of dividing the luminance division block and setting a new luminance division block, the environmental complexity based on the number of luminance division blocks in which the luminance value of each pixel is uniform in the captured image. The environmental complexity calculation device according to claim 1, wherein the device calculates a degree.
【請求項3】 前記複雑度演算手段は、 前記撮像手段で生成された撮像画像に赤色系分割ブロッ
クを設定し、 設定された赤色系分割ブロックが所定の赤色系画素のみ
で構成されるまで、前記赤色系分割ブロックを分割して
新たな赤色系分割ブロックを設定することを繰り返し、 前記撮像画像に対して、前記所定の赤色系画素のみで構
成される赤色系分割ブロックの数に基づいて環境の複雑
度を演算することを特徴とする請求項1記載の環境複雑
度演算装置。
3. The complexity calculation unit sets a red-colored divided block in the captured image generated by the image-pickup unit, and the set red-colored divided block is composed of only predetermined red-colored pixels, Repeatedly dividing the red-colored divided block and setting a new red-colored divided block, the environment based on the number of red-colored divided blocks configured by only the predetermined red-colored pixels with respect to the captured image. 2. The environmental complexity calculation device according to claim 1, wherein the complexity is calculated.
【請求項4】 前記複雑度演算手段は、 前記撮像手段で生成された撮像画像に輝度分割ブロック
を設定し、設定された輝度分割ブロック内において各画
素の輝度値が均質であると判断されるまで、前記輝度分
割ブロックを分割して新たな輝度分割ブロックを設定す
ることを繰り返し、前記撮像画像に対して、各画素の輝
度値が均質になった輝度分割ブロックの数を演算し、 前記撮像手段で生成された撮像画像に赤色系分割ブロッ
クを設定し、設定された赤色系分割ブロックが所定の赤
色系画素のみで構成されるまで、前記赤色系分割ブロッ
クを分割して新たな赤色系分割ブロックを設定すること
を繰り返し、前記撮像画像に対して、前記所定の赤色系
画素のみで構成される赤色系分割ブロックの数を演算
し、 前記輝度分割ブロックの数と、赤色系分割ブロックの数
と、に基づいて環境の複雑度を演算することを特徴とす
る請求項1記載の環境複雑度演算装置。
4. The complexity calculating unit sets a brightness division block in the captured image generated by the imaging unit, and determines that the brightness value of each pixel is uniform in the set brightness division block. Up to the step of dividing the luminance division block to set a new luminance division block, calculating the number of luminance division blocks in which the luminance value of each pixel is uniform in the captured image, A red-based divided block is set in the captured image generated by the means, and the red-based divided block is divided into new red-based divided blocks until the set red-based divided block includes only predetermined red-based pixels. By repeating the setting of blocks, the number of red-colored divided blocks composed only of the predetermined red-colored pixels is calculated for the captured image, and the number of luminance divided blocks and red The environment complexity calculating device according to claim 1, wherein the environment complexity is calculated based on the number of color system division blocks.
【請求項5】 請求項1から4のいずれか1項記載の複
雑度演算装置と、 前記複雑度演算装置で演算された複雑度に基づいて、環
境の認識度合を推定する環境認識度合推定手段と、 を備えた環境認識度合推定装置。
5. A complexity calculation device according to claim 1, and an environment recognition degree estimation means for estimating a recognition degree of the environment based on the complexity calculated by the complexity calculation device. And an environment recognition degree estimation device comprising.
【請求項6】 前記環境認識度合推定手段は、前記複雑
度演算装置で演算された複雑度が閾値以上であるときは
環境の認識度合が低いと推定し、前記複雑度演算装置で
演算された複雑度が閾値より小さいときは環境の認識度
合が高いと推定することを特徴とする請求項5記載の環
境認識度合推定装置。
6. The environment recognition degree estimating means estimates that the degree of environment recognition is low when the complexity calculated by the complexity calculating device is equal to or more than a threshold value, and is calculated by the complexity calculating device. The environment recognition degree estimation device according to claim 5, wherein when the complexity is smaller than a threshold value, it is estimated that the degree of environment recognition is high.
【請求項7】 環境の照度を検出する照度検出手段を更
に備え、 前記環境認識度合推定手段は、前記照度検出手段により
検出された照度に対応する前記閾値を設定し、設定され
た閾値を用いて環境の認識度合を推定することを特徴と
する請求項5または6記載の環境認識度合推定装置。
7. An illuminance detection means for detecting the illuminance of the environment is further provided, wherein the environment recognition degree estimation means sets the threshold value corresponding to the illuminance detected by the illuminance detection means, and uses the set threshold value. 7. The environment recognition degree estimation device according to claim 5, wherein the degree of environment recognition is estimated by using the above method.
【請求項8】 観察者の姿勢変化を検出する姿勢変化検
出手段を更に備え、 前記環境認識度合推定手段は、前記姿勢変化検出手段で
検出された観察者の姿勢変化が大きくなるに従って閾値
を大きく設定し、前記姿勢変化検出手段で検出された観
察者の姿勢変化が小さくなるに従って閾値を小さく設定
し、設定された閾値を用いて環境の認識度合を推定する
ことを特徴とする請求項5から7のいずれか1項記載の
環境認識度合推定装置。
8. A posture change detecting means for detecting a posture change of the observer is further provided, and the environment recognition degree estimating means increases the threshold value as the posture change of the observer detected by the posture change detecting means increases. 6. The threshold value is set to be smaller as the posture change of the observer detected by the posture change detection means becomes smaller, and the degree of environment recognition is estimated using the set threshold value. 7. The environment recognition degree estimation device according to claim 7.
【請求項9】 所定領域毎に環境の認識度合を推定する
請求項5から8のいずれか1項記載の環境認識度合推定
装置と、 障害物の位置を検出する障害物位置検出手段と、 前記障害物検出手段で検出された障害物の位置を含む所
定領域が、前記環境認識度合推定手段によって環境の認
識度合が低いと推定されたときに、前記障害物に関する
警報を行う警報手段と、 を備えた障害物警報装置。
9. The environment recognition degree estimation device according to claim 5, which estimates the degree of environment recognition for each predetermined area, and obstacle position detection means for detecting the position of an obstacle, A predetermined area including the position of the obstacle detected by the obstacle detection means, when the environment recognition degree estimation means is estimated to have a low degree of recognition of the environment, an alarm means for issuing an alarm about the obstacle; Obstacle warning device equipped.
【請求項10】 前記環境認識度合推定装置は、撮像画
像の下部を除く領域を複数の推定領域に分割し、分割さ
れた推定領域毎に環境の認識度合を推定し、 前記警報手段は、前記障害物位置検出手段により検出さ
れた障害物の位置が前記推定領域のいずれにあり、か
つ、当該推定領域の環境の認識度合が前記環境認識度合
推定手段によって低いと推定されたときに、優先度の高
い推定領域に存在する障害物に関する警報を行うことを
特徴とする請求項9記載の障害物警報装置。
10. The environment recognition degree estimation device divides an area excluding a lower portion of a captured image into a plurality of estimation areas, estimates an environment recognition degree for each divided estimation area, and the alarm unit When the position of the obstacle detected by the obstacle position detecting means is in any one of the estimation areas and the degree of recognition of the environment of the estimation area is estimated to be low by the environment recognition degree estimation means, priority is given. The obstacle warning device according to claim 9, wherein the obstacle warning device issues a warning about an obstacle existing in a high estimation area.
JP2001258170A 2001-08-28 2001-08-28 Environment complexity calculation device, environment recognition degree estimation device and obstacle alarm device Expired - Fee Related JP4752158B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001258170A JP4752158B2 (en) 2001-08-28 2001-08-28 Environment complexity calculation device, environment recognition degree estimation device and obstacle alarm device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001258170A JP4752158B2 (en) 2001-08-28 2001-08-28 Environment complexity calculation device, environment recognition degree estimation device and obstacle alarm device

Publications (2)

Publication Number Publication Date
JP2003067727A true JP2003067727A (en) 2003-03-07
JP4752158B2 JP4752158B2 (en) 2011-08-17

Family

ID=19085738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001258170A Expired - Fee Related JP4752158B2 (en) 2001-08-28 2001-08-28 Environment complexity calculation device, environment recognition degree estimation device and obstacle alarm device

Country Status (1)

Country Link
JP (1) JP4752158B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005093657A1 (en) * 2004-03-29 2005-10-06 Pioneer Corporation Road view analyzing device and method
JP2006185406A (en) * 2004-11-30 2006-07-13 Nissan Motor Co Ltd Object detection device and method
JP2006232019A (en) * 2005-02-23 2006-09-07 U-Tec Kk Ultrasonic identifying device, and collision/impact controlling device using the ultrasonic identifying device
JP2007183912A (en) * 2005-12-06 2007-07-19 Nissan Motor Co Ltd Apparatus and method for detecting lane line
JP2007233470A (en) * 2006-02-27 2007-09-13 Mazda Motor Corp Travel-supporting device for vehicles
JP2008146549A (en) * 2006-12-13 2008-06-26 Toyota Central R&D Labs Inc Drive support device, map generator and program
US7400909B2 (en) 2003-07-30 2008-07-15 Aisin Seiki Kabushiki Kaisha Mobile communication apparatus used to communicate information between mobile units
JP2008191781A (en) * 2007-02-01 2008-08-21 Hitachi Ltd Collision avoidance system
JP2010141755A (en) * 2008-12-15 2010-06-24 Nippon Telegr & Teleph Corp <Ntt> System, method and program for monitoring road
WO2011117974A1 (en) * 2010-03-23 2011-09-29 パイオニア株式会社 Dangerous spot warning device and dangerous spot warning method
JP2015062121A (en) * 2013-09-23 2015-04-02 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド System and method of alerting driver that visual perception of pedestrian may be difficult
JP2018055427A (en) * 2016-09-29 2018-04-05 マツダ株式会社 Target detection system for vehicle
JP2018055426A (en) * 2016-09-29 2018-04-05 マツダ株式会社 Target detection system for vehicle

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6462784A (en) * 1987-09-03 1989-03-09 Ricoh Kk Identifying method for picture attribute
JPH02300741A (en) * 1989-05-15 1990-12-12 Mazda Motor Corp Preceding vehicle recognizing device for moving vehicle
JPH06295329A (en) * 1993-04-07 1994-10-21 Nissan Motor Co Ltd Picture processor for moving body
JPH07291064A (en) * 1994-04-27 1995-11-07 Hino Motors Ltd Curve alarming device
JPH0995194A (en) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd Detecting device for object in front of vehicle
JPH11164305A (en) * 1997-04-24 1999-06-18 Mitsubishi Electric Corp Moving image coding method, moving image coder and moving image decoder
JP2000113186A (en) * 1998-10-01 2000-04-21 Mitsubishi Electric Inf Technol Center America Inc System and method for classifying gazing direction
JP2000339464A (en) * 1999-05-27 2000-12-08 Minolta Co Ltd Device and method for extracting area and recording medium recording area extraction program
JP2000348184A (en) * 1999-06-01 2000-12-15 Toshiba Corp Method and device for background picture generation

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6462784A (en) * 1987-09-03 1989-03-09 Ricoh Kk Identifying method for picture attribute
JPH02300741A (en) * 1989-05-15 1990-12-12 Mazda Motor Corp Preceding vehicle recognizing device for moving vehicle
JPH06295329A (en) * 1993-04-07 1994-10-21 Nissan Motor Co Ltd Picture processor for moving body
JPH07291064A (en) * 1994-04-27 1995-11-07 Hino Motors Ltd Curve alarming device
JPH0995194A (en) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd Detecting device for object in front of vehicle
JPH11164305A (en) * 1997-04-24 1999-06-18 Mitsubishi Electric Corp Moving image coding method, moving image coder and moving image decoder
JP2000113186A (en) * 1998-10-01 2000-04-21 Mitsubishi Electric Inf Technol Center America Inc System and method for classifying gazing direction
JP2000339464A (en) * 1999-05-27 2000-12-08 Minolta Co Ltd Device and method for extracting area and recording medium recording area extraction program
JP2000348184A (en) * 1999-06-01 2000-12-15 Toshiba Corp Method and device for background picture generation

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7400909B2 (en) 2003-07-30 2008-07-15 Aisin Seiki Kabushiki Kaisha Mobile communication apparatus used to communicate information between mobile units
US8310545B2 (en) 2004-03-29 2012-11-13 Pioneer Corporation Apparatus and method for analyzing road view
WO2005093657A1 (en) * 2004-03-29 2005-10-06 Pioneer Corporation Road view analyzing device and method
JP2006185406A (en) * 2004-11-30 2006-07-13 Nissan Motor Co Ltd Object detection device and method
JP4650079B2 (en) * 2004-11-30 2011-03-16 日産自動車株式会社 Object detection apparatus and method
JP2006232019A (en) * 2005-02-23 2006-09-07 U-Tec Kk Ultrasonic identifying device, and collision/impact controlling device using the ultrasonic identifying device
JP4628135B2 (en) * 2005-02-23 2011-02-09 ユーテック株式会社 Ultrasonic identification device and control device using the ultrasonic identification device
JP2007183912A (en) * 2005-12-06 2007-07-19 Nissan Motor Co Ltd Apparatus and method for detecting lane line
JP2007233470A (en) * 2006-02-27 2007-09-13 Mazda Motor Corp Travel-supporting device for vehicles
JP2008146549A (en) * 2006-12-13 2008-06-26 Toyota Central R&D Labs Inc Drive support device, map generator and program
JP4670805B2 (en) * 2006-12-13 2011-04-13 株式会社豊田中央研究所 Driving support device and program
JP2008191781A (en) * 2007-02-01 2008-08-21 Hitachi Ltd Collision avoidance system
JP2010141755A (en) * 2008-12-15 2010-06-24 Nippon Telegr & Teleph Corp <Ntt> System, method and program for monitoring road
WO2011117974A1 (en) * 2010-03-23 2011-09-29 パイオニア株式会社 Dangerous spot warning device and dangerous spot warning method
JP2015062121A (en) * 2013-09-23 2015-04-02 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド System and method of alerting driver that visual perception of pedestrian may be difficult
JP2018055427A (en) * 2016-09-29 2018-04-05 マツダ株式会社 Target detection system for vehicle
JP2018055426A (en) * 2016-09-29 2018-04-05 マツダ株式会社 Target detection system for vehicle

Also Published As

Publication number Publication date
JP4752158B2 (en) 2011-08-17

Similar Documents

Publication Publication Date Title
CN110494863B (en) Determining drivable free space of an autonomous vehicle
Chen et al. Lane departure warning systems and lane line detection methods based on image processing and semantic segmentation: A review
US10877485B1 (en) Handling intersection navigation without traffic lights using computer vision
US8085140B2 (en) Travel information providing device
US10336252B2 (en) Long term driving danger prediction system
US8379924B2 (en) Real time environment model generation system
US7418112B2 (en) Pedestrian detection apparatus
JP5648655B2 (en) Object identification device
JP4678110B2 (en) Environmental risk calculator
EP2026246A1 (en) Method and apparatus for evaluating an image
JP4872245B2 (en) Pedestrian recognition device
JP2003099899A (en) Device for operating degree of risk of driving behavior
WO2020098004A1 (en) Lane traffic status reminder method and device
JP4752158B2 (en) Environment complexity calculation device, environment recognition degree estimation device and obstacle alarm device
JPWO2012169029A1 (en) Lane departure prevention support apparatus, lane departure prevention method, and storage medium
CN104875681A (en) Dynamic vehicle-mounted camera control method based on application scenarios
US9305221B2 (en) Method and apparatus for identifying a possible collision object
US20110157184A1 (en) Image data visualization
JP2011076214A (en) Obstacle detection device
KR20180065527A (en) Vehicle side-rear warning device and method using the same
JPH01265400A (en) Recognizing device for vehicle sign
CN111489560A (en) Detection method and control method for detecting front vehicle starting based on shallow convolutional neural network
Le Guilloux et al. PAROTO project: The benefit of infrared imagery for obstacle avoidance
JP6877651B1 (en) Visual load value estimation device, visual load value estimation system, visual load value estimation method, and visual load value estimation program
CN114684062A (en) Restraint device positioning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110509

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees