JP2002163792A - Obstacle collision prevention supporting system - Google Patents

Obstacle collision prevention supporting system

Info

Publication number
JP2002163792A
JP2002163792A JP2000358646A JP2000358646A JP2002163792A JP 2002163792 A JP2002163792 A JP 2002163792A JP 2000358646 A JP2000358646 A JP 2000358646A JP 2000358646 A JP2000358646 A JP 2000358646A JP 2002163792 A JP2002163792 A JP 2002163792A
Authority
JP
Japan
Prior art keywords
obstacle
information
camera
detection
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000358646A
Other languages
Japanese (ja)
Other versions
JP3412013B2 (en
Inventor
Tetsuo Haruyama
鉄男 春山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute for Land and Infrastructure Management
Original Assignee
National Institute for Land and Infrastructure Management
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute for Land and Infrastructure Management filed Critical National Institute for Land and Infrastructure Management
Priority to JP2000358646A priority Critical patent/JP3412013B2/en
Publication of JP2002163792A publication Critical patent/JP2002163792A/en
Application granted granted Critical
Publication of JP3412013B2 publication Critical patent/JP3412013B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an obstacle collision prevention supporting system for self-diagnosing, that ability for detecting an obstacle is deteriorated due to a unit fault and bad weather and informing a driver that a system is not operating. SOLUTION: The obstacle collision prevention supporting system is provided with a camera, which includes a mark board whose one side is not less than 50 cm in the view of 100 m and imaging an image, a means obtaining an evaluation value from the luminance value of a mark board area in the image, normalizing it by the evaluation value in fine weather and detecting the change of an environment state, a means-storing reference data formed of the evaluation value obtained, by installing the mark board in a position concerned in the past and detecting it at every change of the environment state and a vehicle position detection result, a self-diagnosing means collating the detected evaluation value with reference data and judging the detection ability of a sensor by a specified threshold and a means dividing a judged result and a unit fault detection result, generating unit operation information and informing the driver of the operation state of the system.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、事故が多発するカ
ーブ区間において、障害物等の情報を可視画像センサで
検出してドライバに提供することにより、安全性の向上
を目的とする障害物衝突防止支援システムに関するもの
であり、特に機器の故障発生時や悪天候等によりセンサ
の検出性能の低下といった機能障害が発生した時に、セ
ンサの性能低下や機器故障を診断して、システムが正常
に動作していないことをドライバーに通知することによ
り情報提供の信頼性と安全性を確保する障害物衝突防止
支援システムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an obstacle collision for improving safety by detecting information such as an obstacle with a visible image sensor and providing the information to a driver in a curve section where accidents frequently occur. This is related to the prevention support system.Especially, when a functional failure such as a decrease in the detection performance of the sensor occurs due to a failure of the device or bad weather, etc., the system can operate normally by diagnosing the performance degradation of the sensor and the device failure. The present invention relates to an obstacle collision prevention support system that ensures the reliability and safety of information provision by notifying a driver that no information is provided.

【0002】[0002]

【従来の技術】AHS(Advanced Cruise-Assist Syste
m)は安全性の向上・効率性の向上を目的としている
が、そのうち安全性の向上を目的としたAHSは、スマ
ートカー(知能化された自動車)とスマートウェイ(知
能化された道路)が協調して、従来不可能だった障害物
や交差車両等の情報をリアルタイムにやりとりすること
により、ドライバの発見の遅れに対する情報提供、判断
の誤りに対する警報、操作の誤りに対する操作支援を行
い、安全で安心な走行を実現し事故の削減を図るシステ
ムである。今日まで、交通事故統計分析に基づいて優先
的に実現すべきサービスの選定が検討されてきたが、そ
の中でも、カーブ区間における障害物衝突防止支援に対
する必要性が明らかにされている。
2. Description of the Related Art AHS (Advanced Cruise-Assist Syste
m) aims to improve safety and efficiency, and among them, AHS, which aims to improve safety, consists of smart cars (intelligent cars) and smartways (intelligent roads). By cooperating and exchanging information on obstacles and crossing vehicles, etc., which were impossible in the past, in real time, it provides information on delays in finding the driver, alerts you to erroneous decisions, assists you in operating errors, and provides safety. This is a system that realizes safe driving and reduces accidents. To date, the selection of services to be preferentially implemented based on traffic accident statistical analysis has been considered. Among them, the necessity for obstacle collision prevention support in curved sections has been clarified.

【0003】障害物衝突防止支援システムは、事故の多
発するカーブ区間において、路側のポールに設置するカ
メラとカメラの撮影画像を利用してカーブ区間内に存在
する停止車両、低速車両、逆走車両等の障害物や対向車
両を検出する画像処理装置から成る障害物検出手段と、
前記障害物検出手段の出力をもとに提供情報を作成する
情報処理装置から成る障害物情報作成手段と、路側に設
置する情報板あるいは、路車間通信装置により通過車両
のドライバに情報を提供する障害物情報提供手段とで構
成され、ドライバに情報提供、警報等により、安全な走
行を支援することを目的としたシステムである。
An obstacle collision prevention support system uses a camera installed on a roadside pole and an image captured by a camera in a curved section where accidents frequently occur, a stationary vehicle, a low-speed vehicle, and a reverse running vehicle existing in the curved section. Obstacle detection means comprising an image processing device for detecting an obstacle such as an oncoming vehicle,
Obstacle information creating means comprising an information processing device for creating provision information based on the output of the obstacle detecting means, and an information board installed on the roadside or a vehicle-to-vehicle communication device to provide information to a driver of a passing vehicle. The system is configured with obstacle information providing means, and aims to support safe driving by providing information to a driver, warning, and the like.

【0004】しかし、主に障害物検出手段として用いら
れる可視画像センサは、カメラの撮像画像を利用して画
像処理装置で障害物を検出するため、悪天候等で視界が
悪化した場合、検出性能が著しく低下することになる。
However, a visible image sensor mainly used as an obstacle detecting means detects an obstacle by an image processing device using an image picked up by a camera. It will be significantly reduced.

【0005】図13は、電子情報通信学会技術研究報告
PRMU97−6に記載の従来の画像処理装置であり、
画像を撮像するカメラ11、カメラ11で撮影した画像
をデジタルデータとして格納する入力画像格納手段2
1、入力画像内の部分領域を対象として物体初期検出を
行う初期検出手段50、物体を追跡する追跡手段51、
処理結果を出力する出力手段52を含む装置である。
FIG. 13 shows a conventional image processing apparatus described in the IEICE technical report PRMU97-6.
Camera 11 for capturing an image, input image storage means 2 for storing an image captured by camera 11 as digital data
1. Initial detection means 50 for performing initial object detection on a partial area in an input image, tracking means 51 for tracking an object,
This is an apparatus that includes an output unit 52 that outputs a processing result.

【0006】また、図14は特開昭63−188741
号公報に記載の従来の視程計測装置であり、判定標識の
明暗コントラストを検出する明暗検出装置200、前記
判定標識を間近から見る時の明暗コントラストと前記明
暗検出装置200が検出した明暗のコントラストに基づ
いて視程を求めるイメージ処理装置201を備えてい
る。イメージ処理装置201は複数のブロックから構成
されており、明暗検出装置がアナログ信号として出力す
る画像情報をデジタル変換するA/D変換器300、前
記A/D変換器300でデジタル信号に変換された画像
データを格納する画像メモリ301、イメージ処理装置
201の処理を制御するCPU302、CPU302に
接続されたメモリ303、CPU302での処理結果を
出力する出力ユニット304を有しているである。
FIG. 14 is a cross-sectional view of Japanese Patent Application Laid-Open No. 63-188741.
The conventional visibility measuring device described in Japanese Patent Laid-Open No. H10-260, which is a light-dark detection device 200 that detects the light-dark contrast of a judgment sign, and a light-dark contrast when the judgment sign is viewed from close up and a light-dark contrast detected by the light-dark detection device 200. An image processing device 201 for obtaining a visibility based on the image processing device 201 is provided. The image processing device 201 is composed of a plurality of blocks. The A / D converter 300 converts the image information output from the light and dark detection device as an analog signal into a digital signal. The A / D converter 300 converts the image information into a digital signal. It has an image memory 301 for storing image data, a CPU 302 for controlling the processing of the image processing apparatus 201, a memory 303 connected to the CPU 302, and an output unit 304 for outputting the processing result of the CPU 302.

【0007】従来の画像処理装置の動作を説明する。ま
ずカメラ11で撮影した画像を入力画像格納手段21で
デジタル変換して入力画面として格納する。
The operation of the conventional image processing device will be described. First, an image photographed by the camera 11 is converted into a digital image by the input image storage means 21 and stored as an input screen.

【0008】次に初期検出手段50は、入力画像内のあ
らかじめ指定された領域を対象として物体初期検出を行
う。まず、対象領域内を垂直方向に微分処理して水平方
向の明暗パターンを強調し、これを垂直方向に投影加算
して解析波形を作成する。この解析波形に閾値を適用し
て波形の上がり際と下がり際を求め、この両者に挟まれ
た領域を物体の水平位置とする。さらに、物体水平位置
内の領域に対して水平方向の明暗パターンを水平方向に
投影し、投影値が極大になる位置を持って物体垂直位置
を決定する。ここで求めた物体領域の画像と位置座標を
初期検出の結果として追跡手段51に出力する。
Next, the initial detection means 50 performs an initial object detection on a predetermined area in the input image. First, the target area is differentiated in the vertical direction to enhance the horizontal light / dark pattern, and this is projected and added in the vertical direction to create an analysis waveform. A threshold value is applied to this analysis waveform to determine the rising edge and the falling edge of the waveform, and an area sandwiched between the two is defined as the horizontal position of the object. Further, a light-dark pattern in the horizontal direction is projected in the horizontal direction on an area within the object horizontal position, and the object vertical position is determined with a position at which the projection value becomes maximum. The image and position coordinates of the object area obtained here are output to the tracking means 51 as a result of the initial detection.

【0009】次に追跡手段51は、過去に初期検出手段
が検出した物体領域の画像をテンプレートとして、濃淡
パターンマッチングにより類似度を算出して検出物体の
追跡を行う。
Next, the tracking means 51 uses the image of the object area detected by the initial detection means in the past as a template, calculates the similarity by light and shade pattern matching, and tracks the detected object.

【0010】次に図14に示す従来の視程計測装置の動
作を説明する。明暗検出装置200は、黒と白に塗り分
けられた判定標識を含む画像を撮像し、画像データをア
ナログ信号として出力する。この時、上記判定標識は明
暗検出装置200から距離Rだけ離した位置に設置され
ている。
Next, the operation of the conventional visibility measuring device shown in FIG. 14 will be described. The light / dark detection device 200 captures an image including a determination marker that is separately colored black and white, and outputs image data as an analog signal. At this time, the judgment mark is set at a position separated from the light / dark detection device 200 by a distance R.

【0011】イメージ処理装置201では、まず明暗検
出装置200から送られた画像データをA/D変換器3
00でデジタル信号に変換し、画像メモリ301に格納
する。次にCPU302は画像中の判定標識領域を対象
とし、黒く塗られた部分の輝度値Btと白く塗られた部
分の輝度値Bbを読み込んで、判定標識の明暗コントラ
ストCdを次式より求める。
In the image processing device 201, first, the image data sent from the light / dark detection device 200 is converted by the A / D converter 3.
At 00, the signal is converted into a digital signal and stored in the image memory 301. Next, the CPU 302 reads the luminance value Bt of the portion painted black and the luminance value Bb of the portion painted white, targeting the determination marker region in the image, and obtains the light-dark contrast Cd of the determination marker from the following equation.

【0012】Cd=|Bt−Bd|/BbCd = | Bt−Bd | / Bb

【0013】次にCPU302は、上記距離Rにおける
判定標識の明暗コントラストCdと、間近から見たとき
の判定標識の明暗コントラストCoに基づいて、視程V
を次式により求め、出力ユニット304に出力される。
この視程Vは見通せる距離を示す。
Next, the CPU 302 determines the visibility V based on the light-dark contrast Cd of the judgment sign at the distance R and the light-dark contrast Co of the judgment sign when viewed from a short distance.
Is obtained by the following equation, and is output to the output unit 304.
The visibility V indicates a visible distance.

【0014】 V=R×[In(E)/In(Cd/Co)] ただし、Eは定数である。V = R × [In (E) / In (Cd / Co)] where E is a constant.

【0015】[0015]

【発明が解決しようとする課題】従来の障害物衝突防止
支援システムに用いる画像処理装置は以上のように、
雨、霧等のカメラ視界を左右する環境状態を考慮せずに
障害物等の検出を行なうため、障害物検出ができない場
合に、実際に検出すべき障害物がカメラの視野内に入っ
ていないからなのか、あるいは環境状態により視程状況
が悪化し、実際には障害物等が存在するにもかかわらず
検出できないのか判断することができない。
The image processing apparatus used in the conventional obstacle collision prevention support system is as described above.
Obstacles are detected without taking into account environmental conditions such as rain and fog that affect the field of view of the camera.If obstacles cannot be detected, obstacles to be actually detected are not within the field of view of the camera. It is impossible to judge whether the visibility is deteriorated due to the body condition or the environmental condition, and whether or not an obstacle or the like cannot be detected in spite of the fact.

【0016】障害物衝突防止支援システムにおいては、
障害物が存在するにもかかわらず検出できない場合、ド
ライバは障害物がないと思い込むことも考えられるた
め、かえって、危険性を増すことになる。したがって、
機器故障やセンサの性能低下を自己診断できるようにし
て、システムが正常に動作していないことをドライバへ
通知することは重要な機能としてシステムに備える必要
があるという課題があった。このためには、システム自
身が機器故障の検出やセンサの性能低下を診断できるよ
うにし、機器故障や性能低下と診断される場合は、ドラ
イバにシステムが作動していないことを通知しなければ
ならない。この課題を解決するために、従来の視程計測
装置を併用するという方法も考えられるが、従来の視程
計測装置は以上のように、一般的な見通しのよさを視程
として求めるものであり、機器の故障を判定できるもの
ではなく、障害物が検出できる環境状態であるか否かと
いう意味で環境状態を判定するものではない。
In the obstacle collision prevention support system,
If an obstacle cannot be detected despite the presence of an obstacle, the driver may assume that there is no obstacle, which increases the danger. Therefore,
There is a problem that it is necessary to provide the system as an important function to enable self-diagnosis of device failure or sensor performance degradation and to notify the driver that the system is not operating normally. To this end, the system itself must be able to detect equipment failures and diagnose sensor performance degradation, and if equipment failures or performance degradation are diagnosed, the driver must be notified that the system is not operating. . In order to solve this problem, a method of using a conventional visibility measuring device in combination is also conceivable.However, the conventional visibility measuring device seeks general visibility as a visibility as described above. It is not something that can judge a failure and does not judge an environmental state in the sense that it is an environmental state where an obstacle can be detected.

【0017】[0017]

【課題を解決するための手段】本発明は、上記のような
従来のシステムが持つ問題点を解決し、機器故障の検出
と雨、霧等の発生にともない、可視画像センサの検出性
能の低下を自動的に自己診断し、自己診断の結果、機器
故障が検出された時、又は、自己診断により検出性能の
低下が判定されたときに、ドライバに対してシステムが
動作していないことを通知する障害物衝突防止支援シス
テムである。
SUMMARY OF THE INVENTION The present invention solves the problems of the conventional system as described above, and reduces the detection performance of a visible image sensor due to detection of equipment failure and occurrence of rain, fog, and the like. Automatically notifies the driver that the system is not operating when a device failure is detected as a result of the self-diagnosis, or when a decrease in detection performance is determined by the self-diagnosis. This is an obstacle collision prevention support system.

【0018】[0018]

【発明の実施の形態】この発明の実施の形態を以下に実
施例に基づき図面を参照して説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below based on embodiments with reference to the drawings.

【0019】[0019]

【実施例】実施例1 図1は本発明を適用した一実施例における概略機器配置
図である。図1においては、事故の多発するカーブ区間
100に機器を配置したもので、カーブ区間の見通しを
遮る壁等101、カーブ区間に進入する走行車両のドラ
イバには見通しを遮る壁等101により見通すことがで
きない停止車両102及び対向車両103、車載器を搭
載し路車間通信によりリアルタイムに情報を得るAHS
車両104、情報板6により情報を得る非AHS車両1
05、ポール2、カメラ11,12、カメラ12から1
00m以内の視野内にあるカメラ11を取り付けたポー
ル2の3.8m以上の高さに設ける一辺の寸法が50c
m以上のマーク板3、画像処理装置と情報処理装置及び
路車間通信インターフェース等を備えた路側処理装置
4、路車間通信装置のビーコンアンテナ5等が含まれ
る。
Embodiment 1 FIG. 1 is a schematic equipment layout diagram in one embodiment to which the present invention is applied. In FIG. 1, the equipment is arranged in a curve section 100 where accidents frequently occur. AHS that mounts a stopped vehicle 102 and an oncoming vehicle 103 that cannot perform the operation, and obtains real-time information by road-to-vehicle communication with on-board equipment
Vehicle 104, non-AHS vehicle 1 for obtaining information from information board 6
05, 1 from pole 2, cameras 11 and 12, camera 12
The size of one side provided at a height of 3.8 m or more of the pole 2 to which the camera 11 is attached within the field of view within 00 m is 50 c.
m or more, a roadside processing device 4 provided with an image processing device and an information processing device, a road-vehicle communication interface, a beacon antenna 5 of the road-vehicle communication device, and the like.

【0020】図2は実施例1の概略構成図であり、マー
ク板を撮像するカメラの画像からマーク領域の輝度を観
測値として抽出して評価値を求め、視程が最も見通せる
過去の快晴時に求めた評価値で正規化することにより
雨、霧等のカメラ視界を左右する環境状態の変化を検出
する環境状態検出手段23、環境状態検出手段の出力し
た評価値を車両検出基準データと照会し、所定閾値によ
り障害物検出手段の検出能力を判定して出力する自己診
断手段24、カメラ等の故障を検出する機器故障検出手
段25、障害物検出手段と自己診断手段と機器故障検出
手段の処理結果を出力する処理結果出力手段26、障害
物情報作成手段と機器故障検出手段と自己診断手段によ
る出力を編集区分として出力する情報作成手段31、路
側に設置する情報板あるいは、路車間通信装置により通
過車両のドライバに障害物情報を提供する障害物情報提
供手段とシステムの動作異常を通知するシステム動作通
知手段41で構成されている。
FIG. 2 is a schematic configuration diagram of the first embodiment. The luminance of a mark area is extracted as an observation value from an image of a camera for picking up a mark plate to obtain an evaluation value, and the evaluation value is obtained in the past when the visibility is the best. Environmental condition detecting means 23 for detecting a change in the environmental state that influences the camera field of view such as rain and fog by normalizing with the evaluated value, and inquiring the evaluation value output from the environmental state detecting means with the vehicle detection reference data, Self-diagnosis means 24 for judging and outputting the detection capability of the obstacle detection means based on a predetermined threshold value; equipment failure detection means 25 for detecting a failure of a camera or the like; processing results of the obstacle detection means, self-diagnosis means and equipment failure detection means Output means 26 for outputting the information, information creating means 31 for outputting the outputs of the obstacle information creating means, the equipment failure detecting means and the self-diagnosing means as an edit section, and an information board installed on the roadside Rui is composed of system operation notification means 41 for notifying the obstacle information providing unit and system operation abnormality that provide obstacle information to the passing vehicle driver by road-vehicle communication device.

【0021】次に、実施例1のシステムの動作を図3〜
10を参照して説明する。図3は本発明の処理フロー図
である。また、図4はマーク板の寸法等と輝度の分布を
説明する図である。図5〜8は図4に示すマーク板をカ
メラから各々40m、60m、80m、100m前方に
設置し、環境状態の変化毎に検出した環境状態の評価値
と走行車両の検出位置を実験で求めた車両検出基準デー
タ(1)〜(4)を示す。また、図9は車両検出基準デ
ータ(1)〜(4)の評価値と車両検出位置との相関係
数を求めた図であり、図10は機器動作情報作成手段と
障害物情報作成手段により出力するデータ構造を説明す
る図である。
Next, the operation of the system of the first embodiment will be described with reference to FIGS.
This will be described with reference to FIG. FIG. 3 is a processing flowchart of the present invention. FIG. 4 is a diagram for explaining the distribution of luminance and the size of the mark plate. 5 to 8 show that the mark plate shown in FIG. 4 is installed 40 m, 60 m, 80 m, and 100 m in front of the camera, and the evaluation value of the environmental state detected for each change of the environmental state and the detection position of the traveling vehicle are obtained by experiments. 5 shows vehicle detection reference data (1) to (4). FIG. 9 is a diagram showing the correlation coefficient between the evaluation values of the vehicle detection reference data (1) to (4) and the vehicle detection position. FIG. 10 shows the device operation information creating unit and the obstacle information creating unit. FIG. 4 is a diagram illustrating a data structure to be output.

【0022】まず、カメラ等の故障を検出する機器故障
の有無を検出(ステップT2)する。機器故障検出は例
えば、画像の同期信号をモニターして画像出力の異常や
カメラの故障を検出することができる。
First, the presence or absence of a device failure for detecting a failure of a camera or the like is detected (step T2). In the device failure detection, for example, an image synchronization error can be detected by monitoring an image synchronization signal.

【0023】カメラ12がマーク板3を含む画像を撮像
(ステップT1)し、入力画像格納手段21はカメラ1
2で撮像した画像をデジタルデータとして格納(ステッ
プT3)する。入力画像格納手段21に格納された画像
のマーク板3は図4に示すとおり、中央部が白、周辺部
が黒に塗り分けられているものとし、またマーク板の大
きさは、カメラの前方80m〜100mに設置しても安
定した画像が得ることができるように、画像のマーク板
領域の画素数が約10画素以上になるように一辺が50
cm以上とすることが必要である。入力画像格納手段2
1に格納された画像中のマーク板領域から輝度を観測値
として求める。例えば、図4に示すように幅n画素のマ
ーク板画像の中央部に横の観測ラインを設定し、横方向
の画像毎の輝度を求める。図4には、通常時と悪天候時
にこのマークを撮像している画像の輝度に関する分布の
違いを示す。通常時は32に、悪天候時は33に示すよ
うに輝度の分布は、黒と白の境界部分における輝度値の
勾配が変化し、この勾配が環境状態を現す。
The camera 12 captures an image including the mark plate 3 (step T1).
The image captured in step 2 is stored as digital data (step T3). As shown in FIG. 4, the mark plate 3 of the image stored in the input image storage means 21 has a central portion painted white and a peripheral portion painted black, and the size of the mark plate is in front of the camera. In order to obtain a stable image even if it is set at a distance of 80 m to 100 m, the length of each side of the mark plate area is set to about 10 pixels or more so that the number of pixels is about 10 or more.
cm or more. Input image storage means 2
The luminance is obtained as an observation value from the mark plate area in the image stored in No. 1. For example, as shown in FIG. 4, a horizontal observation line is set at the center of a mark plate image having a width of n pixels, and the luminance of each image in the horizontal direction is obtained. FIG. 4 shows a difference in distribution of luminance between an image capturing the mark during normal weather and during bad weather. As shown in 32 at normal time and 33 at bad weather, the distribution of luminance changes in the gradient of the luminance value at the boundary between black and white, and this gradient represents the environmental state.

【0024】次に環境状態検出手段23は環境状態評価
値を算出する(ステップT8)。本ステップでは、例え
ば観測値の出力した輝度値から、対象領域に対して以下
の式で環境状態評価値Sを求める。ここで、Pjは観測
ライン−LからLまでの間の画素位置jにおける輝度値
である。
Next, the environmental condition detecting means 23 calculates an environmental condition evaluation value (step T8). In this step, for example, the environmental state evaluation value S is obtained for the target region from the luminance value output from the observation value by the following equation. Here, Pj is a luminance value at a pixel position j between the observation lines -L to L.

【数1】 (Equation 1)

【0025】次に環境状態検出手段23はこの環境状態
評価値を過去に求めた快晴時の基準評価値を設定(ステ
ップT10)し、正規化(ステップT9)する。正規化
する正規化評価値Dは快晴時の基準評価値Smaxで正
規化して以下の式により求める。 D=S/Smax
Next, the environmental state detecting means 23 sets a standard evaluation value for fine weather obtained in the past, which is obtained in the past (step T10), and normalizes it (step T9). The normalized evaluation value D to be normalized is obtained by normalizing with the standard evaluation value Smax at the time of fine weather by the following equation. D = S / Smax

【0026】次に自己診断手段24は環境状態検出手段
23の出力した正規化評価値を車両検出基準データと照
合し、所定閾値により障害物検出手段22の検出能力を
判定して判定結果を出力する(ステップT11)する。
ここで、車両検出基準データは下記のようにして予め設
定しておく。
Next, the self-diagnosis unit 24 compares the normalized evaluation value output from the environmental condition detection unit 23 with the vehicle detection reference data, determines the detection capability of the obstacle detection unit 22 based on a predetermined threshold, and outputs the determination result. (Step T11).
Here, the vehicle detection reference data is set in advance as described below.

【0027】複数のマーク板をカメラから前方に距離R
の異なる位置、例えば、カメラからの距離Rが40m、
60m、80m、100m前方の位置に設置し、複数の
マーク板設置位置毎に環境状態を検出する環境状態検出
手段23と障害物検出手段22により、過去、環境状態
の変化毎に検出した環境状態の評価値と走行車両を検出
できる位置を求める。
A plurality of mark plates are moved forward from the camera by a distance R.
Different positions, for example, the distance R from the camera is 40 m,
The environmental state is set at a position forward of 60 m, 80 m, and 100 m, and the environmental state detected by the environmental state detecting means 23 and the obstacle detecting means 22 for detecting the environmental state at each of a plurality of mark plate installation positions in the past for each change in the environmental state. And the position at which the traveling vehicle can be detected.

【0028】図5〜8は一辺の寸法が50cmのマーク
板をカメラからの距離Rが40m、60m、80m、1
00m前方の位置に設置した場合、車両検出ができる距
離と正規化評価値Dとの基準データ(1)〜(4)を示
す。基準データ(1)〜(4)は雨霧環境を任意の条件
で発生、設定できる実験施設で求めたデータである。ま
た、その結果をもとに、図9は、車両検出ができる距離
と正規化評価値Dとの相関係数を示す。図9の結果から
距離Rが100mまでに設置したマークでは、相関係数
が0.82以上であり、特に80m以内に設置したマー
クでは相関係数が0.9以上と高い値を得ており、マー
ク板の寸法が50cm以上、あるいはマーク板領域の画
素数が約10画素以上になるマーク板であれば環境状態
の変化を検出することができる。
FIGS. 5 to 8 show a case where a mark plate having a side size of 50 cm is placed at a distance R from the camera of 40 m, 60 m, 80 m and 1 m.
The table shows reference data (1) to (4) of a distance at which a vehicle can be detected and a normalized evaluation value D when installed at a position in front of 00 m. The reference data (1) to (4) are data obtained from an experimental facility capable of generating and setting rain and fog environments under arbitrary conditions. FIG. 9 shows the correlation coefficient between the distance at which the vehicle can be detected and the normalized evaluation value D based on the result. According to the results of FIG. 9, the correlation coefficient is 0.82 or more for the mark installed at a distance R of up to 100 m, and particularly the mark installed within 80 m has a high correlation coefficient of 0.9 or more. If the size of the mark plate is 50 cm or more, or the number of pixels in the mark plate region is about 10 pixels or more, a change in the environmental state can be detected.

【0029】上記の方法で求めた基準データ(1)〜
(4)は当該マーク板の設置位置に対応した基準データ
として格納(ステップT13)して設定する。あるい
は、複数のマーク板毎の基準データとして格納し、格納
さた基準データからカメラとマーク板の設置位置に応じ
て選択設定(ステップT12)するか、あるいは距離に
対して補間設定してもよい。
The reference data (1) obtained by the above method
(4) is stored and set as reference data corresponding to the installation position of the mark plate (step T13). Alternatively, it may be stored as reference data for each of a plurality of mark plates, and may be selectively set from the stored reference data according to the installation positions of the camera and the mark plate (step T12), or may be interpolated with respect to the distance. .

【0030】環境状態検出手段23の出力した正規化評
価値を当該基準データと照合し、所定の閾値により障害
物検出能力を判定して出力(ステップT11)する。セ
ンサの配置位置は可視画像センサの車両検出能力に基づ
いて決定される。センサの車両検出能力、すなわち撮像
された画像から画像処理により車両の存在や速度を特定
できる技術的条件に基づいて、車両検出範囲が規定され
る。現在の可視画像センサの性能に基づくと、センサの
車両検出範囲は、カメラの角度を調節することにより、
カーブ区間ではカメラの俯角を深くして、カメラに近い
エリアの検出性能を高める。カーブ区間を監視する可視
画像センサの縦断方向車両検出範囲は、20〜100m
の範囲に規定される。したがって、センサが検出できな
ければならない検出範囲は、100m以内であって、か
つカメラの設置される配置間隔により決定される。例え
ば、センサが検出できなければならない検出範囲を20
〜80mとすると、図7に示す基準データを設定する。
すなわち、図7の縦軸に示す車両検出距離80mの値に
対応する正規化評価値Dを所定閾値Drefとして設定
する。システムの実運用時、霧などの発生による環境状
態の悪化時に出力される正規化評価値Dが所定閾値Dr
efを下回ったときに、障害物検出性能の低下が発生し
たと診断することができる。以上から、一辺が50cm
以上のマーク板、あるいは、マーク板領域の画素数が約
10画素以上となるマーク板を用いることで、100m
までの検出性能の低下が診断可能である。また、マーク
板の設置の高さは、大型車によりマーク板が遮られるこ
とのないように、3.8m以上とすることが好ましい。
The normalized evaluation value output from the environmental state detecting means 23 is collated with the reference data, and the obstacle detecting ability is determined based on a predetermined threshold and output (step T11). The position of the sensor is determined based on the vehicle detection capability of the visible image sensor. The vehicle detection range is defined based on the vehicle detection capability of the sensor, that is, a technical condition that allows the presence and speed of the vehicle to be specified by image processing from the captured image. Based on current visual image sensor performance, the vehicle detection range of the sensor can be adjusted by adjusting the camera angle.
In a curved section, the camera is deeply depressed to improve the detection performance of an area close to the camera. The vehicle detection range in the longitudinal direction of the visible image sensor that monitors the curve section is 20 to 100 m.
Is defined in the range. Therefore, the detection range that must be detected by the sensor is within 100 m and is determined by the arrangement interval of the cameras. For example, the detection range that the sensor must be able to detect is 20
When the distance is set to 80 m, the reference data shown in FIG. 7 is set.
That is, the normalized evaluation value D corresponding to the value of the vehicle detection distance 80 m shown on the vertical axis of FIG. 7 is set as the predetermined threshold Dref. During the actual operation of the system, the normalized evaluation value D output when the environmental condition deteriorates due to the generation of fog or the like is equal to the predetermined threshold Dr.
When the value falls below ef, it can be diagnosed that a decrease in the obstacle detection performance has occurred. From the above, one side is 50cm
By using the above mark plate or a mark plate in which the number of pixels in the mark plate region is about 10 pixels or more, 100 m
It is possible to diagnose the deterioration of the detection performance up to. The height of the mark plate is preferably set to 3.8 m or more so that the mark plate is not blocked by a large vehicle.

【0031】次に障害物検出手段22は従来の画像処理
装置と同様の手段で、障害物の初期検出(ステップT
4)、追跡(ステップT5)を行う。その後、処理結果
出力手段26は出力する処理結果を決定(ステップT
6)する。機器故障検出手段25により故障が検出され
た場合や自己診断手段24の判定が所定閾値以下である
場合は当該判定結果を、そうでなければ障害物検出手段
22の検出結果を処理結果として、これを出力(ステッ
プT6とT14)する。
Next, the obstacle detecting means 22 is the same means as the conventional image processing apparatus, and performs initial detection of an obstacle (step T).
4) Perform tracking (step T5). Thereafter, the processing result output means 26 determines the processing result to be output (step T
6) Yes. When a failure is detected by the device failure detection unit 25 or when the determination by the self-diagnosis unit 24 is equal to or smaller than a predetermined threshold, the determination result is used as the processing result. Otherwise, the detection result of the obstacle detection unit 22 is used as a processing result. Is output (steps T6 and T14).

【0032】機器故障検出手段25と自己診断手段24
および障害物手段22による出力は、情報作成手段31
でそれぞれの出力を情報処理し、編集区分して出力す
る。情報作成手段31でより出力するデータ構造を図1
0に示している。データ構造のヘッダ部34は、送信
元、送信先、時刻等の障害物衝突防止支援システムを構
成する各装置共通のデータである。データ部35は、障
害物情報作成手段によるデータ種別は、停止車両や低速
車両等の検出事象を判定した事象の種別、障害物位置、
障害物ID、対向車両ID、対向車両位置、検出時刻等
を編集して出力する。また、機器動作情報作成手段によ
るデータ種別は、下記のように編集区分して出力する。 0:正常(機器故障が無く、かつ自己診断手段によりセ
ンサの検出能力低下がないと判定した場合)。 1:機器故障が検出された場合。 2:自己診断手段によりセンサの検出能力低下が判定さ
れた場合
Device failure detecting means 25 and self-diagnosing means 24
The output from the obstacle means 22 is output to the information creating means 31.
To process each output, edit and output. FIG. 1 shows a data structure output from the information creating means 31.
0 is shown. The header part 34 of the data structure is data common to each device constituting the obstacle collision prevention support system such as the transmission source, the transmission destination, and the time. The data unit 35 determines the type of data by the obstacle information creating unit, such as the type of an event that has determined a detection event such as a stopped vehicle or a low-speed vehicle, an obstacle position,
The obstacle ID, oncoming vehicle ID, oncoming vehicle position, detection time, and the like are edited and output. The data type by the device operation information creating means is edited and output as described below. 0: Normal (when there is no device failure and the self-diagnosis means determines that there is no decrease in the detection capability of the sensor). 1: When a device failure is detected. 2: When the self-diagnosis unit determines that the detection capability of the sensor has decreased.

【0033】この編集区分して作成されたデータ出力に
より、通過車両のドライバに障害物情報を提供する障害
物情報提供手段とシステムの動作異常を通知するシステ
ム動作通知手段により、情報提供内容を決定して情報板
あるいは、路車間通信装置により出力する。例えば、機
器動作情報作成手段によるデータ種別が0の時は障害物
情報作成手段のデータをもとに障害物情報提供手段によ
り「前方100m停止車あり」、「前方100m低速車
あり」、「対向車接近中」等の情報が決定され出力され
る。データ種別が1の時は「サービス停止中」等を、ま
た、データ種別が2の時は「調整中」等をシステム動作
通知手段により決定して出力する。データ種別の出力は
編集区分することにより、機器故障時の保守情報として
も有用なデータとして利用することができる。
Based on the data output created by the editing and classification, an information providing content is determined by an obstacle information providing means for providing obstacle information to a driver of a passing vehicle and a system operation notifying means for notifying an abnormal operation of the system. Then, the information is output by the information board or the road-vehicle communication device. For example, when the data type by the device operation information creating means is 0, the obstacle information providing means uses the data of the obstacle information creating means to indicate that "there is a vehicle stopped 100 m ahead,""there is a low-speed car 100 m ahead," Information such as "car approaching" is determined and output. When the data type is 1, "service stopped" or the like is determined, and when the data type is 2, "adjusting" or the like is determined and output by the system operation notifying means. The output of the data type can be used as useful data also as maintenance information at the time of equipment failure by editing and sorting.

【0034】本実施例では、以上の工程を経ることで、
機器故障の検出や雨、霧等の発生にともない、環境状態
の変化による可視画像センサの検出性能の低下を自動的
に自己診断し、ドライバにシステム動作状況を通知する
ことができる。なお、本実施例では、環境状態検出手段
23の評価値を得る方法として輝度を観測値として抽出
する方法で示したが、従来の視程計測装置と同様の手順
で白と黒の輝度平均値から、マーク板の明暗コントラス
トを求め、これを評価値としてもよい。また、本実施例
では、環境状態検出手段はマーク板を用いることで示し
たが、道路上の他の目標物、例えば道路上の白線などを
利用してもよい。
In this embodiment, through the above steps,
A self-diagnosis of a decrease in the detection performance of the visible image sensor due to a change in the environmental state due to the detection of a device failure or the occurrence of rain, fog, or the like can automatically perform self-diagnosis, and notify the driver of the system operation status. In the present embodiment, the method of obtaining the evaluation value of the environmental state detecting means 23 is described by a method of extracting the luminance as the observation value. However, the same procedure as that of the conventional visibility measuring device is used to calculate the average value of the white and black luminances. Alternatively, the contrast of the mark plate may be determined, and this may be used as the evaluation value. Further, in the present embodiment, the environmental state detecting means is shown by using the mark plate, but may be another target on the road, for example, a white line on the road.

【0035】さらに、障害物衝突防止支援システムの機
能の他に、環境状態検出手段の評価値を視程Vに変換し
て算出することにより、前方の環境状態悪化情報とし
て、事前にドライバへ視程情報として提供する機能も併
用できる。
Further, in addition to the function of the obstacle collision prevention support system, the evaluation value of the environmental condition detecting means is converted into the visibility V and calculated, so that the visibility information is provided to the driver in advance as the environmental condition deterioration ahead. The function provided as can also be used together.

【0036】実施例2 この実施例の概略機器配置図、概略構成図、及び、処理
フロー図は実施例1と同様である。実施例2の動作を図
5及び図11を用いて説明する。図11は、霧などの環
境が急変する場合における環境状態評価値の時間変化に
対応する正規化特性値Dを説明するデータ図である。
Second Embodiment A schematic equipment layout diagram, a schematic configuration diagram, and a processing flow diagram of this embodiment are the same as those of the first embodiment. The operation of the second embodiment will be described with reference to FIGS. FIG. 11 is a data diagram illustrating a normalized characteristic value D corresponding to a temporal change of the environmental state evaluation value when the environment such as fog changes suddenly.

【0037】本実施例ではステップT1からT11まで
は、実施例1と同様である。自己診断手段24は、環境
状態検出手段の出力した評価値を基準データと照合し、
所定閾値により障害物検出手段の検出能力低下を判定す
るステップT1からT11までの動作後、判定結果出力
T14が障害物検出手段の検出能力低下を判定した場合
に、判定結果を一丁時間同一判定として出力する。
In this embodiment, steps T1 to T11 are the same as in the first embodiment. The self-diagnosis unit 24 compares the evaluation value output from the environmental state detection unit with reference data,
When the determination result output T14 determines that the detection capability of the obstacle detection means has decreased after the operation from step T1 to T11 in which the detection capability of the obstacle detection means is determined to be lower than the predetermined threshold value, the determination result is the same for one time. Output as

【0038】霧などの環境状態の時間変化に対応する正
規化特性値Dは、図11に示すように霧がながれたりし
て環境状態が急変する場合が想定される。このような場
合には、障害物検出手段の検出能力低下を判定しても環
境状態の急変のために、検出能力低下と低下解除の判定
を短時間で繰り返すため、そのような情報をドライバに
通知しても効果が薄く、煩わしさを増すなどして情報提
供の信頼性を損なう恐れがある。したがって、検出能力
低下が判定された場合は、例えば、走行車両の通過時間
を考慮して判定結果を一定時間同一判定として出力す
る。
As shown in FIG. 11, the normalized characteristic value D corresponding to the temporal change of the environmental state such as fog is assumed to be a case where the environmental state suddenly changes due to fog. In such a case, even if it is determined that the detection capability of the obstacle detection means has deteriorated, the determination of the reduction of the detection capability and the cancellation of the reduction are repeated in a short time because of a sudden change in the environmental state. Even if the notification is given, the effect is thin, and there is a possibility that the reliability of the information provision may be impaired by increasing annoyance. Therefore, when the detection capability is determined to be lower, the determination result is output as the same determination for a certain period of time in consideration of, for example, the passing time of the traveling vehicle.

【0039】本実施例では、以上の工程を経ることで、
検出能力低下が判定された場合に環境状態が急変を繰り
返してもドライバにシステムの動作異常状態を安全サイ
ドの情報として通知することができる。
In this embodiment, through the above steps,
Even when the environmental state repeatedly changes suddenly when the detection capability is determined to be low, the driver can be notified of the abnormal operation state of the system as safe side information.

【0040】実施例3 本実施例の概略機器配置図は図12に示すとおりであ
り、カメラ12、及び、カメラ12から100m以内の
視野内にある情報板6の背面に設ける一辺の寸法が50
cm以上のマーク板である。
Embodiment 3 FIG. 12 is a schematic device layout diagram of the present embodiment. The size of one side provided on the back of the camera 12 and the information board 6 within a visual field within 100 m from the camera 12 is 50 mm.
cm mark plate.

【0041】本実施例の概略構成、処理フロー、及び、
動作は実施例1と同様である。対向車両の情報をドライ
バに提供する情報板は、カーブ区間に進入するドライバ
が対向車両に関する最新の情報を取得できるようにカー
ブの開始地点に近づけて設置すること好ましく、この場
合、マーク板を情報板の背面に設けて、カメラの視野内
に含まれることが可能になる。
The schematic configuration, processing flow, and
The operation is the same as in the first embodiment. The information board that provides the information of the oncoming vehicle to the driver is preferably installed close to the start point of the curve so that the driver entering the curve section can obtain the latest information on the oncoming vehicle. Provided on the back of the board, it can be included in the field of view of the camera.

【0042】以上のような設置手段にすることで、マー
ク板を情報板の一部として構成できる。
With the above-described installation means, the mark plate can be configured as a part of the information plate.

【0043】[0043]

【発明の効果】以上のように、請求項1に記載の発明に
よれば、機器故障の検出や雨、霧等の発生に伴い、環境
状態悪化による可視画像センサの検出能力の低下を自動
的に自己診断し、保守性を向上することができる。ま
た、マーク板とカメラを同じポールに共用設置し、可視
画像センサ自身で自己診断手段を備えることから、簡略
なシステム構成とすることができる。
As described above, according to the first aspect of the present invention, the detection capability of the visible image sensor is automatically reduced due to the deterioration of the environmental condition due to the detection of equipment failure or the occurrence of rain or fog. Self-diagnosis to improve maintainability. In addition, since the mark plate and the camera are commonly installed on the same pole, and the visible image sensor itself includes the self-diagnosis means, a simple system configuration can be achieved.

【0044】また、請求項2に記載の発明によれば、環
境状態が急変を繰り返してもドライバにシステムの動作
異常状態を安全サイドの情報として通知することができ
る。
According to the second aspect of the present invention, even if the environmental state repeatedly changes suddenly, it is possible to notify the driver of the abnormal operation state of the system as safe side information.

【0045】また、請求項3に記載の発明によれば、マ
ーク板を情報板の一部として構成できるため、マーク板
を取り付けるためのポールを新たに設ける必要がない。
According to the third aspect of the present invention, since the mark plate can be configured as a part of the information plate, it is not necessary to newly provide a pole for attaching the mark plate.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例1の概略機器配置図である。FIG. 1 is a schematic device layout diagram of Embodiment 1 of the present invention.

【図2】本発明の実施例1の概略構成図である。FIG. 2 is a schematic configuration diagram of Embodiment 1 of the present invention.

【図3】本発明の実施例1の処理フロー図である。FIG. 3 is a processing flowchart of the first embodiment of the present invention.

【図4】マーク板と輝度の分布の説明図である。FIG. 4 is an explanatory diagram of a mark plate and distribution of luminance.

【図5】基準データ(1)を示す図である。FIG. 5 is a diagram showing reference data (1).

【図6】基準データ(2)を示す図である。FIG. 6 is a diagram showing reference data (2).

【図7】基準データ(3)を示す図である。FIG. 7 is a diagram showing reference data (3).

【図8】基準データ(4)を示す図である。FIG. 8 is a diagram showing reference data (4).

【図9】基準データ(1)〜(4)の評価値と車両検出
位置との相関係数を示す図である。
FIG. 9 is a diagram showing correlation coefficients between evaluation values of reference data (1) to (4) and vehicle detection positions.

【図10】機器動作情報作成手段と障害物情報作成手段
より出力するデータ構造の説明図である。
FIG. 10 is an explanatory diagram of a data structure output from a device operation information creating unit and an obstacle information creating unit.

【図11】環境状態の時間変化に対応する正規化特性値
Dを説明するデータ図である。
FIG. 11 is a data diagram illustrating a normalized characteristic value D corresponding to a temporal change in an environmental state.

【図12】本発明の実施例3の概略機器配置図である。FIG. 12 is a schematic device layout diagram of Embodiment 3 of the present invention.

【図13】従来の画像処理装置の構成図である。FIG. 13 is a configuration diagram of a conventional image processing apparatus.

【図14】従来の視程計測装置の構成図である。FIG. 14 is a configuration diagram of a conventional visibility measurement device.

【符号の説明】[Explanation of symbols]

2 ポール 3 マーク板 4 路側処理装置 5 ビーコンアンテナ 6 マーク板 11 カメラ 12 カメラ 21 入力画面格納手段 22 環境状態検出手段 23 自己診断手段 24 機器故障検出手段 25 処理結果出力手段 31 情報作成手段 32 通常時 33 悪天候時 34 ヘッダ部 35 データ部 41 障害物情報提供手段とシステム動作通知手段 50 初期検出手段 51 追跡手段 52 出力手段 100 カーブ区間 101 見通しを遮る壁等 102 停止車両 103 対向車両 104 AHS車両 105 非AHS車両 200 明暗検出装置 201 イメージ処理装置 202 A/D変換器 301 画像メモリ 302 CPU 303 メモリ 304 出力ユニット 2 Pole 3 Mark plate 4 Roadside processing device 5 Beacon antenna 6 Mark plate 11 Camera 12 Camera 21 Input screen storage means 22 Environmental condition detection means 23 Self-diagnosis means 24 Device failure detection means 25 Processing result output means 31 Information creation means 32 Normal time 33 Bad weather 34 Header 35 Data section 41 Obstacle information providing means and system operation notifying means 50 Initial detecting means 51 Tracking means 52 Output means 100 Curve section 101 Wall blocking view, etc. 102 Stopped vehicle 103 Oncoming vehicle 104 AHS vehicle 105 Non AHS vehicle 200 Light / dark detection device 201 Image processing device 202 A / D converter 301 Image memory 302 CPU 303 Memory 304 Output unit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 路側のポールに設置するカメラとカメラ
の撮像画像を利用してカーブ区間内に存在する停止車
両、低速車両等の障害物を検出する画像処理装置から成
る障害物検出手段と、前記障害物検出手段の出力をもと
に提供情報を作成する情報処理装置から成る障害物情報
作成手段と、路側に設置する情報版あるいは、路車間通
信装置により通過車両のドライバに障害物情報を提供す
る障害物情報提供手段とを有する障害物衝突防止支援シ
ステムにおいて、カメラ等の故障を検出する機器故障検
出手段と、雨、霧等のカメラ視界を左右する環境状態を
検出する環境状態検出手段と、環境状態検出手段の出力
から障害物検出手段の検出能力を自己診断して出力する
自己診断手段と、自己診断手段と機器故障検出手段の出
力をもとに機器の動作状態情報を作成する機器動作情報
作成手段と、ドライバにシステムの動作状態を通知する
システム動作通知手段とを設けたことを特徴とする障害
物衝突防止支援システムであって、前記環境状態検出手
段は、前記カメラの内、少なくとも1個のカメラを取り
付けたポールに設ける一辺が50cm以上のマーク板
と、前記マーク板を100m以内の視野内に含んでマー
ク板と道路上の障害物の両方を撮影するカメラから成る
手段と、マーク板を撮像するカメラの画像内からマーク
領域の輝度を抽出して評価値を求め、過去、快晴時に求
めた評価値で正規化することにより環境状態の変化を検
出する手段を備え、前記自己診断手段は、過去、カメラ
から前方の当該位置にマーク板を設置し、環境状態を検
出する環境状態検出手段と障害物検出手段により、過
去、環境状態の変化毎に検出した環境状態の評価値と車
両位置検出結果からなる基準データを格納して設定する
手段を備え、前記環境状態検出手段の出力した評価値を
基準データと照合し、所定閾値により障害物検出手段の
検出能力の低下を判定して出力する自己診断手段を備
え、機器動作情報作成手段は、機器故障検出手段と自己
診断手段による出力を編集区分して出力するようにした
ことを特徴とする障害物衝突防止支援システム。
1. An obstacle detecting means comprising: a camera installed on a roadside pole; and an image processing device that detects an obstacle such as a stationary vehicle or a low-speed vehicle existing in a curved section using an image captured by the camera. Obstacle information creation means comprising an information processing device for creating provision information based on the output of the obstacle detection means, and an information version installed on the roadside, or obstacle information to a driver of a passing vehicle by a road-to-vehicle communication device. In an obstacle collision prevention support system having an obstacle information providing means to provide, an equipment failure detection means for detecting a failure of a camera or the like, and an environmental state detection means for detecting an environmental state such as rain and fog which influences a camera view Self-diagnosis means for self-diagnosing and outputting the detection capability of the obstacle detection means from the output of the environmental state detection means, and operation of the equipment based on the outputs of the self-diagnosis means and the equipment failure detection means An obstacle collision prevention support system, comprising: equipment operation information creating means for creating state information; and system operation notifying means for notifying a driver of the operating state of the system, wherein the environmental state detecting means comprises: Of the cameras, a mark plate having a side of 50 cm or more provided on a pole to which at least one camera is attached, and photographing both the mark plate and obstacles on the road including the mark plate within a field of view of 100 m or less. Detects changes in environmental conditions by extracting the luminance of the mark area from the image of the camera that captures the mark plate and obtaining the evaluation value, and normalizing the evaluation value obtained in the past and when the weather was fine in the past. Environmental condition detecting means and obstacle detecting means for installing a mark plate at the position in front of the camera in the past, and detecting an environmental state. Further, in the past, there is provided means for storing and setting an evaluation value of the environmental state detected for each change of the environmental state and reference data including the vehicle position detection result, and the evaluation value output from the environmental state detecting means is referred to as reference data. Self-diagnosis means for collating and judging a decrease in the detection capability of the obstacle detection means based on a predetermined threshold value and outputting the same. The equipment operation information creating means edits and outputs the outputs of the equipment failure detection means and the self-diagnosis means. An obstacle collision prevention support system, characterized in that:
【請求項2】 自己診断手段は、環境状態検出手段の出
力した評価値を基準データと照合し、所定閾値により障
害物検出手段の検出能力低下を判定した場合に、判定結
果を一定時間同一判定として出力することを特徴とする
請求項1の障害物衝突防止支援システム。
2. The self-diagnosis unit compares the evaluation value output from the environmental state detection unit with reference data, and when it is determined by a predetermined threshold that the detection capability of the obstacle detection unit has deteriorated, the determination result is determined to be the same for a predetermined time. The obstacle collision prevention support system according to claim 1, wherein the obstacle collision prevention support system outputs the information.
【請求項3】 マーク板を情報板の背面に設けて、10
0m以内の視野内に含んでマーク板と道路上の障害物の
両方を撮像するカメラから成る環境状態検出手段を備え
ることを特徴とする請求項1の障害物衝突防止支援シス
テム。
3. A mark plate is provided on the back of the information plate,
2. The obstacle collision prevention support system according to claim 1, further comprising: an environmental state detection unit including a camera that captures both the mark plate and an obstacle on the road within a visual field within 0 m.
JP2000358646A 2000-11-27 2000-11-27 Obstacle collision prevention support system Expired - Lifetime JP3412013B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000358646A JP3412013B2 (en) 2000-11-27 2000-11-27 Obstacle collision prevention support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000358646A JP3412013B2 (en) 2000-11-27 2000-11-27 Obstacle collision prevention support system

Publications (2)

Publication Number Publication Date
JP2002163792A true JP2002163792A (en) 2002-06-07
JP3412013B2 JP3412013B2 (en) 2003-06-03

Family

ID=18830508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000358646A Expired - Lifetime JP3412013B2 (en) 2000-11-27 2000-11-27 Obstacle collision prevention support system

Country Status (1)

Country Link
JP (1) JP3412013B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156568A (en) * 2005-11-30 2007-06-21 Toshiba Corp Road travelling support system
DE102010002119A1 (en) 2009-02-19 2010-10-14 Denso Corporation, Kariya-City Exterior image surveillance system and vehicle with same
DE102010002122A1 (en) 2009-02-19 2010-10-21 Denso Corporation, Kariya-City Exterior image surveillance system and vehicle with same
JP4914365B2 (en) * 2004-10-19 2012-04-11 ラボラトワール セントラル デ ポンゼ シャッセ Line-of-sight measurement equipment
WO2014076899A1 (en) * 2012-11-16 2014-05-22 パナソニック株式会社 Camera, camera system, and self-diagnosis method
KR101848312B1 (en) * 2017-03-28 2018-04-13 (주) 모토텍 Sensor fusion system for autonomous emergency braking system in car
KR101921074B1 (en) * 2017-11-23 2018-11-22 (주) 모토텍 Sensor fusion system for controlling autonomous emergency braking in car
US10510249B2 (en) 2016-04-28 2019-12-17 Sumitomo Electric Industries, Ltd. Safety driving assistant system, vehicle, and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63188741A (en) * 1987-02-02 1988-08-04 Hokkaido Kaihatsukiyoku Doboku Shikenjo Measuring instrument for range of visibility
JPH0589400A (en) * 1991-09-27 1993-04-09 Kansei Corp Obstacle detecting device
JPH08219784A (en) * 1995-02-20 1996-08-30 Hokkaido Kaihatsukyoku Kaihatsu Doboku Kenkyusho Method for measuring visibility
JPH10320535A (en) * 1997-05-22 1998-12-04 Mitsubishi Heavy Ind Ltd Automatic generation device of background image
JPH1141399A (en) * 1997-07-18 1999-02-12 Fuji Photo Film Co Ltd Fault diagnosis method for image information reader and image information reader capable of executing the same
JPH1153695A (en) * 1997-07-31 1999-02-26 Toyota Motor Corp Curved road warning device
JP2000067368A (en) * 1998-08-24 2000-03-03 Mitsubishi Electric Corp Road monitoring system
JP2000090393A (en) * 1998-09-16 2000-03-31 Sumitomo Electric Ind Ltd On-vehicle-type travel route environment recognition device
JP2000111644A (en) * 1998-10-05 2000-04-21 Mitsubishi Electric Corp Vehicle detecting device
JP2000505213A (en) * 1996-04-15 2000-04-25 アドゥコ・マニュファクチュアリング・インコーポレーテッド Improved modular message board

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63188741A (en) * 1987-02-02 1988-08-04 Hokkaido Kaihatsukiyoku Doboku Shikenjo Measuring instrument for range of visibility
JPH0589400A (en) * 1991-09-27 1993-04-09 Kansei Corp Obstacle detecting device
JPH08219784A (en) * 1995-02-20 1996-08-30 Hokkaido Kaihatsukyoku Kaihatsu Doboku Kenkyusho Method for measuring visibility
JP2000505213A (en) * 1996-04-15 2000-04-25 アドゥコ・マニュファクチュアリング・インコーポレーテッド Improved modular message board
JPH10320535A (en) * 1997-05-22 1998-12-04 Mitsubishi Heavy Ind Ltd Automatic generation device of background image
JPH1141399A (en) * 1997-07-18 1999-02-12 Fuji Photo Film Co Ltd Fault diagnosis method for image information reader and image information reader capable of executing the same
JPH1153695A (en) * 1997-07-31 1999-02-26 Toyota Motor Corp Curved road warning device
JP2000067368A (en) * 1998-08-24 2000-03-03 Mitsubishi Electric Corp Road monitoring system
JP2000090393A (en) * 1998-09-16 2000-03-31 Sumitomo Electric Ind Ltd On-vehicle-type travel route environment recognition device
JP2000111644A (en) * 1998-10-05 2000-04-21 Mitsubishi Electric Corp Vehicle detecting device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4914365B2 (en) * 2004-10-19 2012-04-11 ラボラトワール セントラル デ ポンゼ シャッセ Line-of-sight measurement equipment
JP2007156568A (en) * 2005-11-30 2007-06-21 Toshiba Corp Road travelling support system
DE102010002119A1 (en) 2009-02-19 2010-10-14 Denso Corporation, Kariya-City Exterior image surveillance system and vehicle with same
DE102010002122A1 (en) 2009-02-19 2010-10-21 Denso Corporation, Kariya-City Exterior image surveillance system and vehicle with same
WO2014076899A1 (en) * 2012-11-16 2014-05-22 パナソニック株式会社 Camera, camera system, and self-diagnosis method
JPWO2014076899A1 (en) * 2012-11-16 2017-01-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Camera, camera system, and self-diagnosis method
US9832427B2 (en) 2012-11-16 2017-11-28 Panasonic Intellectual Property Corporation Of America Camera, camera system, and self-diagnosis method
US10510249B2 (en) 2016-04-28 2019-12-17 Sumitomo Electric Industries, Ltd. Safety driving assistant system, vehicle, and program
KR101848312B1 (en) * 2017-03-28 2018-04-13 (주) 모토텍 Sensor fusion system for autonomous emergency braking system in car
KR101921074B1 (en) * 2017-11-23 2018-11-22 (주) 모토텍 Sensor fusion system for controlling autonomous emergency braking in car

Also Published As

Publication number Publication date
JP3412013B2 (en) 2003-06-03

Similar Documents

Publication Publication Date Title
CN111223302B (en) External coordinate real-time three-dimensional road condition auxiliary device for mobile carrier and system
US6760061B1 (en) Traffic sensor
US20100049405A1 (en) Auxiliary video warning device for vehicles
EP2383679A1 (en) Detecting and recognizing traffic signs
US20210012653A1 (en) Traffic monitoring apparatus, traffic monitoring system, traffic monitoring method, and non-transitory computer readable medium storing program
CN102332209A (en) Automobile violation video monitoring method
US6810132B1 (en) Traffic monitoring apparatus
WO2019189152A1 (en) Traffic monitoring device, traffic monitoring system, traffic monitoring method, and non-transitory computer-readable medium with program stored thereon
WO2019189216A1 (en) Traffic monitoring device, traffic monitoring system, traffic monitoring method, and non-transitory computer-readable medium with program stored thereon
US7068154B2 (en) Stop marker recognition apparatus of vehicle drive assist system
US20230360523A1 (en) Traffic monitoring apparatus, traffic monitoring system, traffic monitoring method, and non-transitory computer readable medium storing program
JP2005309797A (en) Warning device for pedestrian
CN101349562A (en) Method and apparatus for alarming vehicle running bias direction
US20090069973A1 (en) Warning method and device for deviation of a moving vehicle
CN114387785A (en) Safety management and control method and system based on intelligent highway and storable medium
JP2002163792A (en) Obstacle collision prevention supporting system
JP2007066003A (en) Stop-line detection device
JP4071527B2 (en) Diagnostic imaging equipment
JP4346275B2 (en) Video diagnostic device and in-vehicle video monitoring device
JP2004252550A (en) Driving support device
KR20190005343A (en) Movable regulation system for stoping and parking car and that of method for identifying drive on or not
CN113392680A (en) Road recognition device and method and electronic equipment
KR20170033985A (en) The highway went to second for accident prevention system
JPH09272414A (en) Vehicle control device
JPH1040490A (en) Road monitoring device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
R150 Certificate of patent or registration of utility model

Ref document number: 3412013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

EXPY Cancellation because of completion of term