JP2008052453A - Traveling support system - Google Patents

Traveling support system Download PDF

Info

Publication number
JP2008052453A
JP2008052453A JP2006227125A JP2006227125A JP2008052453A JP 2008052453 A JP2008052453 A JP 2008052453A JP 2006227125 A JP2006227125 A JP 2006227125A JP 2006227125 A JP2006227125 A JP 2006227125A JP 2008052453 A JP2008052453 A JP 2008052453A
Authority
JP
Japan
Prior art keywords
visibility
information
road
failure
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006227125A
Other languages
Japanese (ja)
Other versions
JP4793571B2 (en
JP2008052453A5 (en
Inventor
Yasuhiro Kaneda
安弘 金田
Toru Hagiwara
亨 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hokkaido University NUC
Original Assignee
Hokkaido University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hokkaido University NUC filed Critical Hokkaido University NUC
Priority to JP2006227125A priority Critical patent/JP4793571B2/en
Publication of JP2008052453A publication Critical patent/JP2008052453A/en
Publication of JP2008052453A5 publication Critical patent/JP2008052453A5/ja
Application granted granted Critical
Publication of JP4793571B2 publication Critical patent/JP4793571B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a traveling support system for enabling many persons to recognize poor visibility of many spots at the same time and in real time while suppressing the increase of costs. <P>SOLUTION: A visibility index numeralization part 100 calculates the visibility index of a road by processing a road image from a road camera 110. A poor visibility information collection part 200 calculates the rank value of the calculated visibility index as a poor visibility level based on the subjective evaluation of human being, and collects/stores the calculated poor visibility level and image information and weather information as poor visibility information. A poor visibility information transmission part 300 provides the stored poor visibility information through predetermined information transmitting means (personal computer 410, information kiosk 420, portable telephone 430, road information board 440, car navigation 450, and road information radio 460 or the like) to a user. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、走行支援システムに関し、特に、デジタル画像による視認性指標を用いた視程障害時の走行支援システムに関する。   The present invention relates to a driving support system, and more particularly to a driving support system at the time of visibility failure using a visibility index based on a digital image.

視程障害は、吹雪や降雪、降雨、霧、煙霧など色々な要因で発生する。要因によって視程障害の発生場所や時間変動の仕方は様々であり、予期せぬ場所での突発的な視程障害も予想される。したがって、視程障害時に安全に走行するためには、現地の状況把握がきわめて重要である。また、視程障害は上記のように定常的に発生するわけではないため、予期せぬ視程障害に遭遇した衝突事故はあとを絶たず、見通しの悪い中での事故は多重衝突につながり大型化する傾向にある。したがって、事前に視程障害を知り得るか否かは安全走行にとってきわめて影響が大きい。   Visibility disturbance occurs due to various factors such as snowstorm, snowfall, rainfall, fog, and haze. Depending on the factors, the location where visibility impairment occurs and how it changes over time vary, and sudden visibility impairment in unexpected locations is also expected. Therefore, in order to travel safely when visibility is impaired, it is very important to understand the local situation. Visibility disturbances do not occur regularly as described above, so collision accidents that encounter unexpected visibility disturbances are continual, and accidents with poor visibility lead to multiple collisions that increase in size. There is a tendency. Therefore, whether or not visibility loss can be known in advance has a great influence on safe driving.

このため、多地点の視程障害を同時かつリアルタイムに把握することが強く望まれている。   For this reason, it is strongly desired to grasp multi-point visibility problems simultaneously and in real time.

従来、吹雪や濃霧などによる視程障害を知る方法としては、視程計などの計器で視程を計測する方法と、道路画像の閲覧による方法とがある。前者は、視程を数値として計測するため、データの蓄積が容易でデータの利用範囲が広いという利点がある。また、後者は、画像で直接確認できるため、確実に視程障害を把握することができるという利点がある。   Conventionally, as a method of knowing visibility disturbance due to snowstorm or heavy fog, there are a method of measuring visibility with an instrument such as a visibility meter and a method of browsing road images. Since the former measures the visibility as a numerical value, there is an advantage that the data can be easily stored and the data use range is wide. Moreover, since the latter can be confirmed directly with an image, there is an advantage that a visibility disorder can be reliably grasped.

しかし、かかる先行技術は、文献公知発明に係るものでないため、記載すべき先行技術文献情報はない。   However, since this prior art does not relate to a known literature invention, there is no prior art document information to be described.

しかしながら、上記の先行技術には、それぞれ、次のような問題がある。   However, each of the above prior arts has the following problems.

まず、計器(視程計など)で視程を計測する方法では、コストと精度維持の点から問題がある。例えば、視程計による計測では、空気中の水滴や浮遊粒子による光の透過率または反射率の変化を測定し、得られた結果を視程距離に変換する。しかし、視程計の精度を維持するためには定期的な点検および調整が必要であり、この調整は特殊な装置を用いて行うため、計器を取り外して点検施設に持ち込む必要があり、かかるコストも大きい。また、視程距離は、設置場所による影響が大きいため、視程計は、運転者や道路管理者(以下「運転者等」という)が感じる視界と異なる視程距離を出力する場合が多く、信頼性は低い。このため、計器による視程計測では、精度を維持することが困難である。また、視程計は、他の気象計器に比べて高価であるため、視程計を用いて多数の地点の視程障害を把握することは、コスト面でも困難である。   First, the method of measuring visibility with a meter (such as a visibility meter) has problems in terms of cost and accuracy maintenance. For example, in measurement using a visibility meter, a change in light transmittance or reflectance due to water droplets or suspended particles in the air is measured, and the obtained result is converted into a visibility distance. However, in order to maintain the accuracy of the visibility meter, periodic inspections and adjustments are necessary, and since this adjustment is performed using a special device, it is necessary to remove the instrument and bring it to an inspection facility, which also increases the cost. large. In addition, since the visibility distance is greatly affected by the installation location, the visibility meter often outputs a visibility distance that differs from the field of view felt by the driver or road manager (hereinafter referred to as “driver” etc.). Low. For this reason, it is difficult to maintain accuracy in visibility measurement using a meter. Further, since a visibility meter is more expensive than other weather instruments, it is difficult to grasp visibility obstacles at many points using a visibility meter in terms of cost.

また、道路画像の閲覧による方法では、画像をデータとして蓄積することが困難であり、画像を映像として閲覧する以外に視程障害を把握する手段がないという利用面での制約がある。また、すでに道路沿いに多数配備されている道路カメラ(例えば、道路監視用のITVカメラまたはCCTVカメラ)から送られてくる映像は、視程障害の把握のための有効な手段であるものの、この方法は、映像の提供が可能な限られたカメラからの画像のみであるという制約がある。また、このため、一度に多くの地点の情報を提供できないという制約も生じる。すなわち、このような画像情報には、情報の蓄積が困難であるという問題と、活用方法・範囲が限られるという問題とがある。   Further, in the method by browsing road images, it is difficult to store the images as data, and there is a restriction in terms of use that there is no means for grasping the visibility disorder other than browsing the images as videos. In addition, although a video sent from a road camera (for example, an ITV camera or a CCTV camera for road monitoring) already deployed along the road is an effective means for grasping the visibility disorder, this method However, there is a restriction that only images from a limited camera that can provide video are available. For this reason, there is a restriction that information on many points cannot be provided at one time. In other words, such image information has a problem that it is difficult to accumulate information and a problem that the utilization method and range are limited.

そこで、コストの増大を抑えるために、すでに多数設置されている道路カメラを利用するものとし、その上で、かかる道路カメラが設置されている区間の視程障害を、多くの人が映像表示装置を持たなくても車での走行前や走行中など様々な場面で知ることができる方法の実現が望まれていた。   Therefore, in order to suppress the increase in cost, it is assumed that a large number of road cameras that are already installed are used, and in addition, many people use video display devices for visibility problems in the section where such road cameras are installed. The realization of a method that can be known in various situations, such as before traveling in a car or during traveling, without being held is desired.

本発明は、かかる点に鑑みてなされたものであり、コストの増大を抑えつつ、多くの人が多地点の視程障害を同時かつリアルタイムに把握することができる走行支援システムを提供することを目的とする。   The present invention has been made in view of such points, and an object of the present invention is to provide a driving support system in which many people can simultaneously grasp multi-point visibility problems in real time while suppressing an increase in cost. And

本発明の走行支援システムは、道路画像を画像処理して道路の視認性指標を算出する視認性指標算出部と、前記視認性指標算出部によって算出された視認性指標のランク値を、人間の主観的評価に基づく視程障害度として算出する視程障害度算出部と、前記視程障害度算出部によって算出された視程障害度を含む視程障害情報を記憶する視程障害情報記憶部と、前記視程障害情報記憶部に記憶された視程障害情報を、所定の情報伝達手段を介して提供する視程障害情報提供部と、を有し、前記視認性指標算出部は、道路画像を周波数成分に変換し、変換後の周波数分布をフィルタ処理して人間のコントラスト感度に対応する領域の周波数分布を取得し、得られた周波数分布を用いて道路の視認性指標を算出する、構成を採る。   The driving support system according to the present invention includes a visibility index calculation unit that calculates a road visibility index by performing image processing on a road image, and the visibility index rank value calculated by the visibility index calculation unit A visibility disorder degree calculation unit that calculates a visibility disorder degree based on subjective evaluation, a visibility disorder information storage unit that stores visibility disorder information including the visibility disorder degree calculated by the visibility disorder degree calculation unit, and the visibility disorder information A visibility failure information providing unit that provides visibility failure information stored in the storage unit via a predetermined information transmission unit, and the visibility index calculation unit converts a road image into a frequency component and converts A configuration is adopted in which the frequency distribution of a region corresponding to human contrast sensitivity is acquired by filtering the subsequent frequency distribution, and a road visibility index is calculated using the obtained frequency distribution.

本発明によれば、コストの増大を抑えつつ、多くの人が多地点の視程障害を同時かつリアルタイムに把握することができる。   According to the present invention, it is possible for a large number of people to grasp a visibility disorder at multiple points simultaneously and in real time while suppressing an increase in cost.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

まず、本実施の形態の説明に先立って、本明細書で使用する基本的な用語を定義しておく。   First, prior to the description of this embodiment, basic terms used in this specification are defined.

「カメラ」とは、道路の監視や調査など様々な目的で道路沿いに整備されている様々な種類のカメラを意味する。本明細書では、これと同じ意味で「道路カメラ」という用語も使用する。   “Camera” means various types of cameras arranged along the road for various purposes such as monitoring and investigation of the road. In this specification, the term “road camera” is also used in the same meaning.

「デジタル画像」とは、静止画や動画、カメラの種類などにかかわらず、デジタル化された画像を広く意味する。   “Digital image” broadly means a digitized image regardless of the type of still image, moving image, camera, or the like.

「道路画像」とは、道路、道路周辺、および交通状況を記録したデジタル画像を意味する。   “Road image” means a digital image in which roads, road surroundings, and traffic conditions are recorded.

「視程障害」とは、例えば、霧や雨、雪、吹雪、煙霧、風塵などによって空気中の光の透過率が低下し、道路前方の見通しが悪くなることにより、昼夜にかかわらず運転に支障をきたすような状況を意味する。   “Visibility impairment” means, for example, that the light transmittance in the air decreases due to fog, rain, snow, snowstorm, haze, dust, etc. It means a situation that causes

「視認性指標」とは、道路画像を画像処理することによって求めた画像の見易さ(視認性)を示す指標を意味する。この視認性指標は、本願発明の中心概念の一つであり、視認性指標数値化方法(後述するように、道路画像に特定の画像処理を施すことによって求める)を含めて、後で詳細に説明する。   “Visibility index” means an index indicating the visibility (visibility) of an image obtained by image processing of a road image. This visibility index is one of the central concepts of the present invention, and will be described in detail later, including a visibility index quantification method (obtained by performing specific image processing on a road image as will be described later). explain.

「視程障害度」とは、ドライバーとして走行することを想定したときの道路前方視野(または視界)の見易さ(視認性)を示す指標(視認性指標のランク値)を意味する。この視程障害度も、本願発明の中心概念の一つであり、視程障害度判定方法(後述するように、視認性指標の値を、道路画像に対する主観的評価を基に判定する)を含めて、後で詳細に説明する。   “Visibility hindrance” means an index (a visibility index rank value) that indicates the visibility (visibility) of a road front view (or visibility) when driving as a driver. This visibility failure degree is also one of the central concepts of the present invention, and includes a visibility failure degree determination method (as will be described later, the value of a visibility index is determined based on a subjective evaluation of a road image). This will be described in detail later.

「視程障害情報」とは、区間(例えば、峠の手前の地域から峠を越えた地域までの視程障害の発生が懸念される区間)としての現状の視程障害を総合的に示す情報であって、視認性指標から判定した多地点の視程障害度を中心に、道路画像や気象情報など視程障害を判断する情報を包括した情報を意味する。視程障害度の基となる視認性指標も、視程障害情報に含まれる。   “Visibility disorder information” is information that comprehensively indicates the current visibility disorder as a section (for example, a section in which the visibility disorder from the area before the eyelid to the area beyond the eyelid is concerned). This means information including comprehensive information such as road images and weather information that determines visibility obstacles, centering on the degree of visibility obstacles at multiple points determined from the visibility index. The visibility index that is the basis of the visibility failure degree is also included in the visibility failure information.

「気象情報」とは、視程障害をもたらす要因である、降雪や気温などの気象の現在値と予測値を意味する。   “Meteorological information” means current values and predicted values of weather such as snowfall and temperature, which are factors that cause visibility problems.

図1は、本発明の一実施の形態に係る走行支援システムの全体構成図である。   FIG. 1 is an overall configuration diagram of a driving support system according to an embodiment of the present invention.

図1に示す走行支援システムは、デジタル画像による視認性指標を用いた視程障害時の走行支援システムであって、大別して、視認性指標数値化部100、視程障害情報収集部200、および視程障害情報送信部300を有する。   The driving support system shown in FIG. 1 is a driving support system at the time of visibility failure using a visibility index based on a digital image, and is roughly divided into a visibility index digitizing unit 100, a visibility failure information collecting unit 200, and a visibility failure. An information transmission unit 300 is included.

視認性指標数値化部100は、道路画像を利用して視認性指標を数値化する部分であって、例えば、道路カメラ110、画像収集装置120、および視認性指標数値化装置130で構成されている。視認性指標数値化部100は、道路カメラ110からのデジタル画像を画像処理することにより、画像の見易さを数値化する(「視認性指標」)。   The visibility index digitizing unit 100 is a part that digitizes a visibility index using a road image, and includes, for example, a road camera 110, an image collection device 120, and a visibility index digitizing device 130. Yes. The visibility index digitizing unit 100 digitizes the visibility of the image by performing image processing on the digital image from the road camera 110 (“visibility index”).

道路カメラ110は、上記のように、道路の監視や調査など様々な目的で道路沿いに整備されている様々な種類のカメラである。道路カメラ110は、例えば、ITVカメラやCCTVカメラなどで構成されている。道路カメラ110としては、例えば、コストの増大を抑えるため、すでに道路沿いに多数設置されているカメラを利用することが好ましい。道路カメラ110は、道路、道路周辺、および交通状況を記録したデジタル画像(道路画像)を画像収集装置120に送信する。   As described above, the road camera 110 is a variety of cameras provided along the road for various purposes such as monitoring and investigation of the road. The road camera 110 is configured by, for example, an ITV camera or a CCTV camera. As the road camera 110, for example, it is preferable to use a number of cameras already installed along the road in order to suppress an increase in cost. The road camera 110 transmits a digital image (road image) that records the road, the road periphery, and the traffic situation to the image collection device 120.

画像収集装置120は、道路カメラ110から送られてくる道路画像を収集・蓄積し、視認性指標数値化装置130および視程障害情報収集部200に送信する。特に、本実施の形態では、例えば、画像収集装置120は、道路カメラ110から送られてくる動画像から静止画像を取り出して記録し、視認性指標数値化装置130および視程障害情報収集部200にそれぞれ送信する。   The image collection device 120 collects and accumulates road images sent from the road camera 110 and transmits them to the visibility index digitizing device 130 and the visibility failure information collection unit 200. In particular, in the present embodiment, for example, the image collection device 120 extracts and records a still image from a moving image sent from the road camera 110 and stores it in the visibility index digitizing device 130 and the visibility failure information collection unit 200. Send each one.

視認性指標数値化装置130は、画像収集装置120から送られてくる道路画像(ここでは、例えば、静止画像)を画像処理して、画像の見易さを数値化する、つまり、視認性指標を算出する。得られた視認性指標は、視程障害情報収集部200に送信される。   The visibility index digitizing device 130 performs image processing on a road image (here, for example, a still image) sent from the image collecting device 120 and digitizes the visibility of the image, that is, the visibility index. Is calculated. The obtained visibility index is transmitted to the visibility defect information collection unit 200.

視程障害情報収集部200は、様々な視程障害関連情報、具体的には、例えば、道路画像そのもの、道路画像から求めた視認性指標、視認性指標から求めた視程障害度、および気象情報を同時に収集・記録する部分である。より具体的には、視程障害情報収集部200は、1)道路沿いに多数設置されている道路カメラ110から、画像収集装置120を介して、道路上の視程障害把握に必要な多地点の道路画像、2)視認性指標数値化装置130からの視認性指標、3)視認性指標を、人間の主観的評価を基に判定した視程障害度、4)視程障害をもたらす要因である気象情報、をそれぞれ同時に収集し、長い道路区間全体または広い範囲の視程障害の面的な状況を把握可能な視程障害情報として集約する。視程障害情報収集部200は、例えば、視程障害度演算装置210、気象情報収集装置220、視程障害情報編集装置230、および道路地図データベース240で構成されている。   The visibility failure information collecting unit 200 simultaneously displays various visibility failure related information, specifically, for example, the road image itself, the visibility index obtained from the road image, the visibility failure degree obtained from the visibility index, and weather information. This is the part to collect and record. More specifically, the visibility obstacle information collecting unit 200 is 1) a multi-point road necessary for grasping visibility obstacles on the road from the road cameras 110 installed along the road via the image collecting device 120. 2) Visibility index from the visibility index digitizing device 130, 3) Visibility obstacle degree determined from the visibility index based on human subjective evaluation, 4) Weather information which is a factor causing visibility disorder, Are collected at the same time, and are aggregated as visibility fault information that can grasp the entire situation of a long road section or a wide range of visibility faults. The visibility failure information collection unit 200 includes, for example, a visibility failure degree calculation device 210, a weather information collection device 220, a visibility failure information editing device 230, and a road map database 240.

視程障害度演算装置210は、視認性指標数値化装置130から送られてくる視認性指標を、人間による主観的評価、例えば、被験者による画像を見ての判定を基に策定された基準に従って、視程障害度を演算する。すなわち、視程障害度演算装置210は、視認性指標を基に、ドライバーが視程障害の程度を知ることができるように、実際に道路を走行した場合を想定した道路前方の見易さ(視程障害度)を判定する。得られた視程障害度は、視程障害情報編集装置230に送信される。   The visibility impediment degree computing device 210 uses the visibility index sent from the visibility index digitizing device 130 in accordance with a criterion established based on a subjective evaluation by a human, for example, a determination based on an image of a subject. Calculate visibility impairment. That is, the visibility impediment degree calculation device 210 is based on the visibility index so that the driver can know the degree of visibility impediment, and the visibility ahead of the road assuming that the vehicle actually travels (visibility impediment). Degree). The obtained visibility failure degree is transmitted to the visibility failure information editing device 230.

気象情報収集装置220は、視程障害をもたらす要因である気象情報を収集する。例えば、気象情報収集装置220は、気象情報センター250に接続されている。気象情報センター250からは、視程障害に関係するすべての気象情報が提供される。   The meteorological information collection device 220 collects meteorological information, which is a factor causing visibility disturbance. For example, the weather information collection device 220 is connected to the weather information center 250. The weather information center 250 provides all weather information related to the visibility disorder.

視程障害情報編集装置230は、画像収集装置120からの道路画像、視認性指標数値化装置130からの視認性指標、視程障害度演算装置210からの視程障害度、および気象情報収集装置220からの気象情報を収集し、収集した各種情報を基に視程障害情報を編集する。すなわち、視程障害情報編集装置230は、区間としての現状の視程障害を総合的に示す情報として、視認性指標から判定した多地点の視程障害度を中心に、道路画像や気象情報など視程障害を判断する情報を包括した視程障害情報を作成する。得られた視程障害情報は、視程障害情報送信部300に送られる。   The visibility failure information editing device 230 includes a road image from the image collection device 120, a visibility index from the visibility index digitizing device 130, a visibility failure degree from the visibility failure degree calculation device 210, and a weather information collection device 220. Collect meteorological information and edit visibility information based on the collected information. In other words, the visibility failure information editing device 230 provides visibility information such as road images and weather information as information that comprehensively indicates the current visibility failure as a section, focusing on the degree of visibility failure at multiple points determined from the visibility index. Visibility disorder information including information to be judged is created. The obtained visibility failure information is sent to the visibility failure information transmission unit 300.

道路地図データベース240は、道路地図データを格納したデータベースである。道路地図データベース240と視程障害情報編集装置230とは、相互にアクセス可能である。   The road map database 240 is a database that stores road map data. The road map database 240 and the visibility obstacle information editing device 230 are mutually accessible.

視程障害情報送信部300は、数値化された各視程障害情報を蓄積しデータベース化するとともに、視程障害度をテキスト文字、絵文字、音声に変換し、ドライバーのニーズおよび利用シーン(情報を入手する場所、時期、保有する情報機器など)に応じて、様々な手段、タイミングで視程障害情報を提供する。視程障害情報送信部300は、例えば、Webサーバ310、視程障害情報送信装置320、および視程障害情報検索装置330で構成されている。   The visibility failure information transmitting unit 300 accumulates each digitized visibility failure information and creates a database, and converts the visibility failure degree into text characters, pictograms, and voices, and the driver's needs and usage scenes (location for obtaining information). Visibility information is provided by various means and timing according to the timing, information equipment, etc. The visibility failure information transmission unit 300 includes, for example, a Web server 310, a visibility failure information transmission device 320, and a visibility failure information search device 330.

より具体的には、視程障害情報送信部300は、視程障害度、道路画像、および気象情報を利用者が受け取る情報機器とニーズに合わせて送信する機能を有する。例えば、視程障害情報送信部300は、画像と文字(テキスト文字、絵文字)を用いてすべての情報をパソコン410や情報キオスク420のホームページに表示したり、絵文字やテキスト文字を用いてコンパクトにした情報を携帯電話430の携帯電話サイトに表示したり、視程障害度を文字データとし、道路情報板440やカーナビ450に表示したり、視程障害度を音声データとし、道路情報ラジオ460やカーナビ450、一般ラジオ放送局(図示せず)に配信したり、視程障害度がある一定レベルを超えたとき、視程障害度を文字データとして、携帯メールやパソコンメールで利用者に配信したりする。また、図示しないが、視程障害情報送信部300は、画像と文字と音声を用いてすべての情報をTV放送局に配信することも可能である。   More specifically, the visibility failure information transmission unit 300 has a function of transmitting a visibility failure degree, a road image, and weather information according to needs and an information device that a user receives. For example, the visibility defect information transmission unit 300 displays all information on the home page of the personal computer 410 or the information kiosk 420 using images and characters (text characters, pictograms), or compact information using pictograms and text characters. Is displayed on the mobile phone site of the mobile phone 430, the visibility obstacle degree is character data, and is displayed on the road information board 440 and the car navigation system 450, and the visibility obstacle degree is voice data, and the road information radio 460 and the car navigation system 450 are generally used. It is distributed to a radio broadcasting station (not shown), or when the degree of visibility failure exceeds a certain level, the degree of visibility failure is delivered as text data to the user via mobile mail or personal computer mail. Although not shown, the visibility failure information transmission unit 300 can also distribute all information to TV broadcast stations using images, characters, and sounds.

Webサーバ310は、視程障害情報編集装置230で編集された視程障害度をテキスト文字や絵文字などに変換して、視程障害度以外の他の視程障害情報(道路情報、気象情報)と共にパソコン410や情報キオスク420、携帯電話430などのWeb画面(Webページ)を作成する。なお、本実施の形態では、Webと音声データとを切り離しているが、Webにおいて音声データで視程障害情報を提供することも可能である。   The Web server 310 converts the visibility failure degree edited by the visibility failure information editing device 230 into text characters, pictograms, and the like, along with the PC 410 and the visibility failure information (road information, weather information) other than the visibility failure degree. Web screens (Web pages) such as the information kiosk 420 and the mobile phone 430 are created. In this embodiment, the Web and the audio data are separated from each other. However, it is also possible to provide visibility failure information using audio data on the Web.

視程障害情報送信装置320は、視程障害情報編集装置230で編集された視程障害度をテキスト文字や絵文字、音声データなどに変換して、携帯電話430やパソコン410、道路情報板440、カーナビ450、道路情報ラジオ460などに送信する。   The visibility failure information transmission device 320 converts the visibility failure degree edited by the visibility failure information editing device 230 into text characters, pictograms, voice data, and the like, so that the cellular phone 430, the personal computer 410, the road information board 440, the car navigation system 450, It transmits to road information radio 460 etc.

視程障害情報検索装置330は、検索要求(車両位置・走行方向情報を含む)を受信すると、視程障害情報編集装置230と通信して、車両の進行方向前方の視程障害情報(視程障害度、道路情報、気象情報)を取得し、得られた視程障害情報を、視程障害情報送信装置320を介して検索要求先に送信する。検索要求は、例えば、GPS470を利用可能なカーナビ450から送信される。   When the visibility failure information search device 330 receives the search request (including vehicle position / travel direction information), the visibility failure information search device 330 communicates with the visibility failure information editing device 230 to view the visibility failure information ahead of the vehicle in the traveling direction (visibility failure degree, road Information, weather information) and the obtained visibility failure information is transmitted to the search request destination via the visibility failure information transmission device 320. The search request is transmitted from the car navigation system 450 that can use the GPS 470, for example.

このように、本実施の形態に係る走行支援システムは、視認性指標数値化部100、視程障害情報収集部200、および視程障害情報送信部300から構成されている。本システムは、道路沿いに多数設置されている道路カメラ110からの道路画像をはじめとするすべてのデジタル画像を基に視程障害度を算出し、得られた視程障害度を、視程障害に関係する道路画像や気象情報と共にドライバーに提供する。これにより、ドライバーは、パソコン410や携帯電話430、カーナビ450、道路情報板440など様々な機器を利用して、家庭や職場、移動中などいつでもどこでも視程障害情報が入手可能になる。このため、吹雪や霧などのすべての視程障害中のドライブにおいて、出発時間をずらすことで視程障害のひどい時間帯を回避したり、路線を変更したりすることで、視程障害に遭遇せずに済むなど、視程障害時の安全走行を支援することができる。   As described above, the driving support system according to the present embodiment includes the visibility index digitizing unit 100, the visibility failure information collecting unit 200, and the visibility failure information transmitting unit 300. This system calculates the degree of visibility impairment based on all digital images including road images from the road cameras 110 installed along the road, and relates the degree of visibility impairment to the visibility impairment. Providing drivers with road images and weather information. As a result, the driver can obtain visibility failure information anytime, anywhere, such as at home, at work, or while traveling, using various devices such as the personal computer 410, the mobile phone 430, the car navigation system 450, and the road information board 440. For this reason, it is possible to avoid severe visibility hindrance time by changing the departure time or changing the route in a drive with all visibility impairment such as snowstorm and fog without encountering visibility impairment. For example, it can support safe driving when visibility is impaired.

図2は、本実施の形態で用いられる視認性評価手法の説明図である。   FIG. 2 is an explanatory diagram of a visibility evaluation method used in the present embodiment.

この視認性評価手法は、静止画像の空間周波数から、その画像の視認性を判定する手法である。すなわち、本手法では、視界不良の評価指標として、人間のコントラスト感度関数を用いる。吹雪や霧は、人間の視界からコントラスト感度の高い空間周波数の情報を画像から減らし、さらには無くしてしまうことに相当する。実際に、吹雪や霧が濃いときに撮影された画像は、背景にかかわらずほとんど真白となる。人間のコントラスト感度が高い領域の空間周波数の情報が、2次元静止画像(以下単に「画像」という)に多ければ視界が良好であり、逆に少なければ視界が不良となる。例えば、図2において、視界良好時には、画面501の中のコントラストが大きく、白黒の強度の差が大きい。これに対し、視界不良時には、画面502の中のコントラストが小さく、白黒の強度の差が小さくなっている。   This visibility evaluation method is a method for determining the visibility of an image from the spatial frequency of the still image. That is, in this method, a human contrast sensitivity function is used as an evaluation index for poor visibility. A snowstorm or fog corresponds to reducing or even eliminating spatial frequency information with high contrast sensitivity from an image in human view. Actually, an image taken when the snowstorm or fog is dark is almost white regardless of the background. The visual field is good if there is much spatial frequency information in a region where human contrast sensitivity is high in a two-dimensional still image (hereinafter simply referred to as “image”), and if the information is small, the visual field is poor. For example, in FIG. 2, when the visibility is good, the contrast in the screen 501 is large, and the difference in intensity between black and white is large. On the other hand, when the visibility is poor, the contrast in the screen 502 is small, and the difference in intensity between black and white is small.

そこで、本手法では、視界不良の評価指標として画像の空間周波数を利用し、人間のコントラスト感度を利用したフィルタ処理により、人間にとって見やすい領域の空間周波数から画像の見易さを定量化(数値化)する(視認性指標)。後述するように、この視認性指標は、フーリエ変換により求めたパワースペクトル値の合計である。   Therefore, in this method, the spatial frequency of the image is used as an evaluation index for poor visibility, and the visibility of the image is quantified (quantified) from the spatial frequency of the region that is easy for humans to see by filtering using human contrast sensitivity. ) (Visibility index). As will be described later, this visibility index is the sum of power spectrum values obtained by Fourier transformation.

しかし、この視認性指標のままでは、人間が見易さを区別し評価することは困難であるため、人間の感覚に基づいたグルーピング化を行う。例えば、一例として、本手法では、被験者による視認性の評価値として、被験者実験の結果を基に視認性指標をグルーピングし、カテゴリ化する(VS値)。すなわち、VS値は、視認性指標を被験者の感覚に基づいてグルーピング化した数値である。図2に示す評価結果503では、VS値は1〜12に設定されている。この評価結果503は、視認性指標と目視による視程値の相関を確認する実験の結果である。   However, with this visibility index, it is difficult for humans to distinguish and evaluate visibility, so grouping is performed based on human senses. For example, in this method, as an evaluation value of the visibility by the subject, the visibility index is grouped and categorized based on the result of the subject experiment (VS value). That is, the VS value is a numerical value obtained by grouping the visibility index based on the sense of the subject. In the evaluation result 503 illustrated in FIG. 2, the VS value is set to 1 to 12. This evaluation result 503 is a result of an experiment for confirming the correlation between the visibility index and the visibility value visually.

実験の結果、視認性指標と目視による視程値との間には相関性があることが確認された。そこで、本手法では、VS値をさらにグルーピングして4段階の視程障害度(視認性指標のランクとしての視界レベル)を設定した。具体的には、視界レベル4は、視程が500m以上ある、視界が良好なレベルである。視界レベル3は、視程が200〜500mの場合であり、視界レベル2は、視程が100〜200mの場合である。視界レベル1は、視程が100m未満の、視界が不良なレベルである。ここでは、視程レベルの数値が小さいほど視界が悪いとしている。本実施の形態において、最終的に提供するのは、この4段階の視程障害度である。   As a result of the experiment, it was confirmed that there is a correlation between the visibility index and the visual visibility value. Therefore, in this method, the VS values are further grouped to set the visibility disorder degree (visibility level as the rank of the visibility index) in four stages. Specifically, the visibility level 4 is a level where the visibility is 500 m or more and the visibility is good. The visibility level 3 is when the visibility is 200 to 500 m, and the visibility level 2 is when the visibility is 100 to 200 m. The visibility level 1 is a level where the visibility is less than 100 m and the visibility is poor. Here, the visibility is worse as the numerical value of the visibility level is smaller. In this embodiment, what is finally provided is the visibility degree of visibility in the four stages.

なお、本実施の形態では、提供する視程障害度(視界レベル)を4段階に設定しているが、これに限定されるわけではなく、人間が見易さを区別し判定できる範囲であれば、段階数は、情報提供の趣旨に沿って任意に設定可能である。ただ、実際は、視界レベルの段階数は、好ましくは、2〜7であり、より好ましくは、3〜5であり、最も好ましくは、4である。例えば、4段階の視界レベルを設定することにより、視界が悪い状況をより的確に伝えることが可能である。また、本実施の形態では、視界レベルの数値が小さいほど視界が悪いとしているが、これに限定されるわけではなく、逆であってもよい。   In this embodiment, the degree of visibility disturbance (visibility level) to be provided is set to four levels, but the present invention is not limited to this, and it is within a range where human beings can distinguish and determine visibility. The number of stages can be arbitrarily set according to the purpose of providing information. However, in practice, the number of steps of the visibility level is preferably 2 to 7, more preferably 3 to 5, and most preferably 4. For example, by setting four levels of visibility, it is possible to more accurately convey a situation where visibility is poor. In this embodiment, the smaller the value of the visual field level, the worse the visual field. However, the present invention is not limited to this and may be reversed.

次いで、本実施の形態に係る走行支援システムの全体的な動作について、図3を用いて説明する。図3は、各構成要素のプロセスを示すシーケンス図である。   Next, the overall operation of the driving support system according to the present embodiment will be described with reference to FIG. FIG. 3 is a sequence diagram showing a process of each component.

まず、道路カメラ110は、各種の道路画像を撮影し、視認性指標数値化部100の画像収集装置120に送信する。   First, the road camera 110 captures various road images and transmits them to the image collection device 120 of the visibility index digitizing unit 100.

道路画像を受け取った視認性指標数値化部100は、動画像のキャプチャリング等によって静止画像を抽出する。そして、抽出した画像の切り出し作業、FFT(高速フーリエ変換)処理、人間のコントラスト感度を踏まえた空間周波数帯域フィルタ処理を順次行った後、パワースペクトルを合計することにより、見易さを示す視認性指標を算出する。算出した視認性指標は、視程障害情報収集部200に送信される。一方で、抽出した静止画像もまた視程障害情報収集部200に送信される。   Upon receiving the road image, the visibility index digitizing unit 100 extracts a still image by capturing a moving image or the like. Then, after sequentially performing the extraction operation of the extracted image, the FFT (Fast Fourier Transform) processing, and the spatial frequency band filtering processing based on human contrast sensitivity, the power spectrum is summed up, and the visibility showing visibility Calculate the indicator. The calculated visibility index is transmitted to the visibility failure information collection unit 200. On the other hand, the extracted still image is also transmitted to the visibility defect information collection unit 200.

視程障害情報収集部200は、視認性指標数値化部100から送られてきた静止画像を蓄積するとともに、視認性指標数値化部100から送られてきた視認性指標を基に、実際に車両走行することを想定したときの前方の見易さ(視程障害度)を算出・蓄積し、また、視程障害要因である気象情報を収集・蓄積する。そして、道路上の視界に関係する視程障害度、道路画像、気象情報の各データを、道路地図データベース240に格納された道路地図データと照合させ編集整理して、視程障害情報データベースを構築する。ここで収集・蓄積された視程障害度、道路画像(静止画像)、および気象情報は、視程障害情報送信部300を介してユーザ400に提供される。   The visibility failure information collecting unit 200 accumulates the still image sent from the visibility index digitizing unit 100 and actually travels the vehicle based on the visibility index sent from the visibility index digitizing unit 100. It calculates and accumulates forward visibility (degree of visibility impairment) when it is assumed to do, and collects and accumulates weather information that is a factor of visibility impairment. Then, the visibility obstacle information, road image, and weather information data related to the visibility on the road are collated with the road map data stored in the road map database 240 and edited to organize the visibility obstacle information database. The visibility obstacle degree, road image (still image), and weather information collected and accumulated here are provided to the user 400 via the visibility obstacle information transmission unit 300.

そして、視程障害情報送信部300は、視程障害度をテキスト文字、絵文字、または音声データに変換するとともに、1)パソコン410、情報キオスク420、携帯電話430のWeb画面を作成し、2)視程障害発生時に緊急メール通知を行い、3)視程障害発生時に道路情報板440に視程障害情報を表示し、4)視程障害発生時に道路情報ラジオ460を介して自動音声で情報提供を行い、5)視程障害発生区間手前で、前方の視程障害発生状況をカーナビ450に送信する。これにより、ユーザ400は、1)の場合は、各種画面を見ることで情報を入手し、2)の場合は、視程障害の発生状況をメールで入手し、3)および4)の場合は、走行中に路側情報施設から情報を入手し、5)の場合は、視程障害発生区間に侵入する手前で、前方の視程障害発生状況をカーナビ450から情報入手することができる。5)の場合、ユーザ400は、カーナビ450を介してGPS470による車両位置と走行方向などの情報(車両位置情報)を送信し、この情報を受信した視程障害情報送信部300は、視程障害情報収集部200にアクセスして、車両位置情報を基に車両の進行方向前方の視程障害情報を検索し、カーナビ450に送信する。   The visibility impediment information transmission unit 300 converts the visibility impediment degree into text characters, pictograms, or audio data, and 1) creates Web screens of the personal computer 410, the information kiosk 420, and the mobile phone 430, and 2) visibility impediments. 3) Visibility failure information is displayed on the road information board 440 when visibility failure occurs, and 4) Information is provided by automatic voice via the road information radio 460 when visibility failure occurs. 5) Visibility Before the failure occurrence section, the front visibility failure occurrence state is transmitted to the car navigation system 450. Accordingly, in the case of 1), the user 400 obtains information by looking at various screens. In the case of 2), the user 400 obtains the state of occurrence of the visibility disorder by e-mail. In the cases of 3) and 4), Information is obtained from the roadside information facility while traveling, and in the case of 5), the information on the front visibility failure occurrence state can be obtained from the car navigation system 450 before entering the visibility failure occurrence section. In the case of 5), the user 400 transmits information (vehicle position information) such as the vehicle position and the traveling direction by the GPS 470 via the car navigation system 450, and the visibility failure information transmission unit 300 that receives this information collects the visibility failure information. Accessing the unit 200, the vehicle visibility information in the forward direction of the vehicle is searched based on the vehicle position information and transmitted to the car navigation system 450.

以下、本実施の形態に係る走行支援システムの各部について、より詳細に説明する。   Hereafter, each part of the driving assistance system which concerns on this Embodiment is demonstrated in detail.

図4は、本実施の形態における画像収集装置120の動作を示すフローチャートである。   FIG. 4 is a flowchart showing the operation of the image collection device 120 in the present embodiment.

まず、画像収集装置120は、道路カメラ110を選択し(S1000)、選択した道路カメラ110と通信を行う(S1100)。その結果、通信が可能な場合は(S1200:YES)、当該道路カメラ110が通常設定の画角位置にあるか否かを確認する(S1300)。この確認の結果、当該道路カメラ110が通常設定の画角位置にある場合は(S1300:YES)、当該道路カメラ110の道路画像を収集する(S1400)。道路画像の収集は、動画像のキャプチャリング等により、当該道路カメラ110から送られてくる動画像から静止画像を抽出することによって行われる。収集された道路画像(静止画像)は、画像収集装置120内に蓄積される(S1500)。なお、ステップS1000〜ステップS1500の一連の処理(1地点の処理)は、すべての道路カメラ110と通信が完了するまで、つまり、全地点の処理が完了するまで繰り返される。   First, the image collection device 120 selects the road camera 110 (S1000), and communicates with the selected road camera 110 (S1100). As a result, if communication is possible (S1200: YES), it is confirmed whether or not the road camera 110 is at the normal angle of view (S1300). As a result of the confirmation, if the road camera 110 is at the normal angle of view (S1300: YES), road images of the road camera 110 are collected (S1400). Road images are collected by extracting still images from moving images sent from the road camera 110 by capturing moving images or the like. The collected road images (still images) are accumulated in the image collection device 120 (S1500). Note that a series of processing (step 1 processing) from step S1000 to step S1500 is repeated until communication with all road cameras 110 is completed, that is, processing for all points is completed.

図5は、本実施の形態における視認性指標数値化装置130の構成を示すブロック図である。   FIG. 5 is a block diagram showing the configuration of the visibility index digitizing apparatus 130 in the present embodiment.

この視認性指標数値化装置130は、多地点の道路カメラ110の画像(静止画像)を入力して評価画像の切り出し作業を行う画像入力部131と、画像入力部131によって切り出されたデジタル画像をFFT処理するFFT処理部132と、FFT処理部132から出力されるスペクトルデータに対して、人間の視覚感度を踏まえた空間周波数の帯域フィルタを適用するフィルタ処理部133と、フィルタ処理部133の出力結果を用いて画像の視認性を数値化(演算)する視認性演算部134と、視認性演算部134の演算結果(視認性指標)が正常値か異常値かを判定する異常値判定部135と、異常値判定部135の判定結果に応じて視認性指標を格納する視認性指標格納部136とを有する。このとき、視認性指標格納部136は、視認性演算部134によって得られた視認性指標が正常値の場合は、その視認性指標をそのまま格納し、異常値の場合は、視認性指標をエラーに設定して格納を行う。この視認性指標数値化装置130は、例えば、専用または汎用の計算機で構成されている。   The visibility index digitizing device 130 inputs an image (still image) of a multi-point road camera 110 and performs an evaluation image cut-out operation, and a digital image cut out by the image input unit 131. An FFT processing unit 132 that performs FFT processing, a filter processing unit 133 that applies a spatial frequency bandpass filter based on human visual sensitivity to spectrum data output from the FFT processing unit 132, and an output of the filter processing unit 133 A visibility calculation unit 134 that digitizes (calculates) the visibility of an image using the result, and an abnormal value determination unit 135 that determines whether the calculation result (visibility index) of the visibility calculation unit 134 is a normal value or an abnormal value. And a visibility index storage unit 136 that stores a visibility index according to the determination result of the abnormal value determination unit 135. At this time, the visibility index storage unit 136 stores the visibility index as it is when the visibility index obtained by the visibility calculation unit 134 is a normal value, and sets the visibility index as an error when the visibility index is an abnormal value. Set to and store. The visibility index digitizing device 130 is configured by, for example, a dedicated or general-purpose computer.

図6は、本実施の形態で用いられる視認性指標数値化の手順を示すフロー図である。   FIG. 6 is a flowchart showing a procedure for converting the visibility index into a numerical value used in this embodiment.

このフロー図は、2次元静止画像から視界不良に関する情報を取り出すアルゴリズムである。人間のコントラスト感度が良好な空間周波数の範囲を特定し、その範囲内のパワースペクトル値の合計から視認性指標を求める。   This flowchart is an algorithm for extracting information related to poor visibility from a two-dimensional still image. A spatial frequency range with good human contrast sensitivity is specified, and a visibility index is obtained from the sum of power spectrum values within the range.

まず、入力された静止画像(道路画像)のどこを評価画像として切り出すかを決める。例えば、俯瞰している遠方の道路全体が切り出し画像に収まるよう調整する。画像領域は、FFT処理できるように、画素数が128×128や256×256のように、2のべき乗となるようにする。画像は通常カラーであるため、各画像の表現を明るさ成分のみとなるように0から255の256階調に変換する。この変換された明るさ成分はピクセル値(または画素値)と呼ばれ、画面ではグレースケール(通常、白から黒)で表示される。   First, it is determined which part of the input still image (road image) is to be cut out as an evaluation image. For example, adjustment is performed so that the entire distant road overlooking the image is included in the cut-out image. The image area is set to a power of 2 such that the number of pixels is 128 × 128 or 256 × 256 so that FFT processing can be performed. Since the image is a normal color, the representation of each image is converted to 256 gradations from 0 to 255 so that only the brightness component is present. This converted brightness component is called a pixel value (or pixel value) and is displayed on the screen in a gray scale (usually white to black).

次に、2次元FFTを用いて、入力した評価画像の画素単位毎の明るさの濃度分布をフーリエ変換し、空間周波数成分に分解する。フーリエ変換は、画素の濃度分布を三角関数の重ね合わせで表現するものである。空間周波数は、画像の濃度分布パターンとその強弱を示している。高周波成分の欠落は、遠方情報が少なくなっていることを意味し、空間周波数の強弱は撮影対象がベールで覆われたような状況を意味する。吹雪や霧は、高周波成分(細かい濃度分布)の存在や空間周波全体の強弱(濃度分布のダイナミックレンジ)に影響する。フーリエ変換した様々な三角関数の振幅の2乗和はパワースペクトルと呼ばれ、各々の空間周波数に対応する強弱を表している。   Next, using a two-dimensional FFT, the brightness density distribution for each pixel unit of the input evaluation image is Fourier-transformed and decomposed into spatial frequency components. The Fourier transform expresses the density distribution of pixels by superimposing trigonometric functions. The spatial frequency indicates the density distribution pattern of the image and its strength. The lack of high-frequency components means that the distance information is decreasing, and the strength of the spatial frequency means a situation where the subject to be imaged is covered with a veil. Snowstorm and fog affect the presence of high-frequency components (fine concentration distribution) and the strength of the entire spatial frequency (dynamic range of concentration distribution). The sum of squares of the amplitudes of various trigonometric functions subjected to Fourier transform is called a power spectrum and represents the strength corresponding to each spatial frequency.

視覚は、聴覚と同様にある空間周波数帯域しか知覚しないことが知られている。フィルタ処理部133では、人間のコントラスト感度特性が高い空間周波数帯域のパワースペクトルを抜き出す。人問のコントラスト感度と対応させるため、画像の空問周波数を「サイクル/画素(cpp:cycles/pixe1)」の空間周波数から「サイクル/角度(cpd:cycles/degree)」の空間周波数に換算し、帯域を設定する。この帯域を通過したパワースペクトル値を合計し、視認性指標を求める。   It is known that vision perceives only a certain spatial frequency band like auditory sense. The filter processing unit 133 extracts a power spectrum in a spatial frequency band with high human contrast sensitivity characteristics. In order to correspond to the human contrast sensitivity, the spatial frequency of the image is converted from the spatial frequency of “cycles / pixel (cpp: cycles / pixe1)” to the spatial frequency of “cycles / angle (cpd: cycles / degree)”. Set the bandwidth. The power spectrum values that have passed through this band are summed to obtain a visibility index.

図7は、本実施の形態における視認性指標数値化装置130の動作を示すフローチャートである。   FIG. 7 is a flowchart showing the operation of the visibility index digitizing apparatus 130 in the present embodiment.

まず、視認性指標数値化装置130は、新規画像に対して視認性指標算出処理を行う(S2000)。   First, the visibility index digitizing apparatus 130 performs a visibility index calculation process on a new image (S2000).

図8は、図7の視認性指標算出処理(S2000)の内容を示すフローチャートである。   FIG. 8 is a flowchart showing the contents of the visibility index calculation process (S2000) of FIG.

まず、画像入力部131で、上記のようにFFT処理のための切り出し作業等を行った後(S2010)、FFT処理部132で、FFT処理を行う(S2020)。具体的には、FFTを用いて、入力したデジタル画像の2次元周波数解析を行う。そして、フィルタ処理部133で、入力したパワースペクトルに対して上記のフィルタ処理を行う(S2030)。具体的には、カメラの解像度およびレンズ視野を考慮して、画像の空間周波数を「サイクル/画素(cpp)」の空間周波数から「サイクル/角度(cpd)」の空間周波数に換算した後、人間の視覚感度を踏まえた空間周波数の帯域フィルタを適用する。人間の視覚感度を踏まえた空間周波数としては、例えば、人間の視覚感度が良好な領域を用いる。そして、人間の視覚感度が良好な領域としては、例えば、コントラスト感度テストで採用されている1.5cpdから18cpdを用いる。この範囲外、つまり、1.5cpdよりも低いまたは18cpdよりも高い空間周波数領域は、カットする。そして、視認性演算部134で、視認性指標を算出する(S2040)。具体的には、フィルタ処理後の高コントラスト感度領域の空間周波数におけるパワースペクトル値を合計し、視認性指標とする。このとき、カメラの故障や配線系の故障などの場合に伝送された画像の視認性指標は、想定される範囲に入らない値になる。そこで、異常値判定部135で、ステップS2040で得た視認性指標が正常値か異常値かを判定する(S2050)。この判定は、視認性指標が想定される範囲に入っているかどうかによって行う。この判定の結果、得られた視認性指標が正常値の場合は、その視認性指標をそのまま視認性指標格納部136に格納する(S2070)。これに対し、得られた視認性指標が異常値の場合は、視認性指標をエラーに設定して(S2060)、視認性指標格納部136に格納する(S2070)。この格納処理を終えた後、図7のメインフローチャートにリターンする。   First, the image input unit 131 performs the clipping operation for the FFT processing as described above (S2010), and then the FFT processing unit 132 performs the FFT processing (S2020). Specifically, two-dimensional frequency analysis of the input digital image is performed using FFT. Then, the filter processing unit 133 performs the above filter processing on the input power spectrum (S2030). Specifically, in consideration of the resolution of the camera and the lens field of view, the spatial frequency of the image is converted from the spatial frequency of “cycle / pixel (cpp)” to the spatial frequency of “cycle / angle (cpd)”. Apply a spatial frequency bandpass filter based on visual sensitivity. As the spatial frequency based on human visual sensitivity, for example, an area having good human visual sensitivity is used. For example, 1.5 cpd to 18 cpd adopted in the contrast sensitivity test is used as the region where the human visual sensitivity is good. Out of this range, that is, a spatial frequency region lower than 1.5 cpd or higher than 18 cpd is cut. Then, the visibility calculation unit 134 calculates a visibility index (S2040). Specifically, the power spectrum values in the spatial frequency of the high contrast sensitivity region after the filter processing are summed to obtain a visibility index. At this time, the visibility index of the image transmitted in the case of a camera failure or a wiring system failure is a value that does not fall within an assumed range. Therefore, the abnormal value determination unit 135 determines whether the visibility index obtained in step S2040 is a normal value or an abnormal value (S2050). This determination is performed based on whether or not the visibility index is within an assumed range. As a result of this determination, if the obtained visibility index is a normal value, the visibility index is stored as it is in the visibility index storage unit 136 (S2070). On the other hand, when the obtained visibility index is an abnormal value, the visibility index is set as an error (S2060) and stored in the visibility index storage unit 136 (S2070). After the storage process is completed, the process returns to the main flowchart of FIG.

そして、ステップS2000で算出した視認性指標を視程障害情報収集部200の視程障害度演算装置210に転送する(S2100)。なお、ステップS2000〜ステップS2100の一連の処理は、すべての新規画像に対して実行される。   Then, the visibility index calculated in step S2000 is transferred to the visibility failure degree calculation device 210 of the visibility failure information collection unit 200 (S2100). Note that the series of processing from step S2000 to step S2100 is executed for all new images.

図9は、本実施の形態における視程障害情報収集部200の構成を示すブロック図である。   FIG. 9 is a block diagram illustrating a configuration of the visibility failure information collection unit 200 according to the present embodiment.

この視程障害情報収集部200は、上記のように、視程障害度演算装置210、気象情報収集装置220、視程障害情報編集装置230、および道路地図データベース240を有する。図9に示すように、視程障害度演算装置210は、視認性指標から視程障害度を演算する視程障害度演算部211と、視認性指標から視程障害度を演算する際の視程障害度換算テーブル212とで構成されている。視程障害度演算装置210(特に視程障害度演算部211)は、視認性指標から視程障害度を演算し、得られた視程障害度に加えて視認性指標を視程障害情報編集装置230に出力する。また、視程障害情報編集装置230は、例えば、主に、道路上の視界に関係する視程障害度、道路画像、および気象情報の各データを道路地図データと照合して編集整理する視程障害情報編集部231と、視程障害情報編集部231の処理結果を格納する視程障害情報データベース232とで構成されている。なお、視認性指標は、視程障害度演算装置210を経由せず、直接、視認性指標数値化装置130から視程障害情報編集装置230に送信して記録することも可能である。   As described above, the visibility failure information collection unit 200 includes the visibility failure degree calculation device 210, the weather information collection device 220, the visibility failure information editing device 230, and the road map database 240. As shown in FIG. 9, the visibility obstacle degree calculation device 210 includes a visibility obstacle degree calculation unit 211 that calculates a visibility obstacle degree from a visibility index, and a visibility obstacle degree conversion table for calculating a visibility obstacle degree from a visibility index. 212. The visibility obstacle degree calculation device 210 (particularly, the visibility obstacle degree calculation unit 211) calculates the visibility obstacle degree from the visibility index, and outputs the visibility index to the visibility obstacle information editing device 230 in addition to the obtained visibility obstacle degree. . Further, the visibility failure information editing device 230 mainly edits the visibility failure information editing that collates each of the visibility failure degree, the road image, and the weather information related to the visibility on the road with the road map data. 231 and a visibility failure information database 232 storing the processing result of the visibility failure information editing unit 231. Note that the visibility index can be directly transmitted from the visibility index digitizing device 130 to the visibility failure information editing device 230 and recorded without passing through the visibility failure degree computing device 210.

図10は、本実施の形態における視程障害情報収集部200の処理手順を示すフローチャートである。   FIG. 10 is a flowchart showing a processing procedure of the visibility failure information collection unit 200 in the present embodiment.

視程障害度演算部211は、視認性指標数値化装置130からの新規の視認性指標があるか否かを判断し(S3000)、新規の視認性指標がある場合は(S3000:YES)、視程障害度換算テーブル212を参照して、その視認性指標から視程障害度を演算し(S3100)、求めた視程障害度を、その視認性指標と共に、視程障害情報編集部231を介して視程障害情報データベース232に蓄積する(S3200)。   Visibility obstacle degree calculation part 211 judges whether there is a new visibility index from visibility index digitizing device 130 (S3000), and when there is a new visibility index (S3000: YES), visibility is determined. With reference to the obstacle degree conversion table 212, the visibility obstacle degree is calculated from the visibility index (S3100), and the visibility obstacle degree obtained together with the visibility index is the visibility obstacle information via the visibility obstacle information editing unit 231. It accumulates in the database 232 (S3200).

また、視程障害情報編集部231は、画像収集装置120からの新規の道路画像があるか否かを判断し(S3300)、新規の道路画像がある場合は(S3300:YES)、その道路画像を視程障害情報データベース232に蓄積する(S3400)。   Further, the visibility failure information editing unit 231 determines whether or not there is a new road image from the image collection device 120 (S3300). If there is a new road image (S3300: YES), the road image is displayed. It accumulates in the visibility failure information database 232 (S3400).

また、気象情報収集装置220は、気象情報センター250などからの新規の気象情報があるか否かを判断し(S3500)、新規の気象情報がある場合は(S3500:YES)、その気象情報を、視程障害情報編集部231を介して視程障害情報データベース232に蓄積する(S3600)。   In addition, the weather information collection device 220 determines whether there is new weather information from the weather information center 250 or the like (S3500). If there is new weather information (S3500: YES), the weather information collection device 220 displays the weather information. Then, it is stored in the visibility failure information database 232 via the visibility failure information editing unit 231 (S3600).

そして、視程障害情報編集部231は、視程障害情報データベース232に新規の蓄積情報があるか否かを判断し(S3700)、新規の蓄積情報がある場合は(S3700:YES)、道路地図データベース240を参照して、その蓄積情報を道路地図データとリンクさせて蓄積する(S3800)。   The visibility failure information editing unit 231 determines whether there is new accumulated information in the visibility failure information database 232 (S3700). If there is new accumulated information (S3700: YES), the road map database 240 is determined. , The storage information is linked with road map data and stored (S3800).

なお、3つの情報に関する処理、つまり、視認性指標に関する処理(ステップS3000〜ステップS3200)、道路画像に関する処理(ステップS3300〜ステップS3400)、および気象情報に関する処理(ステップS3500〜ステップS3600)は、必ずしもこの順番に実行(情報蓄積)する必要はなく、好ましくは、並列処理される。そして、各種情報が視程障害情報データベース232に蓄積される度に、その都度、道路地図データとリンクさせた蓄積が行われる(ステップS3700〜ステップS3800))。   In addition, the process regarding three information, ie, the process regarding a visibility parameter | index (step S3000-step S3200), the process regarding a road image (step S3300-step S3400), and the process regarding a weather information (step S3500-step S3600) are not necessarily required. There is no need to execute (accumulate information) in this order, and preferably parallel processing is performed. Each time various kinds of information are accumulated in the visibility failure information database 232, accumulation linked to the road map data is performed (steps S3700 to S3800).

図11は、本実施の形態における視程障害情報送信部300の構成を示すブロック図である。   FIG. 11 is a block diagram illustrating a configuration of the visibility failure information transmission unit 300 according to the present embodiment.

この視程障害情報送信部300は、上記のように、Webサーバ310、視程障害情報送信装置320、および視程障害情報検索装置330を有する。図11に示すように、視程障害情報送信装置320は、視程障害度をテキスト文字に変換する視程障害度テキスト変換部341と、視程障害度を絵文字に変換する視程障害度絵文字変換部342と、視程障害度を音声データに変換する視程障害度音声変換部343と、視程障害度テキスト変換部341および視程障害度絵文字変換部342からそれぞれ出力される文字情報(テキスト文字、絵文字)を送信する文字情報送信部321と、視程障害度音声変換部343から出力される音声情報を送信する音声情報送信部322と、視程障害情報の検索結果(車両の進行方向前方の視程障害情報)をカーナビ450に送信するカーナビ情報送信部323とで構成されている。   As described above, the visibility failure information transmission unit 300 includes the Web server 310, the visibility failure information transmission device 320, and the visibility failure information search device 330. As shown in FIG. 11, the visibility failure information transmitting apparatus 320 includes a visibility failure degree text conversion unit 341 that converts the visibility failure degree into text characters, a visibility failure degree pictogram conversion unit 342 that converts the visibility failure degree into pictograms, A character for transmitting character information (text characters, pictograms) respectively output from the visibility failure degree sound conversion unit 343 that converts the visibility failure degree into sound data, and the visibility failure degree text conversion unit 341 and the visibility failure degree pictogram conversion unit 342 The information transmission unit 321, the audio information transmission unit 322 that transmits the audio information output from the visibility failure degree audio conversion unit 343, and the search result of the visibility failure information (visibility failure information ahead in the traveling direction of the vehicle) to the car navigation 450 It comprises a car navigation information transmission unit 323 for transmission.

また、Webサーバ310は、視程障害度テキスト変換部341と、視程障害度絵文字変換部342と、視程障害度テキスト変換部341および視程障害度絵文字変換部342からそれぞれ出力される視程障害度の文字情報(テキスト文字、絵文字)ならびに視程障害情報データベース232に蓄積された特定の道路画像および気象情報を用いて、パソコン410および情報キオスク420用のWeb画面を表示するPCWeb表示部311と、視程障害度テキスト変換部341および視程障害度絵文字変換部342からそれぞれ出力される視程障害度の文字情報(テキスト文字、絵文字)ならびに視程障害情報データベース232に蓄積された特定の道路画像および気象情報を用いて、携帯電話430用のWeb画面を表示する携帯電話Web表示部312とで構成されている。   Further, the Web server 310 includes a visibility disorder degree text conversion unit 341, a visibility disorder degree pictogram conversion unit 342, and a visibility disorder degree character output from the visibility disorder degree text conversion unit 341 and the visibility disorder degree pictogram conversion unit 342, respectively. A PCWeb display unit 311 that displays a Web screen for the personal computer 410 and the information kiosk 420 using information (text characters, pictograms) and a specific road image and weather information stored in the visibility failure information database 232; Using the character information (text characters, pictograms) of the visibility impairment degree respectively output from the text conversion unit 341 and the visibility impairment pictogram conversion unit 342, and the specific road image and weather information accumulated in the visibility impairment information database 232, Mobile phone W that displays a Web screen for mobile phone 430 It is composed of a b display unit 312.

また、視程障害情報検索装置330は、カーナビ450を搭載した走行車両から送信された車両位置情報(車両位置や走行方向など)を受信する車両位置情報受信部331と、受信した車両位置情報を基に、視程障害情報データベース232を参照して、車両の進行方向前方の視程障害情報(視程障害度、道路画像、気象情報)を検索する視程障害情報検索部332とで構成されている。   Further, the visibility failure information search device 330 receives the vehicle position information (vehicle position, traveling direction, etc.) transmitted from the traveling vehicle on which the car navigation system 450 is mounted, and the received vehicle position information. In addition, a visibility failure information search unit 332 that searches for visibility failure information (visibility failure degree, road image, weather information) ahead of the traveling direction of the vehicle with reference to the visibility failure information database 232 is configured.

なお、本実施の形態では、Webサーバ310と視程障害情報送信装置320とが、視程障害度テキスト変換部341および視程障害度絵文字変換部342を共有する構成になっているが、これに限定されるわけではなく、それぞれ独自に視程障害度テキスト変換部341および視程障害度絵文字変換部342を有する構成も可能である。   In the present embodiment, the Web server 310 and the visibility failure information transmission device 320 are configured to share the visibility failure level text conversion unit 341 and the visibility failure level pictogram conversion unit 342. However, the present invention is not limited thereto. However, it is also possible to have a configuration in which the visibility disorder degree text conversion unit 341 and the visibility disorder degree pictogram conversion unit 342 are independently provided.

図12は、本実施の形態における視程障害情報送信部300のリクエスト型情報提供の処理手順を示すフローチャートである。ここで、「リクエスト型」とは、パソコンWebや情報キオスク、携帯電話Webなど、ユーザ側がアクセスして情報を閲覧する場合を意味する。   FIG. 12 is a flowchart illustrating a processing procedure for request type information provision of the visibility failure information transmission unit 300 in the present embodiment. Here, the “request type” means a case where a user accesses and browses information such as a personal computer Web, an information kiosk, and a mobile phone Web.

まず、視程障害情報送信部300は、視程障害度テキスト変換部341および視程障害度絵文字変換部342で、視程障害情報データベース232を参照して、一定の時間間隔で、提供すべき当該視程障害度を、テキスト文字および絵文字にそれぞれ変換し(S4000)、変換後の視程障害度ならびに視程障害情報データベース232に蓄積された特定の道路画像および気象情報を含む視程障害情報を各Web表示部311、312に転送する(S4100)。なお、これを受けて、PCWeb表示部311は、視程障害度テキスト変換部341および視程障害度絵文字変換部342からそれぞれ出力されたテキスト文字および絵文字ならびに視程障害情報データベース232に蓄積された特定の道路画像および気象情報を用いて、パソコン410および情報キオスク420用のWeb画面を表示する。また、携帯電話Web表示部312は、視程障害度テキスト変換部341および視程障害度絵文字変換部342からそれぞれ出力された視程障害度の文字情報(テキスト文字、絵文字)ならびに視程障害情報データベース232に蓄積された特定の道路画像および気象情報を用いて、携帯電話430用のWeb画面を表示する。このような一連の処理は、例えば、上記のように、一定の時間間隔で行われる。すなわち、このシステムでは、一定の時間間隔で情報の更新が行われる。   First, the visibility failure information transmission unit 300 refers to the visibility failure information database 232 in the visibility failure level text conversion unit 341 and the visibility failure level pictogram conversion unit 342, and the visibility failure level to be provided at regular time intervals. Are converted into text characters and pictograms (S4000), respectively, and the visibility failure information including the degree of visibility failure after conversion and the specific road image and weather information stored in the visibility failure information database 232 are respectively displayed on the Web display units 311 and 312. (S4100). In response to this, the PCWeb display unit 311 receives the text characters and pictograms output from the visibility disorder degree text conversion unit 341 and the visibility disorder degree pictogram conversion unit 342, respectively, and specific roads accumulated in the visibility disorder information database 232. The web screen for the personal computer 410 and the information kiosk 420 is displayed using the image and the weather information. Further, the mobile phone web display unit 312 stores the character information (text characters, pictograms) of the visibility disorder degree output from the visibility disorder degree text conversion unit 341 and the visibility disorder degree pictogram conversion unit 342 and the visibility disorder information database 232, respectively. The web screen for mobile phone 430 is displayed using the specific road image and weather information. Such a series of processes is performed at regular time intervals as described above, for example. That is, in this system, information is updated at regular time intervals.

図13は、本実施の形態における視程障害情報送信部300のプッシュ型情報提供の処理手順を示すフローチャートである。ここで、「プッシュ型」とは、携帯電話などへの緊急メール、道路情報板、道路情報ラジオのように条件に応じて自動的に情報を提供する場合を意味する。   FIG. 13 is a flowchart illustrating a push-type information provision processing procedure of the visibility failure information transmission unit 300 according to the present embodiment. Here, the “push type” means a case where information is automatically provided according to conditions such as an emergency mail to a mobile phone, a road information board, and a road information radio.

まず、視程障害情報送信部300は、視程障害度テキスト変換部341、視程障害度絵文字変換部342、および視程障害度音声変換部343で、視程障害情報データベース232を参照して、一定の時間間隔で、提供すべき当該視程障害度を、テキスト文字、絵文字、および音声データにそれぞれ変換し(S5000)、変換後の視程障害度を視程障害情報送信装置320に蓄積する(S5100)。そして、視程障害度がユーザによって事前に設定された値(閾値)を超えたか否かを判断し(S5200)、視程障害度が設定値を超えた場合は(S5200:YES)、文字情報送信部321を介してテキスト情報をパソコン410や携帯電話430の緊急メールおよび道路情報板440にそれぞれ送信し、音声情報送信部322を介して音声情報を道路情報ラジオ460に送信する(S5300)。これにより、ユーザが必要とする視程障害の程度、つまり、視程障害度のレベル(視界レベル)に応じた情報提供が可能となる。   First, the visibility failure information transmission unit 300 is a constant time interval with reference to the visibility failure information database 232 in the visibility failure degree text conversion unit 341, the visibility failure degree pictogram conversion unit 342, and the visibility failure degree speech conversion unit 343. Then, the degree of visibility obstacle to be provided is converted into text characters, pictograms, and audio data (S5000), and the degree of visibility obstacle after conversion is stored in the visibility obstacle information transmitting device 320 (S5100). Then, it is determined whether or not the visibility failure degree exceeds a value (threshold value) set in advance by the user (S5200). If the visibility failure degree exceeds the set value (S5200: YES), the character information transmission unit The text information is transmitted to the emergency mail and road information board 440 of the personal computer 410 or the mobile phone 430 via 321 respectively, and the voice information is transmitted to the road information radio 460 via the voice information transmission unit 322 (S5300). As a result, it is possible to provide information according to the degree of visibility disorder required by the user, that is, the visibility disorder level (visibility level).

図14は、本実施の形態における視程障害情報送信部300のカーナビ用情報提供の処理手順を示すフローチャートである。   FIG. 14 is a flowchart illustrating a processing procedure for providing information for car navigation by the visibility failure information transmitting unit 300 according to the present embodiment.

視程障害情報送信部300は、車両位置情報受信部331で、車両に搭載されたカーナビ450から当該車両の走行位置や走行方向などの情報(車両位置情報)を受信すると(S6000)、視程障害情報検索部332で、車両に応じた情報(車両の進行方向前方の視程障害情報)を視程障害情報データベース232から検索して取得し(S6100)、取得した視程障害情報を視程障害情報送信装置320のカーナビ情報送信部323に転送する(S6200)。そして、カーナビ情報送信部323を介してその視程障害情報を当該車両のカーナビ450に送信する(S6300)。   When the vehicle position information receiving unit 331 receives information (vehicle position information) such as the traveling position and traveling direction of the vehicle from the car navigation system 450 mounted on the vehicle (S6000), the visibility disorder information transmitting unit 300 receives the visibility disorder information. The retrieval unit 332 retrieves and acquires information corresponding to the vehicle (visibility obstacle information ahead of the traveling direction of the vehicle) from the visibility obstacle information database 232 (S6100), and the obtained visibility obstacle information is stored in the visibility obstacle information transmission device 320. The data is transferred to the car navigation information transmission unit 323 (S6200). Then, the visibility failure information is transmitted to the car navigation system 450 of the vehicle via the car navigation information transmission unit 323 (S6300).

図15は、本実施の形態におけるパソコン410または情報キオスク420の画面表示の一例を示す図である。   FIG. 15 is a diagram illustrating an example of a screen display of the personal computer 410 or the information kiosk 420 in the present embodiment.

図15に示す表示画面600には、地図領域601と、2つの関連情報提供領域602、603とが設けられている。地図領域601においては、現在の視界情報(例えば、4段階の視界レベルつまり視界障害度)604を提供するほか、道路画像を提供できるカメラ地点については画像605も併せて提供する。すなわち、区間内のカメラ地点すべてについて視界レベルを提供し、カメラ画像の提供も許可されている地点については、さらに画像も提供する。これにより、ドライバーは連続的に道路の視界を把握できるほか、ルートの選択にも役立てることができる。また、関連情報提供領域602には、現状の視界状況をすぐに把握できるように概況を準備する。また、関連情報提供領域603には、今後の行動の参考資料として気象予測(今後の気象情報)も提供する。   A display screen 600 shown in FIG. 15 includes a map area 601 and two related information providing areas 602 and 603. In the map area 601, in addition to providing current view information (for example, four levels of view levels, that is, a visual disturbance degree) 604, an image 605 is also provided for camera points that can provide a road image. That is, the visual field level is provided for all the camera points in the section, and the image is further provided for points where the provision of camera images is permitted. As a result, the driver can keep track of the road field of view and can also help select routes. In the related information provision area 602, an overview is prepared so that the current visibility situation can be immediately grasped. The related information provision area 603 also provides weather prediction (future weather information) as reference data for future actions.

図16は、本実施の形態における携帯電話430の画面表示の一例を示す図である。   FIG. 16 is a diagram illustrating an example of a screen display of the mobile phone 430 in this embodiment.

図16(A)に示す表示画面(Webイメージ)610には、地点間のルート上の視界状況が、視程障害度(段階的な視界レベルのシンボルマーク)611で表示される。また、表示画面610の上部領域612には、現在の概略の視界状況が文章で表示される。また、表示画面610の下部領域613には、今後の行動の参考資料として気象予測(今後の気象情報)も提供される。また、図16(B)に示す表示画面(Webイメージ)610aでは、道路画像を提供できるカメラについては、カメラアイコン(画像にリンクされ、ダブルクリックすることで画像を表示する)614で提供する。   On the display screen (Web image) 610 shown in FIG. 16A, the visibility situation on the route between points is displayed as a visibility obstacle degree (a symbol mark of a stepwise visibility level) 611. In addition, in the upper area 612 of the display screen 610, the current approximate visibility situation is displayed in text. Further, weather prediction (future weather information) is also provided in the lower area 613 of the display screen 610 as reference data for future actions. In addition, in the display screen (Web image) 610a shown in FIG. 16B, a camera that can provide a road image is provided by a camera icon (linked to the image and displayed by double-clicking) 614.

図17は、本実施の形態における携帯電話430の緊急メールの表示の一例を示す図である。   FIG. 17 is a diagram showing an example of an emergency mail display of the mobile phone 430 in the present embodiment.

図17に示す例では、携帯電話430の表示部431に、視程障害発生時の緊急メールが通知される。   In the example shown in FIG. 17, an emergency mail at the occurrence of a visibility failure is notified to the display unit 431 of the mobile phone 430.

図18は、本実施の形態における道路情報板440の表示のイメージを示す図である。   FIG. 18 is a diagram showing a display image of the road information board 440 in the present embodiment.

図18に示す例では、道路情報板440の表示部441に、現状の視界状況をすぐに把握できるように概況を表示し、また、場合によっては、今後の行動の参考資料として気象予測(今後の気象情報)も表示する。   In the example shown in FIG. 18, an overview is displayed on the display unit 441 of the road information board 440 so that the current visibility situation can be immediately grasped, and in some cases, weather prediction (future Weather information).

図19は、本実施の形態におけるラジオ460での情報提供のイメージを示す図である。   FIG. 19 is a diagram showing an image of information provision on radio 460 in this embodiment.

図19に示す例では、ラジオ460を通じて、音声で、現状の視界状況をすぐに把握できるように概況を発信し、また、場合によっては、今後の行動の参考資料として気象予測(今後の気象情報)も発信する。   In the example shown in FIG. 19, an overview is transmitted via radio 460 so that the current visibility situation can be immediately grasped, and in some cases, weather forecasts (future weather information as future reference information) ).

図20は、本実施の形態におけるカーナビ450での情報提供のイメージを示す図である。図20(A)は、地図が平面的な表示の場合であり、図20(B)は、地図が立体的な表示の場合である。カーナビ450による情報提供の場合、車両の走行位置に応じて走行方向前方の視界情報を随時更新して情報提供を行うとともに、カーナビの画面のほかに音声でも情報提供を行うことができる。   FIG. 20 is a diagram showing an image of information provision in car navigation system 450 in the present embodiment. FIG. 20A shows a case where the map is a two-dimensional display, and FIG. 20B shows a case where the map is a three-dimensional display. In the case of providing information by the car navigation system 450, information can be provided by updating the visibility information in front of the traveling direction as needed according to the traveling position of the vehicle, and information can also be provided by voice in addition to the car navigation screen.

図20(A)に示す表示画面670には、地図領域671と、関連情報提供領域672とが設けられている。地図領域671においては、現在の視界情報(例えば、4段階の視界レベルつまり視界障害度)673を提供するほか、道路画像を提供できるカメラ地点については画像674も併せて提供することで、ドライバーは連続的に道路の視界を把握できるほか、ルートの選択にも役立てることができる。特に、カーナビ450の場合は、車両の現在位置、進行方向を把握した上で、視界情報を提供するため、ドライバーは、より一層、連続的に道路の視界を把握できるほか、ルートの選択にも役立てることができる。関連情報提供領域672には、現状の視界状況をすぐに把握できるように概況を準備する。また、地図領域671内の余白領域675には、今後の行動の参考資料として気象予測(今後の気象情報)も提供する。また、図20(B)に示す表示画面670aでは、地図領域671aに立体的な地図が表示される。   A display screen 670 shown in FIG. 20A is provided with a map area 671 and a related information provision area 672. In the map area 671, in addition to providing the current visibility information (for example, four levels of visibility levels, that is, the visibility failure degree) 673, the camera point that can provide the road image is also provided with the image 674, so that the driver can In addition to continuously grasping the road field of view, it can also be used for route selection. In particular, in the case of the car navigation system 450, in order to provide the visibility information after grasping the current position and traveling direction of the vehicle, the driver can more continuously grasp the visibility of the road and also select the route. Can be useful. In the related information provision area 672, an overview is prepared so that the current visibility situation can be immediately grasped. The blank area 675 in the map area 671 also provides weather prediction (future weather information) as reference data for future actions. On the display screen 670a shown in FIG. 20B, a three-dimensional map is displayed in the map area 671a.

上記の構成と動作を有する走行支援システムには、次のような様々なメリットがある。   The driving support system having the above configuration and operation has the following various merits.

(1)多地点における視程障害の程度の定量化が可能である。
視程障害の程度(見易さ)は、人間の主観が入るため、機械的な計測が難しい。直接人間が目で見易さを判定するカメラ画像は、確実かつ有効な視程障害の把握手段であるが、定性的なデータである(見易さ、見づらさを感覚でしか表現できない)ため、自動的な判定が難しく、短時間に多数地点の視程障害を把握し判断して、多くの人に提供することは不可能であった。本発明によれば、カメラ設置済みの多数の地点における視程障害の程度を、ほぼリアルタイムに収集・把握することが可能である。
(1) The degree of visibility disturbance at multiple points can be quantified.
The degree of visibility disturbance (easy to see) is difficult to measure mechanically because human subjectivity is included. The camera image that directly determines the visibility by human eyes is a reliable and effective means of grasping the visibility disturbance, but it is qualitative data (it can express visibility and difficulty in viewing only by feeling) It was difficult to make an automatic determination, and it was impossible to grasp and determine the visibility disorder at many points in a short time and to provide it to many people. According to the present invention, it is possible to collect and grasp the degree of visibility failure at a large number of points where cameras have been installed almost in real time.

(2)多様な利用者ニーズおよび利用者シーンに応じた視程障害情報の提供が可能である。
カメラ画像は、映像として閲覧する以外に視程障害を把握することができない。本発明によれば、画像から視程障害度を数値化するため、テキスト文字や絵文字、音声などに自在に変換することが可能である。このため、家庭や職場はもちろんのこと、移動中も含む様々な場面において、多様な手段(ホームページ、携帯電話、メール、TV、ラジオ、カーナビ、道路情報板など)により、視程障害情報をドライバーに提供可能であり、この点に本発明の最大のメリットがある。
(2) It is possible to provide visibility failure information according to various user needs and user scenes.
A camera image cannot grasp a visibility disorder other than browsing as a video. According to the present invention, the degree of visibility disturbance is digitized from an image, so that it can be freely converted into text characters, pictograms, voices, and the like. For this reason, visibility disability information is made available to the driver by various means (homepage, mobile phone, e-mail, TV, radio, car navigation system, road information board, etc.) in various scenes including at home and at work as well as on the move. This point has the greatest merit of the present invention.

(3)最も視程障害が激しい箇所の特定が可能である。
これまで、例えば、峠区間であればその峠頂上のカメラ画像など、スポットの限られた情報しか入手することができなかった。しかし、視程障害は、ある特定箇所で常に発生するわけではなく、状況に応じて視程障害箇所は変わる。また、気象の推移と共に視程障害箇所は時々刻々変化する。本発明では、長い道路区間の多数地点の視程障害度をリアルタイムに提供可能であるため、どこが一番悪いのかが一目瞭然にわかり、実際の視程障害状況を明確に示せるメリットが大きい。
(3) It is possible to identify the most severely disturbed visibility.
Until now, for example, in the case of a heel section, only information with limited spots such as a camera image at the top of the ridge can be obtained. However, the visibility defect does not always occur at a specific location, and the visibility failure location changes depending on the situation. In addition, the visibility obstacles change from moment to moment as the weather changes. In the present invention, the visibility obstacle degree at a large number of points on a long road section can be provided in real time, so that it is obvious at a glance where the worst is and the advantage of clearly showing the actual visibility obstacle situation is great.

(4)視程障害の空間的移動の把握が可能である。
峠区間の限られた箇所のみの視認性情報であれば、突然悪くなって、突然良くなるような状況となる。しかし、実際には視程障害は空間的に移動している。視程障害情報送信装置300では、多数地点の視程障害状況をまとめて一覧できるように提供可能であるため、この先視程障害(見通し)が悪くなるのか、良くなるのか、変化の時間がどの程度かについて知ることができる。
(4) The spatial movement of visibility disturbance can be grasped.
If the visibility information is limited to only a limited part of the heel section, the situation suddenly gets worse and suddenly gets better. In reality, however, visibility disorders are moving spatially. Since the visibility failure information transmitting apparatus 300 can provide a list of visibility failure statuses at a large number of points, it is possible to determine whether this forward visibility failure (line of sight) is worsened or improved, and how long is the change time? I can know.

(5)欠落情報の穴埋めが可能である。
いくつかの道路画像が欠落したり、1つのカメラに水滴や雪が付着しても、複数の道路画像を使っているため、穴埋めが可能である。また、異常値を排除することができ、安定した視程障害情報の提供が可能である。
(5) It is possible to fill in missing information.
Even if several road images are missing or water drops or snow adhere to one camera, it is possible to fill a hole because a plurality of road images are used. In addition, abnormal values can be eliminated and stable visibility failure information can be provided.

(6)視程障害情報の蓄積が容易で、長期に渡る視程障害のデータベースの構築が可能である。
これまで道路沿いでの継続的な視程障害の記録は、ごく一部の箇所に限られていたため、吹雪や霧などの視程障害に対し、経験や勘に基づく行動や対策が余儀なくされていた。視程障害の程度の時間的かつ空間的な蓄積は、1)どこに対策を集中すべきか、2)いつごろ視程障害が起きやすくなるか、3)他の路線と比較できる、4)気象情報との組み合わせから視程障害を予測できるようになるなど、様々なメリットをもたらす。
(6) Visibility failure information can be easily stored and a long-term visibility database can be constructed.
Until now, continuous visibility failures along the road have been limited to only a few locations, so behavior and countermeasures based on experience and intuition have been forced against visibility failures such as snowstorms and fog. The temporal and spatial accumulation of the degree of visibility impairment is as follows: 1) Where should the measures be concentrated? 2) When will it be easy for visibility impairment to occur? 3) Can be compared with other routes 4) Meteorological information It brings various benefits, such as being able to predict visibility impairment from the combination.

(7)道路画像の有効利用および多機能化が可能である。
道路管理者は、きわめて多くの道路画像を長時間にわたっては閲覧し監視する必要がある。人間の判断を要する道路画像の監視は、作業負担増につながるとともに、ヒューマンエラーによる見逃しも懸念される。視認性に関して情報を集約し、その良し悪しを自動判定することで、このような問題をクリアできる。視程障害情報送信装置320から自動的に発信される視程障害悪化の警告を受けてから、管理者が道路画像を直接確認すればよく、いつ起きるかわからないイベント発生を待つための努力が不要となり、管理能力の向上(視程障害の見逃しなど)や効率化(画像監視の負担軽減など)に寄与する。また、道路画像に本発明のシステムを組み込むことで、カメラが単なる映像収集装置としてだけではなく、視程障害(視程)収集装置としての機能も加わることになり、カメラの多機能化および有効利用を図ることができる。
(7) Effective use and multi-functionality of road images are possible.
The road manager needs to browse and monitor a very large number of road images for a long time. Monitoring road images that require human judgment leads to an increase in the work burden, and there is also a concern that oversight due to human error may occur. Such problems can be cleared by collecting information on visibility and automatically determining whether it is good or bad. After receiving the warning about the deterioration of visibility failure automatically sent from the visibility failure information transmission device 320, the administrator only needs to check the road image directly, and the effort to wait for the occurrence of an event that does not know when it will occur is unnecessary. Contributes to improved management capabilities (such as oversight of visibility problems) and efficiency (such as reduction of image monitoring burden). Moreover, by incorporating the system of the present invention into a road image, the camera not only functions as a mere video collection device but also functions as a visibility failure (visibility) collection device. Can be planned.

本発明に係る走行支援システムは、コストの増大を抑えつつ、多くの人が多地点の視程障害を同時かつリアルタイムに把握することができる走行支援システムとして有用である。   The driving support system according to the present invention is useful as a driving support system in which many people can simultaneously grasp a multi-point visibility problem in real time while suppressing an increase in cost.

本発明の一実施の形態に係る走行支援システムの全体構成図1 is an overall configuration diagram of a driving support system according to an embodiment of the present invention. 本実施の形態で用いられる視認性評価手法の説明図Explanatory drawing of the visibility evaluation method used in this embodiment 本実施の形態に係る走行支援システムの各構成要素のプロセスを示すシーケンス図The sequence diagram which shows the process of each component of the driving assistance system which concerns on this Embodiment 本実施の形態における画像収集装置の動作を示すフローチャートFlowchart showing the operation of the image collection device in the present embodiment 本実施の形態における視認性指標数値化装置の構成を示すブロック図The block diagram which shows the structure of the visibility parameter | index digitization apparatus in this Embodiment. 本実施の形態で用いられる視認性指標数値化の手順を示すフロー図Flow chart showing the procedure for digitizing the visibility index used in the present embodiment 本実施の形態における視認性指標数値化装置の動作を示すフローチャートThe flowchart which shows operation | movement of the visibility parameter | index digitization apparatus in this Embodiment. 図7の視認性指標算出処理の内容を示すフローチャートThe flowchart which shows the content of the visibility parameter | index calculation process of FIG. 本実施の形態における視程障害情報収集部の構成を示すブロック図The block diagram which shows the structure of the visibility disorder | damage | failure information collection part in this Embodiment. 本実施の形態における視程障害情報収集部の処理手順を示すフローチャートThe flowchart which shows the process sequence of the visibility disorder | damage | failure information collection part in this Embodiment. 本実施の形態における視程障害情報送信部の構成を示すブロック図The block diagram which shows the structure of the visibility disorder | damage | failure information transmission part in this Embodiment. 本実施の形態における視程障害情報送信部のリクエスト型情報提供の処理手順を示すフローチャートThe flowchart which shows the processing procedure of request type | mold information provision of the visibility failure information transmission part in this Embodiment 本実施の形態における視程障害情報送信部のプッシュ型情報提供の処理手順を示すフローチャートThe flowchart which shows the processing procedure of push type | mold information provision of the visibility disorder | damage | failure information transmission part in this Embodiment. 本実施の形態における視程障害情報送信部のカーナビ用情報提供の処理手順を示すフローチャートThe flowchart which shows the process sequence of the information provision for car navigation of the visibility disorder | damage | failure information transmission part in this Embodiment 本実施の形態におけるパソコンまたは情報キオスクの画面表示の一例を示す図The figure which shows an example of the screen display of the personal computer or information kiosk in this Embodiment 本実施の形態における携帯電話の画面表示の一例を示す図The figure which shows an example of the screen display of the mobile telephone in this Embodiment 本実施の形態における携帯電話の緊急メールの表示の一例を示す図The figure which shows an example of the display of the emergency mail of the mobile telephone in this Embodiment 本実施の形態における道路情報板の表示のイメージを示す図The figure which shows the image of a display of the road information board in this Embodiment 本実施の形態におけるラジオでの情報提供のイメージを示す図The figure which shows the image of information provision with the radio in this Embodiment 本実施の形態におけるカーナビでの情報提供のイメージを示す図The figure which shows the image of information provision with the car navigation system in this Embodiment

符号の説明Explanation of symbols

100 視認性指標数値化部
110 道路カメラ
120 画像収集装置
130 視認性指標数値化装置
200 視程障害情報収集部
210 視程障害度演算装置
220 気象情報収集装置
230 視程障害情報編集装置
240 道路地図データベース
250 気象情報センター
300 視程障害情報送信部
310 Webサーバ
320 視程障害情報送信装置
330 視程障害情報検索装置
341 視程障害度テキスト変換部
342 視程障害度絵文字変換部
343 視程障害度音声変換部
410 パソコン
420 情報キオスク
430 携帯電話
440 道路情報板
450 カーナビ
460 道路情報ラジオ
470 GPS
DESCRIPTION OF SYMBOLS 100 Visibility index digitizing part 110 Road camera 120 Image collecting device 130 Visibility index digitizing device 200 Visibility obstacle information collecting part 210 Visibility obstacle degree computing device 220 Weather information collecting device 230 Visibility obstacle information editing device 240 Road map database 250 Weather Information Center 300 Visibility Disorder Information Transmitting Unit 310 Web Server 320 Visibility Disorder Information Transmitting Device 330 Visibility Disorder Information Searching Device 341 Visibility Disturbance Degree Text Conversion Unit 342 Visibility Disturbance Degree Pictogram Conversion Unit 343 Visibility Disturbance Degree Voice Conversion Unit 410 Personal Computer 420 Information Kiosk 430 Mobile phone 440 Road information board 450 Car navigation system 460 Road information radio 470 GPS

Claims (19)

道路画像を画像処理して道路の視認性指標を算出する視認性指標算出部と、
前記視認性指標算出部によって算出された視認性指標のランク値を、人間の主観的評価に基づく視程障害度として算出する視程障害度算出部と、
前記視程障害度算出部によって算出された視程障害度を含む視程障害情報を記憶する視程障害情報記憶部と、
前記視程障害情報記憶部に記憶された視程障害情報を、所定の情報伝達手段を介して提供する視程障害情報提供部と、を有し、
前記視認性指標算出部は、
道路画像を周波数成分に変換し、変換後の周波数分布をフィルタ処理して人間のコントラスト感度に対応する領域の周波数分布を取得し、得られた周波数分布を用いて道路の視認性指標を算出する、
走行支援システム。
A visibility index calculation unit that performs image processing on a road image to calculate a road visibility index;
A visibility failure degree calculation unit that calculates a rank value of the visibility index calculated by the visibility index calculation unit as a visibility failure degree based on human subjective evaluation;
A visibility disorder information storage unit that stores visibility disorder information including the visibility disorder degree calculated by the visibility disorder degree calculation unit;
A visibility failure information providing unit that provides visibility failure information stored in the visibility failure information storage unit via a predetermined information transmission unit;
The visibility index calculation unit
The road image is converted into frequency components, the converted frequency distribution is filtered to obtain the frequency distribution of the region corresponding to human contrast sensitivity, and the road visibility index is calculated using the obtained frequency distribution. ,
Driving support system.
前記視認性指標算出部は、
前記道路画像として、道路沿いに設置されたカメラによって撮影された画像を入力し、入力した画像を画像処理して視認性指標を算出する、
請求項1記載の走行支援システム。
The visibility index calculation unit
As the road image, an image taken by a camera installed along the road is input, and the input image is subjected to image processing to calculate a visibility index.
The driving support system according to claim 1.
前記視程障害度算出部は、
前記視認性指標を人間の主観的評価に基づいてグルーピングしてランク値を求めるための判定基準を有し、
前記判定基準に従って、前記視認性指標算出部によって算出された視認性指標のランク値を視程障害度として算出する、
請求項1記載の走行支援システム。
The visibility disturbance degree calculation unit
Grouping the visibility index based on human subjective evaluation to have a criterion for determining a rank value;
According to the determination criterion, the visibility index rank value calculated by the visibility index calculation unit is calculated as the visibility impairment degree.
The driving support system according to claim 1.
前記視程障害度は、2段階から7段階のいずれかの段階数を持つランク値である、
請求項3記載の走行支援システム。
The visibility disturbance degree is a rank value having any number of stages from 2 to 7.
The driving support system according to claim 3.
前記視程障害情報記憶部は、
前記視程障害情報として、前記視程障害度に加えて、前記視認性指標、前記道路画像、および気象情報の少なくともいずれか1つを記憶する、
請求項1記載の走行支援システム。
The visibility disorder information storage unit is
As the visibility failure information, in addition to the visibility failure degree, at least one of the visibility index, the road image, and weather information is stored.
The driving support system according to claim 1.
前記視程障害情報記憶部は、
道路地図データを取得する手段を有し、
前記視程障害情報を、前記道路地図データと対応付けして記憶する、
請求項1記載の走行支援システム。
The visibility disorder information storage unit is
Means for obtaining road map data;
Storing the visibility disorder information in association with the road map data;
The driving support system according to claim 1.
前記視程障害情報提供部は、
前記視程障害情報記憶部に記憶された視程障害度をテキスト文字に変換する手段と、
前記視程障害情報記憶部に記憶された視程障害度を絵文字に変換する手段と、
前記視程障害情報記憶部に記憶された視程障害度を音声に変換する手段と、の少なくとも1つを有し、
変換後の視程障害度を、対応する情報伝達手段を介して提供する、
請求項1記載の走行支援システム。
The visibility disorder information providing unit
Means for converting the visibility impairment degree stored in the visibility impairment information storage unit into text characters;
Means for converting the visibility failure degree stored in the visibility failure information storage unit into a pictograph;
Means for converting the visibility failure degree stored in the visibility failure information storage unit into sound, and at least one of
Providing the degree of visibility disturbance after conversion via the corresponding information transmission means;
The driving support system according to claim 1.
前記視程障害情報提供部は、
Webサーバを有し、
前記Webサーバは、
前記視程障害情報記憶部に記憶された視程障害情報を閲覧可能にするため、当該視程障害情報を用いて、対応する情報伝達手段に適したWebページを作成する手段と、
作成されたWebページを格納する手段と、
を有する、
請求項1記載の走行支援システム。
The visibility disorder information providing unit
Have a web server,
The web server
Means for creating a web page suitable for the corresponding information transmission means using the visibility fault information in order to enable viewing of the visibility fault information stored in the visibility fault information storage unit;
Means for storing the created web page;
Having
The driving support system according to claim 1.
前記情報伝達手段は、パソコン、情報キオスク、および携帯電話の少なくともいずれか1つである、
請求項8記載の走行支援システム。
The information transmission means is at least one of a personal computer, an information kiosk, and a mobile phone.
The driving support system according to claim 8.
前記視程障害情報提供部は、
視程障害情報送信装置を有し、
前記視程障害情報送信装置は、
前記視程障害情報記憶部に記憶された視程障害情報を、対応する情報伝達手段に適したデータ形式に変換する手段と、
変換後の視程障害情報を前記情報伝達手段に送信する手段と、
を有する、
請求項1記載の走行支援システム。
The visibility disorder information providing unit
A visibility failure information transmitter,
The visibility disorder information transmitting device is
Means for converting the visibility failure information stored in the visibility failure information storage unit into a data format suitable for the corresponding information transmission means;
Means for transmitting the visibility defect information after conversion to the information transmission means;
Having
The driving support system according to claim 1.
前記情報伝達手段は、パソコン、情報キオスク、携帯電話、道路情報板、道路情報ラジオ、およびカーナビの少なくともいずれか1つである、
請求項10記載の走行支援システム。
The information transmission means is at least one of a personal computer, an information kiosk, a mobile phone, a road information board, a road information radio, and a car navigation system.
The driving support system according to claim 10.
前記視程障害情報送信装置は、
前記視程障害度が所定のしきい値を超えた場合に、前記変換後の視程障害情報を前記情報伝達手段に送信する、
請求項10記載の走行支援システム。
The visibility disorder information transmitting device is
When the visibility disturbance degree exceeds a predetermined threshold value, the converted visibility impairment information is transmitted to the information transmission means.
The driving support system according to claim 10.
前記情報伝達手段は、パソコン、携帯電話、道路情報板、および道路情報ラジオの少なくともいずれか1つである、
請求項12記載の走行支援システム。
The information transmission means is at least one of a personal computer, a mobile phone, a road information board, and a road information radio.
The travel support system according to claim 12.
前記視程障害情報提供部は、
視程障害情報検索装置をさらに有し、
前記視程障害情報検索装置は、
車両の位置情報を受信する手段と、
受信された車両位置情報に対応する視程障害情報を前記視程障害情報記憶部から検索する手段と、を有し、
前記視程障害情報送信装置は、
前記視程障害情報検索装置によって検索された視程障害情報を、前記車両に搭載された情報伝達手段に適したデータ形式に変換する手段と、
変換後の視程障害情報を前記情報伝達手段に送信する手段と、
を有する、
請求項10記載の走行支援システム。
The visibility disorder information providing unit
It further has a visibility disorder information search device,
The visibility disorder information retrieval device
Means for receiving vehicle position information;
Means for retrieving visibility failure information corresponding to the received vehicle position information from the visibility failure information storage unit,
The visibility disorder information transmitting device is
Means for converting visibility obstacle information retrieved by the visibility obstacle information retrieval device into a data format suitable for information transmission means mounted on the vehicle;
Means for transmitting the visibility defect information after conversion to the information transmission means;
Having
The driving support system according to claim 10.
前記情報伝達手段は、カーナビである、
請求項14記載の走行支援システム。
The information transmission means is a car navigation system.
The driving support system according to claim 14.
請求項1から請求項15のいずれかに記載の走行支援システムに用いられる視認性指標算出部を構成する視認性指標算出装置。   The visibility parameter | index calculation apparatus which comprises the visibility parameter | index calculation part used for the driving assistance system in any one of Claims 1-15. 請求項1から請求項15のいずれかに記載の走行支援システムに用いられる視程障害度算出部を構成する視程障害度算出装置。   A visibility obstacle degree calculation device constituting a visibility obstacle degree calculation unit used in the driving support system according to any one of claims 1 to 15. 請求項1から請求項15のいずれかに記載の走行支援システムに用いられる視程障害情報記憶部を構成する視程障害情報記憶装置。   A visibility failure information storage device constituting a visibility failure information storage unit used in the driving support system according to any one of claims 1 to 15. 請求項1から請求項15のいずれかに記載の走行支援システムに用いられる視程障害情報提供部を構成する視程障害情報提供装置。   A visibility failure information providing apparatus constituting a visibility failure information providing unit used in the driving support system according to any one of claims 1 to 15.
JP2006227125A 2006-08-23 2006-08-23 Driving support system and driving support method Active JP4793571B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006227125A JP4793571B2 (en) 2006-08-23 2006-08-23 Driving support system and driving support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006227125A JP4793571B2 (en) 2006-08-23 2006-08-23 Driving support system and driving support method

Publications (3)

Publication Number Publication Date
JP2008052453A true JP2008052453A (en) 2008-03-06
JP2008052453A5 JP2008052453A5 (en) 2009-11-05
JP4793571B2 JP4793571B2 (en) 2011-10-12

Family

ID=39236460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006227125A Active JP4793571B2 (en) 2006-08-23 2006-08-23 Driving support system and driving support method

Country Status (1)

Country Link
JP (1) JP4793571B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014178843A (en) * 2013-03-14 2014-09-25 Fujitsu Ltd Road management support method, road management support device, and road management support program
JP2016053504A (en) * 2014-09-03 2016-04-14 パイオニア株式会社 Route search device, control method, program and storage medium
KR20160069762A (en) * 2014-12-09 2016-06-17 한국건설기술연구원 Nighttime Visibility Assessment Solution for Road System Method Thereof
CN107085949A (en) * 2017-07-03 2017-08-22 成都中电卓景智能科技有限公司 A kind of urban road visibility detection method
CN107085948A (en) * 2017-07-03 2017-08-22 成都中电卓景智能科技有限公司 A kind of urban road visibility monitoring system
KR101795652B1 (en) 2017-04-12 2017-11-09 주식회사 누리플랜 Device for Measuring Visibility for Fog Guardian Device
JP2018106488A (en) * 2016-12-27 2018-07-05 パイオニア株式会社 Obstacle display device, control method, program, and storage medium
KR101888308B1 (en) * 2017-08-02 2018-08-13 서애경 Intelligent CCTV control system for monitering road state
US10232772B2 (en) 2015-03-26 2019-03-19 Mitsubishi Electric Corporation Driver assistance system
JP2020094957A (en) * 2018-12-14 2020-06-18 トヨタ自動車株式会社 Information processing system, program, and method for processing information
JP2020135887A (en) * 2019-02-19 2020-08-31 株式会社デンソー Evaluation method, training data set, emulator creation method, classification method, test method, vehicle controller, and vehicle
CN115662149A (en) * 2022-12-13 2023-01-31 合肥远捷信息技术有限公司 Information system based on highway group fog early warning management and control

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105863A (en) * 1996-09-26 1998-04-24 Oki Electric Ind Co Ltd Travel route information collection device
WO2001015116A1 (en) * 1999-08-24 2001-03-01 Sekisui Jushi Kabushiki Kaisha Road traffic weather observation system and self-emission road sign system
JP2002230558A (en) * 2001-02-02 2002-08-16 Toru Hagiwara Method of evaluating visual environment
JP2002260166A (en) * 2001-03-01 2002-09-13 Omron Corp Information distribution device and information distribution system
JP2003202235A (en) * 2002-01-09 2003-07-18 Mitsubishi Electric Corp Delivery device, display device, delivery method, and information delivery and display system
JP2004355312A (en) * 2003-05-29 2004-12-16 Toru Hagiwara Visual environment evaluation method, visual environment notification method, and self-luminous body
JP2005291981A (en) * 2004-04-01 2005-10-20 Nec Saitama Ltd Road circumstance video providing system to moving body, method, its information center, and its information communication terminal
JP2006221467A (en) * 2005-02-10 2006-08-24 Hokkaido Univ Low visibility evaluating method and low visibility evaluating system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105863A (en) * 1996-09-26 1998-04-24 Oki Electric Ind Co Ltd Travel route information collection device
WO2001015116A1 (en) * 1999-08-24 2001-03-01 Sekisui Jushi Kabushiki Kaisha Road traffic weather observation system and self-emission road sign system
JP2002230558A (en) * 2001-02-02 2002-08-16 Toru Hagiwara Method of evaluating visual environment
JP2002260166A (en) * 2001-03-01 2002-09-13 Omron Corp Information distribution device and information distribution system
JP2003202235A (en) * 2002-01-09 2003-07-18 Mitsubishi Electric Corp Delivery device, display device, delivery method, and information delivery and display system
JP2004355312A (en) * 2003-05-29 2004-12-16 Toru Hagiwara Visual environment evaluation method, visual environment notification method, and self-luminous body
JP2005291981A (en) * 2004-04-01 2005-10-20 Nec Saitama Ltd Road circumstance video providing system to moving body, method, its information center, and its information communication terminal
JP2006221467A (en) * 2005-02-10 2006-08-24 Hokkaido Univ Low visibility evaluating method and low visibility evaluating system

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014178843A (en) * 2013-03-14 2014-09-25 Fujitsu Ltd Road management support method, road management support device, and road management support program
JP2016053504A (en) * 2014-09-03 2016-04-14 パイオニア株式会社 Route search device, control method, program and storage medium
KR20160069762A (en) * 2014-12-09 2016-06-17 한국건설기술연구원 Nighttime Visibility Assessment Solution for Road System Method Thereof
KR101705027B1 (en) * 2014-12-09 2017-02-09 한국건설기술연구원 Nighttime Visibility Assessment Solution for Road System Method Thereof
US10232772B2 (en) 2015-03-26 2019-03-19 Mitsubishi Electric Corporation Driver assistance system
JP2018106488A (en) * 2016-12-27 2018-07-05 パイオニア株式会社 Obstacle display device, control method, program, and storage medium
KR101795652B1 (en) 2017-04-12 2017-11-09 주식회사 누리플랜 Device for Measuring Visibility for Fog Guardian Device
CN107085948B (en) * 2017-07-03 2019-09-24 成都中电卓景智能科技有限公司 A kind of urban road visibility monitoring system
CN107085949A (en) * 2017-07-03 2017-08-22 成都中电卓景智能科技有限公司 A kind of urban road visibility detection method
CN107085948A (en) * 2017-07-03 2017-08-22 成都中电卓景智能科技有限公司 A kind of urban road visibility monitoring system
CN107085949B (en) * 2017-07-03 2019-09-24 成都中电卓景智能科技有限公司 A kind of urban road visibility detection method
KR101888308B1 (en) * 2017-08-02 2018-08-13 서애경 Intelligent CCTV control system for monitering road state
JP2020094957A (en) * 2018-12-14 2020-06-18 トヨタ自動車株式会社 Information processing system, program, and method for processing information
JP7063257B2 (en) 2018-12-14 2022-05-09 トヨタ自動車株式会社 Information processing systems, programs, and information processing methods
JP2020135887A (en) * 2019-02-19 2020-08-31 株式会社デンソー Evaluation method, training data set, emulator creation method, classification method, test method, vehicle controller, and vehicle
CN115662149A (en) * 2022-12-13 2023-01-31 合肥远捷信息技术有限公司 Information system based on highway group fog early warning management and control

Also Published As

Publication number Publication date
JP4793571B2 (en) 2011-10-12

Similar Documents

Publication Publication Date Title
JP4793571B2 (en) Driving support system and driving support method
JP4305361B2 (en) Road management system
US20220270376A1 (en) Deterioration diagnosis device, deterioration diagnosis system, deterioration diagnosis method, and storage medium for storing program
KR101744963B1 (en) Traffic information and vehicle information providing system using black box video data and method thereof
WO2016132587A1 (en) Information processing device, road structure management system, and road structure management method
CN111157855B (en) Method for judging transmission line fault and server
JP2019100136A (en) Road maintenance management system, road maintenance management method and computer program
CN107358314B (en) Thermodynamic diagram processing method and system
KR20190043396A (en) Method and system for generating and providing road weather information by using image data of roads
JP2010117864A (en) Parking-lot information provision system
JP2019087037A (en) Information transmission system
KR102426943B1 (en) Air pollutants ouput and fine dust monitoring Smart CCTV system of road vehicle
KR101219659B1 (en) Fog detection system using cctv image, and method for the same
JP2008152364A (en) Information providing device, information providing method, information providing program and computer-readable recording medium
US20210067740A1 (en) Camera system
KR100782205B1 (en) Apparatus and system for displaying speed of car using image detection
KR101686851B1 (en) Integrated control system using cctv camera
EP1548908B1 (en) Method and device for inspecting linear infrastructures
CN215117778U (en) Two-dimensional visual traffic monitoring system
JP2019101803A (en) Danger determination and notification system and terminal device of the same
CN112700138A (en) Method, device and system for road traffic risk management
KR101828047B1 (en) Bikeway information offering apparatus and the method thereof
JP5320041B2 (en) Rainfall information distribution system
JP6024866B2 (en) Vehicle allocation system and vehicle allocation method
KR102513668B1 (en) Method and system for providing traffic information, method and apparatus for displaying traffic information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110712

R150 Certificate of patent or registration of utility model

Ref document number: 4793571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250