JP2007232652A - Device and method for determining road surface condition - Google Patents

Device and method for determining road surface condition Download PDF

Info

Publication number
JP2007232652A
JP2007232652A JP2006056879A JP2006056879A JP2007232652A JP 2007232652 A JP2007232652 A JP 2007232652A JP 2006056879 A JP2006056879 A JP 2006056879A JP 2006056879 A JP2006056879 A JP 2006056879A JP 2007232652 A JP2007232652 A JP 2007232652A
Authority
JP
Japan
Prior art keywords
road surface
image
infrared
ultraviolet
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006056879A
Other languages
Japanese (ja)
Other versions
JP4814655B2 (en
Inventor
Yasuo Okubo
康雄 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006056879A priority Critical patent/JP4814655B2/en
Publication of JP2007232652A publication Critical patent/JP2007232652A/en
Application granted granted Critical
Publication of JP4814655B2 publication Critical patent/JP4814655B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To precisely determine a road surface condition over a wide range, using a detailed classification. <P>SOLUTION: This method/device detects respectively a snow condition based on an ultraviolet image, a water condition based on an infrared image, and freezing based on a temperature distribution image, and determines a comprehensive condition of a road surface based on a combination thereof. The snow and water conditions are detected using a ratio of a pixel value in the sky to that on the road surface, and a ratio of a pixel value in the infrared image to that on the ultraviolet image, in order to avoid an influence of a disturbance. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像をもとに路面の状態を判定する技術に関する。   The present invention relates to a technique for determining a road surface state based on an image.

冬期寒冷地は路面凍結によりスリップ事故が多発している。路面の状態(乾燥、湿潤、水膜、圧雪、凍結等)を把握する路面状況把握センサ(以下「路面センサ」)で凍結等の危険な路面状態を検知してドライバーや車両へ提供することにより、ドライバーや車両は減速等の危険回避制御を行い、スリップ事故を回避することができる。   In cold regions in winter, slip accidents frequently occur due to road freezing. By detecting dangerous road surface conditions such as freezing with a road surface condition sensor (hereinafter referred to as “road surface sensor”) that grasps the road surface conditions (dry, wet, water film, snow pressure, freezing, etc.) and providing them to drivers and vehicles In addition, the driver and the vehicle can perform risk avoidance control such as deceleration to avoid a slip accident.

また、冬期寒冷地において道路管理者は除雪作業や凍結防止剤散布作業を路面状態に応じて適切に行う必要がある。路面センサを道路管理業務に活用すれば、路面をリアルタイムで監視し、凍結等の危険事象発生時には直ちに道路管理作業を行うことができる。これにより道路管理業務を高品質に行うことが可能になり、道路管理者の作業負荷を軽減することもできる。   Further, in winter cold areas, road managers need to perform snow removal work and antifreeze spraying work appropriately according to the road surface condition. If the road surface sensor is utilized for road management work, the road surface can be monitored in real time, and road management work can be immediately performed when a dangerous event such as freezing occurs. As a result, the road management work can be performed with high quality, and the workload of the road manager can be reduced.

そのため、カメラ映像を画像処理することにより路面の状態を把握する多くの路面センサが開発されており、例えば以下のようなものがある。
特許文献1に記載されたシステムは、水と氷で吸収率が異なる波長の赤外線を、半導体レーザのように波長帯域の狭い光源を用いて路面に照射し、路面の反射光を赤外線センサで受光して、路面上の水と氷を弁別している。また、水と氷の双方に吸収されにくい波長帯域の光も組み合わせて用いることにより、乾燥・凍結・湿潤・積雪の判定をしている。
Therefore, many road surface sensors that grasp the state of the road surface by performing image processing on the camera video have been developed, for example, as follows.
The system described in Patent Document 1 irradiates the road surface with infrared light having different absorption rates between water and ice using a light source with a narrow wavelength band such as a semiconductor laser, and receives reflected light from the road surface with an infrared sensor. And discriminate water and ice on the road surface. In addition, light in a wavelength band that is difficult to be absorbed by both water and ice is used in combination to determine whether it is dry, frozen, wet, or snowy.

特許文献2に記載された装置は、ハロゲンランプなどで路面を照射し、光が正反射する領域とその他の領域における反射光の輝度値にもとづいて路面の鏡面化の度合いを検出することにより、「つるつる路面」の発生を検出している。つるつる路面は、路面上の氷や雪の表面が走行車両によって磨かれるなどして鏡面化した路面で、非常に滑りやすく危険な路面である。   The apparatus described in Patent Document 2 irradiates the road surface with a halogen lamp or the like, and detects the degree of mirroring of the road surface based on the brightness value of the reflected light in the region where the light is regularly reflected and other regions, The occurrence of “smooth road surface” is detected. The slippery road surface is a road surface in which the surface of ice or snow on the road surface is mirrored by being polished by a traveling vehicle, and is very slippery and dangerous.

特許文献3に記載された装置では、予め可視光線カメラで路面を撮像した画像を路面状態(乾燥・湿潤・積雪など)と環境状態(晴天・曇天・夜間など)の分類にしたがってデータベース化しておき、可視光線カメラで撮像した路面の画像がデータベース内のどの画像に最も近いかを、統計解析により算出した特徴量を用いて判定する。   In the apparatus described in Patent Document 3, an image obtained by imaging a road surface with a visible light camera in advance is made into a database according to the classification of road surface conditions (dry, wet, snow, etc.) and environmental conditions (clear weather, cloudy, nighttime, etc.). Then, it is determined by using the feature amount calculated by statistical analysis which image in the database is closest to the image of the road surface captured by the visible light camera.

これらの他にも、可視光線が水面により偏光される性質を利用し、カメラの前面に取り付けた偏光フィルタを通して得た画像を分析することにより路面状態を判定するセンサや、赤外線が水面で鏡面反射する性質を利用し、赤外線の反射光をカメラで捉えた画像から鏡面反射強度を算出することにより路面状態を判定するセンサが開発されている。また、これらの方式に共通する路面凍結判定方法として、ある箇所の路面温度を測定し、その路面温度が予め定めた温度より低い場合は路面状態を凍結とする判定手法が開発されている。   In addition to these, a sensor that determines the road surface condition by analyzing the image obtained through the polarizing filter attached to the front of the camera, utilizing the property that visible light is polarized by the water surface, and infrared rays are specularly reflected by the water surface. A sensor that determines the road surface condition by calculating the specular reflection intensity from an image obtained by capturing infrared reflected light with a camera has been developed. Further, as a road surface freezing determination method common to these methods, a determination method has been developed in which a road surface temperature at a certain location is measured and the road surface state is frozen when the road surface temperature is lower than a predetermined temperature.

しかし、従来の路面センサには以下の問題があった。
特許文献1のシステムは、半導体レーザを使っており、広範囲の路面状態を判定することができない。特許文献2の装置はつるつる路面の判定に特化しており、乾燥、湿潤、水膜、圧雪、凍結等の細かい分類に応じて路面状態を判定することができない。特許文献3の装置は、センサを設置する場所ごと、路面状態ごと、環境状態ごとにデータベース化する必要があるため手間がかかり、データベースが不完全なうちは周辺の影や日照変化等の外乱により誤判定が生じやすいという問題があった。
However, the conventional road surface sensor has the following problems.
The system of Patent Document 1 uses a semiconductor laser and cannot determine a wide range of road surface conditions. The device of Patent Document 2 specializes in determining a smooth road surface, and cannot determine the road surface state according to fine classifications such as dry, wet, water film, snow pressure, and freezing. The device of Patent Document 3 is troublesome because it is necessary to create a database for each location where the sensor is installed, for each road surface condition, and for each environmental condition. When the database is incomplete, it is caused by disturbances such as surrounding shadows and changes in sunlight. There was a problem that erroneous determination was likely to occur.

また、偏光フィルタを利用する方法は、原理的に水分の検知しかできないという課題があり、赤外線の鏡面反射強度を分析する手法は、照明が届く範囲の狭い領域しか路面状態を判定することができないという課題があった。また、特定の箇所で測定した路面温度にもとづく凍結判定方式では、実際に凍結している箇所の路面温度よりも測定箇所の路面温度の方が高かった場合は、凍結していないと誤判定するという課題があった。   In addition, the method using a polarizing filter has a problem that, in principle, it can only detect moisture, and the method of analyzing the specular reflection intensity of infrared rays can determine the road surface state only in a narrow region where illumination can reach. There was a problem. Also, in the freezing determination method based on the road surface temperature measured at a specific location, if the road surface temperature at the measurement location is higher than the road surface temperature at the location that is actually frozen, it is erroneously determined that it is not frozen. There was a problem.

安全運転支援、道路管理業務支援用途において路面センサに要求されるのは、広範囲な路面の状態を検知することができ、しかも路面をいくつかの領域に分けて領域ごとに路面状態を検知可能なこと、誤判定が少ないこと、初期コストおよび調整コストが少ないこと、乾燥・湿潤・水膜・圧雪・凍結等の細分化された状態が判ること、などである。しかし、現状ではこれらの要件を全て満たす路面センサは存在しない。
特開平9−318766号公報 特開2004−157073号公報 特開2002−162343号公報
The road surface sensor required for safe driving support and road management business support applications can detect a wide range of road surface conditions, and further, the road surface state can be detected for each region by dividing the road surface into several regions. That is, there are few misjudgments, initial costs and adjustment costs are small, and a subdivided state such as dry / wet / water film / pressed snow / freeze is known. However, there is currently no road surface sensor that satisfies all these requirements.
JP-A-9-318766 JP 2004-157073 A JP 2002-162343 A

本発明の課題は、広範囲な路面の状態を検知することができ、細分化された路面状態が路面を分割した領域ごとに利用者に分かるようにでき、誤判定が少なく、初期コストおよび運用コストがなるべく少ない、路面状態判定の技術を提供することである。   An object of the present invention is to detect a wide range of road surface conditions so that the user can understand the subdivided road surface state for each area obtained by dividing the road surface, and there are few misjudgments, initial costs, and operation costs. It is to provide a road surface condition determination technique with as little as possible.

図1は本発明の原理を示す図である。本発明による路面状態判定装置1は、状態を判定したい路面に紫外線と赤外線を含む光が当たっている状態でその路面を撮像した紫外線画像、赤外線画像、温度分布画像を用いて、その路面の状態を判定する。路面状態判定装置1は、紫外線画像にもとづいて路面における紫外線特徴量を算出する紫外線特徴量算出手段2と、赤外線画像にもとづいて路面における赤外線特徴量を算出する赤外線特徴量算出手段3と、算出した紫外線特徴量、赤外線特徴量、および温度分布画像にもとづいて路面の状態を総合的に判定する路面状態判定手段4とを備える。   FIG. 1 is a diagram showing the principle of the present invention. The road surface condition determination device 1 according to the present invention uses a UV image, an infrared image, and a temperature distribution image obtained by capturing the road surface in a state where light including ultraviolet rays and infrared rays is applied to the road surface whose state is to be determined. Determine. The road surface condition determination apparatus 1 includes an ultraviolet feature amount calculating unit 2 that calculates an ultraviolet feature amount on the road surface based on the ultraviolet image, an infrared feature amount calculating unit 3 that calculates an infrared feature amount on the road surface based on the infrared image, and a calculation. Road surface state determining means 4 for comprehensively determining the road surface state based on the ultraviolet characteristic amount, the infrared characteristic amount, and the temperature distribution image.

以下で、路面の状態とは、路面上の雪、水、氷の状態、及びそれらの分布のことを指す。紫外線は物質に当たった時に散乱しやすく、特に雪表面では紫外線の大部分が散乱されることが知られている。したがって、路面上での紫外線に関する特徴量(強度や反射率など)の値から路面上の雪の状態を検知することができ、路面全体について検知すれば、路面上の雪の分布を検知することができる。また、赤外線は水に吸収されやすいため、路面上での赤外線の特徴量(強度や吸収率など)の値から路面上の水の状態を検知することができ、路面全体について検知すれば、路面上の水の分布を検知することができる。また、路面上の氷の状態(凍結の状態)は路面温度と相関関係を持つ。そこで、本発明による路面状態判定装置1は、紫外線や赤外線の特徴量の値を画像から算出し、路面の温度分布を画像から得て、路面の状態を判定する。   Hereinafter, the road surface state refers to the state of snow, water, ice on the road surface, and their distribution. It is known that ultraviolet rays are easily scattered when hitting a substance, and most of the ultraviolet rays are scattered particularly on the snow surface. Therefore, it is possible to detect the state of snow on the road surface from the values of feature quantities (intensity, reflectance, etc.) related to ultraviolet rays on the road surface, and to detect the distribution of snow on the road surface if the entire road surface is detected. Can do. In addition, since infrared rays are easily absorbed by water, it is possible to detect the state of water on the road surface from the values of infrared features (intensity, absorption rate, etc.) on the road surface. The distribution of water above can be detected. In addition, the ice condition (freezing condition) on the road surface has a correlation with the road surface temperature. Therefore, the road surface state determination apparatus 1 according to the present invention calculates the values of feature quantities of ultraviolet rays and infrared rays from the image, obtains the road surface temperature distribution from the image, and determines the road surface state.

紫外線特徴量算出手段2における紫外線特徴量の算出方法として好ましい第一の方法は、天空と路面を含む構図で撮像された紫外線画像を用い、天空領域に対応する天空画素値と、路面領域に対応する路面画素値をそれぞれ算出し、天空画素値と路面画素値の比にもとづいて紫外線特徴量を算出する方法である。好ましい第二の方法は、さらに可視光線画像を用いて可視光線画像の画素値と紫外線画像の画素値にもとづいて紫外線特徴量を算出するか、赤外線画像の画素値と紫外線画像の画素値にもとづいて紫外線特徴量を算出する方法である。   The first preferred method for calculating the ultraviolet feature amount in the ultraviolet feature amount calculating means 2 uses an ultraviolet image captured with a composition including the sky and the road surface, and corresponds to the sky pixel value corresponding to the sky region and the road surface region. In this method, the road surface pixel value is calculated, and the ultraviolet feature amount is calculated based on the ratio of the sky pixel value and the road surface pixel value. In the second preferred method, the visible light image is used to calculate the ultraviolet feature amount based on the pixel value of the visible light image and the pixel value of the ultraviolet image, or based on the pixel value of the infrared image and the pixel value of the ultraviolet image. This is a method for calculating the ultraviolet feature amount.

紫外線特徴量として路面での紫外線強度を用いる場合、外乱(季節、時間帯、日陰か日向か、など)の影響を受ける。しかし、上記の第一の方法では、天空画素値と路面画素値の比にもとづいた紫外線特徴量を算出するため、季節や時間帯によって紫外線の日射量自体が異なっていても、その影響を受けずに判定することができる。また、上記の第二の方法では、日陰では紫外線だけでなく可視光線や赤外線の日射量も少なくなることに鑑み、可視光線画像または赤外線画像の画素値との比にもとづいた紫外線特徴量を算出するため、日陰か日向かという影響は小さい。   When the UV intensity on the road surface is used as the UV feature quantity, it is affected by disturbance (season, time zone, shade or sunny). However, in the first method described above, since the ultraviolet feature amount is calculated based on the ratio of the sky pixel value and the road surface pixel value, even if the ultraviolet radiation amount itself varies depending on the season and time zone, it is affected by the influence. It can be determined without. In addition, in the second method described above, in consideration of the fact that not only ultraviolet rays but also the amount of solar radiation of visible rays and infrared rays is reduced in the shade, the feature amount of ultraviolet rays is calculated based on the ratio of the visible light image or the pixel value of the infrared image. Therefore, the influence of whether it is shade or hinata is small.

赤外線特徴量算出手段3における赤外線特徴量の算出方法として好ましい第一の方法は、天空と路面を含む構図で撮像された赤外線画像を用い、天空領域に対応する天空画素値と、路面領域に対応する路面画素値をそれぞれ算出し、天空画素値と路面画素値の比にもとづいて赤外線特徴量を算出する方法である。好ましい第二の方法は、さらに可視光線画像を用いて可視光線画像の画素値と赤外線画像の画素値にもとづいて赤外線特徴量を算出するか、紫外線画像の画素値と赤外線画像の画素値にもとづいて赤外線特徴量を算出する方法である。   A preferred first method for calculating the infrared feature amount in the infrared feature amount calculation means 3 is to use an infrared image captured with a composition including the sky and the road surface, and to correspond to the sky pixel value corresponding to the sky region and the road surface region. The road surface pixel value is calculated, and the infrared feature amount is calculated based on the ratio between the sky pixel value and the road surface pixel value. In the second preferred method, an infrared feature amount is calculated based on the pixel value of the visible light image and the pixel value of the infrared image using the visible light image, or based on the pixel value of the ultraviolet image and the pixel value of the infrared image. This is a method of calculating the infrared feature amount.

赤外線特徴量として路面での赤外線強度を用いる場合、外乱(季節、時間帯、日陰か日向か、など)の影響を受ける。しかし、上記の第一の方法では、天空画素値と路面画素値の比にもとづいた赤外線特徴量を算出するため、季節や時間帯によって赤外線の日射量自体が異なっていても、その影響を受けずに判定することができる。また、上記の第二の方法では、日陰では赤外線だけでなく可視光線や紫外線の日射量も少なくなることに鑑み、可視光線画像または紫外線画像の画素値との比にもとづいた赤外線特徴量を算出するため、日陰か日向かという影響は小さい。   When the infrared intensity on the road surface is used as the infrared feature amount, it is affected by disturbances (season, time zone, shade or sunny). However, in the first method described above, since the infrared feature amount is calculated based on the ratio of the sky pixel value and the road surface pixel value, even if the infrared radiation amount itself varies depending on the season and time zone, it is affected by the influence. It can be determined without. In the second method, the infrared feature amount is calculated based on the ratio of the visible light image or the pixel value of the ultraviolet image in view of the fact that not only the infrared rays but also the amount of solar radiation of the visible rays and ultraviolet rays is reduced in the shade. Therefore, the influence of whether it is shade or hinata is small.

なお、本発明が利用する光は、紫外線と赤外線を含む光であれば、日光の路面による反射光(自然光)や、車のヘッドライトや投光器による光や道路に既設されている照明光などの路面による反射光など、いずれの光でも構わない。路面に照射する光については、上記ライトに限るものではなく、波長分布がわかるものであれば後で補正値を算出できるので、どのようなライトによるものであっても構わない。   In addition, if the light utilized by the present invention is light including ultraviolet rays and infrared rays, the reflected light (natural light) from the road surface of sunlight, the light from a car headlight or a projector, the illumination light already installed on the road, etc. Any light such as light reflected by the road surface may be used. The light irradiating the road surface is not limited to the above-mentioned light, and any light can be used because the correction value can be calculated later if the wavelength distribution is known.

本発明による路面状態判定装置1は、紫外線、赤外線、温度という3種類の情報を組み合わせて路面状態を判定しているため、路面状態を細かく分類して判定することができる。また、専用のレーザ光などを必要としないため、広範囲の路面を撮像し、その広範囲の路面について路面状態を判定することができる。また、画像から路面状態を判定するので、特定の箇所についてのみ状態を判定するのではなく、撮像した路面全体について判定することができ、路面を小領域に分割して小領域ごとに路面状態を判定することも可能である。さらに、紫外線特徴量算出手段2や赤外線特徴量算出手段3において、外乱の影響を排除するための算出方法を用いることにより、季節や時間帯に応じてパラメータ調整などを行わなくても、高い判定精度が得られる。また、データベースを使う手法に比べて必要な手間が少ない。   Since the road surface state determination apparatus 1 according to the present invention determines the road surface state by combining three types of information of ultraviolet rays, infrared rays, and temperature, the road surface state can be classified and determined in detail. In addition, since a dedicated laser beam or the like is not required, it is possible to image a wide range of road surfaces and determine the road surface state for the wide range of road surfaces. In addition, since the road surface state is determined from the image, it is possible to determine the entire captured road surface instead of determining the state only for a specific location. The road surface state is divided into small regions by dividing the road surface into small regions. It is also possible to determine. Furthermore, by using a calculation method for eliminating the influence of disturbances in the ultraviolet feature quantity calculation means 2 and the infrared feature quantity calculation means 3, a high determination can be made without performing parameter adjustment or the like according to the season or time zone. Accuracy is obtained. Also, it requires less effort than the database method.

以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。
図2は、本発明の第一の実施形態による路面状態判定装置の機能ブロック図である。第一の実施形態では、紫外線画像、赤外線画像、温度分布画像をそれぞれ別のカメラを用いて撮像し、撮像したそれぞれの画像をもとに路面状態を判定する。第一の実施形態では、後の処理に必要となるため、状態を判定したい路面だけでなく天空も含む構図で上記画像を撮像する。また、本実施形態では紫外線特徴量として紫外線反射率を用い、赤外線特徴量として赤外線吸収率を用いる。そして、本実施形態では可視光線画像を撮像するカメラをさらに用いる。可視光線画像は本発明を実施するのに必須の要素ではないが、本実施形態では上記の赤外線特徴量の算出方法として好ましい第二の方法を採用しているので、可視光線画像が必要である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 2 is a functional block diagram of the road surface state determination apparatus according to the first embodiment of the present invention. In the first embodiment, an ultraviolet image, an infrared image, and a temperature distribution image are captured using different cameras, and the road surface state is determined based on the captured images. In the first embodiment, since it is necessary for subsequent processing, the image is captured with a composition including not only the road surface whose state is to be determined but also the sky. In the present embodiment, the ultraviolet reflectance is used as the ultraviolet feature quantity, and the infrared absorption rate is used as the infrared feature quantity. In this embodiment, a camera that captures a visible light image is further used. Although the visible light image is not an essential element for carrying out the present invention, the second preferred method is adopted as the method for calculating the infrared feature amount in the present embodiment, so a visible light image is necessary. .

第一の実施形態による路面状態判定装置は、紫外線カメラ撮像部101、紫外線画像生成部102、路面・天空領域抽出部103、紫外線反射率算出部104、投光判定部105、可視光線カメラ撮像部106、可視光線画像生成部107、第一の路面領域抽出部108、赤外線カメラ撮像部109、赤外線画像生成部110、第二の路面領域抽出部111、赤外線吸収率算出部112、赤外線サーモグラフィー撮像部113、路面状態判定部114、路面状態画像生成部115、路面判定結果出力部116、温度分布画像生成部117、を備える。   The road surface state determination apparatus according to the first embodiment includes an ultraviolet camera imaging unit 101, an ultraviolet image generation unit 102, a road surface / sky region extraction unit 103, an ultraviolet reflectance calculation unit 104, a light projection determination unit 105, and a visible light camera imaging unit. 106, visible light image generation unit 107, first road surface region extraction unit 108, infrared camera imaging unit 109, infrared image generation unit 110, second road surface region extraction unit 111, infrared absorptance calculation unit 112, infrared thermography imaging unit 113, a road surface state determination unit 114, a road surface state image generation unit 115, a road surface determination result output unit 116, and a temperature distribution image generation unit 117.

紫外線カメラ撮像部101で路面と天空をあわせて撮像し、紫外線画像生成部102でデジタルデータとしての紫外線画像を生成する。生成された紫外線画像は、路面・天空領域抽出部103において路面領域と天球領域を抽出される。例えば、紫外線カメラ撮像部101と紫外線画像生成部102は、紫外線CCD(Charge Coupled Device;電荷結合素子)カメラとして公知の構成を使ってもよい。   The ultraviolet camera imaging unit 101 captures the road surface and the sky together, and the ultraviolet image generation unit 102 generates an ultraviolet image as digital data. From the generated ultraviolet image, a road surface / sky region extraction unit 103 extracts a road surface region and a celestial sphere region. For example, the ultraviolet camera imaging unit 101 and the ultraviolet image generation unit 102 may use a known configuration as an ultraviolet CCD (Charge Coupled Device) camera.

路面・天空領域抽出部103における路面領域や天空領域の抽出方法には、例えば、以下のような様々な手法を用いることができる。路面上の白線を検出しその白線で囲まれた範囲内を路面としてもよい。カメラの設置位置や向きなどから、撮影された画像のどの領域が路面でどの領域が天空になるかを判定することとしてもよい。紫外線は天空に多く含まれるため、紫外線画像において画素値が所定の値よりも大きな箇所を天空としてもよい。天空を赤外線サーモグラフィー装置で撮像すると、赤外線放射がほぼ0だと認識されるため、赤外線サーモグラフィー画像において画素値が所定の値よりも小さな箇所を天空としてもよい。カメラが路側に固定された実施態様においては、晴天の昼間などに1回、上記の方法によって路面領域や天空領域を抽出して記憶しておき、以後は記憶した領域にもとづいて、路面領域や天空領域を判定してもよい。画素値としては、グレースケールの画像でその画素の明るさを示す値、カラー画像でその画素のRGB各成分のそれぞれの値(R画素値、G画素値、B画素値)、またはそれらをもとに算出される値、などを採用することができる。   For example, the following various methods can be used as the road surface area and sky area extraction method in the road surface / sky area extraction unit 103. A white line on the road surface may be detected, and a range surrounded by the white line may be used as the road surface. It is possible to determine which area of the photographed image is on the road surface and which area is in the sky based on the installation position and orientation of the camera. Since a large amount of ultraviolet light is contained in the sky, a place where the pixel value is larger than a predetermined value in the ultraviolet image may be the sky. When the sky is imaged with an infrared thermography apparatus, it is recognized that infrared radiation is almost zero. Therefore, a portion having a pixel value smaller than a predetermined value in the infrared thermography image may be set as the sky. In the embodiment in which the camera is fixed on the road side, the road surface area and the sky area are extracted and stored by the above method once in the daytime on a clear day, and the road surface area and the sky area are thereafter stored based on the stored area. The sky region may be determined. The pixel value is a value indicating the brightness of the pixel in a gray scale image, each value of the RGB components of the pixel (R pixel value, G pixel value, B pixel value) in a color image, or these values. It is possible to adopt a value calculated for and the like.

紫外線反射率算出部104は、図1の紫外線特徴量算出手段2にあたる。紫外線反射率算出部104では、路面・天空領域抽出部103で抽出された路面領域に含まれる各画素について、その画素に対応する路面上の地点での紫外線反射率を算出する。具体的には、まず紫外線画像の天空領域に含まれる画素の画素値の平均値(「天空画素値」と呼ぶことにする)を算出する。そして、紫外線画像の路面領域に含まれる各画素の画素値を天空画素値で割った比にもとづいて、路面領域の各画素に対応する紫外線反射率を算出する。天空画素値の算出には、平均値ではなく、最頻値や中央値などを用いてもよい。算出された紫外線反射率は、路面状態判定部114で使われる。   The ultraviolet reflectance calculation unit 104 corresponds to the ultraviolet feature amount calculation unit 2 in FIG. The ultraviolet reflectance calculation unit 104 calculates, for each pixel included in the road surface area extracted by the road surface / sky region extraction unit 103, an ultraviolet reflectance at a point on the road surface corresponding to the pixel. Specifically, first, an average value of pixels included in the sky region of the ultraviolet image (referred to as “sky pixel value”) is calculated. Then, an ultraviolet reflectance corresponding to each pixel in the road surface area is calculated based on a ratio obtained by dividing the pixel value of each pixel included in the road surface area of the ultraviolet image by the sky pixel value. For calculation of the sky pixel value, a mode value or a median value may be used instead of the average value. The calculated ultraviolet reflectance is used by the road surface state determination unit 114.

前述のとおり、紫外線は物質に当たった時に散乱しやすく、特に雪表面では紫外線の大部分が散乱されるため、紫外線の情報から雪の状態を検知することができる。しかし、紫外線強度が所定の閾値以上なら雪が路面上に存在していると判定する場合、季節や時間帯による紫外線の日射量自体の変動の影響を受けて誤判定することがある。例えば、紫外線の日射量自体が多ければ、雪が存在しなくても紫外線強度が閾値を越え、雪が存在すると誤判定する場合がある。これを防ぐために閾値を大きめに設定しておくと、逆に、雪が存在していて紫外線の大部分が雪表面で散乱されているにもかかわらず、紫外線の日射量自体が少ないために雪が存在していないと誤判定することがある。よって、紫外線強度で雪の状態を検知しようとすると、季節や時間帯に応じた判断基準を設けることが必要になる(例えば季節や時間帯によって複数の閾値を切り替えて判断するなど)。   As described above, ultraviolet rays are likely to be scattered when hitting a substance, and most of the ultraviolet rays are scattered particularly on the snow surface, so that the state of snow can be detected from the ultraviolet ray information. However, if it is determined that snow is present on the road surface if the ultraviolet intensity is equal to or greater than a predetermined threshold value, an erroneous determination may be made due to the influence of variations in the amount of solar radiation itself depending on the season and time zone. For example, if there is a large amount of solar radiation, the UV intensity may exceed the threshold even if there is no snow, and it may be erroneously determined that snow exists. If a large threshold is set to prevent this, conversely, although snow exists and most of the ultraviolet rays are scattered on the snow surface, there is snow because the amount of solar radiation itself is small. It may be misjudged that it is not. Therefore, when it is attempted to detect the snow condition with the ultraviolet intensity, it is necessary to provide a judgment standard according to the season or time zone (for example, judgment by switching a plurality of thresholds depending on the season or time zone).

そこで、紫外線反射率算出部104では、紫外線強度よりも外乱の影響を受けにくい特徴量として紫外線反射率を採用し、上記のように、路面領域に含まれる各画素の画素値と天空画素値との比にもとづいて紫外線反射率を算出している。これにより、季節や時間帯による紫外線の日射量の変動の影響を抑えている。この方法によれば、季節や時間帯に応じて路面状態を判定するための閾値を変動させる必要がない。   Therefore, the ultraviolet reflectance calculation unit 104 adopts the ultraviolet reflectance as a feature quantity that is less susceptible to disturbance than the ultraviolet intensity, and as described above, the pixel value and sky pixel value of each pixel included in the road surface area The ultraviolet reflectance is calculated based on the ratio. Thereby, the influence of the fluctuation | variation of the solar radiation amount of the ultraviolet rays by a season and a time zone is suppressed. According to this method, it is not necessary to change the threshold value for determining the road surface state according to the season or time zone.

なお、外乱の要因としては、紫外線の日射量自体の変動の他に日陰と日向の違いもあるが、本実施形態における紫外線反射率算出部104では考慮していない。もともと紫外線は大気で散乱されやすいため、太陽の直接光よりも天空に多く含まれる。そして、散乱されやすいという性質から、例えば可視光線の日陰と日向の強度差に比べれば、紫外線の日陰と日向の強度差は小さく、日陰か日向かの違いによらず比較的安定して雪の状態や分布を検知することができるためである。   As a cause of disturbance, there is a difference between shade and sun as well as fluctuations in the amount of solar radiation itself, but this is not considered in the ultraviolet reflectance calculation unit 104 in the present embodiment. Originally, ultraviolet rays are easily scattered in the atmosphere, so they are more contained in the sky than the sun's direct light. Due to the nature of being easily scattered, for example, the difference in intensity between the shade of sunlight and the sun is small compared to the difference between the shade of sunlight and the sun, and it is relatively stable regardless of whether it is shade or sun. This is because the state and distribution can be detected.

可視光線カメラ撮像部106は、紫外線カメラ撮像部101で撮像したのと同じ路面と天空を撮像し、可視光線画像生成部107でデジタルデータとしての可視光線画像を生成する。可視光線画像は、本発明を実施するために必須のものではないが、本実施形態においては、後述する赤外線吸収率の算出および路面判定結果の出力のために必要である。可視光線カメラ撮像部106と可視光線画像生成部107は、例えば、CCDカメラやCMOS(Complementary Metal Oxide Semiconductor;相補型金属酸化膜半導体)画像センサとして公知の構成を利用することができる。生成された可視光線画像は、第一の路面領域抽出部108で路面領域が抽出される。路面領域の抽出方法は、路面・天空領域抽出部103と同様に、様々な手法を用いることができる。   The visible light camera imaging unit 106 images the same road surface and sky as captured by the ultraviolet camera imaging unit 101, and the visible light image generation unit 107 generates a visible light image as digital data. The visible light image is not essential for carrying out the present invention, but in the present embodiment, it is necessary for the calculation of the infrared absorption rate described later and the output of the road surface determination result. The visible light camera imaging unit 106 and the visible light image generation unit 107 can use a configuration known as a CCD camera or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, for example. A road surface area is extracted from the generated visible light image by the first road surface area extraction unit 108. As the road surface area extraction method, various methods can be used as in the road surface / sky area extraction unit 103.

赤外線カメラ撮像部109は、紫外線カメラ撮像部101や可視光線カメラ撮像部106で撮像したのと同じ路面を撮像し、赤外線画像生成部110でデジタルデータとしての赤外線画像を生成する。例えば、赤外線カメラ撮像部109と赤外線画像生成部110は、赤外線デジタルCCDカメラとして公知の構成を利用することができる。生成された赤外線画像は、第二の路面領域抽出部111で路面領域が抽出される。路面領域の抽出方法は、路面・天空領域抽出部103と同様に、様々な手法を用いることができる。また、実施の態様によっては、第一の路面領域抽出部108と第二の路面領域抽出部111が共通であってもよい。   The infrared camera imaging unit 109 captures the same road surface as that captured by the ultraviolet camera imaging unit 101 or the visible light camera imaging unit 106, and an infrared image generation unit 110 generates an infrared image as digital data. For example, the infrared camera imaging unit 109 and the infrared image generation unit 110 can use configurations known as infrared digital CCD cameras. A road surface area is extracted from the generated infrared image by the second road surface area extraction unit 111. As the road surface area extraction method, various methods can be used as in the road surface / sky area extraction unit 103. Further, depending on the embodiment, the first road surface area extraction unit 108 and the second road surface area extraction unit 111 may be common.

赤外線吸収率算出部112は、図1の赤外線特徴量算出手段3にあたる。赤外線吸収率算出部112では、第二の路面領域抽出部111で抽出された路面領域に含まれる各画素について、その画素に対応する路面上の地点での赤外線吸収率を算出する。具体的には、赤外線画像の路面領域に含まれる各画素について、その画素値と、その画素に対応する可視光線画像上の画素の画素値との比を求めることにより、各画素に対応する赤外線吸収率を算出する。算出された赤外線吸収率は、路面状態判定部114で使われる。   The infrared absorptance calculating unit 112 corresponds to the infrared feature amount calculating means 3 in FIG. The infrared absorptance calculating unit 112 calculates the infrared absorptivity of each pixel included in the road surface area extracted by the second road surface area extracting unit 111 at a point on the road surface corresponding to the pixel. Specifically, for each pixel included in the road surface area of the infrared image, an infrared ray corresponding to each pixel is obtained by calculating a ratio between the pixel value and the pixel value of the pixel on the visible light image corresponding to the pixel. Calculate the absorption rate. The calculated infrared absorption rate is used by the road surface state determination unit 114.

前述のとおり、赤外線は水に吸収されやすいという特徴をもち、実際に赤外線を利用した含水量計等が開発されている。本発明でも赤外線のこの特徴を利用して路面上の水の状態を検知している。この時参照する赤外線の波長領域は、水の吸収波長領域である0.9μm前後といったように限定してもよい。   As described above, infrared rays are easily absorbed by water, and water content meters that actually use infrared rays have been developed. Even in the present invention, the state of water on the road surface is detected using this characteristic of infrared rays. The wavelength region of the infrared light referred to at this time may be limited to about 0.9 μm which is the water absorption wavelength region.

赤外線吸収率算出部112で上記のように比を使うのは、日陰か日向かという外乱の影響を抑えるためである。水の状態を検知するのに、例えば赤外線強度を用いて、赤外線強度が小さければ水が存在していると判定する(水に赤外線が吸収された結果、赤外線強度が小さくなったと判断する)場合、実際には路面が乾燥していても、水があると誤判定してしまう場合がある。なぜなら、路面上の日陰部分では日射量が少ないため、日射に含まれる赤外線量も少なくなるからである。このような誤判定を避けるために、赤外線吸収率算出部112では、日陰部分では可視光線量、赤外線量ともに少なくなるため、可視光線量と赤外線量の比率が日陰部分と日向部分であまり変わらないということを利用している。すなわち、路面に水がなければ、可視光線画像の画素値と赤外線画像の画素値の比は日陰か日向かという違いによらずほぼ一定しているが、路面に水があれば、赤外線が水に吸収されてその比率が変化し、その変化の度合いから路面の水を検知することができる。また、比を用いることにより、季節や時間帯による日射量の変動の影響も抑えられる。   The reason why the infrared absorptance calculating unit 112 uses the ratio as described above is to suppress the influence of disturbance whether it is shade or sunny. When detecting the state of water, for example, using infrared intensity, and if the infrared intensity is small, it is determined that water is present (determining that the infrared intensity has decreased as a result of the absorption of infrared rays in water) In fact, even if the road surface is dry, it may be erroneously determined that there is water. This is because the amount of infrared radiation contained in the solar radiation is reduced because the amount of solar radiation is small in the shaded area on the road surface. In order to avoid such a misjudgment, in the infrared absorptance calculation unit 112, both the amount of visible light and the amount of infrared light are reduced in the shaded part, so the ratio of the amount of visible light and the amount of infrared light does not change much between the shaded part and the sunny part. I use that. That is, if there is no water on the road surface, the ratio between the pixel value of the visible light image and the pixel value of the infrared image is almost constant regardless of whether it is shaded or sunny. The ratio of the water is absorbed and the water on the road surface can be detected from the degree of the change. Further, by using the ratio, the influence of fluctuations in the amount of solar radiation depending on the season and time zone can be suppressed.

ところで、本発明は紫外線画像と赤外線画像を用いて路面状態を判定するため、路面に十分な量の紫外線と赤外線が当たっている必要がある。そこで、十分な日射があるとき(晴天の昼間など)は日射光が路面で反射した反射光を利用し、そうでないとき(夜間や雨天など)は投光器などの照明装置で路面に光を照射し、その光の反射光を利用する。そのため、第一の実施形態では、投光判定部105において、路面・天空領域抽出部103で抽出した天空領域の紫外線強度が所定の閾値より小さい場合は十分な日射がないと判定して照明装置から路面に光を照射し、天空領域の紫外線強度が所定の閾値以上の場合は十分な日射があると判定して照射を停止する。天空領域の紫外線強度は、例えば、紫外線反射率算出部104で求めた天空画素値を用いることができる。また、実施の態様によっては、投光判定部105は光を照射するか否かを決定するだけでなく、さらに天空領域の紫外線強度に応じて、照明装置から光を照射する場合の光量の調節を行うようにしてもよい。例えば、天空領域の紫外線強度が大きいほど照明装置から照射する光量を小さくし、天空領域の紫外線強度が所定の閾値以上のときは照明装置から光を照射しないように調節してもよい。   By the way, in the present invention, since the road surface state is determined using an ultraviolet image and an infrared image, it is necessary that a sufficient amount of ultraviolet rays and infrared rays are applied to the road surface. Therefore, when there is sufficient solar radiation (such as daylight on a clear day), the reflected light reflected by the road surface is used, and when it is not (nighttime or rainy weather), the road surface is illuminated with a lighting device such as a projector. The reflected light of the light is used. Therefore, in the first embodiment, the light projection determination unit 105 determines that there is no sufficient solar radiation when the ultraviolet intensity of the sky region extracted by the road surface / sky region extraction unit 103 is smaller than a predetermined threshold value. The road surface is irradiated with light, and when the intensity of ultraviolet rays in the sky region is equal to or higher than a predetermined threshold, it is determined that there is sufficient solar radiation and the irradiation is stopped. As the ultraviolet intensity in the sky region, for example, the sky pixel value obtained by the ultraviolet reflectance calculation unit 104 can be used. Further, depending on the embodiment, the light projection determination unit 105 not only determines whether to irradiate light, but also adjusts the amount of light when irradiating light from the illumination device according to the ultraviolet intensity in the sky region. May be performed. For example, the amount of light emitted from the illumination device may be reduced as the ultraviolet intensity in the sky region increases, and adjustment may be performed so that light is not emitted from the illumination device when the ultraviolet intensity in the sky region is equal to or greater than a predetermined threshold.

可視光線画像による従来の路面状態判定においては、昼と夜の境目で誤判定が生じやすいという課題があるが、このように日射光と照明装置による光を切り替えて使うことにより、昼夜を通じて高精度に路面の状態を判定することができる。なお、照明装置には、紫外線と赤外線を含む光を照射することができるものを用いる。照明装置は、キセノンランプのように分光分布が比較的一様なものを用いてもよいし、太陽光と分光分布が似ている太陽光照明を用いてもよい。路側にある既存の街灯や、車両のヘッドランプを用いてもよい。予め照明装置が発する光の分光分布が分かっていれば、分光分布にもとづき、紫外線反射率算出部104や赤外線吸収率算出部112での算出値を補正してもよい。   In the conventional road surface condition determination by visible light image, there is a problem that misjudgment is likely to occur at the boundary between day and night. In this way, by switching between sunlight and light from the lighting device, it is highly accurate throughout the day and night. It is possible to determine the road surface condition. Note that a lighting device that can irradiate light including ultraviolet rays and infrared rays is used. The illumination device may use a device having a relatively uniform spectral distribution such as a xenon lamp, or may use sunlight illumination having a spectral distribution similar to sunlight. Existing street lamps on the roadside or vehicle headlamps may be used. If the spectral distribution of the light emitted from the lighting device is known in advance, the calculated values in the ultraviolet reflectance calculation unit 104 and the infrared absorption rate calculation unit 112 may be corrected based on the spectral distribution.

赤外線サーモグラフィー撮像部113も、紫外線カメラ撮像部101、可視光線カメラ撮像部106、赤外線カメラ撮像部109で撮像した路面を撮像し、温度分布画像生成部117でデジタルデータとしての温度分布画像を生成する。赤外線サーモグラフィー撮像部113および温度分布画像生成部117は、赤外線サーモグラフィー装置として公知の構成を利用することができる。温度分布画像は路面温度を表しており、路面状態判定部114で使われる。   The infrared thermography imaging unit 113 also images the road surface captured by the ultraviolet camera imaging unit 101, the visible light camera imaging unit 106, and the infrared camera imaging unit 109, and generates a temperature distribution image as digital data by the temperature distribution image generation unit 117. . The infrared thermography imaging unit 113 and the temperature distribution image generation unit 117 can use a known configuration as an infrared thermography device. The temperature distribution image represents the road surface temperature and is used by the road surface state determination unit 114.

赤外線は熱を持った物体からは必ず放射されており、赤外線の放射量と温度は相関関係を持つ。赤外線サーモグラフィー装置はこの性質を利用して撮像した領域の温度を測定するカメラである。   Infrared rays are always emitted from objects that have heat, and the amount of infrared radiation and temperature have a correlation. An infrared thermography apparatus is a camera that measures the temperature of an imaged area using this property.

路面状態判定部114は、図1の路面状態判定手段4にあたる。路面状態判定部114は、紫外線反射率算出部104、赤外線吸収率算出部112、温度分布画像生成部117から、紫外線反射率、赤外線吸収率、温度分布画像を入力され、それらの入力にもとづいて路面状態を判定する。本実施形態における判定は、予め定められた路面状態の分類項目のいずれかに分類することに当たる。例えば、「圧雪、圧雪氷板、シャーベット、ザクレ、乾燥、湿潤、氷膜、水膜、氷板」という分類項目を予め定めておき、路面状態判定部114ではこれら分類項目のいずれに該当するのかを判定する。分類項目は任意に定めることができるので、判定結果を見る人間にとって分かりやすいように、また、路面状態の判定を行う地方の気候などに合わせて、適切に細分化して定めておくことが好ましい。   The road surface state determination unit 114 corresponds to the road surface state determination unit 4 in FIG. The road surface state determination unit 114 receives the ultraviolet reflectance, infrared absorption rate, and temperature distribution image from the ultraviolet reflectance calculation unit 104, the infrared absorption rate calculation unit 112, and the temperature distribution image generation unit 117, and based on these inputs. Determine the road surface condition. The determination in the present embodiment corresponds to classification into one of predetermined road surface condition classification items. For example, the classification item “pressed snow, compressed snow ice plate, sherbet, pomegranate, dry, wet, ice film, water film, ice plate” is determined in advance, and the road surface condition determination unit 114 corresponds to any of these classification items. Determine. Since the classification items can be arbitrarily determined, it is preferable that the classification items are appropriately subdivided and determined so as to be easily understood by a person viewing the determination result, and in accordance with the local climate in which the road surface condition is determined.

判定方法は、様々な方法を用いることができるが、第一の実施形態においては、予め決められた判定条件にしたがって路面状態を判定する。例えば、図3の(a)は、路面状態ごとに実験から得られた紫外線反射率の概略値を示しているが、この紫外線反射率にもとづき、紫外線反射率が80%以上の場合を積雪と判定してもよい。本実施形態では、紫外線反射率が高い順に圧雪、シャーベットと判定し、紫外線反射率が低い場合は赤外線吸収率が高い順に水膜、湿潤、乾燥と判定することにする。図3の(b)は、その判定条件を示したものであり、閾値A、B、C、Dを用い(A<B、C<D)、紫外線反射率がD以上の場合、C以上D未満の場合、C未満の場合に分けている。また、乾燥・湿潤・水膜の区別は紫外線反射率からは判断しにくいので、紫外線反射率がC未満の場合を、さらに、赤外線吸収率がB以上の場合、A以上B未満の場合、A未満の場合に分けている。そして、それぞれの分類について、凍結状態を判定するために、路面温度が0℃より高い場合と0℃以下の場合に分けている。A、B、C、Dの値は、実験等により適切な値を求めて予め設定しておく(例えば図3の(a)の紫外線反射率から、D=80%と設定する)。図3の(b)では、路面温度が0℃より高い場合を「/」の左に、0℃以下の場合を「/」の右に示してある。例えば、紫外線反射率がC以上D未満のときは赤外線吸収率に関係なく、路面温度が0℃より高ければ「シャーベット」(雪が融けかかって水と混じりドロドロになった状態)と判定し、路面温度が0℃以下なら「ザクレ」(ザクザクした氷の状態)と判定する。氷は路面温度と相関関係を持つため、例えば、紫外線反射率がC未満の場合は、赤外線吸収率の値から検知した水の分布と、温度分布画像生成部117で生成した温度分布画像から分かる路面温度とから、氷の状態(氷膜、氷板など)を判定することができる。   Although various methods can be used as the determination method, in the first embodiment, the road surface state is determined according to a predetermined determination condition. For example, FIG. 3 (a) shows the approximate value of the ultraviolet reflectance obtained from the experiment for each road surface condition. Based on this ultraviolet reflectance, the case where the ultraviolet reflectance is 80% or more is defined as snow. You may judge. In this embodiment, it is determined that the snow pressure and the sherbet are in descending order of the ultraviolet reflectance, and when the ultraviolet reflectance is low, the water film, the wet, and the dry are determined in the descending order of the infrared absorption rate. (B) of FIG. 3 shows the determination conditions. When threshold values A, B, C, and D are used (A <B, C <D), and the ultraviolet reflectance is D or more, C or more and D If it is less than C, the case is less than C. Also, the distinction between dry, wet, and water film is difficult to judge from the ultraviolet reflectance, so that the ultraviolet reflectance is less than C, and further, when the infrared absorption rate is B or more, when A or more and less than B, A It is divided into the cases of less than. And in order to determine a frozen state about each classification | category, it divides into the case where road surface temperature is higher than 0 degreeC, and the case where it is below 0 degreeC. The values of A, B, C, and D are determined in advance by obtaining appropriate values through experiments or the like (for example, D = 80% is set from the ultraviolet reflectance in FIG. 3A). In FIG. 3B, the case where the road surface temperature is higher than 0 ° C. is shown to the left of “/”, and the case where the road surface temperature is 0 ° C. or less is shown to the right of “/”. For example, when the ultraviolet reflectance is C or more and less than D, regardless of the infrared absorptivity, if the road surface temperature is higher than 0 ° C., it is determined as “Sherbet” (a state in which snow melts and becomes mixed with water). If the temperature is 0 ° C. or lower, it is determined as “creep” (crisp ice state). Since ice has a correlation with the road surface temperature, for example, when the ultraviolet reflectance is less than C, it is known from the distribution of water detected from the value of the infrared absorption rate and the temperature distribution image generated by the temperature distribution image generation unit 117. From the road surface temperature, the ice condition (ice film, ice plate, etc.) can be determined.

上記の閾値A、B、C、Dや、図3の(b)の各領域に対応する分類項目(「圧雪」など)のデータは、路面状態判定部114内の記憶手段または他の構成要素と共有している記憶手段に予め記憶されている。入力された紫外線反射率、赤外線吸収率、温度分布画像から路面状態の分類項目を求める工程は、上記の記憶手段に記憶されたプログラムによってソフトウエア的に実現してもよく、路面状態判定部114に専用のハードウエア回路を設けることにより実現してもよい。記憶手段はROM(Read Only Memory)などの不揮発性メモリでもよい。あるいは、記憶手段はRAM(Random Access Memory)でもよく、この場合は、必要なデータやプログラムが予め記憶された可搬型記憶媒体(フレキシブルディスク、CD(Compact Disc)、DVD(Digital Versatile Disk)、光磁気ディスクなど)から、記憶内容をRAMに予め読み込んでおくか、不図示の通信インタフェイスを通じてネットワークから必要なデータやプログラムをRAMに予め読み込んでおく。   The above threshold values A, B, C, D and the classification item data corresponding to each area (b) in FIG. 3 (such as “compressed snow”) are stored in the road surface state determination unit 114 or other components. Is stored in advance in the storage means shared with. The step of obtaining the road surface state classification item from the input ultraviolet reflectance, infrared absorption rate, and temperature distribution image may be realized in software by the program stored in the storage means, and the road surface state determination unit 114. It may be realized by providing a dedicated hardware circuit. The storage means may be a nonvolatile memory such as a ROM (Read Only Memory). Alternatively, the storage means may be a RAM (Random Access Memory). In this case, a portable storage medium (flexible disk, CD (Compact Disc), DVD (Digital Versatile Disk), optical disk, or the like in which necessary data and programs are stored in advance. The stored contents are read in advance from a magnetic disk or the like into the RAM, or necessary data or programs are read in advance from the network through a communication interface (not shown).

路面状態判定部114は、各画素に対して上記の判定を行ってもよく、路面を複数の領域に分割し、それぞれの領域ごとに上記の判定を行ってもよい。例えば、それぞれの領域が縦N画素×横M画素になるように路面を分割し、各領域に対して、N×M個の画素値の平均値を求め、その平均値を使って図3の判定条件にしたがって判定してもよい。平均値の代わりに最頻値など別の値を用いてもよい。   The road surface state determination unit 114 may perform the above determination for each pixel, or may divide the road surface into a plurality of regions and perform the above determination for each region. For example, the road surface is divided so that each area has vertical N pixels × horizontal M pixels, and an average value of N × M pixel values is obtained for each area, and the average value is used to determine the area of FIG. You may determine according to determination conditions. Another value such as a mode value may be used instead of the average value.

路面状態画像生成部115は、路面状態判定部114が判定した路面状態をもとに、路面状態画像を生成し、路面判定結果出力部116に出力する。
路面状態画像は、例えば、路面を複数の領域に分割し、それぞれの領域ごとに路面状態を色分けした画像である。例えば、乾燥を青、湿潤や水膜を黄色、シャーベットや圧雪をオレンジ色、圧雪氷板、ザクレ、氷膜、氷板を赤で表示する(危険度が高い路面状態ほど赤に近い色で表示する)など、人間が危険箇所とその危険の度合を把握しやすいように、予め路面状態に応じて表示色を決めておく。領域ごとではなく、画素ごとに色分けするのでもよい。
The road surface state image generation unit 115 generates a road surface state image based on the road surface state determined by the road surface state determination unit 114 and outputs the road surface state image to the road surface determination result output unit 116.
The road surface state image is, for example, an image in which the road surface is divided into a plurality of regions and the road surface state is color-coded for each region. For example, dry is displayed in blue, wet or water film is displayed in yellow, sherbet or compressed snow is displayed in orange, compressed snow ice plate, pomegranate, ice film, or ice plate is displayed in red. The display color is determined in advance according to the road surface condition so that a human can easily grasp the dangerous location and the degree of the danger. Color coding may be performed not for each region but for each pixel.

また、凍結事象は路面温度からの推測であるため、他の事象と区別して表現してもよい。例えば、紫外線や赤外線から判定した雪や水の状態を色で表現し、路面温度から判定した凍結の発生具合を色とは別の手段で表現してもよい。具体的には、例えば、路面温度が0℃以下の領域は立体的に高く見えるよう表現し、路面温度が0℃より高い領域は高さがない(平らに見える)ように表現する。このように路面に凹凸があるように画像で表現すると、ドライバーが路面の危険度を直感的に把握しやすくなる。また、色と高さの表現を組み合わせることにより、雪や水に関する路面状態と凍結に関する路面状態が複合した状態を一つの画像で表現することができ、路面の危険状態を人間が容易に把握することができる。あるいは、危険度が高い路面状態ほど高く表現するなど、高さによる表現のみを用いてもよい。   Further, since the freezing event is an estimation from the road surface temperature, it may be expressed separately from other events. For example, the state of snow or water determined from ultraviolet rays or infrared rays may be expressed by color, and the degree of freezing determined from road surface temperature may be expressed by means other than color. Specifically, for example, a region where the road surface temperature is 0 ° C. or lower is expressed so as to appear three-dimensionally high, and a region where the road surface temperature is higher than 0 ° C. is expressed so as not to have a height (looks flat). In this way, if the road surface is expressed as an image with unevenness, it becomes easier for the driver to intuitively grasp the road surface risk level. In addition, by combining the expression of color and height, it is possible to represent the combined state of the road surface state related to snow and water and the road surface state related to freezing in one image, so that humans can easily grasp the dangerous state of the road surface. be able to. Or you may use only the expression by height, such as expressing high as the road surface condition with high risk.

路面判定結果出力部116は、可視光線画像生成部107で生成された可視光線画像(本実施形態においてはカラー画像だが、グレースケール画像でもよい)と路面状態画像を合成して、路面状態判定結果画像を出力する。路面状態判定結果画像の例を図4に示す。図4は、路面を複数の領域に分割してそれぞれの領域ごとに路面状態を色分けした路面状態画像が、可視光線画像と合成された路面状態判定結果画像の例である。図4では圧雪を黄色、凍結を赤色で表示しており、路面の危険状態が把握しやすい。   The road surface determination result output unit 116 combines the road surface state image with the visible light image generated by the visible light image generation unit 107 (which is a color image in this embodiment, but may be a gray scale image), and the road surface state determination result. Output an image. An example of the road surface state determination result image is shown in FIG. FIG. 4 is an example of a road surface state determination result image in which a road surface state image obtained by dividing a road surface into a plurality of regions and color-coding the road surface state for each region is combined with a visible light image. In FIG. 4, the pressure snow is displayed in yellow and the freeze is displayed in red, so that it is easy to grasp the dangerous state of the road surface.

なお、本実施形態では、紫外線カメラ撮像部101、可視光線カメラ撮像部106、赤外線カメラ撮像部109、赤外線サーモグラフィー撮像部113の視点位置の差は無視することができる程度だと仮定している。つまり、これらの撮像部で撮像され、紫外線画像生成部102、可視光線画像生成部107、赤外線画像生成部110、温度分布画像生成部117で生成された各画像において、各画像のサイズが同じなら、路面上の同じ1点が各画像の同じ座標の画素に対応すると見なすことができ、特に座標変換処理を必要としないものと仮定している。実施の態様によっては各撮像部の視点位置の差を無視することができない場合もあるが、その場合は、後述のように、路面上の同じ1点が各画像のどの座標に相当するのか対応をとる手段をさらに設ければよい。   In this embodiment, it is assumed that the difference in viewpoint position among the ultraviolet camera imaging unit 101, the visible light camera imaging unit 106, the infrared camera imaging unit 109, and the infrared thermography imaging unit 113 is negligible. That is, if the images captured by these imaging units and generated by the ultraviolet image generation unit 102, the visible light image generation unit 107, the infrared image generation unit 110, and the temperature distribution image generation unit 117 have the same size. It can be assumed that the same point on the road surface corresponds to a pixel having the same coordinate in each image, and that no coordinate conversion processing is required. Depending on the embodiment, the difference in the viewpoint position of each imaging unit may not be negligible, but in that case, as described later, it corresponds to which coordinate of each image the same one point on the road surface corresponds to It is sufficient to further provide means for taking

図5は本発明の第二の実施形態による路面状態判定装置の機能ブロック図である。第二の実施形態では、紫外線画像、赤外線画像、可視光線画像を1つのステレオカラーカメラを用いて撮像する。紫外線画像と赤外線画像から路面状態を判定し、可視光線画像を路面判定結果出力などの用途に用いることができる。また、本実施形態でも、紫外線特徴量として紫外線反射率を用い、赤外線特徴量として赤外線吸収率を用いる。可視光線画像は本発明の実施に必須の要素ではないが、本実施形態では上記の赤外線特徴量の算出方法として好ましい第二の方法を採用しているので、可視光線画像も撮像して利用する。   FIG. 5 is a functional block diagram of a road surface condition determination apparatus according to the second embodiment of the present invention. In the second embodiment, an ultraviolet image, an infrared image, and a visible light image are captured using one stereo color camera. A road surface state can be determined from an ultraviolet image and an infrared image, and a visible light image can be used for applications such as outputting a road surface determination result. Also in this embodiment, the ultraviolet reflectance is used as the ultraviolet feature quantity, and the infrared absorption rate is used as the infrared feature quantity. Although the visible light image is not an essential element for the implementation of the present invention, in the present embodiment, the second method that is preferable as the above-described method for calculating the infrared feature amount is adopted, so the visible light image is also captured and used. .

第二の実施形態による路面状態判定装置は、青波長領域カット部301、第一の撮像部302、第一の画像生成部303、路面・天空領域抽出部304、紫外線反射率算出部305、投光判定部306、赤波長領域カット部307、第二の撮像部308、第二の画像生成部309、路面領域抽出部310、赤外線吸収率算出部311、相対位置算出部312、赤外線サーモグラフィー撮像部313、路面状態判定部314、路面状態画像生成部315、カラー画像合成部316、路面判定結果出力部317、温度分布画像生成部318、を備える。   The road surface condition determination apparatus according to the second embodiment includes a blue wavelength region cut unit 301, a first imaging unit 302, a first image generation unit 303, a road surface / sky region extraction unit 304, an ultraviolet reflectance calculation unit 305, a projection unit. Light determination unit 306, red wavelength region cut unit 307, second imaging unit 308, second image generation unit 309, road surface region extraction unit 310, infrared absorption rate calculation unit 311, relative position calculation unit 312, infrared thermography imaging unit 313, a road surface state determination unit 314, a road surface state image generation unit 315, a color image synthesis unit 316, a road surface determination result output unit 317, and a temperature distribution image generation unit 318.

第一の撮像部302と第二の撮像部308は、ステレオカラーカメラの2つの撮像部である。第一の撮像部302は少なくとも紫外線領域と可視光線領域(赤波長領域、緑波長領域、青波長領域の全てを含む)に感度を有し、第二の撮像部308は少なくとも赤外線領域と可視光線領域(赤波長領域、緑波長領域、青波長領域の全てを含む)に感度を有する。第一の撮像部302と第二の撮像部308がともに、紫外線領域から赤外線領域までの波長領域に感度を有する受光素子を用いた撮像部であってもよい。   The first imaging unit 302 and the second imaging unit 308 are two imaging units of a stereo color camera. The first imaging unit 302 is sensitive to at least the ultraviolet region and the visible light region (including all of the red wavelength region, the green wavelength region, and the blue wavelength region), and the second imaging unit 308 is at least the infrared region and the visible light region. It has sensitivity in the region (including all of the red wavelength region, green wavelength region, and blue wavelength region). Both the first imaging unit 302 and the second imaging unit 308 may be imaging units using light receiving elements having sensitivity in the wavelength region from the ultraviolet region to the infrared region.

例えば、一般的な可視光線画像撮影用のカメラ(CCDカラーカメラやCMOSカラーカメラなど)の中には、近紫外線領域から近赤外線領域までの波長領域に感度を有する受光素子を用いているものがある。そのようなカメラは、受光素子の分光感度特性が人間の眼とは異なるため、フィルタで紫外線と赤外線をカットしてから受光させ、撮像した可視光線画像が人間の眼で見た映像に近くなるようにしている。本実施形態では、例えば、そのようなカメラを2つ備えたステレオカラーカメラから、紫外線と赤外線をカットするフィルタを外し、第一の撮像部302と第二の撮像部308として利用することができる。   For example, some common visible light image capturing cameras (CCD color cameras, CMOS color cameras, etc.) use light receiving elements having sensitivity in the wavelength region from the near ultraviolet region to the near infrared region. is there. In such a camera, the spectral sensitivity characteristics of the light receiving element are different from those of the human eye, so that the visible light image captured by the human eye is close to the image seen by the human eye after the ultraviolet rays and infrared rays are cut off by the filter. I am doing so. In the present embodiment, for example, a filter that cuts off ultraviolet rays and infrared rays can be removed from a stereo color camera including two such cameras, and the first imaging unit 302 and the second imaging unit 308 can be used. .

ところで、一般にCCDやCMOSなどの固体撮像素子を用いたカメラでは、受光素子自体には色を識別する能力がないので、RGB三色のカラーフィルタや分光プリズムを用いて光を赤(R)・緑(G)・青(B)に分解して受光素子に別々に受光させ、RGBそれぞれの画素値を得てカラー画像を生成することにより、カラー撮影を行っている。また、一般的な可視光線画像撮影用のCCDカメラやCMOSカメラにおいて、色の分解は、前述した紫外線と赤外線をカットするフィルタを透過した後の光(つまり可視光線の光)に対して行う。よって、色の分解に用いるカラーフィルタや分光プリズムは、可視光線の赤・緑・青だけを選択するものでなくともよい。つまり、可視光線の赤波長領域の光とそれより長い波長領域の光(つまり赤外線)とを分別しないカラーフィルタや分光プリズムを使っても、赤外線が既にフィルタでカットされているため、このカラーフィルタまたは分光プリズムにより、可視光線の赤波長領域の光のみが取り出され、R画素値が得られる。同様に、可視光線の青波長領域の光とそれより短い波長領域の光(つまり紫外線)とを分別しないカラーフィルタや分光プリズムを使っても、紫外線が既にフィルタでカットされているため、このカラーフィルタまたは分光プリズムにより、可視光線の青波長領域の光のみが取り出され、B画素値が得られる。ただし、可視光線の緑波長領域の光に対応するG画素値だけは、可視光線の緑波長領域の光そのものをカラーフィルタや分光プリズムを用いて取り出す必要がある。   By the way, in general, in a camera using a solid-state imaging device such as a CCD or a CMOS, the light receiving device itself does not have the ability to distinguish colors. Therefore, the light is red (R) • using a RGB color filter or a spectral prism. Color imaging is performed by decomposing the light into green (G) and blue (B) and separately receiving light by the light receiving element, and obtaining a color image by obtaining RGB pixel values. In a typical CCD camera or CMOS camera for capturing a visible light image, color separation is performed on light (that is, visible light) after passing through the above-described filter that cuts off ultraviolet rays and infrared rays. Therefore, the color filter and the spectral prism used for color separation need not select only visible light red, green, and blue. In other words, even if you use a color filter or spectral prism that does not separate light in the red wavelength region of visible light from light in the longer wavelength region (that is, infrared light), the infrared light is already cut by the filter. Alternatively, only the light in the red wavelength region of visible light is extracted by the spectral prism, and the R pixel value is obtained. Similarly, even if a color filter or a spectral prism that does not distinguish between light in the blue wavelength region of visible light and light in the shorter wavelength region (that is, ultraviolet light) is used, this color is already cut off by the filter. Only the light in the blue wavelength region of visible light is extracted by the filter or the spectral prism, and the B pixel value is obtained. However, only the G pixel value corresponding to light in the green wavelength region of visible light needs to be extracted using a color filter or a spectral prism.

カラーフィルタや分光プリズムは、本実施形態においては第一の撮像部302や第二の撮像部308に構成要素として含まれている。カラーフィルタを使うものとして説明すると、本実施形態において、青(B)のカラーフィルタは可視光線の青波長領域の光およびそれより短い波長領域の光(つまり紫外線)を通すフィルタ、緑(G)のカラーフィルタは可視光線の緑波長領域の光を通すフィルタ、赤(R)のカラーフィルタは可視光線の赤波長領域の光およびそれより長い波長領域の光(つまり赤外線)を通すフィルタである。   In this embodiment, the color filter and the spectral prism are included in the first imaging unit 302 and the second imaging unit 308 as components. When described as using a color filter, in this embodiment, the blue (B) color filter is a filter that transmits light in the blue wavelength region of visible light and light in a shorter wavelength region (that is, ultraviolet light), green (G). The color filter is a filter that transmits light in the green wavelength region of visible light, and the red (R) color filter is a filter that transmits light in the red wavelength region of visible light and light in a longer wavelength region (that is, infrared light).

第一の撮像部302と第二の撮像部308の前には、それぞれ青波長領域カット部301と赤波長領域カット部307が備えられている。青波長領域カット部301は、可視光線のうちの青波長領域の光をカットするフィルタであり、図6の(b)のフィルタ手段に相当する。赤波長領域カット部307は、可視光線のうちの赤波長領域の光をカットするフィルタであり、図6の(a)のフィルタ手段に相当する。青波長領域カット部301と赤波長領域カット部307の機能および図6については、第一の画像生成部303と第二の画像生成部309の機能とあわせて後述する。なお、第一の撮像部302と第二の撮像部308として、前記のように一般的な可視光線画像用のCCDカメラやCMOSカメラから紫外線と赤外線をカットするフィルタを外したものを用いる場合、外したフィルタのかわりにそれぞれ青波長領域カット部301と赤波長領域カット部307が撮像部の前に備えられる。   A blue wavelength region cut unit 301 and a red wavelength region cut unit 307 are provided in front of the first imaging unit 302 and the second imaging unit 308, respectively. The blue wavelength region cut unit 301 is a filter that cuts light in the blue wavelength region of visible light, and corresponds to the filter means in FIG. The red wavelength region cut unit 307 is a filter that cuts light in the red wavelength region of visible light, and corresponds to the filter unit in FIG. The functions of the blue wavelength region cut unit 301 and the red wavelength region cut unit 307 and FIG. 6 will be described later together with the functions of the first image generation unit 303 and the second image generation unit 309. In addition, when using what removed the filter which cuts an ultraviolet-ray and infrared rays from the CCD camera and CMOS camera for general visible light images as mentioned above as the 1st image pick-up part 302 and the 2nd image pick-up part 308, Instead of the removed filter, a blue wavelength region cut unit 301 and a red wavelength region cut unit 307 are provided in front of the imaging unit.

第一の実施形態と同様に、第一の撮像部302では路面と天空をあわせて撮像し、第一の画像生成部303でデジタルデータとしての画像を生成する。以下の処理では、ここで生成した画像のRGBの各成分を使った計算を行うため、第一の画像生成部303では、フルカラーの画像ではなく、RGBの各要素に分解された画像(以下、それぞれ「R画像」、「G画像」、「B画像」と言う)をそれぞれ生成するものとして説明する。しかし、実施の態様によっては、第一の画像生成部303ではフルカラーの画像を生成し、紫外線反射率算出部305などで、RGBの各要素のうち必要な要素の画素値を画像データから求めることとしてもよい。   As in the first embodiment, the first imaging unit 302 captures the road surface and the sky together, and the first image generation unit 303 generates an image as digital data. In the following processing, since calculation is performed using the RGB components of the image generated here, the first image generation unit 303 is not a full-color image but an image decomposed into RGB elements (hereinafter, referred to as “color image”). In the following description, it is assumed that “R image”, “G image”, and “B image” are respectively generated. However, depending on the embodiment, the first image generation unit 303 generates a full-color image, and the ultraviolet reflectance calculation unit 305 or the like obtains pixel values of necessary elements among the RGB elements from the image data. It is good.

第一の画像生成部303で生成されたB画像は、紫外線画像に相当する。理由は以下のとおりである。
図6は、ステレオカラーカメラを用いて赤外線画像および紫外線画像を生成する原理を示す図で、このうち(b)が、第一の画像生成部303で生成されたB画像が紫外線画像になることを説明している。図中のフィルタ手段は、青波長領域カット部301に相当し、青波長領域が遮断領域、紫外線領域が透過領域である。また、B画像は青のカラーフィルタを通過した光にもとづいて生成されるが、前述のとおり、青のカラーフィルタは可視光線の青波長領域の光およびそれより短い波長領域の光(つまり紫外線)を透過させる。よって、青波長領域カット部301を通過し、第一の撮像部302で青のカラーフィルタを通過して受光されるのは紫外線であるから、第一の画像生成部303で生成されたB画像は紫外線画像に相当する。
The B image generated by the first image generation unit 303 corresponds to an ultraviolet image. The reason is as follows.
FIG. 6 is a diagram showing the principle of generating an infrared image and an ultraviolet image using a stereo color camera. Among these, (b) shows that the B image generated by the first image generating unit 303 is an ultraviolet image. Is explained. The filter means in the figure corresponds to the blue wavelength region cut unit 301, where the blue wavelength region is a blocking region and the ultraviolet region is a transmission region. The B image is generated based on the light that has passed through the blue color filter. As described above, the blue color filter is light in the blue wavelength region of visible light and light in a shorter wavelength region (that is, ultraviolet light). Permeate. Therefore, it is ultraviolet light that passes through the blue wavelength region cut unit 301 and is received by the first imaging unit 302 through the blue color filter, so that the B image generated by the first image generation unit 303 is received. Corresponds to an ultraviolet image.

また、第一の画像生成部303で生成されたG画像は緑波長領域の光に対応する画像である。第一の画像生成部303で生成されたR画像は、第一の撮像部302が赤外線にも感度を有していれば赤波長領域の光と赤外線にもとづく画像となり、第一の撮像部302が赤外線に感度を有していなければ、赤波長領域の光にもとづく画像となる。   The G image generated by the first image generation unit 303 is an image corresponding to light in the green wavelength region. The R image generated by the first image generation unit 303 becomes an image based on the light in the red wavelength region and the infrared ray if the first imaging unit 302 has sensitivity to infrared rays. If is not sensitive to infrared light, an image based on light in the red wavelength region is obtained.

第一の画像生成部303で生成されたB画像は、路面・天空領域抽出部304において路面領域と天球領域を抽出される。路面・天空領域抽出部304における路面領域や天空領域の抽出方法は、第一の実施形態における路面・天空領域抽出部103の場合と同様である。   From the B image generated by the first image generation unit 303, the road surface area and the celestial sphere area are extracted by the road surface / sky area extraction unit 304. The road surface / sky region extraction unit 304 uses the same road surface region and sky region extraction method as the road surface / sky region extraction unit 103 in the first embodiment.

紫外線反射率算出部305は、図1の紫外線特徴量算出手段2にあたる。紫外線反射率算出部305では、路面・天空領域抽出部304で抽出された路面領域に含まれる各画素について、その画素に対応する路面上の地点での紫外線反射率を算出する。算出方法は、第一の実施形態における紫外線反射率算出部104と同様である。算出された紫外線反射率は、路面状態判定部314で使われる。   The ultraviolet reflectance calculation unit 305 corresponds to the ultraviolet feature amount calculation unit 2 in FIG. The ultraviolet reflectance calculation unit 305 calculates, for each pixel included in the road surface area extracted by the road surface / sky region extraction unit 304, the ultraviolet reflectance at a point on the road surface corresponding to the pixel. The calculation method is the same as that of the ultraviolet reflectance calculation unit 104 in the first embodiment. The calculated ultraviolet reflectance is used by the road surface state determination unit 314.

第二の実施形態においても、第一の実施形態と同様の投光判定部306を備えており、照明装置から光を照射するか否かを紫外線の日射量に応じて判定している。照明装置はこの判定結果にしたがって制御される。   The second embodiment also includes a light projection determination unit 306 similar to that of the first embodiment, and determines whether or not to irradiate light from the lighting device according to the amount of solar radiation. The lighting device is controlled according to this determination result.

赤波長領域カット部307、第二の撮像部308、第二の画像生成部309の動作原理は図6の(a)に示されており、図6の(b)に示した青波長領域カット部301、第一の撮像部302、第一の画像生成部303の動作原理と同様である。動作原理が同様であることは、図6の(a)と(b)が対称的であることからも明らかである。どちらも、撮像したい第一の波長領域(赤外線または紫外線)と、それに隣接した第二の波長領域(可視光線)に感度を有する撮像部(第二の撮像部308または第一の撮像部302)を用い、第二の波長領域に含まれる赤・緑・青の波長領域の中で第一の波長領域に最も近い波長領域である第三の波長領域を遮断領域とするフィルタ手段(赤波長領域カット部307または青波長領域カット部301)を透過させた光をRGBの3色に分解することで、所望の赤外線画像または紫外線画像を得ている。   The operation principle of the red wavelength region cut unit 307, the second imaging unit 308, and the second image generation unit 309 is shown in FIG. 6A, and the blue wavelength region cut shown in FIG. The operation principles of the unit 301, the first imaging unit 302, and the first image generation unit 303 are the same. The fact that the operating principle is the same is also clear from the fact that (a) and (b) in FIG. 6 are symmetrical. In either case, an imaging unit (second imaging unit 308 or first imaging unit 302) having sensitivity to a first wavelength region (infrared ray or ultraviolet ray) to be imaged and a second wavelength region (visible light) adjacent thereto. The filter means (red wavelength region) using the third wavelength region that is the wavelength region closest to the first wavelength region among the red, green, and blue wavelength regions included in the second wavelength region as a cutoff region The desired infrared image or ultraviolet image is obtained by separating the light transmitted through the cut unit 307 or the blue wavelength region cut unit 301) into three colors of RGB.

つまり、赤波長領域カット部307によって可視光線の赤波長領域の光がカットされるので、第二の画像生成部309で生成されたR画像は赤外線画像に相当する。第二の画像生成部309で生成されたG画像は緑波長領域の光に対応する画像である。第二の画像生成部309で生成されたB画像は、第二の撮像部308が紫外線にも感度を有していれば青波長領域の光と紫外線にもとづく画像となり、第二の撮像部308が紫外線に感度を有していなければ、青波長領域の光にもとづく画像となる。   That is, since the red wavelength region cut unit 307 cuts light in the red wavelength region of visible light, the R image generated by the second image generation unit 309 corresponds to an infrared image. The G image generated by the second image generation unit 309 is an image corresponding to light in the green wavelength region. The B image generated by the second image generation unit 309 is an image based on the light in the blue wavelength region and the ultraviolet ray if the second imaging unit 308 is sensitive to ultraviolet rays. If is not sensitive to ultraviolet light, an image based on light in the blue wavelength region is obtained.

ところで、人間の眼が最も明るさを感じる色は緑なので、路面状態を判定する過程で計算に用いる可視光線画像として、フルカラーの可視光線画像のかわりにG画像を用いても大きな問題はないと考えられる。そこで、第二の実施形態においては、路面領域抽出部310に赤外線画像として第二の画像生成部309で生成されたR画像を与え、可視光線画像として第二の画像生成部309で生成されたG画像を与える。そして、路面領域抽出部310で路面領域を抽出されたR画像とG画像を赤外線吸収率算出部311に与える。路面領域を抽出する方法および2つの画像から赤外線吸収率を算出する方法は、第一の実施形態と同様である。なお、赤外線吸収率算出部311は、図1の赤外線特徴量算出手段3にあたる。   By the way, since the color that the human eye feels most bright is green, there is no significant problem even if a G image is used instead of a full-color visible light image as a visible light image used for calculation in the process of determining the road surface condition. Conceivable. Therefore, in the second embodiment, an R image generated by the second image generation unit 309 is provided as an infrared image to the road surface region extraction unit 310, and is generated by the second image generation unit 309 as a visible light image. Give a G image. Then, the R and G images from which the road surface area has been extracted by the road surface area extraction unit 310 are provided to the infrared absorptance calculation unit 311. The method for extracting the road surface area and the method for calculating the infrared absorptance from the two images are the same as in the first embodiment. The infrared absorptance calculating unit 311 corresponds to the infrared feature amount calculating unit 3 in FIG.

相対位置算出部312は、第一の画像生成部303および第二の画像生成部309で生成された2つのG画像を比較し、ステレオカラーカメラ(2つの撮像部)で撮像された2つの画像の相対位置情報を算出する。算出手法は公知なので省略するが、例えば、2つのG画像の輪郭線を抽出し、テンプレートマッチングにより2つの画像のX軸およびY軸のずれを計算することにより、相対位置情報を算出する。   The relative position calculation unit 312 compares the two G images generated by the first image generation unit 303 and the second image generation unit 309, and two images captured by the stereo color camera (two imaging units). Relative position information is calculated. Although the calculation method is well known, it is omitted. For example, the relative position information is calculated by extracting the contour lines of two G images and calculating the deviation between the X and Y axes of the two images by template matching.

赤外線サーモグラフィー撮像部313と温度分布画像生成部318は、第一の実施形態における赤外線サーモグラフィー撮像部113、温度分布画像生成部117と同様である。   The infrared thermography imaging unit 313 and the temperature distribution image generation unit 318 are the same as the infrared thermography imaging unit 113 and the temperature distribution image generation unit 117 in the first embodiment.

路面状態判定部314は、図1の路面状態判定手段4にあたる。路面状態判定部314は、紫外線反射率算出部305、赤外線吸収率算出部311、温度分布画像生成部318から、紫外線反射率、赤外線吸収率、温度分布画像を入力され、それらの入力にもとづいて路面状態を判定する。また、もともとステレオカラーカメラは立体画像認識などに利用されるものなので、2つの撮像部の視点の差を無視することができない程度に2つの撮像部の間隔があいている。紫外線反射率と赤外線吸収率は、このような2つの別の撮像部で撮像された画像にもとづいて算出されているため、路面上の同じ1点がそれぞれの画像では異なる座標の画素に対応している。そこで、ある箇所の紫外線反射率と赤外線吸収率からその箇所の路面状態を判定するためには、2つの画像の座標を対応させる必要がある。相対位置算出部312で算出した相対位置情報は、2つの撮像部の視点の差に対応する情報である。よって、相対位置算出部312で算出した相対位置情報を路面状態判定部314に与えている。   The road surface state determination unit 314 corresponds to the road surface state determination unit 4 in FIG. The road surface state determination unit 314 receives the ultraviolet reflectance, the infrared absorption rate, and the temperature distribution image from the ultraviolet reflectance calculation unit 305, the infrared absorption rate calculation unit 311, and the temperature distribution image generation unit 318, and based on these inputs. Determine the road surface condition. In addition, since the stereo color camera is originally used for stereoscopic image recognition and the like, the interval between the two imaging units is set to such an extent that the difference between the viewpoints of the two imaging units cannot be ignored. Since the ultraviolet reflectance and the infrared absorptance are calculated based on images picked up by these two different image pickup units, the same point on the road surface corresponds to a pixel having a different coordinate in each image. ing. Therefore, in order to determine the road surface state at the location from the ultraviolet reflectance and infrared absorption rate at a location, it is necessary to correspond the coordinates of the two images. The relative position information calculated by the relative position calculation unit 312 is information corresponding to the difference between the viewpoints of the two imaging units. Therefore, the relative position information calculated by the relative position calculation unit 312 is given to the road surface state determination unit 314.

路面状態判定部314は第一の実施形態と同様の方法で判定してもよいが、第二の実施形態では路面状態判定部314がニューラルネットワークで構成されている。図7と図8を参照して、ニューラルネットワークを用いた路面状態判定方法を説明する。   The road surface state determination unit 314 may perform determination by the same method as in the first embodiment, but in the second embodiment, the road surface state determination unit 314 is configured by a neural network. A road surface state determination method using a neural network will be described with reference to FIGS.

図7は画像の画素配置構成の例を示す図である。以下では、路面状態判定部314は各画素各画素に対して路面状態を判定するものとし、塗りつぶされている画素(3,2)の路面状態を判定する場合の例を説明する。また、以下では、既に相対位置情報によって2つの画像の座標の対応が取られているものとする。例えば、赤外線吸収率の算出に使った画像の座標を相対位置情報によって変換して、紫外線反射率の算出に使った座標に合わせ、双方の画像で同じ座標の画素が路面上の同じ1点に対応するよう、処理を済ませた後であるとして説明する。後述するように、画素(3,2)の路面状態を判定するのに、その近傍の太線で囲まれた8つの画素、すなわち(2,1)から(4,3)の範囲にある画素の画素値も用いる。   FIG. 7 is a diagram illustrating an example of a pixel arrangement configuration of an image. Below, the road surface state determination part 314 shall determine a road surface state with respect to each pixel of each pixel, and demonstrates the example in the case of determining the road surface state of the pixel (3, 2) filled. In the following, it is assumed that the correspondence between the coordinates of the two images has already been taken based on the relative position information. For example, the coordinates of the image used for calculating the infrared absorptance are converted according to the relative position information and matched with the coordinates used for the calculation of the ultraviolet reflectance, so that the pixels having the same coordinates in both images are set to the same point on the road surface. In order to correspond, it demonstrates that it is after finishing a process. As will be described later, in order to determine the road surface state of the pixel (3, 2), eight pixels surrounded by a thick line in the vicinity thereof, that is, pixels in the range of (2, 1) to (4, 3) Pixel values are also used.

図8は画素(3,2)に対してニューラルネットワークを構成した例を示す図である。路面状態判定部314は各画素各画素に対して路面状態を判定するので、図8と同様のニューラルネットワークが各画素に対して構成されている。ニューラルネットワークは入力層501、中間層502、出力層503からなる階層構造をなす。図8では中間層502が1層だが、多層としてもよい。   FIG. 8 is a diagram showing an example in which a neural network is configured for the pixel (3, 2). Since the road surface state determination unit 314 determines the road surface state for each pixel of each pixel, a neural network similar to FIG. 8 is configured for each pixel. The neural network has a hierarchical structure including an input layer 501, an intermediate layer 502, and an output layer 503. Although the intermediate layer 502 is one layer in FIG. 8, it may be a multilayer.

ニューラルネットワークの運用過程においては、路面状態判定の対象画素である(3,2)、および近傍の(2,1)から(4,3)の範囲にある8個の画素の、紫外線反射率と赤外線吸収率が入力層501に入力される。中間層502を経て出力層503に路面状態に応じた数値(例えば、乾燥は0.1、湿潤は0.3、水膜は0.5、シャーベットは0.7、圧雪は0.9、など)が出力される。対象画素だけでなく近傍画素の紫外線反射率、赤外線吸収率も入力することで、出力の精度をより高めることができる。なお、近傍画素として選ぶ画素の範囲は、実施の態様によって任意に定めてもよい。出力層503からの出力値と、温度分布画像から得られる温度にもとづいて、路面状態を判定する。例えば、出力層503からの出力が湿潤を表す値で路面温度が0℃より高いときは湿潤と判定し、路面温度が0℃以下のときは氷膜と判定する(図3の(b)の判定条件で「湿潤/氷膜」という組になっているのを参照)。   In the operation process of the neural network, the ultraviolet reflectances of (3, 2) which is the target pixel of the road surface condition determination and eight pixels in the range of (2, 1) to (4, 3) in the vicinity are The infrared absorption rate is input to the input layer 501. Numerical values corresponding to the road surface condition through the intermediate layer 502 (for example, 0.1 for dry, 0.3 for wet, 0.5 for water film, 0.7 for sherbet, 0.9 for compressed snow, etc.) ) Is output. By inputting not only the target pixel but also the ultraviolet reflectance and infrared absorption rate of neighboring pixels, the output accuracy can be further increased. Note that the range of pixels to be selected as neighboring pixels may be arbitrarily determined depending on the embodiment. The road surface state is determined based on the output value from the output layer 503 and the temperature obtained from the temperature distribution image. For example, when the output from the output layer 503 is a value representing wetness and the road surface temperature is higher than 0 ° C., it is determined to be wet, and when the road surface temperature is 0 ° C. or lower, it is determined to be an ice film (see (b) of FIG. 3). (Refer to the “wet / ice film” pair in the judgment condition).

ところで、ニューラルネットワークを運用するためには、まず中間層502および出力層503のノードでウェイト(重み付け)を学習させる必要がある。学習過程においては、ニューラルネットワークに対象画素(3,2)および近傍画素の紫外線反射率と赤外線吸収率を入力データとして与え、路面状態に応じた数値を教師データとして与えることによりウェイト変化量を算出する。これを繰り返すことにより最適なウェイトを算出することができる。路面状態に応じた数値は人間が与えてもよく、感雨計や積深計等の気象計器の出力値から算出した数値を自動的に与えてもよい。人間が目視によって路面状態を判定する基準は人によって異なるが、ニューラルネットワークにそれぞれの人に応じた教師データを与えて学習させれば、それぞれの人に応じた基準で路面状態を判定することができるようになる。   By the way, in order to operate the neural network, it is necessary to first learn weights (weights) at the nodes of the intermediate layer 502 and the output layer 503. In the learning process, the weight change amount is calculated by providing the neural network with the ultraviolet reflectance and infrared absorption rate of the target pixel (3, 2) and neighboring pixels as input data, and giving numerical values according to the road surface condition as teacher data. To do. By repeating this, an optimum weight can be calculated. A numerical value corresponding to the road surface condition may be given by a human, or a numerical value calculated from an output value of a meteorological instrument such as a rain gauge or a depth gauge may be automatically given. The criteria for determining the road surface condition visually by humans differ from person to person, but if the neural network is trained by providing teacher data according to each person, the road surface condition can be determined according to the reference according to each person. become able to.

路面状態画像生成部315は、第一の実施形態における路面状態画像生成部115と同様に、路面状態判定部314が判定した路面状態をもとに、路面状態画像を生成し、路面判定結果出力部317に出力する。   Similarly to the road surface state image generation unit 115 in the first embodiment, the road surface state image generation unit 315 generates a road surface state image based on the road surface state determined by the road surface state determination unit 314 and outputs a road surface determination result. To the unit 317.

カラー画像合成部316は、第一の画像生成部303および第二の画像生成部309で生成された画像と、相対位置算出部312で算出された相対位置情報を入力として受け取り、カラー画像を合成して路面判定結果出力部317に出力する。このカラー画像は、第一の実施形態において路面判定結果出力部116に入力として与えられる可視光線画像に相当する。   The color image composition unit 316 receives the images generated by the first image generation unit 303 and the second image generation unit 309 and the relative position information calculated by the relative position calculation unit 312 as inputs, and combines the color images. And output to the road surface determination result output unit 317. This color image corresponds to a visible light image given as an input to the road surface determination result output unit 116 in the first embodiment.

カラー画像の合成は、例えば、第一の撮像部302を視点とする画像を合成する場合、次のように行う。まず、第二の画像生成部309で生成されたB画像を相対位置情報にもとづいて第一の撮像部302を視点とするB画像に変換する。第二の撮像部308が紫外線にも感度を有する場合、このB画像は青波長領域の光と紫外線にもとづく画像なので、第一の画像生成部303で生成されたB画像(紫外線画像)との差分画像を求め、その差分画像を青波長領域の光に対応するB画像とする。緑波長領域の光に対応するG画像は、第一の画像生成部303で生成されたG画像を用いる。赤波長領域の光に対応するR画像も、B画像と似た手順で求められる。すなわち、第二の画像生成部309で生成されたR画像(赤外線画像)を相対位置情報にもとづいて第一の撮像部302を視点とするR画像に変換する。第一の撮像部302が赤外線にも感度を有する場合、第一の画像生成部303で生成されたR画像は赤波長領域の光と赤外線にもとづく画像なので、これと変換によってもとめたR画像との差分画像を求め、その差分画像を赤波長領域の光に対応するR画像とする。こうして得られたR画像、G画像、B画像から、カラー画像を合成する。   For example, when synthesizing an image having the first imaging unit 302 as a viewpoint, the color image is synthesized as follows. First, the B image generated by the second image generation unit 309 is converted into a B image having the first imaging unit 302 as a viewpoint based on the relative position information. When the second imaging unit 308 is sensitive to ultraviolet rays, the B image is an image based on light in the blue wavelength region and ultraviolet rays, and therefore, the B image (ultraviolet image) generated by the first image generation unit 303 A difference image is obtained, and the difference image is set as a B image corresponding to light in the blue wavelength region. As the G image corresponding to the light in the green wavelength region, the G image generated by the first image generation unit 303 is used. The R image corresponding to the light in the red wavelength region is also obtained by a procedure similar to that for the B image. That is, the R image (infrared image) generated by the second image generation unit 309 is converted into an R image having the first imaging unit 302 as a viewpoint based on the relative position information. When the first imaging unit 302 has sensitivity to infrared rays, the R image generated by the first image generation unit 303 is an image based on light in the red wavelength region and infrared rays. And the difference image is set as an R image corresponding to light in the red wavelength region. A color image is synthesized from the R image, G image, and B image thus obtained.

実施の態様によっては、第二の撮像部308を視点とする画像を合成するようにしてもよく、第一の撮像部302と第二の撮像部308の中間点を視点とする画像を合成するようにしてもよい。また、差分画像を求めずに、例えば第一の画像生成部303で生成されたR画像をそのまま、カラー画像を合成するためのR画像として用いてもよい。実施の態様に応じてカラー画像の合成に必要な画像が異なるが、カラー画像合成部316は第一の画像生成部303および第二の画像生成部309から、それらの必要な画像を入力として受け取るものとする。   Depending on the embodiment, an image with the second imaging unit 308 as a viewpoint may be synthesized, and an image with an intermediate point between the first imaging unit 302 and the second imaging unit 308 as a viewpoint is synthesized. You may do it. Further, without obtaining the difference image, for example, the R image generated by the first image generation unit 303 may be used as it is as the R image for synthesizing the color image. The images required for color image synthesis differ depending on the embodiment, but the color image synthesis unit 316 receives the necessary images from the first image generation unit 303 and the second image generation unit 309 as inputs. Shall.

路面判定結果出力部317は、第一の実施形態における路面判定結果出力部116と同様に、カラー画像合成部316で合成したカラー画像と路面状態画像生成部315で生成した路面状態画像を合成し、判定結果画像を出力する。   Similarly to the road surface determination result output unit 116 in the first embodiment, the road surface determination result output unit 317 combines the color image combined by the color image combining unit 316 and the road surface state image generated by the road surface state image generation unit 315. The determination result image is output.

なお、障害物検知などのために車載のステレオカメラを用いるシステムなどがあるが、そのような既存のシステムと、カメラや撮像した画像を共有することにより、第二の実施形態による路面状態判定装置は、低コストで実現することができる。   In addition, there is a system that uses an in-vehicle stereo camera for obstacle detection, etc., but by sharing the camera and the captured image with such an existing system, the road surface state determination device according to the second embodiment Can be realized at low cost.

図9は本発明の第三の実施形態による路面状態判定装置の機能ブロック図である。第三の実施形態では、一つの撮像装置(汎用カラーカメラ)で紫外線画像、可視光線画像、赤外線画像を撮像する。紫外線画像と赤外線画像から路面状態を判定し、可視光線画像を路面判定結果出力などの用途に用いることができる。また、本実施形態でも、紫外線特徴量として紫外線反射率を用い、赤外線特徴量として赤外線吸収率を用いる。可視光線画像は本発明の実施に必須の要素ではないが、本実施形態では上記の紫外線特徴量の算出方法として好ましい第二の方法を採用しているので、そのために撮像して利用する。   FIG. 9 is a functional block diagram of a road surface condition judging device according to the third embodiment of the present invention. In the third embodiment, an ultraviolet image, a visible light image, and an infrared image are captured by a single imaging device (general-purpose color camera). A road surface state can be determined from an ultraviolet image and an infrared image, and a visible light image can be used for applications such as outputting a road surface determination result. Also in this embodiment, the ultraviolet reflectance is used as the ultraviolet feature quantity, and the infrared absorption rate is used as the infrared feature quantity. The visible light image is not an essential element for carrying out the present invention. However, in the present embodiment, the second method that is preferable as the method for calculating the above-described ultraviolet feature amount is adopted.

第三の実施形態による路面状態判定装置は、青波長領域・赤波長領域カット部401、撮像部402、画像生成部403、路面領域抽出部404、紫外線反射率算出部405、路面・天空領域抽出部406、投光判定部407、赤外線吸収率算出部408、赤外線画像撮像部409、温度測定部410、温度分布画像生成部411、路面状態判定部412、路面状態画像生成部413、路面判定結果出力部414、を備える。   The road surface state determination apparatus according to the third embodiment includes a blue wavelength region / red wavelength region cut unit 401, an imaging unit 402, an image generation unit 403, a road surface region extraction unit 404, an ultraviolet reflectance calculation unit 405, a road surface / sky region extraction. Unit 406, light projection determination unit 407, infrared absorption rate calculation unit 408, infrared image imaging unit 409, temperature measurement unit 410, temperature distribution image generation unit 411, road surface state determination unit 412, road surface state image generation unit 413, road surface determination result An output unit 414.

青波長領域・赤波長領域カット部401は、可視光線のうちの青波長領域と赤波長領域の光をカットし、紫外線、可視光線のうちの緑波長領域の光、赤外線を通過させるトリプルバンドパスフィルタである。青波長領域・赤波長領域カット部401を、図10に示すように、第二の実施形態における青波長領域カット部301と赤波長領域カット部307の双方(図6)の機能を兼ねたフィルタ手段と見なすこともできる。なお、図6と図10の比較から明らかなとおり、実施の態様によっては、青波長領域・赤波長領域カット部401をトリプルバンドパスフィルタで実現するのではなく、第二の実施形態における青波長領域カット部301と赤波長領域カット部307と同様の2つのフィルタで構成して実現することも可能である。つまり、フィルタを2段構成にすることにより、青波長領域の光と赤波長領域の光の双方をそれぞれのフィルタでカットし、全体としてトリプルバンドパスフィルタと同等の効果を得るようにしてもよい。   The blue wavelength region / red wavelength region cut unit 401 cuts the light in the blue wavelength region and the red wavelength region in the visible light, and passes the ultraviolet light, the light in the green wavelength region in the visible light, and the infrared light. It is a filter. As shown in FIG. 10, the blue wavelength region / red wavelength region cut unit 401 is a filter that functions as both the blue wavelength region cut unit 301 and the red wavelength region cut unit 307 (FIG. 6) in the second embodiment. It can also be regarded as a means. As apparent from the comparison between FIG. 6 and FIG. 10, depending on the embodiment, the blue wavelength region / red wavelength region cut unit 401 is not realized by a triple band pass filter, but the blue wavelength in the second embodiment. It can also be realized by configuring with two filters similar to the region cut unit 301 and the red wavelength region cut unit 307. That is, by configuring the filter in two stages, both the light in the blue wavelength region and the light in the red wavelength region may be cut by the respective filters, and the same effect as the triple band pass filter may be obtained as a whole. .

撮像部402は青波長領域・赤波長領域カット部401を通過した光を受光して撮像する。撮像部402は紫外線から赤外線に感度を有するものを用いる。前述のとおり、一般的に可視光線画像用として用いられるCCDカラーカメラやCMOSカラーカメラには、近紫外線から近赤外線に感度を有する受光素子を用いているものが多いので、そのような汎用的なカメラの部品を撮像部402に利用することができる。撮像部402は、第二の実施形態における第一の撮像部302や第二の撮像部308と同様に、撮像素子のほかに、カラーフィルタや分光プリズムなどをその構成要素として含んでいる。また、撮像部402として可視光線画像用のCCDカラーカメラやCMOSカラーカメラの部品を利用する場合は、第二の実施形態と同様に、紫外線と赤外線をカットするフィルタを外して利用する。   The imaging unit 402 receives and captures the light that has passed through the blue wavelength region / red wavelength region cut unit 401. An imaging unit 402 having sensitivity from ultraviolet rays to infrared rays is used. As described above, many CCD color cameras and CMOS color cameras generally used for visible light images use light receiving elements having sensitivity from near ultraviolet rays to near infrared rays. Camera parts can be used for the imaging unit 402. Similar to the first imaging unit 302 and the second imaging unit 308 in the second embodiment, the imaging unit 402 includes a color filter, a spectral prism, and the like as its constituent elements in addition to the imaging element. When using a CCD color camera or a CMOS color camera component for visible light image as the imaging unit 402, the filter for cutting off ultraviolet rays and infrared rays is removed and used as in the second embodiment.

第一および第二の実施形態と同様に、撮像部402では路面と天空をあわせて撮像し、画像生成部403でデジタルデータとしての画像を生成する。以下では、第二の実施形態と同様にR画像、G画像、B画像を画像生成部403が生成するものとして説明するが、フルカラーの画像を生成してもよい(この点も第二の実施形態と同様である)。   Similar to the first and second embodiments, the imaging unit 402 captures the road surface and the sky together, and the image generation unit 403 generates an image as digital data. In the following description, it is assumed that the image generation unit 403 generates an R image, a G image, and a B image as in the second embodiment. However, a full color image may be generated (this also applies to the second embodiment). It is the same as the form).

画像生成部403で生成されたR画像は赤外線画像に相当し、G画像は可視光線画像に相当し、B画像は紫外線画像に相当する。その理由は第二の実施形態で説明したのと同様で、図10からも明らかである。このようにして、本実施形態では、一つの撮像部402から赤外線画像、可視光線画像、紫外線画像を得ている。   The R image generated by the image generation unit 403 corresponds to an infrared image, the G image corresponds to a visible light image, and the B image corresponds to an ultraviolet image. The reason is the same as described in the second embodiment, and is clear from FIG. In this way, in the present embodiment, an infrared image, a visible light image, and an ultraviolet image are obtained from one imaging unit 402.

画像生成部403で生成されたB画像とG画像が路面領域抽出部404に入力され、前述したような方法でそれぞれ路面領域が抽出され、紫外線反射率算出部405に出力される。   The B image and G image generated by the image generation unit 403 are input to the road surface region extraction unit 404, and the road surface regions are extracted by the method described above, and output to the ultraviolet reflectance calculation unit 405.

紫外線反射率算出部405は、図1の紫外線特徴量算出手段2にあたる。紫外線反射率算出部405では、路面領域抽出部404で抽出された路面領域に含まれる各画素について、その画素に対応する路面上の地点での紫外線反射率を算出する。具体的には、B画像の路面領域に含まれる各画素について、その画素値を、その画素に対応するG画像上の画素の画素値で割った比にもとづき、各画素に対応する紫外線反射率を算出する。すなわち、可視光線と紫外線の強度の比にもとづき、紫外線反射率を算出している。路面に雪があると、紫外線が雪表面で多く散乱されて紫外線強度が大きくなる一方、可視光線の強度はそれほど大きく変化しないため、この比の値も大きくなる。そのため、この比にもとづいて紫外線反射率を算出している。比にもとづく算出方法により、日射量の変動による影響が抑えられる。算出された紫外線反射率は、路面状態判定部412で使われる。   The ultraviolet reflectance calculation unit 405 corresponds to the ultraviolet feature amount calculation unit 2 in FIG. The ultraviolet reflectance calculation unit 405 calculates, for each pixel included in the road surface area extracted by the road surface area extraction unit 404, the ultraviolet reflectance at a point on the road surface corresponding to the pixel. Specifically, for each pixel included in the road area of the B image, the ultraviolet reflectance corresponding to each pixel is based on the ratio of the pixel value divided by the pixel value of the pixel on the G image corresponding to that pixel. Is calculated. That is, the ultraviolet reflectance is calculated based on the ratio between the intensity of visible light and ultraviolet light. If there is snow on the road surface, a lot of ultraviolet rays are scattered on the snow surface and the intensity of ultraviolet rays increases. On the other hand, the intensity of visible light does not change so much, so the value of this ratio also increases. Therefore, the ultraviolet reflectance is calculated based on this ratio. By the calculation method based on the ratio, the influence of fluctuations in solar radiation can be suppressed. The calculated ultraviolet reflectance is used by the road surface state determination unit 412.

なお、紫外線は可視光線や赤外線と比較すれば散乱されやすく、日陰と日向での強度差が相対的に小さいため、日陰と日向の差の影響を上記の方法で完全に排除できるわけではない。しかし、日陰と日向を比べれば、日陰では紫外線も可視光線も強度が小さく、日向では紫外線も可視光線も強度が大きいため、上記のように比にもとづいて算出することにより、日陰と日向の差による外乱の影響もある程度抑えられる。   Note that ultraviolet rays are more easily scattered than visible rays and infrared rays, and the difference in intensity between the shade and the sun is relatively small. Therefore, the influence of the difference between the shade and the sun cannot be completely eliminated by the above method. However, comparing the shade and the sun, the intensity of both ultraviolet rays and visible light is low in the shade, and the intensity of both ultraviolet rays and visible light is high in the sun. Therefore, the difference between the shade and the sun is calculated by using the ratio as described above. The influence of disturbance due to can be suppressed to some extent.

画像生成部403で生成されたR画像が路面・天空領域抽出部406に入力され、前述したような方法で路面領域と天空領域が抽出され、赤外線吸収率算出部408と投光判定部407にそれぞれ出力される。   The R image generated by the image generation unit 403 is input to the road surface / sky region extraction unit 406, the road surface region and the sky region are extracted by the method described above, and the infrared absorption rate calculation unit 408 and the light projection determination unit 407 are extracted. Each is output.

赤外線吸収率算出部408は、図1の赤外線特徴量算出手段3にあたる。赤外線吸収率算出部408では、路面・天空領域抽出部406で抽出された路面領域に含まれる各画素について、その画素に対応する路面上の地点での赤外線吸収率を算出する。具体的には、まずR画像の天空領域に含まれる画素の画素値の平均値(天空画素値)を算出し、R画像の路面領域に含まれる各画素の画素値を天空画素値で割った比にもとづいて、各画素に対応する赤外線吸収率を算出する。天空画素値の算出には、平均値のかわりに最頻値や中央値などを用いてもよい。算出された赤外線吸収率は、路面状態判定部412で使われる。   The infrared absorptance calculating unit 408 corresponds to the infrared feature amount calculating means 3 in FIG. The infrared absorption rate calculation unit 408 calculates the infrared absorption rate at a point on the road surface corresponding to the pixel for each pixel included in the road surface region extracted by the road surface / sky region extraction unit 406. Specifically, first, an average value (sky pixel value) of pixels included in the sky region of the R image is calculated, and the pixel value of each pixel included in the road surface region of the R image is divided by the sky pixel value. Based on the ratio, an infrared absorption rate corresponding to each pixel is calculated. In calculating the sky pixel value, the mode value or the median value may be used instead of the average value. The calculated infrared absorption rate is used by the road surface state determination unit 412.

路面上の赤外線の強度から路面上の水に関する状態を判定しようとすると、季節や時間帯による日射量の変動の影響を受ける。そのため、例えば、乾燥か湿潤かを判別するための閾値を季節や時間帯に合わせて変動させる必要がある。しかし、上記のように比にもとづいた算出方法を用いれば、日射量の変動の影響を排除することができる。   If it is going to judge the state regarding the water on a road surface from the intensity | strength of the infrared rays on a road surface, it will be influenced by the fluctuation | variation of the solar radiation amount by a season and a time zone. Therefore, for example, it is necessary to change the threshold value for determining whether it is dry or wet according to the season or time zone. However, if the calculation method based on the ratio as described above is used, the influence of fluctuations in the amount of solar radiation can be eliminated.

第三の実施形態においても、第一および第二の実施形態と同様に、日射量に応じた判定を行う投光判定部407を備えている。ただし、第三の実施形態においては、紫外線の日射量ではなく赤外線の日射量にもとづいて判定する。よって、路面・天空領域抽出部406で抽出されたR画像の画素値を判定に用いる。例えば、路面領域の画素値の平均値を赤外線の日射量を示す値として用い、この値が所定の閾値より大きいか否かによって、照明装置から光を照射するか否かを投光判定部407が決定してもよい。投光判定部407は、照射するか否かを判定するだけでなく、赤外線の日射量を示す値に応じて照射する場合の光量を調節するようにしてもよい。   Similarly to the first and second embodiments, the third embodiment also includes a light projection determination unit 407 that performs determination according to the amount of solar radiation. However, in the third embodiment, the determination is based not on the amount of solar radiation but on the amount of infrared radiation. Therefore, the pixel value of the R image extracted by the road surface / sky region extraction unit 406 is used for the determination. For example, the average value of the pixel values of the road surface area is used as a value indicating the amount of infrared radiation, and whether or not to irradiate light from the lighting device depending on whether or not this value is greater than a predetermined threshold value. May be determined. The light projection determination unit 407 may not only determine whether or not to irradiate, but may also adjust the amount of light in the case of irradiation according to a value indicating the amount of solar radiation.

赤外線画像撮像部409と温度測定部410からの入力にもとづき、温度分布画像生成部411で温度分布画像を生成する。赤外線画像撮像部409は、具体的には、赤外線カメラである。   Based on inputs from the infrared image capturing unit 409 and the temperature measuring unit 410, a temperature distribution image generating unit 411 generates a temperature distribution image. Specifically, the infrared image capturing unit 409 is an infrared camera.

一般に、赤外線サーモグラフィー装置(赤外線サーモグラフィー撮像部113と温度分布画像生成部117、または赤外線サーモグラフィー撮像部313と温度分布画像生成部318に相当する)は、環境温度を測定するためのセンサなど、赤外線の放射エネルギー量を温度に対応づけるための機構を内部に有している。そのため単なる赤外線カメラよりも高価である。そこで、第三の実施形態においては、安価な手段を用いて温度分布画像を得るため、赤外線サーモグラフィー装置のかわりに赤外線画像撮像部409と温度測定部410を用いる。   In general, an infrared thermography device (corresponding to the infrared thermography imaging unit 113 and the temperature distribution image generation unit 117, or the infrared thermography imaging unit 313 and the temperature distribution image generation unit 318) is an infrared thermometer such as a sensor for measuring the environmental temperature. It has an internal mechanism for associating the amount of radiant energy with temperature. Therefore, it is more expensive than a simple infrared camera. Therefore, in the third embodiment, an infrared image capturing unit 409 and a temperature measuring unit 410 are used instead of the infrared thermography device in order to obtain a temperature distribution image using inexpensive means.

具体的には、温度測定部410は熱電対や放射温度計などの温度センサであり、赤外線画像撮像部409で撮像している路面(撮像部402の撮像対象でもある)の範囲に含まれる2点の温度を測定する。温度分布画像生成部411は、まず、赤外線画像撮像部409により撮像された赤外線画像においてその2点に該当する箇所の画素値を求める(それぞれ、1つの画素の画素値を求めてもよいし、該当画素の近傍の小領域に含まれる画素の画素値の平均値などを求めてもよい)。そして、2点の温度(t1、t2)と2つの画素値(p1、p2)にもとづいて、赤外線画像の画素値を温度に変換するための値Aを算出し、Aの値にもとづいて、赤外線画像撮像部409により撮像された赤外線画像の各画素の画素値を変換し、温度分布画像を生成する。これにより、路面全体の温度分布を算出することができる。例えば、B、Cを定数として、AをA=B×(t1−t2)/(p1−p2)により算出し、赤外線画像の画素値pをもとにt=p×A+Cにより変換して得た温度tから温度分布画像を生成してもよい。Aとtの算出式は、実施の態様によって任意に定めてよい。   Specifically, the temperature measurement unit 410 is a temperature sensor such as a thermocouple or a radiation thermometer, and is included in the range of the road surface (which is also an imaging target of the imaging unit 402) captured by the infrared image capturing unit 409. Measure the point temperature. First, the temperature distribution image generation unit 411 obtains pixel values corresponding to the two points in the infrared image captured by the infrared image capturing unit 409 (each pixel value of one pixel may be obtained, An average value of pixel values of pixels included in a small area near the pixel may be obtained). Then, based on the two temperatures (t1, t2) and the two pixel values (p1, p2), a value A for converting the pixel value of the infrared image into a temperature is calculated, and based on the value of A, The pixel value of each pixel of the infrared image captured by the infrared image capturing unit 409 is converted to generate a temperature distribution image. Thereby, the temperature distribution of the whole road surface is computable. For example, B and C are constants, A is calculated by A = B × (t1−t2) / (p1−p2), and converted by t = p × A + C based on the pixel value p of the infrared image. A temperature distribution image may be generated from the measured temperature t. The calculation formulas for A and t may be arbitrarily determined according to the embodiment.

路面状態判定部412は、図1の路面状態判定手段4にあたる。路面状態判定部412は、紫外線反射率算出部405、赤外線吸収率算出部408、温度分布画像生成部411から、紫外線反射率、赤外線吸収率、温度分布画像を入力され、それらの入力にもとづいて路面状態を判定する。第一または第二の実施形態と同様の方法で判定してもよく、その他の方法で判定してもよい。   The road surface state determination unit 412 corresponds to the road surface state determination unit 4 in FIG. The road surface condition determination unit 412 receives the ultraviolet reflectance, infrared absorption rate, and temperature distribution image from the ultraviolet reflectance calculation unit 405, the infrared absorption rate calculation unit 408, and the temperature distribution image generation unit 411, and based on these inputs. Determine the road surface condition. It may be determined by the same method as in the first or second embodiment, or may be determined by other methods.

路面状態画像生成部413は、第一および第二の実施形態と同様に路面状態画像を生成し、路面判定結果出力部414に出力する。
路面判定結果出力部414は、本実施形態においては、画像生成部403で生成されたG画像が可視光線画像として入力され、例えば、G画像(またはG画像をグレースケールに変換した画像)に、路面状態画像生成部413から入力された路面状態画像を合成して判定結果画像とし、出力する。
The road surface state image generation unit 413 generates a road surface state image as in the first and second embodiments, and outputs the road surface state image to the road surface determination result output unit 414.
In the present embodiment, the road surface determination result output unit 414 receives the G image generated by the image generation unit 403 as a visible light image, for example, a G image (or an image obtained by converting the G image into a gray scale). The road surface state image input from the road surface state image generation unit 413 is synthesized to be a determination result image and output.

なお、道路上の車両監視システムなど既存のシステムとカメラを共有することにより、第三の実施形態による路面状態判定装置は、低コストで実現することができる。もちろん、カメラだけでなく撮像した画像も既存のシステムと共有することができる。   In addition, by sharing a camera with an existing system such as a vehicle monitoring system on a road, the road surface state determination device according to the third embodiment can be realized at low cost. Of course, not only the camera but also the captured image can be shared with the existing system.

本発明による路面状態判定装置は、上記の実施形態に限られるものではなく、様々な変更を加えることが可能である。その主な変形例について、以下に具体的に説明する。
第一の実施形態において、紫外線カメラ撮像部101、可視光線カメラ撮像部106、赤外線カメラ撮像部109、赤外線サーモグラフィー撮像部113の視点位置の差を無視することができない場合、第二の実施形態における相対位置算出部312と類似の手段をさらに設けることとが望ましい。つまり、これら撮像部で撮像され、紫外線画像生成部102、可視光線画像生成部107、赤外線画像生成部110、温度分布画像生成部117において生成された各画像の相対位置情報を算出し、路面上の同じ1点が各画像のどの座標に相当するのかの対応をとるための手段を設け、該手段で算出した相対位置情報をも路面状態判定部114に与えることが望ましい。
The road surface condition determination apparatus according to the present invention is not limited to the above-described embodiment, and various changes can be made. The main modifications will be specifically described below.
In the first embodiment, when the difference in viewpoint position among the ultraviolet camera imaging unit 101, the visible light camera imaging unit 106, the infrared camera imaging unit 109, and the infrared thermography imaging unit 113 cannot be ignored, in the second embodiment It is desirable to further provide means similar to the relative position calculation unit 312. That is, the relative position information of each image captured by these imaging units and generated by the ultraviolet image generation unit 102, the visible light image generation unit 107, the infrared image generation unit 110, and the temperature distribution image generation unit 117 is calculated on the road surface. It is desirable to provide a means for taking correspondence to which coordinate of each image corresponds to the same point of the image, and to provide the road surface condition determination unit 114 with the relative position information calculated by the means.

同様に、第二、第三の実施形態においても、赤外線サーモグラフィー撮像部313や赤外線画像撮像部409と他の撮像部との視点位置の差を無視することができない場合、温度分布画像生成部318、411で生成された温度分布画像と他のR画像、G画像、B画像との相対位置情報を算出し、算出した相対位置情報をも路面状態判定部314、412に与えることが望ましい。   Similarly, also in the second and third embodiments, when the difference in viewpoint position between the infrared thermography imaging unit 313 or the infrared image imaging unit 409 and another imaging unit cannot be ignored, the temperature distribution image generation unit 318 is used. It is desirable to calculate relative position information of the temperature distribution image generated in 411 and other R image, G image, and B image, and to provide the calculated relative position information to the road surface state determination units 314 and 412 as well.

また、第一または第二の実施形態において路面・天空領域抽出部103、304と紫外線反射率算出部104、305からなる部分を、第三の実施形態における路面領域抽出部404、紫外線反射率算出部405と同様の構成に置き換えることができる。逆に、第三の実施形態における路面領域抽出部404と紫外線反射率算出部405を、第一または第二の実施形態と同様の構成に置き換えることもできる。   In the first or second embodiment, the road surface / sky region extraction units 103 and 304 and the ultraviolet reflectance calculation units 104 and 305 are replaced with the road surface region extraction unit 404 and the ultraviolet reflectance calculation in the third embodiment. A configuration similar to that of the unit 405 can be used. Conversely, the road surface area extraction unit 404 and the ultraviolet reflectance calculation unit 405 in the third embodiment can be replaced with the same configuration as in the first or second embodiment.

また、第一または第二の実施形態における路面領域抽出部108、111、310と赤外線吸収率算出部112、311からなる部分を、第三の実施形態における路面・天空領域抽出部406、赤外線吸収率算出部408と同様の構成に置き換えることができる。逆に、第三の実施形態における路面・天空領域抽出部406と赤外線吸収率算出部408を、第一または第二の実施形態と同様の構成に置き換えることもできる。   Further, the road surface area extraction units 108, 111, 310 and the infrared absorption rate calculation units 112, 311 in the first or second embodiment are used as the road surface / sky region extraction unit 406, infrared absorption in the third embodiment. A configuration similar to that of the rate calculation unit 408 can be used. Conversely, the road surface / sky region extraction unit 406 and the infrared absorption rate calculation unit 408 in the third embodiment can be replaced with the same configuration as in the first or second embodiment.

さらに、第一または第二の実施形態における赤外線サーモグラフィー撮像部113、313と温度分布画像生成部117、318からなる部分を、第三の実施形態における赤外線画像撮像部409、温度測定部410、温度分布画像生成部411と同様の構成に置き換えることができる。逆に第三の実施形態における赤外線画像撮像部409、温度測定部410、温度分布画像生成部411を、第一または第二の実施形態と同様の構成に置き換えることもできる。   Further, the infrared thermography imaging units 113 and 313 and the temperature distribution image generation units 117 and 318 in the first or second embodiment are replaced with the infrared image imaging unit 409, the temperature measurement unit 410, and the temperature in the third embodiment. A configuration similar to that of the distribution image generation unit 411 can be used. Conversely, the infrared image capturing unit 409, the temperature measurement unit 410, and the temperature distribution image generation unit 411 in the third embodiment can be replaced with the same configuration as in the first or second embodiment.

また、紫外線反射率算出部405ではB画像とG画像を用いて紫外線反射率を算出しているが、G画像のかわりにR画像を用いるようにしてもよい。その場合、路面領域抽出部404への入力も、B画像とG画像ではなく、B画像とR画像とする。   Further, although the ultraviolet reflectance calculation unit 405 calculates the ultraviolet reflectance using the B image and the G image, an R image may be used instead of the G image. In this case, the input to the road surface area extraction unit 404 is also a B image and an R image, not a B image and a G image.

また、赤外線吸収率算出部112、311において赤外線画像(R画像)と可視光線画像(G画像)を用いて赤外線吸収率算出部を算出しているが、可視光線画像のかわりに紫外線画像(B画像)を用いるようにしてもよい。その場合、路面領域抽出部108、310への入力も、可視光線画像のかわりに紫外線画像となる。   Further, the infrared absorption rate calculation units 112 and 311 calculate the infrared absorption rate calculation unit using the infrared image (R image) and the visible light image (G image). However, instead of the visible light image, an ultraviolet image (B Image) may be used. In that case, the input to the road surface region extraction units 108 and 310 is also an ultraviolet image instead of a visible light image.

上述の実施形態において、投光判定部105、306、407は、紫外線または赤外線の日射量にもとづく判定を行っているが、日の出・日の入りの時刻のデータなどにもとづいて判定してもよく、可視光線画像(または可視光線画像としてのG画像)の画素値から推定した日射量にもとづいて判定してもよい。例えば、第一の実施形態では投光判定部105が紫外線の日射量にもとづいた判定をしているが、これは、赤外線の日射量を考慮していないということではなく、「紫外線の日射量が少なければ太陽光全体の日射量も少なく、したがって赤外線の日射量も少ない」という前提にもとづき、簡単のため判定には紫外線の日射量のみを用いているにすぎない。赤外線の日射量など他の基準によって投光判定を行う場合も同様で、紫外線と赤外線の双方が十分な量、路面に当たっているかどうかが判定可能ならば、何にもとづいて判定するかは実施の態様に応じて適当に定めてよい。もちろん、投光判定部105、306、407において、紫外線と赤外線の双方の日射量に応じて判定してもよい。例えば、紫外線と赤外線それぞれに対して閾値を設定し、双方が閾値未満のときに照明装置から光を照射することとしてもよく、一方でも閾値未満になれば照明装置から光を照射することとしてもよい。また、照明装置から光を照射するか否かを判定するだけでなく、紫外線と赤外線の双方の日射量に応じて、照明装置から路面に照射する光量を調節するようにしてもよい。また、紫外線と赤外線の日射量は、天空領域の画素値にもとづいて算出しても、路面領域の画素値にもとづいて算出しても、双方の画素値にもとづいて算出してもよく、実施の態様に応じて適切に定めることができる。   In the above-described embodiment, the light projection determination units 105, 306, and 407 perform determination based on the amount of solar radiation of ultraviolet rays or infrared rays. However, the light projection determination units 105, 306, and 407 may perform determination based on sunrise / sunset time data and the like. You may determine based on the amount of solar radiation estimated from the pixel value of a light image (or G image as a visible light image). For example, in the first embodiment, the light projection determination unit 105 performs determination based on the amount of solar radiation of ultraviolet rays, but this does not mean that the amount of solar radiation of infrared rays is not taken into account. Based on the premise that the amount of solar radiation is small and therefore the amount of infrared solar radiation is small if there is little, only the ultraviolet radiation amount is used for the determination for the sake of simplicity. The same applies to the case where the projection is determined based on other criteria such as the amount of solar radiation of infrared rays, and if it is possible to determine whether both ultraviolet rays and infrared rays are hitting the road surface sufficiently, whether to determine based on what is the embodiment It may be determined appropriately according to the situation. Of course, in the light projection determination part 105,306,407, you may determine according to the solar radiation amount of both an ultraviolet-ray and infrared rays. For example, a threshold value may be set for each of ultraviolet rays and infrared rays, and light may be emitted from the lighting device when both are less than the threshold value. Good. In addition to determining whether to irradiate light from the illuminating device, the amount of light radiated from the illuminating device to the road surface may be adjusted according to the amount of both solar radiation and ultraviolet radiation. In addition, the amount of solar radiation for ultraviolet rays and infrared rays may be calculated based on the pixel values in the sky region, calculated based on the pixel values in the road surface region, or may be calculated based on both pixel values. It can be appropriately determined according to the mode.

また、投光判定部105、306、407の判定にもとづいて投光器などの照明装置から光を路面に照射されているときは、紫外線や赤外線の日射量が不十分なときである。よって、このときは、紫外線反射率算出部104、305や赤外線吸収率算出部408において、照射した光量と路面領域の画素値にもとづいて紫外線反射率や赤外線吸収率を算出するようにすることが好ましい。   In addition, when the road surface is irradiated with light from an illumination device such as a projector based on the determination of the light projection determination units 105, 306, and 407, the amount of solar radiation of ultraviolet rays and infrared rays is insufficient. Therefore, at this time, the ultraviolet reflectance calculation unit 104, 305 and the infrared absorption rate calculation unit 408 calculate the ultraviolet reflection rate and the infrared absorption rate based on the irradiated light amount and the pixel value of the road surface area. preferable.

なお、本発明の路面状態判定装置は、一つの筐体に収めた装置としてもよく、部分ごとに物理的に離して設置してもよい。例えば、路面状態判定装置全体を一つの筐体に収め、車載装置または路側設置用装置として実施してもよい。あるいは、各種の撮像部と画像生成部からなる部分を路側に設置し、残りの部分を道路管理事務所などに設置してもよい。具体的に第一の実施形態を例にして述べると、紫外線カメラ撮像部101、紫外線画像生成部102、可視光線カメラ撮像部106、可視光線画像生成部107、赤外線カメラ撮像部109、赤外線画像生成部110、赤外線サーモグラフィー撮像部113、温度分布画像生成部117からなる第一の部分を路側(第一の場所)に設置し、路面・天空領域抽出部103、紫外線反射率算出部104、投光判定部105、第一の路面領域抽出部108、第二の路面領域抽出部111、赤外線吸収率算出部112、路面状態判定部114、路面状態画像生成部115、路面判定結果出力部116からなる第二の部分を道路管理事務所など(第二の場所)に設置してもよい。この場合、第一の部分から画像データを第二の部分に送信する必要があるので、第一の部分は、有線または無線によるデータ送信手段をさらに備え、第二の部分は画像データを受信するためのデータ受信手段を備える。   In addition, the road surface state determination apparatus of the present invention may be an apparatus housed in one housing, or may be physically separated for each part. For example, the entire road surface state determination device may be housed in a single housing and implemented as an in-vehicle device or a roadside installation device. Or the part which consists of various imaging parts and an image generation part may be installed in the road side, and the remaining part may be installed in a road management office etc. Specifically, taking the first embodiment as an example, an ultraviolet camera imaging unit 101, an ultraviolet image generation unit 102, a visible light camera imaging unit 106, a visible light image generation unit 107, an infrared camera imaging unit 109, an infrared image generation The first portion including the unit 110, the infrared thermography imaging unit 113, and the temperature distribution image generation unit 117 is installed on the road side (first place), and the road surface / sky region extraction unit 103, the ultraviolet reflectance calculation unit 104, the light projection It comprises a determination unit 105, a first road surface region extraction unit 108, a second road surface region extraction unit 111, an infrared absorption rate calculation unit 112, a road surface state determination unit 114, a road surface state image generation unit 115, and a road surface determination result output unit 116. You may install a 2nd part in a road management office etc. (2nd place). In this case, since it is necessary to transmit the image data from the first part to the second part, the first part further includes a wired or wireless data transmission means, and the second part receives the image data. Data receiving means.

また、投光判定部105、306、407の判定結果にしたがって投光器などの照明装置を制御するために、必要に応じて通信手段を設けることとする。例えば、投光判定部が道路管理事務所にあって照明装置には街灯を用いる場合や、路面状態判定装置全体が車載装置として実施されており照明装置には車両のヘッドランプを用いる場合があるが、いずれにしろ、有線または無線による通信手段により、投光判定部105、306、407の判定結果が照明装置に送られて、照明装置を制御する。   Further, in order to control an illumination device such as a projector according to the determination results of the light projection determination units 105, 306, and 407, a communication unit is provided as necessary. For example, there is a case where the light projection determination unit is in a road management office and a streetlight is used as the lighting device, or the entire road surface state determination device is implemented as an in-vehicle device and the headlamp of the vehicle is used as the lighting device. However, in any case, the determination results of the light projection determination units 105, 306, and 407 are sent to the lighting device by wired or wireless communication means to control the lighting device.

上記の実施形態においては、路面状態の判定は、所定の分類項目(「乾燥」、「水膜」など)のいずれに該当するかという離散的な判定であったが、路面状態を連続的な数値によって表現してもよい。つまり、例えば第二の実施形態において、路面状態判定のためのニューラルネットワークからの出力値である数値を、「乾燥」などの離散的な分類項目に当てはめることによって路面状態を判定してもよく、連続値である数値をそのまま路面状態の判定結果として用いてもよい。その場合、路面が危険なほど数値が大きくなるように定めてもよく、該数値の大小に応じて路面状態画像の画素値を決めてもよい。   In the above-described embodiment, the determination of the road surface state is a discrete determination as to which of the predetermined classification items (“dry”, “water film”, etc.) corresponds, but the road surface state is continuously determined. It may be expressed by a numerical value. That is, for example, in the second embodiment, the road surface state may be determined by applying a numerical value that is an output value from the neural network for road surface state determination to a discrete classification item such as “dry”. You may use the numerical value which is a continuous value as a road surface state determination result as it is. In that case, it may be determined so that the numerical value increases as the road surface becomes dangerous, and the pixel value of the road surface state image may be determined according to the value.

以上に述べた変形例は、任意に組み合わせることができる。
(付記1)路面の状態を判定する路面状態判定装置であって、
紫外線と赤外線を含む光が当たっている前記路面を撮像した紫外線画像にもとづき前記路面における紫外線特徴量を算出する紫外線特徴量算出手段と、
前記光が当たっている前記路面を撮像した赤外線画像にもとづき前記路面における赤外線特徴量を算出する赤外線特徴量算出手段と、
算出した前記紫外線特徴量、前記赤外線特徴量、および前記路面の温度分布画像にもとづいて、前記路面の状態を判定する路面状態判定手段と、
を備えた路面状態判定装置。
(付記2)前記紫外線画像は天空と前記路面を含む画像であって、
前記紫外線特徴量算出手段は、該紫外線画像の天空領域に対応する天空画素値と路面領域に対応する路面画素値を算出し、前記天空画素値と前記路面画素値の比にもとづいて前記紫外線特徴量を算出する、
ことを特徴とする付記1に記載の路面状態判定装置。
(付記3)前記紫外線特徴量算出手段は、前記路面を撮像した可視光線画像を前記紫外線特徴量の算出に用い、前記可視光線画像の画素値と前記紫外線画像の画素値の比にもとづいて、前記紫外線特徴量を算出する、
ことを特徴とする付記1に記載の路面状態判定装置。
(付記4)前記紫外線特徴量算出手段は、前記赤外線画像の画素値と前記紫外線画像の画素値の比にもとづいて、前記紫外線特徴量を算出する、
ことを特徴とする付記1に記載の路面状態判定装置。
(付記5)前記赤外線画像は天空と前記路面を含む画像であって、
前記赤外線特徴量算出手段は、該赤外線画像の天空領域に対応する天空画素値と路面領域に対応する路面画素値を算出し、前記天空画素値と前記路面画素値の比にもとづいて前記赤外線特徴量を算出する、
ことを特徴とする付記1に記載の路面状態判定装置。
(付記6)前記赤外線特徴量算出手段は、前記路面を撮像した可視光線画像を前記赤外線特徴量の算出に用い、前記可視光線画像の画素値と前記赤外線画像の画素値の比にもとづいて、前記赤外線特徴量を算出する、
ことを特徴とする付記1に記載の路面状態判定装置。
(付記7)前記赤外線特徴量算出手段は、前記紫外線画像の画素値と前記赤外線画像の画素値の比にもとづいて、前前記赤外線特徴量を算出する、
ことを特徴とする付記1に記載の路面状態判定装置。
(付記8)可視光線の青波長領域を遮断する第一のフィルタと、
紫外線から赤外線までの波長感度を有し、該第一のフィルタを透過した光を、可視光線の赤波長領域および赤外線に対応するRと可視光線の緑波長領域に対応するGと可視光線の青波長領域および紫外線に対応するBの3つの成分に分解してそれぞれ受光し、カラー撮像する第一の撮像部と、
可視光線の赤波長領域を遮断する第二のフィルタと、
紫外線から赤外線までの波長感度を有し、該第二のフィルタを透過した光を、可視光線の赤波長領域および赤外線に対応するRと可視光線の緑波長領域に対応するGと可視光線の青波長領域および紫外線に対応するBの3つの成分に分解してそれぞれ受光し、カラー撮像する第二の撮像部と、をさらに備え、
前記路面を前記第一の撮像部で撮像して、前記3つの成分のうちBに対応して得られるB画素値にもとづいて、前記紫外線画像が生成され、
前記路面を前記第二の撮像部で撮像して、前記3つの成分のうちRに対応して得られるR画素値にもとづいて、前記赤外線画像が生成される、
ことを特徴とする付記1に記載の路面状態判定装置。
(付記9)可視光線の青波長領域と赤波長領域の光を遮断するフィルタと、
紫外線から赤外線までの波長感度を有し、該フィルタを透過した光を、可視光線の赤波長領域および赤外線に対応するRと可視光線の緑波長領域に対応するGと可視光線の青波長領域および紫外線に対応するBの3つの成分に分解してそれぞれ受光し、カラー撮像する撮像部と、をさらに備え、
前記路面を前記撮像部で撮像して、前記3つの成分のうちBおよびRにそれぞれ対応して得られるB画素値およびR画素値にもとづいて、それぞれ前記紫外線画像、前記赤外線画像が生成される、
ことを特徴とする付記1に記載の路面状態判定装置。
(付記10)前記温度分布画像を生成する温度分布画像生成手段をさらに備え、
該温度分布画像生成手段は、前記路面を撮像した赤外線画像と、該撮影された前記路面上の2箇所で測定された温度にもとづいて前記温度分布画像を生成する、
ことを特徴とする付記1に記載の路面状態判定装置。
(付記11)前記路面状態判定手段は、前記路面を1つ以上に分割した分割領域ごとに、該分割領域の路面状態が、予め定められた路面状態の分類項目のいずれに分類されるかを判定することを特徴とする付記1に記載の路面状態判定装置。
(付記12)前記路面状態判定手段は、前記路面を分割した分割領域ごとに該領域の路面状態を判定し、
前記路面状態判定装置はさらに、前記路面の状態を表現する路面状態画像を生成する路面状態画像生成手段を備え、
該路面状態画像生成手段は、前記路面状態画像上で各分割領域を表現する路面表現としての画像上の高さおよび/または色を各分割領域の前記路面状態に応じて決定し、前記分割領域ごとの前記路面表現と前記路面の可視光線画像にもとづいて、前記路面状態画像を生成する、
ことを特徴とする付記1に記載の路面状態判定装置。
(付記13)路面状態判定方法であって、
紫外線と赤外線を含む光が当たっている路面を撮像した紫外線画像にもとづき前記路面における紫外線特徴量を算出し、
前記光が当たっている前記路面を撮像した赤外線画像にもとづき前記路面における赤外線特徴量を算出し、
算出した前記紫外線特徴量、前記赤外線特徴量、および前記路面の温度分布画像にもとづいて、前記路面の状態を判定することを特徴とする路面状態判定方法。
The modifications described above can be arbitrarily combined.
(Supplementary note 1) A road surface state determination device for determining a road surface state,
Ultraviolet feature amount calculating means for calculating an ultraviolet feature amount on the road surface based on an ultraviolet image obtained by imaging the road surface on which light including ultraviolet rays and infrared rays hits;
An infrared feature amount calculating means for calculating an infrared feature amount on the road surface based on an infrared image obtained by imaging the road surface on which the light hits;
Road surface state determining means for determining the state of the road surface based on the calculated ultraviolet feature amount, the infrared feature amount, and the temperature distribution image of the road surface;
A road surface condition judging device.
(Appendix 2) The ultraviolet image is an image including the sky and the road surface,
The ultraviolet feature amount calculating means calculates a sky pixel value corresponding to the sky region of the ultraviolet image and a road surface pixel value corresponding to the road surface region, and the ultraviolet feature based on a ratio of the sky pixel value and the road surface pixel value. Calculate the quantity,
The road surface condition determination apparatus according to Supplementary Note 1, wherein
(Supplementary Note 3) The ultraviolet feature amount calculating means uses a visible light image obtained by imaging the road surface for the calculation of the ultraviolet feature amount, and based on a ratio between a pixel value of the visible light image and a pixel value of the ultraviolet image. Calculating the ultraviolet feature amount;
The road surface condition determination apparatus according to Supplementary Note 1, wherein
(Supplementary Note 4) The ultraviolet feature amount calculating means calculates the ultraviolet feature amount based on a ratio between a pixel value of the infrared image and a pixel value of the ultraviolet image.
The road surface condition determination apparatus according to Supplementary Note 1, wherein
(Appendix 5) The infrared image is an image including the sky and the road surface,
The infrared feature amount calculating means calculates a sky pixel value corresponding to the sky region of the infrared image and a road surface pixel value corresponding to the road surface region, and the infrared feature based on a ratio of the sky pixel value and the road surface pixel value. Calculate the quantity,
The road surface condition determination apparatus according to Supplementary Note 1, wherein
(Appendix 6) The infrared feature amount calculating means uses a visible light image obtained by imaging the road surface for the calculation of the infrared feature amount, and based on a ratio between a pixel value of the visible light image and a pixel value of the infrared image. Calculating the infrared feature amount;
The road surface condition determination apparatus according to Supplementary Note 1, wherein
(Additional remark 7) The said infrared feature-value calculation means calculates the said infrared feature-value before based on ratio of the pixel value of the said ultraviolet image, and the pixel value of the said infrared image,
The road surface condition determination apparatus according to Supplementary Note 1, wherein
(Appendix 8) a first filter that blocks a blue wavelength region of visible light;
Light having a wavelength sensitivity from ultraviolet to infrared and having passed through the first filter is converted into R corresponding to the red wavelength region of visible light and G corresponding to the green wavelength region of visible light and blue of visible light. A first imaging unit that decomposes the light into three components of B corresponding to the wavelength region and ultraviolet rays, respectively receives light, and performs color imaging;
A second filter that blocks the red wavelength region of visible light;
Light having a wavelength sensitivity from ultraviolet to infrared and passing through the second filter is converted into R corresponding to the red wavelength region of visible light and G corresponding to the green wavelength region of visible light and blue of visible light. A second imaging unit that decomposes the light into three components of B corresponding to the wavelength region and ultraviolet rays, receives each of the components, and performs color imaging;
The road surface is imaged by the first imaging unit, and the ultraviolet image is generated based on a B pixel value obtained corresponding to B among the three components,
The infrared image is generated based on an R pixel value obtained by imaging the road surface with the second imaging unit and corresponding to R among the three components.
The road surface condition determination apparatus according to Supplementary Note 1, wherein
(Supplementary note 9) a filter that blocks light in the blue wavelength region and the red wavelength region of visible light;
Light having a wavelength sensitivity from ultraviolet rays to infrared rays, and the light transmitted through the filter is divided into a red wavelength region of visible light, R corresponding to infrared light, G corresponding to a green wavelength region of visible light, and a blue wavelength region of visible light, and An image pickup unit that decomposes the light into three components of B corresponding to ultraviolet rays, receives the light separately, and performs color image pickup;
The road surface is imaged by the imaging unit, and the ultraviolet image and the infrared image are generated based on the B pixel value and the R pixel value obtained respectively corresponding to B and R among the three components. ,
The road surface condition determination apparatus according to Supplementary Note 1, wherein
(Additional remark 10) It further has a temperature distribution image generation means for generating the temperature distribution image,
The temperature distribution image generation means generates the temperature distribution image based on an infrared image obtained by imaging the road surface and temperatures measured at two locations on the photographed road surface.
The road surface condition determination apparatus according to Supplementary Note 1, wherein
(Supplementary Note 11) For each divided region obtained by dividing the road surface into one or more, the road surface state determination means determines which of the predetermined road surface state classification items the road surface state of the divided region is classified into. The road surface condition determination device according to appendix 1, wherein the determination is performed.
(Additional remark 12) The said road surface state determination means determines the road surface state of this area | region for every division area which divided | segmented the said road surface,
The road surface state determination device further includes road surface state image generation means for generating a road surface state image representing the state of the road surface,
The road surface state image generating means determines a height and / or color on the image as a road surface expression representing each divided region on the road surface state image according to the road surface state of each divided region, and the divided region Generating the road surface state image based on the road surface representation and the visible light image of the road surface,
The road surface condition determination apparatus according to Supplementary Note 1, wherein
(Supplementary note 13) A road surface condition determination method,
Calculate the ultraviolet feature amount on the road surface based on the ultraviolet image obtained by imaging the road surface where light including ultraviolet rays and infrared rays hits,
Calculating an infrared feature amount on the road surface based on an infrared image obtained by imaging the road surface on which the light hits;
A road surface state determination method, wherein the road surface state is determined based on the calculated ultraviolet feature amount, the infrared feature amount, and a temperature distribution image of the road surface.

本発明の原理を示す図である。It is a figure which shows the principle of this invention. 第一の実施形態による路面状態判定装置の機能ブロック図である。It is a functional block diagram of a road surface condition judging device by a first embodiment. 路面状態の判定条件の例を示す図である。It is a figure which shows the example of the determination conditions of a road surface state. 路面状態判定結果画像の例を示す図である。It is a figure which shows the example of a road surface state determination result image. 第二の実施形態による路面状態判定装置の機能ブロック図である。It is a functional block diagram of the road surface condition determination apparatus by 2nd embodiment. ステレオカラーカメラを用いて赤外線画像および紫外線画像を生成する原理を説明する図である。It is a figure explaining the principle which produces | generates an infrared image and an ultraviolet-ray image using a stereo color camera. 画像の画素配置構成の例を示す図である。It is a figure which shows the example of the pixel arrangement configuration of an image. ニューラルネットワークの構成例を示す図である。It is a figure which shows the structural example of a neural network. 第三の実施形態による路面状態判定装置の機能ブロック図である。It is a functional block diagram of the road surface condition determination apparatus by 3rd embodiment. トリプルバンドパスフィルタを用いて赤外線画像および紫外線画像を生成する原理を説明する図である。It is a figure explaining the principle which produces | generates an infrared image and an ultraviolet-ray image using a triple band pass filter.

符号の説明Explanation of symbols

1 路面状態判定装置
2 紫外線特徴量算出手段
3 赤外線特徴量算出手段
4 路面状態判定手段
101 紫外線カメラ撮像部
102 紫外線画像生成部
103 路面・天空領域抽出部
104 紫外線反射率算出部
105 投光判定部
106 可視光線カメラ撮像部
107 可視光線画像生成部
108 第一の路面領域抽出部
109 赤外線カメラ撮像部
110 赤外線画像生成部
111 第二の路面領域抽出部
112 赤外線吸収率算出部
113 赤外線サーモグラフィー撮像部
114 路面状態判定部
115 路面状態画像生成部
116 路面判定結果出力部
117 温度分布画像生成部
301 青波長領域カット部
302 第一の撮像部
303 第一の画像生成部
304 路面・天空領域抽出部
305 紫外線反射率算出部
306 投光判定部
307 赤波長領域カット部
308 第二の撮像部
309 第二の画像生成部
310 路面領域抽出部
311 赤外線吸収率算出部
312 相対位置算出部
313 赤外線サーモグラフィー撮像部
314 路面状態判定部
315 路面状態画像生成部
316 カラー画像合成部
317 路面判定結果出力部
318 温度分布画像生成部
401 青波長領域・赤波長領域カット部
402 撮像部
403 画像生成部
404 路面領域抽出部
405 紫外線反射率算出部
406 路面・天空領域抽出部
407 投光判定部
408 赤外線吸収率算出部
409 赤外線画像撮像部
410 温度測定部
411 温度分布画像生成部
412 路面状態判定部
413 路面状態画像生成部
414 路面判定結果出力部
501 入力層
502 中間層
503 出力層
DESCRIPTION OF SYMBOLS 1 Road surface state determination apparatus 2 Ultraviolet feature amount calculation means 3 Infrared feature amount calculation means 4 Road surface state determination means 101 Ultraviolet camera imaging part 102 Ultraviolet image generation part 103 Road surface and sky area extraction part 104 Ultraviolet reflectance calculation part 105 Light projection determination part DESCRIPTION OF SYMBOLS 106 Visible light camera imaging part 107 Visible light image generation part 108 1st road surface area extraction part 109 Infrared camera imaging part 110 Infrared image generation part 111 2nd road surface area extraction part 112 Infrared absorptance calculation part 113 Infrared thermography imaging part 114 Road surface state determination unit 115 Road surface state image generation unit 116 Road surface determination result output unit 117 Temperature distribution image generation unit 301 Blue wavelength region cut unit 302 First imaging unit 303 First image generation unit 304 Road surface / sky region extraction unit 305 Ultraviolet light Reflectance calculation unit 306 Light projection determination unit 307 Red wave Long region cut unit 308 Second imaging unit 309 Second image generation unit 310 Road surface region extraction unit 311 Infrared absorption rate calculation unit 312 Relative position calculation unit 313 Infrared thermography imaging unit 314 Road surface state determination unit 315 Road surface state image generation unit 316 Color image composition unit 317 Road surface determination result output unit 318 Temperature distribution image generation unit 401 Blue wavelength region / red wavelength region cut unit 402 Imaging unit 403 Image generation unit 404 Road surface region extraction unit 405 Ultraviolet reflectance calculation unit 406 Road surface / sky region extraction Unit 407 light projection determination unit 408 infrared absorption rate calculation unit 409 infrared image imaging unit 410 temperature measurement unit 411 temperature distribution image generation unit 412 road surface state determination unit 413 road surface state image generation unit 414 road surface determination result output unit 501 input layer 502 intermediate layer 503 Output layer

Claims (5)

路面の状態を判定する路面状態判定装置であって、
紫外線と赤外線を含む光が当たっている前記路面を撮像した紫外線画像にもとづき前記路面における紫外線特徴量を算出する紫外線特徴量算出手段と、
前記光が当たっている前記路面を撮像した赤外線画像にもとづき前記路面における赤外線特徴量を算出する赤外線特徴量算出手段と、
算出した前記紫外線特徴量、前記赤外線特徴量、および前記路面の温度分布画像にもとづいて、前記路面の状態を判定する路面状態判定手段と、
を備えた路面状態判定装置。
A road surface state determination device for determining a road surface state,
Ultraviolet feature amount calculating means for calculating an ultraviolet feature amount on the road surface based on an ultraviolet image obtained by imaging the road surface on which light including ultraviolet rays and infrared rays hits;
An infrared feature amount calculating means for calculating an infrared feature amount on the road surface based on an infrared image obtained by imaging the road surface on which the light hits;
Road surface state determining means for determining the state of the road surface based on the calculated ultraviolet feature amount, the infrared feature amount, and the temperature distribution image of the road surface;
A road surface condition judging device.
前記紫外線画像は天空と前記路面を含む画像であって、
前記紫外線特徴量算出手段は、該紫外線画像の天空領域に対応する天空画素値と路面領域に対応する路面画素値を算出し、前記天空画素値と前記路面画素値の比にもとづいて前記紫外線特徴量を算出する、
ことを特徴とする請求項1に記載の路面状態判定装置。
The ultraviolet image is an image including the sky and the road surface,
The ultraviolet feature amount calculating means calculates a sky pixel value corresponding to the sky region of the ultraviolet image and a road surface pixel value corresponding to the road surface region, and the ultraviolet feature based on a ratio of the sky pixel value and the road surface pixel value. Calculate the quantity,
The road surface state determination apparatus according to claim 1.
前記赤外線特徴量算出手段は、前記路面を撮像した可視光線画像を前記赤外線特徴量の算出に用い、前記可視光線画像の画素値と前記赤外線画像の画素値の比にもとづいて、前記赤外線特徴量を算出する、
ことを特徴とする請求項1に記載の路面状態判定装置。
The infrared feature amount calculation means uses a visible light image obtained by imaging the road surface for the calculation of the infrared feature amount, and the infrared feature amount based on a ratio of a pixel value of the visible light image and a pixel value of the infrared image. To calculate,
The road surface state determination apparatus according to claim 1.
前記温度分布画像を生成する温度分布画像生成手段をさらに備え、
該温度分布画像生成手段は、前記路面を撮像した赤外線画像と、該撮影された前記路面上の2箇所で測定された温度にもとづいて前記温度分布画像を生成する、
ことを特徴とする請求項1に記載の路面状態判定装置。
A temperature distribution image generating means for generating the temperature distribution image;
The temperature distribution image generation means generates the temperature distribution image based on an infrared image obtained by imaging the road surface and temperatures measured at two locations on the photographed road surface.
The road surface state determination apparatus according to claim 1.
路面状態判定方法であって、
紫外線と赤外線を含む光が当たっている路面を撮像した紫外線画像にもとづき前記路面における紫外線特徴量を算出し、
前記光が当たっている前記路面を撮像した赤外線画像にもとづき前記路面における赤外線特徴量を算出し、
算出した前記紫外線特徴量、前記赤外線特徴量、および前記路面の温度分布画像にもとづいて、前記路面の状態を判定することを特徴とする路面状態判定方法。
A road surface condition determination method,
Calculate the ultraviolet feature amount on the road surface based on the ultraviolet image obtained by imaging the road surface where light including ultraviolet rays and infrared rays hits,
Calculating an infrared feature amount on the road surface based on an infrared image obtained by imaging the road surface on which the light hits;
A road surface state determination method, wherein the road surface state is determined based on the calculated ultraviolet feature amount, the infrared feature amount, and a temperature distribution image of the road surface.
JP2006056879A 2006-03-02 2006-03-02 Road surface state determination device and road surface state determination method Expired - Fee Related JP4814655B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006056879A JP4814655B2 (en) 2006-03-02 2006-03-02 Road surface state determination device and road surface state determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006056879A JP4814655B2 (en) 2006-03-02 2006-03-02 Road surface state determination device and road surface state determination method

Publications (2)

Publication Number Publication Date
JP2007232652A true JP2007232652A (en) 2007-09-13
JP4814655B2 JP4814655B2 (en) 2011-11-16

Family

ID=38553360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006056879A Expired - Fee Related JP4814655B2 (en) 2006-03-02 2006-03-02 Road surface state determination device and road surface state determination method

Country Status (1)

Country Link
JP (1) JP4814655B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011252746A (en) * 2010-06-01 2011-12-15 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for detecting cable position
WO2012073722A1 (en) * 2010-12-01 2012-06-07 コニカミノルタホールディングス株式会社 Image synthesis device
JP2012177675A (en) * 2011-02-25 2012-09-13 Guangzhou Sat Infrared Technology Co Ltd Road surface defect detection system and method
JP2013030183A (en) * 2012-09-28 2013-02-07 Toyota Central R&D Labs Inc Environment recognition device, and program
WO2012170953A3 (en) * 2011-06-10 2013-09-12 Flir Systems, Inc. Systems and methods for intelligent monitoring of thoroughfares using thermal imaging
KR101404430B1 (en) * 2013-06-11 2014-06-10 서울시립대학교 산학협력단 Method for estimation of surface temperature lapse rate Using thermal infrared images
CN104318793A (en) * 2014-10-21 2015-01-28 中山大学 Road water immersion event emergency dredging flow distribution generation method
WO2015034844A1 (en) * 2013-09-03 2015-03-12 Flir Systems, Inc. Infrared-based ice formation detection systems and methods
JP2018017102A (en) * 2016-07-29 2018-02-01 エヌ・ティ・ティ・コムウェア株式会社 Information processing apparatus, information processing method, and program
JP2018017103A (en) * 2016-07-29 2018-02-01 エヌ・ティ・ティ・コムウェア株式会社 Information processing apparatus, information processing method, and program
JP2018017101A (en) * 2016-07-29 2018-02-01 エヌ・ティ・ティ・コムウェア株式会社 Information processing apparatus, information processing method, and program
JP2018066136A (en) * 2016-10-18 2018-04-26 北海道瓦斯株式会社 Snow melting controller, neural network learning method, snow melting control method, and snow melting control program
WO2019111366A1 (en) 2017-12-07 2019-06-13 日産自動車株式会社 Road condition determination method and road condition determination device
WO2020022473A1 (en) * 2018-07-26 2020-01-30 国立大学法人 東京大学 Measurement device, measurement system, measurement program, and measurement method
JP2020197390A (en) * 2019-05-31 2020-12-10 パナソニックIpマネジメント株式会社 Road surface condition estimation device, processing apparatus, and road surface condition estimation system
KR20220124641A (en) * 2021-03-03 2022-09-14 김정국 Road condition detection method and apparatus
CN115098827A (en) * 2022-08-26 2022-09-23 西安电子科技大学 Infrared scene numerical value calculation method in snow accumulation environment
KR20220146031A (en) * 2021-04-23 2022-11-01 재단법인대구경북과학기술원 Electronic device for detecting black ice and controlling method thereof
WO2022249516A1 (en) * 2021-05-26 2022-12-01 株式会社ブリヂストン Road surface state determination device, road surface state determination system, vehicle, road surface state determination method, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111051855B (en) 2017-08-29 2022-08-02 松下知识产权经营株式会社 Water content sensor and road surface state detection device
KR102388804B1 (en) 2020-10-20 2022-04-21 한국건설기술연구원 System for classifying rod surface condition using spectrum data and road surface temperature data, and method for the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01110237A (en) * 1987-10-23 1989-04-26 Suzuki Motor Co Ltd Road surface condition detector
JPH08263784A (en) * 1995-03-23 1996-10-11 Honda Motor Co Ltd Road condition recognizing device
JP2000019259A (en) * 1998-06-30 2000-01-21 Mazda Motor Corp Environmental recognition device
JP2001349786A (en) * 2000-06-06 2001-12-21 Denso Corp Calibration method for non-contact temperature sensor
JP2003240518A (en) * 2002-02-13 2003-08-27 Kawasaki Heavy Ind Ltd Method, system and apparatus for inspection of earth surface state

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01110237A (en) * 1987-10-23 1989-04-26 Suzuki Motor Co Ltd Road surface condition detector
JPH08263784A (en) * 1995-03-23 1996-10-11 Honda Motor Co Ltd Road condition recognizing device
JP2000019259A (en) * 1998-06-30 2000-01-21 Mazda Motor Corp Environmental recognition device
JP2001349786A (en) * 2000-06-06 2001-12-21 Denso Corp Calibration method for non-contact temperature sensor
JP2003240518A (en) * 2002-02-13 2003-08-27 Kawasaki Heavy Ind Ltd Method, system and apparatus for inspection of earth surface state

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
田渕透 外: "道路面状態監視アルゴリズム", 映像情報メディア学会技術報告, vol. 28, no. 10, JPN6010061247, 13 February 2004 (2004-02-13), pages 35 - 44, ISSN: 0001758823 *

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011252746A (en) * 2010-06-01 2011-12-15 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for detecting cable position
JP5783471B2 (en) * 2010-12-01 2015-09-24 コニカミノルタ株式会社 Image synthesizer
WO2012073722A1 (en) * 2010-12-01 2012-06-07 コニカミノルタホールディングス株式会社 Image synthesis device
JP2012177675A (en) * 2011-02-25 2012-09-13 Guangzhou Sat Infrared Technology Co Ltd Road surface defect detection system and method
WO2012170953A3 (en) * 2011-06-10 2013-09-12 Flir Systems, Inc. Systems and methods for intelligent monitoring of thoroughfares using thermal imaging
JP2013030183A (en) * 2012-09-28 2013-02-07 Toyota Central R&D Labs Inc Environment recognition device, and program
KR101404430B1 (en) * 2013-06-11 2014-06-10 서울시립대학교 산학협력단 Method for estimation of surface temperature lapse rate Using thermal infrared images
WO2014200258A1 (en) * 2013-06-11 2014-12-18 서울시립대학교 산학협력단 Method for estimating surface lapse rate using infrared image
US10337925B2 (en) 2013-06-11 2019-07-02 University of Seoul Cooperation Foundation Method for estimating land surface temperature lapse rate using infrared image
WO2015034844A1 (en) * 2013-09-03 2015-03-12 Flir Systems, Inc. Infrared-based ice formation detection systems and methods
US10018609B2 (en) 2013-09-03 2018-07-10 Flir Systems, Inc. Infrared-based ice formation detection systems and methods
CN104318793B (en) * 2014-10-21 2016-08-24 中山大学 A kind of road water logging event is promptly dredged and is joined stream generating method
CN104318793A (en) * 2014-10-21 2015-01-28 中山大学 Road water immersion event emergency dredging flow distribution generation method
JP2018017102A (en) * 2016-07-29 2018-02-01 エヌ・ティ・ティ・コムウェア株式会社 Information processing apparatus, information processing method, and program
JP2018017103A (en) * 2016-07-29 2018-02-01 エヌ・ティ・ティ・コムウェア株式会社 Information processing apparatus, information processing method, and program
JP2018017101A (en) * 2016-07-29 2018-02-01 エヌ・ティ・ティ・コムウェア株式会社 Information processing apparatus, information processing method, and program
JP2018066136A (en) * 2016-10-18 2018-04-26 北海道瓦斯株式会社 Snow melting controller, neural network learning method, snow melting control method, and snow melting control program
WO2019111366A1 (en) 2017-12-07 2019-06-13 日産自動車株式会社 Road condition determination method and road condition determination device
CN111433100A (en) * 2017-12-07 2020-07-17 日产自动车株式会社 Road surface state determination method and road surface state determination device
JPWO2019111366A1 (en) * 2017-12-07 2020-09-03 日産自動車株式会社 Road surface condition determination method and road surface condition determination device
US11364915B2 (en) 2017-12-07 2022-06-21 Nissan Motor Co., Ltd. Road condition determination method and road condition determination device
JPWO2020022473A1 (en) * 2018-07-26 2021-08-02 国立大学法人 東京大学 Measuring devices, measuring systems, measuring programs, and measuring methods.
WO2020022473A1 (en) * 2018-07-26 2020-01-30 国立大学法人 東京大学 Measurement device, measurement system, measurement program, and measurement method
US11874225B2 (en) 2018-07-26 2024-01-16 The University Of Tokyo Measurement device, measurement system, measurement program, and measurement method
JP7266192B2 (en) 2019-05-31 2023-04-28 パナソニックIpマネジメント株式会社 Road surface condition estimation device, processing equipment and road surface condition estimation system
JP2020197390A (en) * 2019-05-31 2020-12-10 パナソニックIpマネジメント株式会社 Road surface condition estimation device, processing apparatus, and road surface condition estimation system
KR20220124641A (en) * 2021-03-03 2022-09-14 김정국 Road condition detection method and apparatus
KR102623125B1 (en) 2021-03-03 2024-01-12 주식회사 퓨처이노 Road condition detection method and apparatus
KR102485492B1 (en) * 2021-04-23 2023-01-06 재단법인대구경북과학기술원 Electronic device for detecting black ice and controlling method thereof
KR20220146031A (en) * 2021-04-23 2022-11-01 재단법인대구경북과학기술원 Electronic device for detecting black ice and controlling method thereof
WO2022249516A1 (en) * 2021-05-26 2022-12-01 株式会社ブリヂストン Road surface state determination device, road surface state determination system, vehicle, road surface state determination method, and program
CN115098827B (en) * 2022-08-26 2022-11-08 西安电子科技大学 Infrared scene numerical value calculation method under snow accumulation environment
CN115098827A (en) * 2022-08-26 2022-09-23 西安电子科技大学 Infrared scene numerical value calculation method in snow accumulation environment

Also Published As

Publication number Publication date
JP4814655B2 (en) 2011-11-16

Similar Documents

Publication Publication Date Title
JP4814655B2 (en) Road surface state determination device and road surface state determination method
US8294794B2 (en) Shadow removal in an image captured by a vehicle-based camera for clear path detection
KR102061445B1 (en) Method and apparatus for object recognition based on visible light and infrared fusion image
US8319854B2 (en) Shadow removal in an image captured by a vehicle based camera using a non-linear illumination-invariant kernel
Gallen et al. Nighttime visibility analysis and estimation method in the presence of dense fog
Kwon Atmospheric visibility measurements using video cameras: Relative visibility
US8345100B2 (en) Shadow removal in an image captured by a vehicle-based camera using an optimized oriented linear axis
US10872419B2 (en) Method and apparatus for evaluating a vehicle travel surface
CN105424655A (en) Visibility detection method based on video images
CN106461762A (en) Object detection system and method
BRPI1107116A2 (en) determining a total number of people in an image go obtained through an image go system
KR20170064247A (en) System for detecting road surface condition automatically using auxiliary lighting apparatus, and vehicle having the same
JP2006308514A (en) Image processing type snow cover sensor on road surface and snow cover detecting method
Hautière et al. Estimation of the visibility distance by stereovision: A generic approach
Morris et al. A machine learning model pipeline for detecting wet pavement condition from live scenes of traffic cameras
CN103149603A (en) Road weather detection method based on video
JP2015187832A (en) Image processor, mobile body equipment control system, and image processor program
KR102261164B1 (en) AI Display-Board System using Road-Ice Determination Algorithm
Carretas et al. Atmospheric visibility and Angström exponent measurements through digital photography
Hautière et al. Experimental validation of dedicated methods to in-vehicle estimation of atmospheric visibility distance
KR20220153247A (en) System for monitoring black ice
Wang et al. All weather road edge identification based on driving video mining
JP2007235760A (en) Ultraviolet image, imaging apparatus for imaging ultraviolet image, and imaging method
JP3612565B2 (en) Road surface condition judgment method
Hautière et al. Daytime visibility range monitoring through use of a roadside camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110826

R150 Certificate of patent or registration of utility model

Ref document number: 4814655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees