JP6901647B1 - Visibility estimation device, visibility estimation method, and recording medium - Google Patents

Visibility estimation device, visibility estimation method, and recording medium Download PDF

Info

Publication number
JP6901647B1
JP6901647B1 JP2021513357A JP2021513357A JP6901647B1 JP 6901647 B1 JP6901647 B1 JP 6901647B1 JP 2021513357 A JP2021513357 A JP 2021513357A JP 2021513357 A JP2021513357 A JP 2021513357A JP 6901647 B1 JP6901647 B1 JP 6901647B1
Authority
JP
Japan
Prior art keywords
image
visibility
depth direction
light attenuation
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021513357A
Other languages
Japanese (ja)
Other versions
JPWO2021053789A1 (en
Inventor
英朋 境野
英朋 境野
グォドン ドゥ
グォドン ドゥ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WEATHERNEWS INC.
Original Assignee
WEATHERNEWS INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WEATHERNEWS INC. filed Critical WEATHERNEWS INC.
Application granted granted Critical
Publication of JP6901647B1 publication Critical patent/JP6901647B1/en
Publication of JPWO2021053789A1 publication Critical patent/JPWO2021053789A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders

Abstract

特別の測定装置が不要で視程を推定できる視程推定装置等を提供する。撮影手段Cにより屋外を撮影した画像を取得し(S1)、画像から環境光および光の透過マップを推定し、環境光および光の透過マップに基づき、画像を鮮鋭化した鮮鋭化画像を生成し(S2)、鮮鋭化画像から物体を認識して、当該認識された物体の実スケールに関する情報に基づき、当該物体の画素スケールを当該物体の物理的スケールに換算し(S5)、物体の物理的スケールの奥行き方向の成分から物体の奥行き方向距離を計算し(S6)、透過マップと撮影手段からの距離との関係式を画像に適用して、大気の光減衰パラメータを計算し(S8、S20)、計算された光減衰パラメータを当てはめた関係式に基づき、奥行き方向距離から、視程を計算する(S8、S21)。Provided is a visibility estimation device and the like capable of estimating visibility without the need for a special measuring device. An image of the outdoors taken by the photographing means C is acquired (S1), an ambient light and light transmission map is estimated from the image, and a sharpened image obtained by sharpening the image is generated based on the ambient light and light transmission map. (S2), the object is recognized from the sharpened image, the pixel scale of the object is converted into the physical scale of the object based on the information about the actual scale of the recognized object (S5), and the physical of the object. The depth direction distance of the object is calculated from the depth direction component of the scale (S6), and the relational expression between the transmission map and the distance from the photographing means is applied to the image to calculate the light attenuation parameter of the atmosphere (S8, S20). ), The field of view is calculated from the depth direction distance based on the relational expression to which the calculated light attenuation parameters are applied (S8, S21).

Description

本発明は、画像処理による視程推定装置、視程推定方法、および、記録媒体に関する。 The present invention relates to a visibility estimation device by image processing, a visibility estimation method, and a recording medium.

霧、靄、雨、雪等による悪天候条件、曇、夜間での照度条件による視界不良が生じて、この視界不良を図る尺度として、視程が測定されている。例えば、特許文献1には、光源は近赤外線を測定対象空間に向けて照射し、分光カメラは偏光フィルタが装着され、測定対象空間の被測定物で偏光された近赤外線のうち、偏光フィルタの偏光角と同じ近赤外線を透過することで、当該被測定物の二次元画像を撮像し、画像解析装置で二次元画像情報に基づき測定対象空間の被測定物の異なる分光・偏光画像情報から相関等統計処理で高精度に測定対象空間の被測定物の種類を識別するとともに、量及び視程を算出する気象測定装置が開示されている。 Visibility is measured as a measure of poor visibility due to bad weather conditions such as fog, mist, rain, and snow, cloudy weather, and illuminance conditions at night. For example, in Patent Document 1, the light source irradiates near infrared rays toward the measurement target space, the spectroscopic camera is equipped with a polarizing filter, and among the near infrared rays polarized by the object to be measured in the measurement target space, the polarizing filter By transmitting near infrared rays that are the same as the polarization angle, a two-dimensional image of the object to be measured is imaged, and the image analyzer correlates with different spectral / polarized image information of the object to be measured in the measurement target space based on the two-dimensional image information. A meteorological measuring device that accurately identifies the type of the object to be measured in the measurement target space by equal statistical processing and calculates the amount and visibility is disclosed.

特開2012−86604号公報Japanese Unexamined Patent Publication No. 2012-86604

しかしながら、上記技術では、光源から近赤外線を照射し、その反射光により視程等を測定しているため、特別の測定装置が必要であり、特に多くの観測点に設置する場合、コストが増大していた。 However, in the above technology, near infrared rays are irradiated from a light source and the visibility is measured by the reflected light, so that a special measuring device is required, and the cost increases especially when it is installed at many observation points. Was there.

そこで、本発明は上記の問題点等に鑑みて為されたもので、その課題の一例は、特別の測定装置が不要で視程を推定できる視程推定装置等を提供することを目的とする。 Therefore, the present invention has been made in view of the above problems and the like, and an example of the problem is to provide a visibility estimation device and the like capable of estimating visibility without the need for a special measuring device.

上記の課題を解決するために、請求項1に記載の発明は、撮影手段により屋外を撮影した画像を取得する取得手段と、前記画像から環境光および光の透過マップを推定する推定手段と、前記環境光および前記透過マップに基づき、前記画像を鮮鋭化した鮮鋭化画像を生成する画像鮮鋭化手段と、前記鮮鋭化画像から物体を認識して、当該認識された物体の実スケールに関する情報に基づき、当該物体の画素スケールを当該物体の物理的スケールに換算する物体スケール換算手段と、前記物体の物理的スケールの奥行き方向の成分から前記物体の奥行き方向距離を計算する奥行方向距離計算手段と、前記透過マップと前記撮影手段からの距離との関係式を前記画像に適用して、光の減衰の程度を示す光減衰パラメータを計算する光減衰パラメータ計算手段と、前記計算された光減衰パラメータを当てはめた前記関係式に基づき、前記奥行き方向距離から、視程を計算する視程計算手段と、を備えたことを特徴とする。 In order to solve the above problems, the invention according to claim 1 comprises an acquisition means for acquiring an image of an outdoor photographed by a photographing means, an estimation means for estimating ambient light and a transmission map of light from the image, and an estimation means. Based on the ambient light and the transmission map, the image sharpening means for generating a sharpening image obtained by sharpening the image, and the information regarding the actual scale of the recognized object by recognizing the object from the sharpening image. Based on this, an object scale conversion means that converts the pixel scale of the object into the physical scale of the object, and a depth direction distance calculation means that calculates the depth direction distance of the object from the depth direction component of the physical scale of the object. The light attenuation parameter calculating means for calculating the light attenuation parameter indicating the degree of light attenuation by applying the relational expression between the transmission map and the distance from the photographing means to the image, and the calculated light attenuation parameter. Based on the relational expression to which the above is applied, it is characterized in that it is provided with a visibility calculation means for calculating the visibility from the distance in the depth direction.

また、請求項2に記載の発明は、請求項1に記載の視程推定装置において、前記画像において、前記奥行き方向距離を計算するための物体が認識できない場合、前記撮影手段の設置の高さおよび撮影方向から、前記画像における前記奥行き方向距離を計算することを特徴とする。 Further, according to the second aspect of the present invention, when the visibility estimation device according to the first aspect cannot recognize the object for calculating the depth direction distance in the image, the height of the installation of the photographing means and the height of the installation of the photographing means. It is characterized in that the distance in the depth direction in the image is calculated from the shooting direction.

また、請求項3に記載の発明は、請求項1または請求項2に記載の視程推定装置において、前記関係式が、指数関数の他に、正弦関数および余弦関数のうち少なくとも一方の関数の要素を含み、前記光減衰パラメータが、前記光減衰パラメータ計算手段により計算された、前記正弦関数および余弦関数のうち少なくとも一方の関数の要素に対するパラメータを含むことを特徴とする。 Further, according to the invention of claim 3, in the vision estimation device according to claim 1 or 2, the relational expression is an element of at least one of a sine function and a cosine function in addition to the exponential function. The light attenuation parameter includes a parameter for an element of at least one of the sine function and the cosine function calculated by the light attenuation parameter calculation means.

また、請求項4に記載の発明は、請求項1から請求項3のいずれか1項に記載の視程推定装置において、前記視程計算手段が、前記計算された光減衰パラメータを当てはめた前記関係式に基づく光透過の値であって、所定の前記画像の領域における前記光透過の値と、前記奥行き方向距離から、視程を算出することを特徴とする。 Further, in the invention according to claim 4, in the visibility estimation device according to any one of claims 1 to 3, the visibility calculation means applies the calculated light attenuation parameter to the relational expression. It is a value of light transmission based on the above, and is characterized in that the visibility is calculated from the value of light transmission in a predetermined region of the image and the distance in the depth direction.

また、請求項5に記載の発明は、請求項1から請求項4のいずれか1項に記載の視程推定装置において、前記視程計算手段が、前記計算された光減衰パラメータを当てはめた前記関係式に基づく光透過の値が所定値になる前記視程を計算することを特徴とする。 Further, in the invention according to claim 5, in the visibility estimation device according to any one of claims 1 to 4, the visibility calculation means applies the calculated light attenuation parameter to the relational expression. It is characterized in that the visibility at which the value of light transmission based on the above becomes a predetermined value is calculated.

また、請求項6に記載の発明は、請求項1から請求項5のいずれか1項に記載の視程推定装置において、前記視程を視程レベルに変換する視程レベル手段を更に備えたことを特徴とする。 The invention according to claim 6 is characterized in that the visibility estimation device according to any one of claims 1 to 5 further includes a visibility level means for converting the visibility into a visibility level. To do.

また、請求項7に記載の発明は、取得手段が、撮影手段により屋外を撮影した画像を取得する取得ステップと、推定手段が、前記画像から環境光および光の透過マップを推定する推定ステップと、画像鮮鋭化手段が、前記環境光および前記透過マップに基づき、前記画像を鮮鋭化した鮮鋭化画像を生成する画像鮮鋭化ステップと、物体スケール換算手段が、前記鮮鋭化画像から物体を認識して、当該認識された物体の実スケールに関する情報に基づき、当該物体の画素スケールを当該物体の物理的スケールに換算する物体スケール換算ステップと、奥行方向距離計算手段が、前記物体の物理的スケールの奥行き方向の成分から前記物体の奥行き方向距離を計算する奥行方向距離計算ステップと、光減衰パラメータ計算手段が、前記透過マップと前記撮影手段からの距離との関係式を前記画像に適用して、光の減衰の程度を示す光減衰パラメータを計算する光減衰パラメータ計算ステップと、視程計算手段が、前記計算された光減衰パラメータを当てはめた前記関係式に基づき、前記奥行き方向距離から、視程を計算する視程計算ステップと、を含むことを特徴とする。 The invention according to claim 7 includes an acquisition step in which the acquisition means acquires an image of the outdoors photographed by the photographing means, and an estimation step in which the estimation means estimates ambient light and a transmission map of light from the image. An image sharpening step in which the image sharpening means generates a sharpening image obtained by sharpening the image based on the ambient light and the transmission map, and an object scale conversion means recognizes an object from the sharpening image. Then, based on the information about the actual scale of the recognized object, the object scale conversion step of converting the pixel scale of the object to the physical scale of the object and the depth direction distance calculation means are the physical scales of the object. The depth direction distance calculation step of calculating the depth direction distance of the object from the component in the depth direction and the light attenuation parameter calculation means apply the relational expression between the transmission map and the distance from the photographing means to the image. Based on the light attenuation parameter calculation step for calculating the light attenuation parameter indicating the degree of light attenuation and the relational expression to which the calculated light attenuation parameter is applied, the visibility calculation means calculates the visibility from the depth direction distance. It is characterized by including a visibility calculation step to be performed.

また、請求項8に記載の発明は、コンピュータを、撮影手段により屋外を撮影した画像を取得する取得手段、前記画像から環境光および光の透過マップを推定する推定手段、前記環境光および前記透過マップに基づき、前記画像を鮮鋭化した鮮鋭化画像を生成する画像鮮鋭化手段、前記鮮鋭化画像から物体を認識して、当該認識された物体の実スケールに関する情報に基づき、当該物体の画素スケールから当該物体の物理的スケールを換算する物体スケール換算手段、前記物体の物理的スケールの奥行き方向の成分から前記物体の奥行き方向距離を計算する物体奥行方向距離計算手段、前記透過マップと前記撮影手段からの距離との関係式を前記画像に適用して、光の減衰の程度を示す光減衰パラメータを計算する光減衰パラメータ計算手段、および、前記計算された光減衰パラメータを当てはめた前記関係式に基づき、前記奥行き方向距離から、視程を計算する視程計算手段として機能させることを特徴とする。 The invention according to claim 8 is an acquisition means for acquiring an image of an outdoor photographed by a computer, an estimation means for estimating an ambient light and a transmission map of light from the image, the ambient light and the transmission. An image sharpening means for generating a sharpened image obtained by sharpening the image based on a map, recognizing an object from the sharpened image, and based on information on the actual scale of the recognized object, the pixel scale of the object. Object scale conversion means for converting the physical scale of the object from, object depth direction distance calculation means for calculating the depth direction distance of the object from the depth direction component of the physical scale of the object, the transmission map and the photographing means. To the light attenuation parameter calculation means for calculating the light attenuation parameter indicating the degree of light attenuation by applying the relational expression with the distance from the image to the image, and the relational expression to which the calculated light attenuation parameter is applied. Based on this, it is characterized in that it functions as a visibility calculation means for calculating a visibility from the distance in the depth direction.

本発明によれば、撮影手段により屋外を撮影した画像を取得し、画像を鮮鋭化した鮮鋭化画像を生成し、鮮鋭化画像から物体を認識して、当該認識された物体の実スケールに関する情報に基づき、当該物体の画素スケールを当該物体の物理的スケールに換算し、物体の物理的スケールの奥行き方向の成分から奥行き方向距離を計算し、光の透過マップと撮影手段からの距離との関係式を画像に適用して、大気の光減衰パラメータを計算し、計算された光減衰パラメータを当てはめた関係式に基づき、奥行き方向距離から、視程を計算することにより、特別の測定装置が不要で、視程を推定できる。 According to the present invention, an image taken outdoors by a photographing means is acquired, a sharpened image is generated by sharpening the image, an object is recognized from the sharpened image, and information on the actual scale of the recognized object is obtained. Based on, the pixel scale of the object is converted into the physical scale of the object, the depth direction distance is calculated from the depth direction component of the physical scale of the object, and the relationship between the light transmission map and the distance from the photographing means. By applying the formula to the image, calculating the light attenuation parameter of the atmosphere, and calculating the visibility from the depth direction distance based on the relational expression to which the calculated light attenuation parameter is applied, no special measuring device is required. , The visibility can be estimated.

本発明の実施形態に係る視程推定システムの概要構成例を示す模式図である。It is a schematic diagram which shows the outline structure example of the visibility estimation system which concerns on embodiment of this invention. 図1の情報処理サーバ装置の概要構成例を示すブロック図である。It is a block diagram which shows the outline configuration example of the information processing server apparatus of FIG. 図2の情報処理サーバ装置の画像データベースに記憶されたデータの一例を示す模式図である。It is a schematic diagram which shows an example of the data stored in the image database of the information processing server apparatus of FIG. 図2の情報処理サーバ装置の物体データベースに記憶されたデータの一例を示す模式図である。It is a schematic diagram which shows an example of the data stored in the object database of the information processing server apparatus of FIG. 図2の情報処理サーバ装置のカメラ情報データベースに記憶されたデータの一例を示す模式図である。It is a schematic diagram which shows an example of the data stored in the camera information database of the information processing server apparatus of FIG. 図1の端末装置の概要構成例を示すブロック図である。It is a block diagram which shows the outline configuration example of the terminal apparatus of FIG. 視程を計算する画像処理の一例を示すフローチャートである。It is a flowchart which shows an example of the image processing which calculates the visibility. カメラが撮影した画像の一例を示す模式図である。It is a schematic diagram which shows an example of the image taken by a camera. 物体の部分画像領域の一例を示す模式図である。It is a schematic diagram which shows an example of the partial image area of an object. 物体の部分画像領域の一例を示す模式図である。It is a schematic diagram which shows an example of the partial image area of an object. 物体の部分画像領域の一例を示す模式図である。It is a schematic diagram which shows an example of the partial image area of an object. カメラが撮影した画像の一例を示す模式図である。It is a schematic diagram which shows an example of the image taken by a camera. 奥行き方向距離の一例を示す模式図である。It is a schematic diagram which shows an example of the distance in the depth direction. 奥行き方向距離の一例を示す模式図である。It is a schematic diagram which shows an example of the distance in the depth direction. 奥行き方向距離の一例を示す模式図である。It is a schematic diagram which shows an example of the distance in the depth direction. カメラが撮影した画像の一例を示す模式図である。It is a schematic diagram which shows an example of the image taken by a camera. カメラが撮影した画像の一例を示す模式図である。It is a schematic diagram which shows an example of the image taken by a camera. カメラシステムモデルの一例を示す模式図である。It is a schematic diagram which shows an example of a camera system model. 画像と奥行き方向距離の一例を示す模式図である。It is a schematic diagram which shows an example of an image and a distance in a depth direction. 画像と奥行き方向距離の一例を示す模式図である。It is a schematic diagram which shows an example of an image and a distance in a depth direction. 視程のレベルの一例を示す模式図である。It is a schematic diagram which shows an example of the visibility level. 図7の画像鮮鋭化のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of image sharpening of FIG. 図7の視程の推定のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the visibility estimation of FIG. 視程の計算の一例を示す模式図である。It is a schematic diagram which shows an example of the calculation of visibility. 視程の計算の一例を示す模式図である。It is a schematic diagram which shows an example of the calculation of visibility. カメラシステムモデルの一例を示す模式図である。It is a schematic diagram which shows an example of a camera system model.

以下、図面を参照して本発明の実施形態について説明する。なお、以下に説明する実施の形態は、視程推定システムに対して本発明を適用した場合の実施形態である。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments described below are embodiments when the present invention is applied to the visibility estimation system.

[1.視程推定システムの構成および機能の概要] [1. Overview of visibility estimation system configuration and functions]

まず、本発明の一実施形態に係る視程推定システムの構成および概要機能について、図1を用いて説明する。
図1は、本発明の実施形態に係る視程推定システムの概要構成例を示す模式図である。
First, the configuration and outline function of the visibility estimation system according to the embodiment of the present invention will be described with reference to FIG.
FIG. 1 is a schematic diagram showing a schematic configuration example of a visibility estimation system according to an embodiment of the present invention.

図1に示すように、視程推定システム1は、道路等の各地点に設置されたカメラCからの画像データから各地点での視程等の気象情報を計算する情報処理サーバ装置10と、情報処理サーバ装置10から提供された視程等の気象情報を表示する端末装置20と、を備える。 As shown in FIG. 1, the visibility estimation system 1 includes an information processing server device 10 that calculates weather information such as visibility at each point from image data from a camera C installed at each point such as a road, and information processing. It includes a terminal device 20 that displays weather information such as visibility provided by the server device 10.

視程推定装置の一例である情報処理サーバ装置10と、各端末装置20とは、ネットワーク3を通して接続されている。撮影手段の一例であるカメラCは、道路等の屋外の気象状況を撮影する。カメラCは、無線局5を通した無線通信により、情報処理サーバ装置10と通信をする。また、ネットワーク3は、例えば、インターネット、専用通信回線(例えば、CATV(Community Antenna Television)回線)、移動体通信網(基地局等を含む)でもよい。 The information processing server device 10 which is an example of the visibility estimation device and each terminal device 20 are connected to each other through a network 3. The camera C, which is an example of the photographing means, photographs the outdoor weather conditions such as roads. The camera C communicates with the information processing server device 10 by wireless communication through the radio station 5. Further, the network 3 may be, for example, the Internet, a dedicated communication line (for example, a CATV (Community Antenna Television) line), or a mobile communication network (including a base station or the like).

情報処理サーバ装置10は、各種の気象情報を提供する会社のサーバ装置である。情報処理サーバ装置10は、高速道路、一般道、鉄道、空港等の交通機関の気象情報や、航路、港湾、海上等の気象情報を、端末装置20に提供する。例えば、気象情報の一例として、天気、気温、湿度、気圧、風向、風速、視界の程度を示す視程等の情報が挙げられる。 The information processing server device 10 is a server device of a company that provides various weather information. The information processing server device 10 provides the terminal device 20 with weather information of transportation such as highways, general roads, railways, and airports, and weather information of routes, ports, and seas. For example, as an example of meteorological information, information such as weather, temperature, humidity, atmospheric pressure, wind direction, wind speed, and visibility indicating the degree of visibility can be mentioned.

また、情報処理サーバ装置10は、車両の渋滞、通行規制等の交通情報や、列車、飛行機等の運行状況、船舶の運航状況を提供してもよい。 Further, the information processing server device 10 may provide traffic information such as vehicle congestion and traffic regulation, operation status of trains, airplanes, etc., and operation status of ships.

また、情報処理サーバ装置10は、各地点のカメラCからの画像データを画像解析して、視程等の気象に関する値を算出する。また、情報処理サーバ装置10は、カメラCからの画像データを画像解析して、路面の状態、滑走路の状態、海上の状態、交通量等を算出して提供してもよい。 Further, the information processing server device 10 analyzes the image data from the camera C at each point and calculates a value related to the weather such as visibility. Further, the information processing server device 10 may perform image analysis of image data from the camera C to calculate and provide a road surface condition, a runway condition, a sea condition, a traffic volume, and the like.

端末装置20は、気象情報を情報処理サーバ装置10から受信して、気象情報を表示する。 The terminal device 20 receives the weather information from the information processing server device 10 and displays the weather information.

カメラCは、例えば、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮影素子を有するカラーまたは白黒のデジタルカメラである。カメラCは、静止画、動画等を撮影する。カメラCは、車両、飛行機、列車等の移動体に搭載されたカメラでもよい。カメラCは、スマートフォン等の携帯端末に搭載されたカメラでもよい。 The camera C is a color or black-and-white digital camera having a photographing element such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The camera C captures a still image, a moving image, or the like. The camera C may be a camera mounted on a moving body such as a vehicle, an airplane, or a train. The camera C may be a camera mounted on a mobile terminal such as a smartphone.

各カメラCは、例えば、高速道路等の道路において、所定の間隔や、所定の位置に設置されている。道路脇にポールが設置され、所定の高さにカメラCが設置されている。カメラCは、例えば、道路の進行方向に向いている。道路の上方から撮影できるように、カメラCが設置されていればよい。 Each camera C is installed at a predetermined interval or at a predetermined position on a road such as an expressway. A pole is installed on the side of the road, and a camera C is installed at a predetermined height. The camera C is oriented in the traveling direction of the road, for example. It suffices if the camera C is installed so that the photograph can be taken from above the road.

[2.各情報処理サーバ装置の構成および機能]
(2.1 情報処理サーバ装置10の構成および機能)
次に、情報処理サーバ装置10の構成および機能について、図2から図5を用いて説明する。
[2. Configuration and functions of each information processing server device]
(2.1 Configuration and function of information processing server device 10)
Next, the configuration and function of the information processing server device 10 will be described with reference to FIGS. 2 to 5.

図2は、の情報処理サーバ装置10の概要構成例を示すブロック図である。図3は、情報処理サーバ装置10の画像データベースに記憶されたデータの一例を示す模式図である。図4は、情報処理サーバ装置10の物体データベースに記憶されたデータの一例を示す模式図である。図5は、情報処理サーバ装置のカメラ情報データベースに記憶されたデータの一例を示す模式図である。 FIG. 2 is a block diagram showing a schematic configuration example of the information processing server device 10. FIG. 3 is a schematic diagram showing an example of data stored in the image database of the information processing server device 10. FIG. 4 is a schematic diagram showing an example of data stored in the object database of the information processing server device 10. FIG. 5 is a schematic diagram showing an example of data stored in the camera information database of the information processing server device.

図2に示すように、コンピュータとして機能する情報処理サーバ装置10は、通信部11と、記憶部12と、表示部13と、操作部14と、入出力インターフェース部15と、制御部16と、を備えている。そして、制御部16と入出力インターフェース部15とは、システムバス17を介して接続されている。 As shown in FIG. 2, the information processing server device 10 that functions as a computer includes a communication unit 11, a storage unit 12, a display unit 13, an operation unit 14, an input / output interface unit 15, and a control unit 16. It has. The control unit 16 and the input / output interface unit 15 are connected to each other via the system bus 17.

通信部11は、ネットワーク3に接続して、各カメラCおよび各端末装置20との通信状態を制御するようになっている。 The communication unit 11 is connected to the network 3 to control the communication state with each camera C and each terminal device 20.

記憶部12は、例えば、ハードディスクドライブ、シリコンディスクドライブ等により構成されており、オペレーティングシステムおよびサーバプログラム等の各種プログラムや気象情報等を記憶する。なお、各種プログラムは、例えば、他のサーバ装置等からネットワーク3を介して取得されるようにしてもよいし、記録媒体に記録されてドライブ装置を介して読み込まれるようにしてもよい。 The storage unit 12 is composed of, for example, a hard disk drive, a silicon disk drive, or the like, and stores various programs such as an operating system and a server program, weather information, and the like. The various programs may be acquired from another server device or the like via the network 3, or may be recorded on a recording medium and read via the drive device.

また、記憶部12には、画像データベース12a(以下「画像DB12a」とする。)、物体情報データベース12b(以下「物体情報DB12b」とする。)、機械学習データベース12c(以下「機械学習DB12c」とする。)、気象・交通情報データベース12d(以下「気象・交通DB12d」とする。)、カメラ情報データベース12e(以下「カメラ情報DB12eとする。)等が構築されている。 Further, the storage unit 12 includes an image database 12a (hereinafter referred to as "image DB 12a"), an object information database 12b (hereinafter referred to as "object information DB 12b"), and a machine learning database 12c (hereinafter referred to as "machine learning DB 12c"). ), Meteorological / traffic information database 12d (hereinafter referred to as "meteorological / traffic DB 12d"), camera information database 12e (hereinafter referred to as "camera information DB 12e"), and the like are constructed.

画像DB12aには、各カメラCが撮影した画像データが記憶されている。図3に示すように、画像DB12aには、カメラCを特定するカメラIDに関連付けられて撮影した時刻、所定のフォーマット形式の画像データが記憶されている。 Image data taken by each camera C is stored in the image DB 12a. As shown in FIG. 3, the image DB 12a stores the time taken in association with the camera ID that identifies the camera C and the image data in a predetermined format.

なお、カメラCの位置情報は、記憶部12において、カメラIDに関連付けられて、別のデータベースに記憶されていてもよい。 The position information of the camera C may be stored in another database in association with the camera ID in the storage unit 12.

物体情報DB12bには、認識された物体の実スケールに関する情報の一例として、物体の種別毎に物体のサイズ情報が記憶されている。例えば、図4に示すように、物体情報DB12bには、物体の種別を特定する物体種別IDに関連付けられて、物体種別、物体のサイズ情報が記憶されている。物体のサイズ情報として、全長[m]×高さ[m]×幅「m」等が挙げられる。 The object information DB 12b stores the size information of the object for each type of the object as an example of the information regarding the actual scale of the recognized object. For example, as shown in FIG. 4, the object information DB 12b stores the object type and the size information of the object in association with the object type ID that specifies the type of the object. Examples of the size information of the object include a total length [m] × height [m] × width “m”.

ここで、物体の種別の一例として、車両の場合、普通自動車、軽自動、バス、小型バス、大型トラック、中型トラック等の種別が挙げられる。物体の種別の一例として、航空機の場合、旅客機、セスナ機等の種別が挙げられる。物体の種別の一例として、建物等のランドマークの場合、小型ビル、中型ビル等の種別が挙げられる。各自動車メーカーの車種毎に、物体種別IDが設定されてもよい。 Here, as an example of the type of the object, in the case of a vehicle, the type such as an ordinary automobile, a light automatic vehicle, a bus, a small bus, a large truck, and a medium-sized truck can be mentioned. As an example of the type of object, in the case of an aircraft, there are types such as passenger aircraft and Cessna aircraft. As an example of the type of an object, in the case of a landmark such as a building, the type of a small building, a medium-sized building, or the like can be mentioned. An object type ID may be set for each vehicle type of each automobile manufacturer.

機械学習DB12cには、AI(Artificial Intelligence)による分析に必要なデータが記憶されている。物体認識の機械学習の場合、物体認識用の学習済みのデータが記憶されている。例えば、教師データである物体の種別毎の画像によって、学習した物体認識用の学習済みのデータである。物体の種別には、物体種別IDが割り振られている。 The machine learning DB 12c stores data necessary for analysis by AI (Artificial Intelligence). In the case of machine learning for object recognition, learned data for object recognition is stored. For example, it is the trained data for object recognition learned by the image for each type of the object which is the teacher data. An object type ID is assigned to the object type.

気象・交通DB12dには、気温、湿度、気圧、風向、風速、天気、水温、波浪、海流、潮流、気圧配置、衛星からの各種の画像データ等の気象データが記憶されている。これらの気象データは、各船舶、気象衛星、各国の気象機関、観測地点等から入手される。また、気象・交通DB12dには、現在、過去の気象データの他に、算出された予測の気象データも記憶されている。例えば、低気圧の予想経路や気圧の変化等が挙げられる。 The meteorological / traffic DB 12d stores meteorological data such as temperature, humidity, atmospheric pressure, wind direction, wind speed, weather, water temperature, waves, sea current, tidal current, atmospheric pressure arrangement, and various image data from satellites. These meteorological data are obtained from each ship, meteorological satellite, meteorological organization of each country, observation point, and the like. Further, in the meteorological / traffic DB 12d, in addition to the past meteorological data, the calculated predicted meteorological data is also stored. For example, the expected path of a low pressure system, changes in atmospheric pressure, and the like can be mentioned.

気象・交通DB12dには、車両の渋滞、通行規制等の交通情報や、列車、飛行機等の運行状況、船舶の運航状況の情報が記憶されている。また、気象・交通DB12dには、道路、鉄道、海図等を含む地図情報が記憶されている。地図情報には、船舶の場合、氷山の位置、海賊が出没する地域等の回避区域、排出量規制区域等の情報が含まれてもよい。 The weather / traffic DB 12d stores traffic information such as vehicle congestion and traffic restrictions, operation status of trains and airplanes, and operation status of ships. Further, the weather / traffic DB 12d stores map information including roads, railroads, nautical charts, and the like. In the case of ships, the map information may include information such as the location of icebergs, avoidance areas such as areas where pirates infest, and emission control areas.

カメラ情報DB12eには、各カメラCが設置されている位置等の情報が記憶されている。図5に示すように、画像DB12aには、カメラCを特定するカメラIDに関連付けられて、カメラCが設置されている場所の位置情報(例えば、経度および緯度)、設置地点におけるカメラCの高さ、カメラCの撮影方向等が記憶されている。カメラCの高さは、カメラCの撮影中心から設置面までの高さでも、カメラCを支えるポールの高さでもよい。カメラCの撮影方向は、例えば、方位角、仰角等で表現される。なお、カメラの向きが可変の場合、撮影時のカメラの撮影方向のデータが、画像DB12aに、記憶されてもよい。 The camera information DB 12e stores information such as the position where each camera C is installed. As shown in FIG. 5, in the image DB 12a, the position information (for example, longitude and latitude) of the place where the camera C is installed and the height of the camera C at the installation point are associated with the camera ID that identifies the camera C. Now, the shooting direction of the camera C and the like are stored. The height of the camera C may be the height from the shooting center of the camera C to the installation surface, or the height of the pole that supports the camera C. The shooting direction of the camera C is represented by, for example, an azimuth angle, an elevation angle, or the like. When the direction of the camera is variable, the data of the shooting direction of the camera at the time of shooting may be stored in the image DB 12a.

表示部13は、例えば、液晶表示素子または有機EL(Electro Luminescence)素子等によって構成されている。操作部14は、例えば、キーボードおよびマウス等によって構成されている。入出力インターフェース部15は、通信部11等と制御部16との間のインターフェース処理を行うようになっている。 The display unit 13 is composed of, for example, a liquid crystal display element, an organic EL (Electro Luminescence) element, or the like. The operation unit 14 is composed of, for example, a keyboard, a mouse, and the like. The input / output interface unit 15 performs interface processing between the communication unit 11 and the like and the control unit 16.

制御部16は、CPU(Central Processing Unit)16a、ROM(Read Only Memory)16b、RAM(Random Access Memory)16c等により構成されている。 The control unit 16 is composed of a CPU (Central Processing Unit) 16a, a ROM (Read Only Memory) 16b, a RAM (Random Access Memory) 16c, and the like.

(2.2 端末装置20の構成および機能)
次に、端末装置20の構成および機能について、図6を用いて説明する。
図6は、端末装置20の概要構成の一例を示すブロック図である。
(2.2 Configuration and function of terminal device 20)
Next, the configuration and function of the terminal device 20 will be described with reference to FIG.
FIG. 6 is a block diagram showing an example of an outline configuration of the terminal device 20.

図6に示すように、コンピュータとして機能する端末装置20は、通信部21と、記憶部22と、表示部23と、操作部24と、入出力インターフェース部25と、制御部26と、を備えている。そして、制御部26と入出力インターフェース部25とは、システムバス27を介して接続されている。なお、端末装置20は、情報処理サーバ装置10とほぼ同様の構成および機能を有するので、共通する部分の説明は省略する。 As shown in FIG. 6, the terminal device 20 that functions as a computer includes a communication unit 21, a storage unit 22, a display unit 23, an operation unit 24, an input / output interface unit 25, and a control unit 26. ing. The control unit 26 and the input / output interface unit 25 are connected via the system bus 27. Since the terminal device 20 has almost the same configuration and function as the information processing server device 10, the description of common parts will be omitted.

通信部21は、ネットワーク3に接続して、情報処理サーバ装置10との通信状態を制御するようになっている。 The communication unit 21 is connected to the network 3 to control the communication state with the information processing server device 10.

記憶部22は、情報処理サーバ装置10の記憶部12のように、例えば、ハードディスクドライブ、シリコンディスクドライブ等により構成されている。 The storage unit 22 is composed of, for example, a hard disk drive, a silicon disk drive, or the like, like the storage unit 12 of the information processing server device 10.

表示部23は、表示部13に対応し、操作部24は、操作部14に対応し、入出力インターフェース部25は、入出力インターフェース部15に対応する。また、制御部26は、制御部16に対応して、CPU26a、ROM26b、RAM26c等により構成されている。 The display unit 23 corresponds to the display unit 13, the operation unit 24 corresponds to the operation unit 14, and the input / output interface unit 25 corresponds to the input / output interface unit 15. Further, the control unit 26 is composed of a CPU 26a, a ROM 26b, a RAM 26c, and the like corresponding to the control unit 16.

[3.視程推定システム1の動作]
次に、本発明の1実施形態に係る視程推定システム1の動作について、図を用いて説明する。
[3. Operation of visibility estimation system 1]
Next, the operation of the visibility estimation system 1 according to the first embodiment of the present invention will be described with reference to the drawings.

(3.1 視程推定システム1の動作)
視程推定システム1の動作について、図7から図14を用いて説明する。
図7は、視程を計算する画像処理の一例を示すフローチャートである。図8は、カメラが撮影した画像の一例を示す模式図である。図9Aから図9Cは、物体の部分画像領域の一例を示す模式図である。図10Bから図10Dは、奥行き方向距離の一例を示す模式図である。図11Aおよび図11Bは、カメラが撮影した画像の一例を示す模式図である。図12は、カメラシステムモデルの一例を示す模式図である。図13Aおよび図13Bは、画像と奥行き方向距離の一例を示す模式図である。図14は、視程のレベルの一例を示す模式図である。
(3.1 Operation of visibility estimation system 1)
The operation of the visibility estimation system 1 will be described with reference to FIGS. 7 to 14.
FIG. 7 is a flowchart showing an example of image processing for calculating visibility. FIG. 8 is a schematic view showing an example of an image taken by the camera. 9A to 9C are schematic views showing an example of a partial image region of an object. 10B to 10D are schematic views showing an example of a distance in the depth direction. 11A and 11B are schematic views showing an example of an image taken by the camera. FIG. 12 is a schematic diagram showing an example of a camera system model. 13A and 13B are schematic views showing an example of an image and a distance in the depth direction. FIG. 14 is a schematic view showing an example of the visibility level.

図7に示すように、視程推定システム1は、画像データを取得し記憶する(ステップS1)。具体的には、情報処理サーバ装置10が、屋外に設置された各カメラCが撮影した画像を、各カメラCから取得する。更に具体的には、制御部16が、各カメラCから、各カメラCのカメラIDと共に画像データを受信する。画像データの中には、撮影時刻のデータが含まれてもよい。 As shown in FIG. 7, the visibility estimation system 1 acquires and stores image data (step S1). Specifically, the information processing server device 10 acquires an image taken by each camera C installed outdoors from each camera C. More specifically, the control unit 16 receives image data from each camera C together with the camera ID of each camera C. The image data may include data at the shooting time.

制御部16が、受信した画像データを、カメラIDに基づき画像DB12aに記憶する。 The control unit 16 stores the received image data in the image DB 12a based on the camera ID.

情報処理サーバ装置10が、撮影手段により屋外を撮影した画像を取得する取得手段の一例として機能する。 The information processing server device 10 functions as an example of the acquisition means for acquiring an image captured outdoors by the photographing means.

次に、視程推定システム1は、画像鮮鋭化処理を行う(ステップS2)。具体的には、情報処理サーバ装置10が、画像DB12aから画像を取得して、霧、靄、雨等により画像が鮮明でない場合、画像鮮鋭化処理を行う。さらに具体的には、制御部16が、取得した画像から環境光および光の透過マップを推定し、環境光および透過マップに基づき、画像を鮮鋭化した鮮鋭化画像を生成する。なお、霧と靄は同一気象現象であり、視程が霧の方が靄よりも近い距離である。詳細は、後述の画像鮮鋭化処理サブルーチンで説明する。 Next, the visibility estimation system 1 performs image sharpening processing (step S2). Specifically, the information processing server device 10 acquires an image from the image DB 12a and performs an image sharpening process when the image is not clear due to fog, haze, rain, or the like. More specifically, the control unit 16 estimates the ambient light and the transmission map of the light from the acquired image, and generates a sharpened image in which the image is sharpened based on the ambient light and the transmission map. Fog and haze are the same meteorological phenomenon, and the visibility of fog is closer than that of haze. Details will be described in the image sharpening processing subroutine described later.

ここで、霧、靄を除去するため、例えば、物理モデルを用いて画像鮮鋭化の処理を行う。物理モデルは、例えば、式(1)のモデルである。
I(x)=J(x)t(x)+A(1―t(x)) ・・・(1)
ここで、カメラCが撮影した霧等がかかった原画像I(x)、霧等がかかっていない鮮鋭化画像J(x)、環境光の強度A、光の透過マップt(x)である。光の透過マップは、光伝送マップ、光減衰関数、光伝達関数とも呼ばれる。また、ベクトルxは、画像内の2次元位置ベクトル(x,y)であり、例えば、I(x,y)、J(x,y)、t(x,y)である。
Here, in order to remove fog and haze, for example, an image sharpening process is performed using a physical model. The physical model is, for example, the model of equation (1).
I (x) = J (x) t (x) + A (1-t (x)) ... (1)
Here, the original image I (x) with fog and the like taken by the camera C, the sharpened image J (x) without fog and the like, the intensity A of the ambient light, and the light transmission map t (x). .. The light transmission map is also called an optical transmission map, an optical attenuation function, or an optical transfer function. Further, the vector x is a two-dimensional position vector (x, y) in the image, and is, for example, I (x, y), J (x, y), t (x, y).

この物理モデル(線形画像生成モデル、または、霧画像モデルとも呼ばれる)では、画像の輝度(I(x))については、2つの光路を仮定し、1つには,太陽や月などから画像上の物体に、霧や靄による光の減衰を伴ったもの(J(x)t(x))と、直接画像に入る光(A(1―t(x)))とがある。なお,本実施形態においては、図8に示すように、画像の左下を原点とする。ベクトルx=0は、画像の下部であり、通常のシーンでいえば、カメラCに最も近い部分に相当する。 In this physical model (also called a linear image generation model or a fog image model), two optical paths are assumed for the brightness (I (x)) of the image, and one is on the image from the sun or the moon. There are two types of objects: one with light attenuation due to fog or mist (J (x) t (x)) and one with light directly entering the image (A (1-t (x))). In the present embodiment, as shown in FIG. 8, the lower left of the image is set as the origin. The vector x = 0 is the lower part of the image and corresponds to the part closest to the camera C in a normal scene.

この透過マップt(x)については,画像内の位置に応じて、指数関数的に変化するものとする。
t(x)=exp(−beta × d(x)) ・・・(2)
ここで、カメラ視点から画像内の奥行き方向にかけての距離をd(x)とする。betaは光減衰の程度を調整するパラメータで、光減衰パラメータの一例である。光減衰パラメータは、エアロゾル等による光の減衰の程度を示す係数である。または、光減衰パラメータは、光の散乱係数でもよい。式(2)は、透過マップと撮影手段からの距離との関係式の一例である。
It is assumed that the transparency map t (x) changes exponentially according to the position in the image.
t (x) = exp (-beta x d (x)) ... (2)
Here, let d (x) be the distance from the camera viewpoint to the depth direction in the image. beta is a parameter that adjusts the degree of light attenuation and is an example of light attenuation parameter. The light attenuation parameter is a coefficient indicating the degree of light attenuation due to an aerosol or the like. Alternatively, the light attenuation parameter may be a light scattering coefficient. Equation (2) is an example of the relational expression between the transparent map and the distance from the photographing means.

透過マップt(x)は、画像内の霧の濃度に相当し、カメラCから遠く離れるほど、濃度が高くなり,手前の距離ほど、霧の濃度が低くなる。また、ベクトルxは、画像内の2次元位置ベクトル(x,y)であり、例えば、t(x,y)、d(x,y)である。 The transmission map t (x) corresponds to the density of fog in the image. The farther away from the camera C, the higher the density, and the farther in front, the lower the fog density. Further, the vector x is a two-dimensional position vector (x, y) in the image, for example, t (x, y), d (x, y).

なお、撮影された画像が、霧や靄がなく、画像が鮮明であれば、情報処理サーバ装置10は、画像鮮鋭化処理を行わず、次の物体認識の処理を行ってもよい。 If the captured image is free of fog and haze and the image is clear, the information processing server device 10 may perform the next object recognition process without performing the image sharpening process.

情報処理サーバ装置10が、前記画像から環境光および光の透過マップを推定する推定手段の一例として機能する。情報処理サーバ装置10が、前記環境光および前記透過マップに基づき、前記画像を鮮鋭化した鮮鋭化画像を生成する画像鮮鋭化手段の一例として機能する。 The information processing server device 10 functions as an example of an estimation means for estimating ambient light and a light transmission map from the image. The information processing server device 10 functions as an example of an image sharpening means for generating a sharpening image obtained by sharpening the image based on the ambient light and the transmission map.

次に、視程推定システム1は、物体を認識する(ステップS3)。具体的には、情報処理サーバ装置10の制御部16が、機械学習DB12cを参照して、機械学習の画像認識処理により、自動車、貨物自動車等の物体を認識して、物体の種別も判定する。例えば、図8に示すように、制御部16が、画像30において道路上の物体を認識し、各物体の物体種別IDを特定する。なお、図8において、認識された物体は、画像30において矩形の枠で示されている。画像30の大きさは、p×qピクセルである。例えば、機械学習の方法として、CNN(Convolution Neural Network)、Faster RCNN(Region Convolution Neural Network)、 SSD(Single Shot MultiBox Detector)等が挙げられる。 Next, the visibility estimation system 1 recognizes the object (step S3). Specifically, the control unit 16 of the information processing server device 10 recognizes an object such as an automobile or a freight vehicle by machine learning image recognition processing with reference to the machine learning DB 12c, and determines the type of the object. .. For example, as shown in FIG. 8, the control unit 16 recognizes an object on the road in the image 30 and identifies the object type ID of each object. In FIG. 8, the recognized object is shown by a rectangular frame in the image 30. The size of the image 30 is p × q pixels. For example, as a machine learning method, CNN (Convolution Neural Network), Faster RCNN (Region Convolution Neural Network), SSD (Single Shot MultiBox Detector) and the like can be mentioned.

物体を認識した場合(ステップS3;YES)、視程推定システム1は、画像における物体部分の大きさを計算する(ステップS4)。例えば、制御部16が、図9Aから図9Cに示すように、普通自動車の物体の部分画像領域30a、大型トラックの物体の部分画像領域30b、普通自動車の物体の部分画像領域30c等の各物体の部分画像領域を抽出する。制御部16が、部分画像領域30aにおいて、物体の高さha×幅wa×全長daを画素単位で測定する。制御部16が、部分画像領域30bにおいて、物体の高さhb×幅wb×全長dbを画素単位で測定する。制御部16が、部分画像領域30cにおいて、物体の高さhc×幅wc×全長dcを画素単位で測定する。例えば、制御部16が、部分画像領域30aからエッジを抽出し、直方体のモデルを当てはめ、物体の高さ×幅×全長を画素単位で測定する。なお、制御部16が各物体の向きも計算する。 When the object is recognized (step S3; YES), the visibility estimation system 1 calculates the size of the object portion in the image (step S4). For example, as shown in FIGS. 9A to 9C, the control unit 16 has an object such as a partial image area 30a of an object of an ordinary automobile, a partial image area 30b of an object of a large truck, and a partial image area 30c of an object of an ordinary automobile. Extract the partial image area of. The control unit 16 measures the height ha × width wa × total length da of the object in pixel units in the partial image region 30a. The control unit 16 measures the height hb × width wb × total length db of the object in pixel units in the partial image region 30b. The control unit 16 measures the height hc × width wc × total length dc of the object in pixel units in the partial image region 30c. For example, the control unit 16 extracts an edge from the partial image area 30a, fits a rectangular parallelepiped model, and measures the height × width × total length of the object in pixel units. The control unit 16 also calculates the orientation of each object.

機械学習の画像処理により、制御部16が、物体の高さ×幅×全長を画素単位で計算したり、物体の向きを計算してもよい。画像における物体部分の大きさとして、制御部16が各部分画像領域のx方向、y方向のピクセルを算出してもよい。例えば、部分画像領域30aの大きさは、xa×yaピクセル、部分画像領域30bの大きさは、xb×ybピクセル、部分画像領域30cの大きさは、xc×ycピクセルである。また、高さ×幅に対応する物体の面が正面になるように、制御部16が、部分画像領域30a、30b、30cに対して、立体回転する画像処理を行った後、物体の高さhc×幅wc×全長dcを求めてもよい。 By machine learning image processing, the control unit 16 may calculate the height × width × total length of the object in pixel units, or may calculate the orientation of the object. As the size of the object portion in the image, the control unit 16 may calculate the pixels in the x-direction and the y-direction of each partial image region. For example, the size of the partial image area 30a is xa × ya pixels, the size of the partial image area 30b is xb × yb pixels, and the size of the partial image area 30c is xc × yc pixels. Further, after the control unit 16 performs three-dimensional rotation image processing on the partial image areas 30a, 30b, and 30c so that the surface of the object corresponding to the height × width faces the front, the height of the object hc × width wc × total length dc may be obtained.

なお、物体の向きが、カメラCの撮影方向とほぼ一致する場合、全長Da、Db、Dc等は、物体の物理的スケールの奥行き方向の成分の一例である。なお、制御部16が物体の向きと、カメラCの撮影方向との角度から、全長Da、高さHaまたは幅Wa等から、物体の物理的スケールの奥行き方向の成分を計算してもよい。 When the direction of the object is substantially the same as the shooting direction of the camera C, the total length Da, Db, Dc, etc. are examples of the components in the depth direction of the physical scale of the object. The control unit 16 may calculate the component in the depth direction of the physical scale of the object from the total length Da, the height Ha, the width Wa, etc. from the angle between the direction of the object and the shooting direction of the camera C.

次に、視程推定システム1は、物体の物理的スケールを計算する(ステップS5)。具体的には、制御部16が、特定された物体種別IDに基づき、物体情報DB12bを参照して、物体のサイズ情報として、全長[m]×高さ[m]×幅「m」を抽出する。 Next, the visibility estimation system 1 calculates the physical scale of the object (step S5). Specifically, the control unit 16 refers to the object information DB 12b based on the specified object type ID, and extracts the overall length [m] × height [m] × width “m” as the object size information. To do.

情報処理サーバ装置10が、前記鮮鋭化画像から物体を認識して、当該認識された物体の実スケールに関する情報に基づき、当該物体の画素スケールを当該物体の物理的スケールに換算する物体スケール換算手段の一例として機能する。 The information processing server device 10 recognizes an object from the sharpened image and converts the pixel scale of the object into the physical scale of the object based on the information about the actual scale of the recognized object. It functions as an example.

制御部16が、画素スケールと、物体の物理的スケールとの比率を計算する。制御部16が、図9Aに示すように、画素スケールの高さha×幅wa×全長daと、物理的スケールの高さHa×幅Wa×全長Da、すなわち、比率Ha/ha、比率Wa/wa、比率Da/daを計算する。この比率は、1画素当たりの物理的スケール[m]を表している。 The control unit 16 calculates the ratio between the pixel scale and the physical scale of the object. As shown in FIG. 9A, the control unit 16 has a pixel scale height ha × width wa × total length da and a physical scale height Ha × width Wa × total length Da, that is, ratio Ha / ha, ratio Wa /. wa, ratio Da / da is calculated. This ratio represents the physical scale [m] per pixel.

なお、比率Ha/haと、比率Wa/waと、比率Da/daとの平均値を、画素スケールと物体の物理的スケールとの比率としてもよい。また、制御部16が、平均する際、画像30中の物体の向きに基づき、補正した値を平均してもよい。補正として、部分画像領域における物体の高さ×幅×全長の各辺がカメラCの正面に向くように回転する補正でもよい。また、物体の全長が測定しにくい場合、高さ、幅の比率のみでもよい。画素スケールの高さha×幅waの代わりに、部分画像領域の大きさxa×yaでもよい。 The average value of the ratio Ha / ha, the ratio Wa / wa, and the ratio Da / da may be used as the ratio between the pixel scale and the physical scale of the object. Further, when the control unit 16 averages, the corrected value may be averaged based on the orientation of the object in the image 30. As the correction, the correction may be performed in which each side of the height × width × total length of the object in the partial image area is rotated so as to face the front of the camera C. Further, when it is difficult to measure the total length of the object, only the ratio of height and width may be used. Instead of the height ha x width wa of the pixel scale, the size xa x ya of the partial image area may be used.

物体が複数の場合、制御部16が、複数の物体の画素スケールと物体の物理的スケールとの比率を計算してもよい。制御部16が、カメラCに近い方の物体に対して主に、画素スケールと物体の物理的スケールとの比率を計算してもよい。 When there are a plurality of objects, the control unit 16 may calculate the ratio of the pixel scale of the plurality of objects to the physical scale of the objects. The control unit 16 may mainly calculate the ratio of the pixel scale to the physical scale of the object with respect to the object closer to the camera C.

物体の正面または後面が、ほぼカメラCに向いている場合、比率Da/da、比率Db/db、比率Dc/dcは、画像30の所定のy方向の画素位置に対する1画素あたりの物理的スケール奥行き方向距離である。なお、1画素あたりの物理的スケール奥行き方向距離は、比率Da/daの代わりに、物体の幅方向が奥行きになるように、画像中の物体を回転変換して求めたwa’の比率Ha/wa’でもよい。ここで、奥行き方向距離は、画像30において、y方向の距離でもよいし、道路の面に沿った距離でもよいし、カメラCの視点からの距離でもよい。 When the front or back surface of the object faces the camera C, the ratio Da / da, the ratio Db / db, and the ratio Dc / dc are the physical scales per pixel with respect to the pixel position in the predetermined y direction of the image 30. The distance in the depth direction. The physical scale depth direction distance per pixel is the ratio Ha / of wa'obtained by rotationally converting the object in the image so that the width direction of the object is the depth instead of the ratio Da / da. It may be wa'. Here, the distance in the depth direction may be the distance in the y direction, the distance along the surface of the road, or the distance from the viewpoint of the camera C in the image 30.

次に、視程推定システム1は、奥行き方向距離を推定する(ステップS6)。例えば、図10Aに示すように、制御部16が、部分画像領域30aの中心座標(xa0、ya0)および部分画像領域30cの中心座標(xc0、yc0)のような各物体の中心座標に基づき、画素スケールにおける各物体の奥行き方向距離(例えば、y1=yc0−ya0)を計算する。図10Bに示すように、制御部16が、ya0における比率Da/daと、yc0における比率Dc/dcとから、y=ya0からy=yc0までの、1画素あたりの物理的スケールの奥行き方向距離を加算して行って、図10Bに示すように、物体間の奥行き方向距離dy1を推定する。 Next, the visibility estimation system 1 estimates the distance in the depth direction (step S6). For example, as shown in FIG. 10A, the control unit 16 is based on the center coordinates of each object such as the center coordinates (xa0, ya0) of the partial image area 30a and the center coordinates (xc0, yc0) of the partial image area 30c. The depth direction distance (for example, y1 = yc0-ya0) of each object on the pixel scale is calculated. As shown in FIG. 10B, the control unit 16 determines the distance in the depth direction of the physical scale per pixel from y = ya0 to y = yc0 from the ratio Da / da at ya0 and the ratio Dc / dc at yc0. Is added to estimate the depth direction distance dy1 between the objects as shown in FIG. 10B.

なお、図10Bに示すように、、制御部16が、比率Wa/waと比率Wc/wcとy1とから、物体の奥行き方向距離を計算してもよい。ここで、y=ya0からy=yc0において、比率Wa/waから比率Wc/wcへと比例的または所定の増加関数で、この比率が変わるとする。図10Cに示すように、物体が長い場合、物体の奥行き方向距離は、長さDbや長さdy3でもよい。 As shown in FIG. 10B, the control unit 16 may calculate the distance in the depth direction of the object from the ratio Wa / wa, the ratio Wc / wc, and y1. Here, it is assumed that this ratio changes from y = ya0 to y = yc0 from the ratio Wa / wa to the ratio Wc / wc proportionally or by a predetermined increasing function. As shown in FIG. 10C, when the object is long, the distance in the depth direction of the object may be length Db or length dy3.

また、図10Bにおいて、部分画像領域30aの物体および部分画像領域30cの物体において、物体の大きさを正規化して、物体と物体との間に相似倍則を考慮して、いくつの物体が詰まるか算出し、物体数×全長[m]により、制御部16が、奥行き方向距離を推定してもよい。 Further, in FIG. 10B, in the object in the partial image area 30a and the object in the partial image area 30c, the size of the object is normalized, and a number of objects are packed in consideration of the similarity multiple law between the objects. The control unit 16 may estimate the distance in the depth direction based on the number of objects × the total length [m].

また、図10Dに示すように、相似倍則による見かけ上の長さから、制御部16が、奥行き方向距離を推定してもよい。例えば、車両の横幅がほぼ一定として(奥行きの推定精度を数10mの誤差を許容した場合でも、比率Wa/waと比率Wc/wc等で正規化した場合)、奥行き方向は、道路の奥行き方向であるとして、車両正面の横幅の長さWa、Wcの大きさを選択し、制御部16が、見かけ横幅長として、Wa(例えば、2m)、Wc×wc/wa(例えば、1m)を計算する。 Further, as shown in FIG. 10D, the control unit 16 may estimate the distance in the depth direction from the apparent length according to the similarity double rule. For example, assuming that the width of the vehicle is almost constant (even if the depth estimation accuracy allows an error of several tens of meters, when the ratio Wa / wa and the ratio Wc / wc are normalized), the depth direction is the depth direction of the road. The width length Wa and Wc of the front surface of the vehicle are selected, and the control unit 16 calculates Wa (for example, 2 m) and Wc × wc / wa (for example, 1 m) as the apparent width length. To do.

次に、車両の全長を5m前後とし、制御部16が、奥行きを相似倍則により、奥行きを推定する。例えば、見かけ横幅長2m、見かけ横幅長1mの2つの車両間で、見かけ全長Da(例えば、5m)、および、見かけ全長Da’=Da×wa/wc(例えば、10m)から、視程を、例えば、5m+10m=15mと推定される。なお、物体が同じ物体種別IDでない場合、大きさを正規化する。例えば、制御部16が、waおよびwcの代わりに、比率Wa/waと比率Wc/wcの逆数を用いて計算してもよい。この場合、例えば、見かけ全長Dc’=Dc×wa/wc×Wc/Waとする。 Next, the total length of the vehicle is set to about 5 m, and the control unit 16 estimates the depth by the similarity multiple rule. For example, the visibility can be determined from the apparent total length Da (for example, 5 m) and the apparent total length Da'= Da × wa / wc (for example, 10 m) between two vehicles having an apparent width length of 2 m and an apparent width length of 1 m. It is estimated that 5m + 10m = 15m. If the objects do not have the same object type ID, the size is normalized. For example, the control unit 16 may calculate using the reciprocal of the ratio Wa / wa and the ratio Wc / wc instead of wa and wc. In this case, for example, the apparent overall length Dc'= Dc × wa / wc × Wc / Wa.

なお、AIを用いて画像処理により、3Dにモデル化して、各物体間の奥行き方向距離や、カメラCから各物体への奥行き方向距離を計算してもよい。 It should be noted that the depth direction distance between the objects and the depth direction distance from the camera C to each object may be calculated by modeling in 3D by image processing using AI.

情報処理サーバ装置10は、前記物体の物理的スケールの奥行き方向の成分から前記物体の奥行き方向距離を計算する奥行方向距離計算手段も一例として機能する。 The information processing server device 10 also functions as an example of a depth direction distance calculating means for calculating the depth direction distance of the object from the depth direction component of the physical scale of the object.

物体を認識できなかった場合(ステップS3;NO)、視程推定システム1は、カメラシステムモデルにより奥行き方向距離を計算する(ステップS7)。物体を認識できなかった場合とは、例えば、図11Aおよび図11Bに示すように、画像31、画像32の中に、車両等の物体が写っていない場合である。情報処理サーバ装置10は、下記の式(3)に従って、物理的スケールの奥行き方向距離を計算する。 When the object cannot be recognized (step S3; NO), the visibility estimation system 1 calculates the depth direction distance by the camera system model (step S7). The case where the object cannot be recognized is, for example, a case where an object such as a vehicle is not shown in the images 31 and 32 as shown in FIGS. 11A and 11B. The information processing server device 10 calculates the distance in the depth direction of the physical scale according to the following equation (3).

カメラシステムモデルにおける奥行き方向距離dvは、式(3)となる。
dv=1/(v−vh)×H×f/cos(theta)・・・(3)
The depth direction distance dv in the camera system model is given by the equation (3).
dv = 1 / (v−vh) × H × f / cos (theta) ・ ・ ・ (3)

ここで、図12に示すように、カメラシステムモデルにおいて、カメラCのカメラ中心C0、カメラCを支えるポールの長さH(カメラCの設置点Sからカメラ中心C0まで)、ポールの傾きthetaである。画像31、32に対応するイメージ面Pは、カメラ中心C0から焦点距離fにあるとする。図12に示すように、奥行き方向距離dvは設置点Sからの水平距離であり、ベクトルvは、イメージ面Pにおいて、図11A、図11Bおよび図12に示すように、y=qを基点として、y=0の方向へのベクトルである。ベクトルvhは、画像における無限遠方に対応する画像点までの、y=qを基点とした、y=0の方向へのベクトルである。d0は、画像31、32のy=0に対応するイメージ面Pの点における奥行き距離である。ここで、長さHが、撮影手段の設置の高さの一例である。ポールの傾きthetaが、撮影手段の撮影方向の一例である。奥行き方向距離dvは、画像における奥行き方向距離の一例である。 Here, as shown in FIG. 12, in the camera system model, the camera center C0 of the camera C, the length H of the pole supporting the camera C (from the installation point S of the camera C to the camera center C0), and the inclination theta of the pole are used. is there. It is assumed that the image plane P corresponding to the images 31 and 32 is at the focal length f from the camera center C0. As shown in FIG. 12, the depth direction distance dv is the horizontal distance from the installation point S, and the vector v is the image plane P with y = q as the base point as shown in FIGS. 11A, 11B and 12. , A vector in the direction of y = 0. The vector vh is a vector in the direction of y = 0 with y = q as the base point up to the image point corresponding to infinity in the image. d0 is the depth distance at the point of the image plane P corresponding to y = 0 of the images 31 and 32. Here, the length H is an example of the height at which the photographing means is installed. The tilt theta of the pole is an example of the shooting direction of the shooting means. The depth direction distance dv is an example of the depth direction distance in the image.

図13Aおよび図13Bに示すように、ベクトルvと奥行き方向距離dvとの関係は、画像31、32において、式(3)に示すように、ベクトルvがvhに近づくほど、奥行き方向距離dvが長くなり、vがy=0が近づくほど、奥行き方向距離dvが短くなる。 As shown in FIGS. 13A and 13B, the relationship between the vector v and the depth direction distance dv is such that in the images 31 and 32, as shown in the equation (3), the closer the vector v is to vh, the more the depth direction distance dv becomes. As v becomes longer and y = 0 approaches, the distance dv in the depth direction becomes shorter.

次に、視程推定システム1は、視程を推定する(ステップS8)。情報処理サーバ装置10は、例えば、透過マップt(x)と距離との関係式(2)を、画像30(I(x))に適用して、光の減衰の程度を示す光減衰パラメータbetaを計算し、算出された光減衰パラメータbetaによる関係式(2)に基づき、奥行き方向距離から、視程を推定する。ここで、奥行き方向距離は、ステップS6で推定された距離や、ステプS7で計算された距離である。なお、詳細は、後述の視程の推定のサブルーチンで説明する。 Next, the visibility estimation system 1 estimates the visibility (step S8). The information processing server device 10 applies, for example, the relational expression (2) between the transmission map t (x) and the distance to the image 30 (I (x)), and the light attenuation parameter beta indicating the degree of light attenuation. Is calculated, and the visibility is estimated from the distance in the depth direction based on the relational expression (2) by the calculated light attenuation parameter beta. Here, the distance in the depth direction is the distance estimated in step S6 or the distance calculated in step S7. The details will be described in the visibility estimation subroutine described later.

図14に示すように、情報処理サーバ装置10は、物理的スケールにおける推定された視程を、視程レベルで表現してもよい。例えば、視程レベルがレベル1であると、視程が10m以下で、前方がよく見えないので、道路の場合、交通規制を行うレベルである。視程レベルがレベル2であると、視程が10mから50mで、前方がかなり見えにくい状態で、車両の場合、速度規制が行われるレベルである。視程レベルが、レベル3であると、視程が50mから100mで、注意を喚起するレベルである。このように、視程をレベル分けにすることにより、視程推定の誤差を吸収でき、視程を表すことができる。なお、レベルの設定は、ユーザが任意に設定してよい。飛行場の場合、視程のレベルは、例えば、レベル1〜5で、視程100m単位でもよい。 As shown in FIG. 14, the information processing server device 10 may express the estimated visibility on the physical scale at the visibility level. For example, when the visibility level is level 1, the visibility is 10 m or less and the front cannot be seen well. Therefore, in the case of a road, it is a level for traffic regulation. When the visibility level is level 2, the visibility is 10 m to 50 m, the front is considerably difficult to see, and in the case of a vehicle, speed regulation is performed. When the visibility level is level 3, the visibility is 50 m to 100 m, which is a level that calls attention. By dividing the visibility into levels in this way, it is possible to absorb the error of the visibility estimation and express the visibility. The level may be set arbitrarily by the user. In the case of an airfield, the visibility level is, for example, levels 1 to 5, and the visibility may be in units of 100 m.

次に、視程推定システム1は、視程を出力する(ステップS9)。具体的には、情報処理サーバ装置10は、各カメラCの画像から推定した視程または視程のレベルの情報を、各カメラCの位置情報と共に、端末装置20へ送信する。 Next, the visibility estimation system 1 outputs the visibility (step S9). Specifically, the information processing server device 10 transmits information on the visibility or visibility level estimated from the image of each camera C to the terminal device 20 together with the position information of each camera C.

端末装置20は、地図上に、位置情報に基づき、視程情報を、表示部23に表示する。なお、地図情報は、端末装置20の記憶部22から取得してもよいし、情報処理サーバ装置10等の外部から取得してもよい。 The terminal device 20 displays the visibility information on the display unit 23 based on the position information on the map. The map information may be acquired from the storage unit 22 of the terminal device 20, or may be acquired from the outside of the information processing server device 10 or the like.

なお、情報処理サーバ装置10が、画像30から霧等の不鮮明度を算出して、晴天の場合、上述の視程の計算を行わなくてもよい。例えば、画像の濃淡値(例えば、輝度)が100(0〜255段階)以上で、かつ、その偏差値が所定値以上の場合、制御部16が、晴天と判定する。なお、偏差値の所定値は、過去のデータを用いて、晴天か否かを分類した画像から、統計的に決定されてもよい。 The information processing server device 10 calculates the unclearness of fog or the like from the image 30, and in the case of fine weather, it is not necessary to calculate the visibility described above. For example, when the shading value (for example, brightness) of an image is 100 (0 to 255 steps) or more and the deviation value is a predetermined value or more, the control unit 16 determines that the weather is fine. In addition, the predetermined value of the deviation value may be statistically determined from the image which classified whether the weather is fine or not by using the past data.

(3.2 画像鮮鋭化のサブルーチン)
次に、画像鮮鋭化のサブルーチンについて、図15を用いて説明する。
図15は、画像鮮鋭化のサブルーチンを示すフローチャートである。
(3.2 Image sharpening subroutine)
Next, the image sharpening subroutine will be described with reference to FIG.
FIG. 15 is a flowchart showing a subroutine for sharpening an image.

情報処理サーバ装置10は、式(1)に基づき、カメラCが撮影した画像I(x)から、鮮鋭化画像J(x)を、以下のように算出する。 Based on the equation (1), the information processing server device 10 calculates the sharpened image J (x) from the image I (x) taken by the camera C as follows.

図15に示すように、情報処理サーバ装置10は、環境光の強度を決定する(ステップS10)。ここで、輝度が8ビット(0〜255)で表現されるカラー画像(例えば、RGB画像)で、自然画像の場合、画像はさまざまな明暗をもっている。一方、所定の画像領域(パッチ)においては、陰影や黒系物体などの存在により、輝度値が低い画素が存在する。なお、輝度の最小値は0である。太陽光が存在し、空が画像に存在する場合は、RGBチャネル、または、パッチ毎において、最も明るい画素の0.1%が、空に対応すると仮定する。制御部16は、画像I(x)内の該当箇所の画素から、環境光の強度Aを推定する。 As shown in FIG. 15, the information processing server device 10 determines the intensity of ambient light (step S10). Here, in the case of a color image (for example, an RGB image) whose brightness is represented by 8 bits (0 to 255) and a natural image, the image has various brightness and darkness. On the other hand, in a predetermined image region (patch), there are pixels having a low brightness value due to the presence of shadows, black objects, and the like. The minimum value of brightness is 0. If sunlight is present and the sky is present in the image, it is assumed that 0.1% of the brightest pixels in each RGB channel or patch correspond to the sky. The control unit 16 estimates the intensity A of the ambient light from the pixels of the corresponding portion in the image I (x).

次に、情報処理サーバ装置10は、光の透過マップt(x)を推定する(ステップS11)。例えば、式(1)において、第1近似として、真の画像J(x)で、ダークチャネルの輝度が0とした場合、
I(x)=A(1―t(x)) ・・・(4)
を得る。ここで、I(x)は、ダークチャネルの成分Idark(x)を示している。この式(4)から、透過マップは、
t(x)=1−I(x)/A ・・・(5)
と変形できる。ただし、0<t(x)の値<1である。
Next, the information processing server device 10 estimates the light transmission map t (x) (step S11). For example, in the equation (1), when the brightness of the dark channel is 0 in the true image J (x) as the first approximation,
I (x) = A (1-t (x)) ... (4)
To get. Here, I (x) indicates the component I dark (x) of the dark channel. From this equation (4), the transparency map is
t (x) = 1-I (x) / A ... (5)
Can be transformed. However, the value <1 of 0 <t (x).

多くの場、霧画像の空領域は、カメラCから見て無限遠と考えられることから、この空領域では,t(x)の値は、ほぼ0になり、I≒A、すなわち、空画像Iは、環境光の強度Aと等しくなる。 In many fields, the sky area of the fog image is considered to be infinity when viewed from the camera C. Therefore, in this sky area, the value of t (x) becomes almost 0, and I≈A, that is, the sky image. I is equal to the intensity A of the ambient light.

次に、情報処理サーバ装置10は、画像を鮮鋭化する(ステップS12)。例えば、鮮鋭化画像を取得するために、式(1)において、
J(x)=(I(x)−A)/t(x)+A ・・・(6)
となる。ここで、0除算を防ぐために、定数t0を与え、t(x)の代わりに、max(t(x),t0)により、式(6)の計算を行う。
Next, the information processing server device 10 sharpens the image (step S12). For example, in order to obtain a sharpened image, in equation (1),
J (x) = (I (x) -A) / t (x) + A ... (6)
Will be. Here, in order to prevent division by zero, a constant t0 is given, and the formula (6) is calculated by max (t (x), t0) instead of t (x).

以上のようなHeのアルゴリズムの他に、Heのさまざまな改良手法、霧を除去する画像のコントラストを最大化する方法、メジアンフィルタを用いる方法、マルコフ確率場モデルによる方法等でもよく、画像が鮮鋭化されるならばよい。情報処理サーバ装置10は、AIを用いた画像処理により、霧を除去してもよい。 In addition to the above He algorithm, various improved He methods, a method of maximizing the contrast of the image for removing fog, a method using a median filter, a method using a Markov random field model, etc. may be used, and the image is sharp. It is good if it is converted. The information processing server device 10 may remove fog by image processing using AI.

(3.3 視程の推定のサブルーチン)
次に、視程の推定のサブルーチンについて、図16、図17Aおよび17Bを用いて説明する。
図16は、視程の推定のサブルーチンを示すフローチャートである。図17Aおよび図17Bは、視程の計算の一例を示す模式図である。
(3.3 Visibility estimation subroutine)
Next, the visibility estimation subroutine will be described with reference to FIGS. 16, 17A and 17B.
FIG. 16 is a flowchart showing a subroutine for estimating visibility. 17A and 17B are schematic views showing an example of visibility calculation.

図16に示すように、情報処理サーバ装置10は、光減衰パラメータを計算する(ステップS20)。具体的には、情報処理サーバ装置10は、透過マップt(x)とカメラCからの距離との関係式(2)を、I(x)である画像30に適用して、光減衰パラメータbetaを計算する。 As shown in FIG. 16, the information processing server device 10 calculates the light attenuation parameter (step S20). Specifically, the information processing server device 10 applies the relational expression (2) between the transmission map t (x) and the distance from the camera C to the image 30 which is I (x), and applies the light attenuation parameter beta. To calculate.

さらに具体的には、式(5)で、t(x)=1−I(x)/Aを得ているため、2次元の画素毎のt(x,y)は画像全体において濃淡値をもった光源減衰画像である。 More specifically, since t (x) = 1-I (x) / A is obtained in the equation (5), t (x, y) for each two-dimensional pixel has a shading value in the entire image. It is a light source attenuation image.

x=0((x,y)=(0,0))である画像の一番下(手前)から、x=MAX((x,y)=(p,q))である画像30の上部までの全画素においての和Sigmaとした場合、カメラCが撮影した画像I(x)と、奥行き方向距離d(x)の関数の式(2)の濃淡画像との差分の絶対値の和Eが最小となるように、未知数βを求めていく。
E=Sigma|I(x)―exp(−beta×d(x))|^2 > minimization ・・・(7)
この式(7)については、係数betaを未知数として、最小二乗法で求めることができる。例えば、必要条件として,Eのbetaによる一次偏微分が0である条件を課し、数値解法としてさまざまなものを適用することができ、最も簡易な最急降下法を適用して、係数betaおよびd(x)を求める。光減衰パラメータbetaが大きいほど、霧等の変化が奥行き方向距離に比べて、急激に変化していることを示している。なお、さまざまな画像に適用すると、0.1<beta<0.5であった。
From the bottom (front) of the image where x = 0 ((x, y) = (0,0)) to the top of the image 30 where x = MAX ((x, y) = (p, q)) When Sigma is the sum of all pixels up to The unknown number β is calculated so that is minimized.
E = Sigma | I (x) -exp (-beta x d (x)) | ^ 2> minimization ... (7)
This equation (7) can be obtained by the least squares method with the coefficient beta as an unknown number. For example, as a necessary condition, the condition that the first partial derivative of E by beta is 0 can be applied, various numerical solutions can be applied, and the simplest steepest descent method is applied, and the coefficients beta and d are applied. Find (x). The larger the light attenuation parameter beta, the more rapidly the change of fog etc. is compared with the distance in the depth direction. When applied to various images, 0.1 <beta <0.5.

情報処理サーバ装置10は、前記透過マップと前記撮影手段からの距離との関係式を前記画像に適用して、光の減衰の程度を示す光減衰パラメータを計算する光減衰パラメータ計算手段も一例として機能する。 As an example, the information processing server device 10 applies a relational expression between the transmission map and the distance from the photographing means to the image to calculate a light attenuation parameter indicating the degree of light attenuation. Function.

次に、情報処理サーバ装置10は、光の透過マップの関係式(2)に基づき、物体から推定された奥行き方向距離、または、式(3)から計算された奥行き方向距離から視程を計算する(ステップS21)。具体的には、情報処理サーバ装置10は、算出された光減衰パラメータbetaによるexp(−beta×d(x))に基づき、ステップS6で推定した各物体の奥行き方向距離、または、ステップS7で計算された奥行き方向距離から、視程を計算する。ステップS6で推定した各物体の奥行き方向距離の場合、さらに具体的には、図17Aに示すように、制御部16が、所定の画像領域の一例である各物体の部分画像領域におけるI(x)等の霧等の濃さを示す値に対して、ステップS20で計算された光減衰パラメータbetaの値(例えば、beta1、beta2等)における関数exp(−beta×d(x))の濃度分布を当てはめる。なお、関数exp(−beta×d(x))の値や、その逆数等が、光減衰パラメータを当てはめた関係式に基づく光透過の値の一例である。また、図17Aにおいて、ステップS7で計算された奥行き方向距離の場合、横軸が式(2)の奥行き方向距離dvで、イメージ面Pにおいてベクトルvが示す画素の位置が、所定の画像領域に対応する。 Next, the information processing server device 10 calculates the visibility from the depth direction distance estimated from the object or the depth direction distance calculated from the formula (3) based on the relational expression (2) of the light transmission map. (Step S21). Specifically, the information processing server device 10 determines the distance in the depth direction of each object estimated in step S6 based on the calculated exp (−beta × d (x)) according to the light attenuation parameter beta, or in step S7. Visibility is calculated from the calculated depth distance. In the case of the depth direction distance of each object estimated in step S6, more specifically, as shown in FIG. 17A, the control unit 16 determines I (x) in the partial image area of each object which is an example of a predetermined image area. ) Etc., the density distribution of the function exp (−beta × d (x)) in the value of the light attenuation parameter beta (for example, beta1, beta2, etc.) calculated in step S20 with respect to the value indicating the density of fog or the like. Apply. The value of the function exp (−beta × d (x)) and its reciprocal are examples of the value of light transmission based on the relational expression to which the light attenuation parameter is applied. Further, in FIG. 17A, in the case of the depth direction distance calculated in step S7, the horizontal axis is the depth direction distance dv of the equation (2), and the position of the pixel indicated by the vector v on the image plane P is in the predetermined image area. Correspond.

計算された光減衰パラメータを当てはめた関係式に基づく光透過の値が所定値になる視程の一例として、図17Aに示すように、制御部16が、関数値が所定の値になる距離(例えば、v1、v2)を視程とする。例えば、式(2)の右辺である関数exp(−beta×d(x))の関数値が、光減衰パラメータを当てはめた関係式に基づく光透過の値の一例である。関数exp(−beta×d(x))において、d(x)は、d1やd2の値でもよい。視程のレベルに応じて、閾値が複数設定されてもよい。 As an example of the visibility in which the value of light transmission based on the relational expression to which the calculated light attenuation parameter is applied becomes a predetermined value, as shown in FIG. 17A, the control unit 16 controls the distance at which the function value becomes a predetermined value (for example, , V1, v2) are the visibility. For example, the function value of the function exp (−beta × d (x)) on the right side of the equation (2) is an example of the light transmission value based on the relational expression to which the light attenuation parameter is applied. In the function exp (−beta × d (x)), d (x) may be a value of d1 or d2. A plurality of threshold values may be set according to the level of visibility.

式(2)の左辺の値である各物体の部分画像領域におけるI(x)等の霧等の濃さを示す値として、例えば、式(6)を変形した式(8)
t(x)=I(x)−A/(J(x)−A) ・・・(8)
から算出される。なお、ベクトルxが示す画素は、ステップS7で計算された奥行き方向距離の場合、イメージ面Pにおいてベクトルvに対応する画素である。
As a value indicating the density of fog such as I (x) in the partial image area of each object, which is the value on the left side of the equation (2), for example, the equation (8) which is a modification of the equation (6)
t (x) = I (x) -A / (J (x) -A) ... (8)
It is calculated from. The pixel indicated by the vector x is a pixel corresponding to the vector v on the image plane P in the case of the depth direction distance calculated in step S7.

また、t(x)の推定値は、画像30の鮮鋭化される前の画像におけるパッチ内で、RGBのいずれかの成分で計算される値でもよい。例えば、t(x)の推定値は、部分画像領域において、ある色成分におけるI/Aの最小値で、かつ、パッチ内おける最小値を、1から差し引いた値でもよい。 Further, the estimated value of t (x) may be a value calculated by any component of RGB in the patch in the image before sharpening of the image 30. For example, the estimated value of t (x) may be the minimum value of I / A in a certain color component in the partial image region, and may be a value obtained by subtracting the minimum value in the patch from 1.

なお、図17Bに示すように、カメラCにより近いd1を基準して、制御部16が濃度分布を当てはめてもよい。また、d1・d2間を、t(d1)、t(d2)で直線近似して、制御部16が視程を計算してもよい。 As shown in FIG. 17B, the control unit 16 may apply the concentration distribution with reference to d1 which is closer to the camera C. Further, the control unit 16 may calculate the visibility by linearly approximating the distance between d1 and d2 with t (d1) and t (d2).

光減衰関数であるt(x)が、手前から奥行きへ濃淡値分布をしていることから、その最大値、最小値を求めて、制御部16が、それぞれに物理的な距離(m単位)を割り当ててもよい。例えば、制御部16が、画像30の鮮鋭化される前の画像に対して、手前から奥行き方向について、横一ライン毎に、輝度を積算していき、全体の輝度の総和を求め、ノイズを考慮して、この積算値について、総和に対して10%を最小値として、90%を最大値としてもよい。 Since t (x), which is a light attenuation function, has an extreme value distribution from the front to the depth, the control unit 16 finds the maximum and minimum values, and the control unit 16 has a physical distance (in units of m) to each. May be assigned. For example, the control unit 16 integrates the brightness of the image 30 before it is sharpened for each horizontal line from the front to the depth direction, obtains the total brightness, and generates noise. In consideration, 10% may be the minimum value and 90% may be the maximum value with respect to the total value.

このように、情報処理サーバ装置10は、前記計算された光減衰パラメータを当てはめた前記関係式に基づき、前記奥行き方向距離から、視程を計算する視程計算手段も一例として機能する。情報処理サーバ装置10は、前記計算された光減衰パラメータを当てはめた前記関係式に基づく光透過の値であって、所定の前記画像の領域における前記光透過の値と、前記奥行き方向距離から、視程を計算する視程計算手段も一例として機能する。情報処理サーバ装置10は、前記計算された光減衰パラメータを当てはめた前記関係式に基づく光透過の値が所定値になる前記視程を計算する視程計算手段も一例として機能する。 As described above, in the information processing server device 10, the visibility calculation means for calculating the visibility from the distance in the depth direction based on the relational expression to which the calculated light attenuation parameter is applied also functions as an example. The information processing server device 10 is a light transmission value based on the relational expression to which the calculated light attenuation parameter is applied, and is based on the light transmission value in the predetermined image region and the depth direction distance. A visibility calculation means for calculating visibility also functions as an example. The information processing server device 10 also functions as an example of a visibility calculation means for calculating the visibility at which the value of light transmission based on the relational expression to which the calculated light attenuation parameter is applied becomes a predetermined value.

以上、本実施形態によれば、カメラCにより屋外を撮影した画像を取得し、画像を鮮鋭化した鮮鋭化画像を生成し、鮮鋭化画像から物体を抽出して、当該物体の画素スケールから当該物体の物理的スケールを換算し、物体の物理的スケールから物体の奥行き方向距離を計算し、光の透過マップt(x)とカメラCからの距離d(x)との関係式(2)を画像に適用して、大気の光減衰パラメータbetaを計算し、算出された光減衰パラメータbetaによる関係式(2)に基づき、奥行き方向距離から、視程を計算することにより、特別の測定装置が不要で、視程を推定できる。 As described above, according to the present embodiment, an image taken outdoors by the camera C is acquired, a sharpened image obtained by sharpening the image is generated, an object is extracted from the sharpened image, and the object is extracted from the pixel scale of the object. The physical scale of the object is converted, the distance in the depth direction of the object is calculated from the physical scale of the object, and the relational expression (2) between the light transmission map t (x) and the distance d (x) from the camera C is obtained. By applying it to an image, calculating the light attenuation parameter beta of the atmosphere, and calculating the field of view from the distance in the depth direction based on the relational expression (2) based on the calculated light attenuation parameter beta, no special measuring device is required. Then, the visibility can be estimated.

また、鮮鋭化画像から物体を抽出しているため、AIによる画像処理が適用しやすくなり、視程の精度が向上する。 Further, since the object is extracted from the sharpened image, the image processing by AI becomes easy to apply, and the accuracy of visibility is improved.

また、関係式(2)により計算されるd(x)は、あくまで画素単位であるが、物体の画素スケールから物体の物理的スケールを換算するテーブル(物体情報DB12d)により、メートル単位等の物理的にスケールが求まり、視程が計算できる。 Further, d (x) calculated by the relational expression (2) is only in pixel units, but physics in metric units or the like is performed by a table (object information DB12d) that converts the physical scale of an object from the pixel scale of an object. The scale can be obtained and the visibility can be calculated.

また、画像31、32において、奥行き方向距離を計算するための物体が認識できない場合、カメラCの設置の高さおよび撮影方向から、画像31、32における奥行き方向距離dvを計算する場合、道路等に車両が写っていない場合でも、視程が計算できる。 Further, when the object for calculating the depth direction distance cannot be recognized in the images 31 and 32, when the depth direction distance dv in the images 31 and 32 is calculated from the height of the installation of the camera C and the shooting direction, the road or the like. Visibility can be calculated even when the vehicle is not shown in.

また、計算された光減衰パラメータbetaを当てはめた関係式(2)に基づく光透過の値であって、所定の画像領域の一例である物体に対応する画像の領域における光透過の値と、物体の奥行き方向距離d(x)から、視程を算出する場合、画像に対して関係式を当てはめ、物体の奥行き方向距離d(x)に対応した視程を計算できる。 Further, it is a light transmission value based on the relational expression (2) to which the calculated light attenuation parameter beta is applied, and is a light transmission value in an image region corresponding to an object which is an example of a predetermined image region, and an object. When calculating the visibility from the depth direction distance d (x) of, it is possible to apply a relational expression to the image and calculate the visibility corresponding to the depth direction distance d (x) of the object.

また、計算された光減衰パラメータbetaを当てはめた関係式(2)に基づく光透過の値が所定値になる視程を算出する場合、所定値に対応した所定の視程を算出できる。 Further, when calculating the visibility in which the value of light transmission based on the relational expression (2) to which the calculated light attenuation parameter beta is applied becomes a predetermined value, the predetermined visibility corresponding to the predetermined value can be calculated.

また、視程を視程レベルに変換する場合、物理的距離の視程を推定する際の誤差を吸収でき、レベルにより安定して視程を表すことができる。 Further, when the visibility is converted into the visibility level, the error in estimating the visibility of the physical distance can be absorbed, and the visibility can be expressed more stably depending on the level.

(変形例)
また、図18に示すように、道路や滑走路が水平でない場合、情報処理サーバ装置10は、dvの値を、道路や滑走路の傾斜の度合いにより補正してもよい。例えば、道路が登り坂のとき、カメラCに道路が近づくため、dvの値が、道路の傾きに応じて短めに補正される。道路が下り坂のとき、カメラCが道路から離れるため、dvの値が、道路の傾きに応じて長めに補正される。なお、視程を視程レベルに変換される場合、dvの値を補正しなくても、dvの値の補正の範囲が、視程を視程レベルにより吸収される場合があるので、情報処理サーバ装置10は、道路等の傾きにより、式(3)のdvの値を補正しなくてもよい。
(Modification example)
Further, as shown in FIG. 18, when the road or runway is not horizontal, the information processing server device 10 may correct the value of dv according to the degree of inclination of the road or runway. For example, when the road is uphill, the road approaches the camera C, so that the value of dv is corrected to be shorter according to the inclination of the road. When the road is downhill, the camera C moves away from the road, so that the value of dv is corrected to be longer according to the inclination of the road. When the visibility is converted to the visibility level, the range of correction of the dv value may be absorbed by the visibility level even if the dv value is not corrected. Therefore, the information processing server device 10 is used. , It is not necessary to correct the value of dv in the equation (3) due to the inclination of the road or the like.

次に、透過マップt(x)の変形例について説明する。式(8)の関係式は、式(2)の関係式の光の透過マップを拡張した式である。式(8)は、式(2)の指数の他に、正弦波、余弦波、線形の要素を示す各関数を加えた式である。
t(x)=alpha1 × exp(−beta1 × d(x))
+ alpha2 × sin(−beta2 × d(x))
+ alpha3 × cos(−beta3 × d(x))
+ alpha4 ×(beta4 × d(x))
・・・(9)
Next, a modified example of the transparency map t (x) will be described. The relational expression of the equation (8) is an extension of the light transmission map of the relational expression of the equation (2). Equation (8) is an equation in which in addition to the exponent of equation (2), each function indicating a sine wave, a chord wave, and a linear element is added.
t (x) = alpha1 x exp (-beta1 x d (x))
+ alpha2 x sin (-beta2 x d (x))
+ alpha3 x cos (-beta3 x d (x))
+ alpha4 × (beta4 × d (x))
... (9)

ここで、重み係数alpha1からalpha4については、例えば、デフォルト1とする。重み係数alpha1からalpha4は、画像に応じて変えてもよい。光減衰パラメータの一例である係数beta1からbeta4は、それぞれ、指数関数の要素に対するパラメータbeta1、正弦関数の要素に対するパラメータbeta2、余弦関数の要素に対するパラメータbeta3、線形の要素に対するパラメータbeta4である。 Here, for the weighting coefficients alpha1 to alpha4, for example, the default is 1. The weighting coefficients alpha1 to alpha4 may be changed depending on the image. The coefficients beta1 to beta4, which are examples of the light attenuation parameters, are the parameter beta1 for the exponential element, the parameter beta2 for the sine function element, the parameter beta3 for the cosine function element, and the parameter beta4 for the linear element, respectively.

複数の光減衰パラメータbeta1からbeta4に関しては、カメラCが撮影した画像I(x)に対して、式(7)の関係式において、exp(−beta×d(x)の代わりに式(9)の透過マップt(x)を適用して、情報処理サーバ装置10が、係数beta1からbeta4を未知数として、最小二乗法で、各光減衰パラメータbeta1からbeta4を算出する。 Regarding the plurality of light attenuation parameters beta1 to beta4, for the image I (x) taken by the camera C, in the relational expression of the equation (7), instead of exp (−beta × d (x)), the equation (9) By applying the transmission map t (x) of the above, the information processing server device 10 calculates each light attenuation parameter beta1 to beta4 by the minimum square method with the coefficients beta1 to beta4 as unknowns.

また、beta1からbeta4に関しては、カメラCが撮影した画像I(x)のヒストグラム分布(横軸0〜255輝度階調、縦軸、輝度値に対応する1枚の画像内の画素数)を求めて、このヒストグラム分布と式(9)に関して、最小二乗法により、情報処理サーバ装置10が、各光減衰パラメータbeta1からbeta4を算出してもよい。 For beta1 to beta4, the histogram distribution of the image I (x) taken by the camera C (horizontal axis 0 to 255 luminance gradation, vertical axis, number of pixels in one image corresponding to the luminance value) is obtained. Therefore, with respect to this histogram distribution and equation (9), the information processing server device 10 may calculate each light attenuation parameter beta1 to beta4 by the method of least squares.

実際の霧の濃さは、時間と空間で時々刻々変化している特徴がある。一方で、従来からの単調減少する指数関数(式(2))は、霧の濃淡の均一分布を仮定したものである。そのため、霧の非均一性に反した分、精度が低下することが考えられる。しかし、式(9)に示すように、関係式が、指数関数の他に、正弦関数および余弦関数のうち少なくとも一方の関数の要素を含み、光減衰パラメータが、光減衰パラメータ計算手段により計算された、正弦関数および余弦関数のうち少なくとも一方の関数の要素に対するパラメータを含む場合、霧の濃淡が均一でなくても、より正確に視程を計算することができる。 The actual fog density is characterized by changing from moment to moment in time and space. On the other hand, the conventional monotonically decreasing exponential function (Equation (2)) assumes a uniform distribution of fog shades. Therefore, it is considered that the accuracy is lowered by the amount contrary to the non-uniformity of the fog. However, as shown in equation (9), the relational expression includes elements of at least one of the sine function and the cosine function in addition to the exponential function, and the light attenuation parameter is calculated by the light attenuation parameter calculation means. In addition, if the parameters for the elements of at least one of the sine function and the cosine function are included, the field of view can be calculated more accurately even if the shade of fog is not uniform.

次に、画像鮮鋭化の変形例について説明する。 Next, a modified example of image sharpening will be described.

濃霧が著しい画像の場合は、ステップS2の画像の鮮鋭化処理を一度施しただけでは、十分に、鮮鋭化ができない、視程が正確に計算できないといった問題が生じる。そのため、情報処理サーバ装置10は、1枚の画像しかない場合、ステップS2の画像の鮮鋭化処理を数回繰り返してもよい。例えば、情報処理サーバ装置10は、1回目の処理で、ステップS12において仮の鮮鋭化画像を得て、これを入力画像としてステップS10に戻すことを、数回繰り返す。 In the case of an image with a significant amount of fog, there are problems that the image cannot be sharpened sufficiently and the visibility cannot be calculated accurately just by performing the sharpening process of the image in step S2 once. Therefore, when the information processing server device 10 has only one image, the image sharpening process in step S2 may be repeated several times. For example, the information processing server device 10 obtains a temporary sharpened image in step S12 in the first process, and returns this as an input image to step S10, which is repeated several times.

また、情報処理サーバ装置10が、AIを用いた画像処理等により霧を除去する鮮鋭化処理を施して、第1光減衰パラメータ(式(9)のパラメータを含む)を式(7)により推定し、鮮鋭化処理された画像を入力画像としてステップS10に戻し、第2光減衰パラメータを式(7)により推定することを繰り返してもよい。第1光減衰パラメータと第2光減衰パラメータとから(例えば、第1光減衰パラメータと第2光減衰パラメータの平均値から)、ステップS21において、情報処理サーバ装置10が、視程を計算してもよい。 Further, the information processing server device 10 performs a sharpening process for removing fog by image processing using AI or the like, and estimates the first light attenuation parameter (including the parameter of the equation (9)) by the equation (7). Then, the sharpened image may be returned to step S10 as an input image, and the estimation of the second light attenuation parameter by the equation (7) may be repeated. From the first light attenuation parameter and the second light attenuation parameter (for example, from the average value of the first light attenuation parameter and the second light attenuation parameter), even if the information processing server device 10 calculates the visibility in step S21. Good.

さらに、本発明は、上記各実施形態に限定されるものではない。上記各実施形態は、例示であり、本発明の特許請求の範囲に記載された技術的思想と実質的に同一な構成を有し、同様な作用効果を奏するものは、いかなるものであっても本発明の技術的範囲に包含される。 Furthermore, the present invention is not limited to each of the above embodiments. Each of the above embodiments is an example, and any one having substantially the same configuration as the technical idea described in the claims of the present invention and exhibiting the same effect and effect may be used. It is included in the technical scope of the present invention.

1:視程推定システム
10:情報処理サーバ装置(視程推定装置)
20:端末装置
30:画像
C:カメラ(撮影手段)
1: Visibility estimation system 10: Information processing server device (visibility estimation device)
20: Terminal device 30: Image C: Camera (shooting means)

Claims (8)

撮影手段により屋外を撮影した画像を取得する取得手段と、
前記画像から環境光および光の透過マップを推定する推定手段と、
前記環境光および前記透過マップに基づき、前記画像を鮮鋭化した鮮鋭化画像を生成する画像鮮鋭化手段と、
前記鮮鋭化画像から物体を認識して、当該認識された物体の実スケールに関する情報に基づき、当該物体の画素スケールを当該物体の物理的スケールに換算する物体スケール換算手段と、
前記物体の物理的スケールの奥行き方向の成分から前記物体の奥行き方向距離を計算する奥行方向距離計算手段と、
前記透過マップと前記撮影手段からの距離との関係式を前記画像に適用して、光の減衰の程度を示す光減衰パラメータを計算する光減衰パラメータ計算手段と、
前記計算された光減衰パラメータを当てはめた前記関係式に基づき、前記奥行き方向距離から、視程を計算する視程計算手段と、
を備えたことを特徴とする視程推定装置。
An acquisition method for acquiring an image taken outdoors by a photography method, and
An estimation means for estimating ambient light and a light transmission map from the image,
An image sharpening means for generating a sharpening image obtained by sharpening the image based on the ambient light and the transmission map.
An object scale conversion means that recognizes an object from the sharpened image and converts the pixel scale of the object into the physical scale of the object based on the information about the actual scale of the recognized object.
Depth direction distance calculation means for calculating the depth direction distance of the object from the depth direction component of the physical scale of the object, and
A light attenuation parameter calculation means for calculating a light attenuation parameter indicating the degree of light attenuation by applying the relational expression between the transmission map and the distance from the photographing means to the image.
A visibility calculation means for calculating visibility from the depth direction distance based on the relational expression to which the calculated light attenuation parameters are applied.
A visibility estimation device characterized by being equipped with.
請求項1に記載の視程推定装置において、
前記画像において、前記奥行き方向距離を計算するための物体が認識できない場合、前記撮影手段の設置の高さおよび撮影方向から、前記画像における前記奥行き方向距離を計算することを特徴とする視程推定装置。
In the visibility estimation device according to claim 1,
When the object for calculating the depth direction distance cannot be recognized in the image, the visibility estimation device is characterized in that the depth direction distance in the image is calculated from the height of the installation of the photographing means and the photographing direction. ..
請求項1または請求項2に記載の視程推定装置において、
前記関係式が、指数関数の他に、正弦関数および余弦関数のうち少なくとも一方の関数の要素を含み、
前記光減衰パラメータが、前記光減衰パラメータ計算手段により計算された、前記正弦関数および余弦関数のうち少なくとも一方の関数の要素に対するパラメータを含むことを特徴とする視程推定装置。
In the visibility estimation device according to claim 1 or 2.
The relational expression includes elements of at least one of a sine function and a cosine function in addition to the exponential function.
A visibility estimation device, characterized in that the light attenuation parameter includes a parameter for an element of at least one of the sine function and the cosine function calculated by the light attenuation parameter calculation means.
請求項1から請求項3のいずれか1項に記載の視程推定装置において、
前記視程計算手段が、前記計算された光減衰パラメータを当てはめた前記関係式に基づく光透過の値であって、所定の前記画像の領域における前記光透過の値と、前記奥行き方向距離から、視程を算出することを特徴とする視程推定装置。
In the visibility estimation device according to any one of claims 1 to 3,
The visibility calculation means is a light transmission value based on the relational expression to which the calculated light attenuation parameter is applied, and is a visibility from the light transmission value in a predetermined image region and the depth direction distance. A visibility estimation device characterized by calculating.
請求項1から請求項4のいずれか1項に記載の視程推定装置において、
前記視程計算手段が、前記計算された光減衰パラメータを当てはめた前記関係式に基づく光透過の値が所定値になる前記視程を計算することを特徴とする視程推定装置。
In the visibility estimation device according to any one of claims 1 to 4.
A visibility estimation device, wherein the visibility calculation means calculates the visibility at which a value of light transmission based on the relational expression to which the calculated light attenuation parameter is applied becomes a predetermined value.
請求項1から請求項5のいずれか1項に記載の視程推定装置において、
前記視程を視程レベルに変換する視程レベル手段を更に備えたことを特徴とする視程推定装置。
In the visibility estimation device according to any one of claims 1 to 5.
A visibility estimation device further comprising a visibility level means for converting the visibility into a visibility level.
取得手段が、撮影手段により屋外を撮影した画像を取得する取得ステップと、
推定手段が、前記画像から環境光および光の透過マップを推定する推定ステップと、
画像鮮鋭化手段が、前記環境光および前記透過マップに基づき、前記画像を鮮鋭化した鮮鋭化画像を生成する画像鮮鋭化ステップと、
物体スケール換算手段が、前記鮮鋭化画像から物体を認識して、当該認識された物体の実スケールに関する情報に基づき、当該物体の画素スケールを当該物体の物理的スケールに換算する物体スケール換算ステップと、
奥行方向距離計算手段が、前記物体の物理的スケールの奥行き方向の成分から前記物体の奥行き方向距離を計算する奥行方向距離計算ステップと、
光減衰パラメータ計算手段が、前記透過マップと前記撮影手段からの距離との関係式を前記画像に適用して、光の減衰の程度を示す光減衰パラメータを計算する光減衰パラメータ計算ステップと、
視程計算手段が、前記計算された光減衰パラメータを当てはめた前記関係式に基づき、前記奥行き方向距離から、視程を計算する視程計算ステップと、
を含むことを特徴とする視程推定方法。
The acquisition means is an acquisition step of acquiring an image taken outdoors by the photographing means, and
The estimation means includes an estimation step of estimating an ambient light and a light transmission map from the image, and an estimation step.
An image sharpening step in which the image sharpening means generates a sharpening image obtained by sharpening the image based on the ambient light and the transmission map.
An object scale conversion step in which the object scale conversion means recognizes an object from the sharpened image and converts the pixel scale of the object into the physical scale of the object based on the information on the actual scale of the recognized object. ,
A depth direction distance calculation step in which the depth direction distance calculation means calculates the depth direction distance of the object from the depth direction component of the physical scale of the object.
A light attenuation parameter calculation step in which the light attenuation parameter calculation means applies the relational expression between the transmission map and the distance from the photographing means to the image to calculate the light attenuation parameter indicating the degree of light attenuation.
A visibility calculation step in which the visibility calculation means calculates the visibility from the depth direction distance based on the relational expression to which the calculated light attenuation parameter is applied.
A visibility estimation method comprising.
コンピュータを、
撮影手段により屋外を撮影した画像を取得する取得手段、
前記画像から環境光および光の透過マップを推定する推定手段、
前記環境光および前記透過マップに基づき、前記画像を鮮鋭化した鮮鋭化画像を生成する画像鮮鋭化手段、
前記鮮鋭化画像から物体を認識して、当該認識された物体の実スケールに関する情報に基づき、当該物体の画素スケールから当該物体の物理的スケールを換算する物体スケール換算手段、
前記物体の物理的スケールの奥行き方向の成分から前記物体の奥行き方向距離を計算する物体奥行方向距離計算手段、
前記透過マップと前記撮影手段からの距離との関係式を前記画像に適用して、光の減衰の程度を示す光減衰パラメータを計算する光減衰パラメータ計算手段、および、
前記計算された光減衰パラメータを当てはめた前記関係式に基づき、前記奥行き方向距離から、視程を計算する視程計算手段として機能させることを特徴とする視程推定装置用プログラムを記録したコンピュータ読み取り可能な記録媒体。
Computer,
Acquisition means for acquiring images taken outdoors by shooting means,
An estimation means for estimating ambient light and a light transmission map from the image,
An image sharpening means for generating a sharpening image obtained by sharpening the image based on the ambient light and the transmission map.
An object scale conversion means that recognizes an object from the sharpened image and converts the physical scale of the object from the pixel scale of the object based on the information about the actual scale of the recognized object.
An object depth direction distance calculation means for calculating the depth direction distance of the object from the depth direction component of the physical scale of the object.
A light attenuation parameter calculation means for calculating a light attenuation parameter indicating the degree of light attenuation by applying the relational expression between the transmission map and the distance from the photographing means to the image, and
A computer-readable record of a program for a visibility estimation device, which functions as a visibility calculation means for calculating visibility from the depth direction distance based on the relational expression to which the calculated light attenuation parameters are applied. Medium.
JP2021513357A 2019-09-19 2019-09-19 Visibility estimation device, visibility estimation method, and recording medium Active JP6901647B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/036755 WO2021053789A1 (en) 2019-09-19 2019-09-19 Visibility estimation device, visibility estimation method, and recording medium

Publications (2)

Publication Number Publication Date
JP6901647B1 true JP6901647B1 (en) 2021-07-14
JPWO2021053789A1 JPWO2021053789A1 (en) 2021-09-30

Family

ID=74884449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021513357A Active JP6901647B1 (en) 2019-09-19 2019-09-19 Visibility estimation device, visibility estimation method, and recording medium

Country Status (3)

Country Link
JP (1) JP6901647B1 (en)
CN (1) CN112912689A (en)
WO (1) WO2021053789A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08219784A (en) * 1995-02-20 1996-08-30 Hokkaido Kaihatsukyoku Kaihatsu Doboku Kenkyusho Method for measuring visibility
JP2004317309A (en) * 2003-04-16 2004-11-11 Mts Institute Inc Visibility calculation system and its program
JP2008039763A (en) * 2006-06-15 2008-02-21 Valeo Vision Method for determining distance of visibility for driver of vehicle
US20090161914A1 (en) * 2007-12-21 2009-06-25 Caterpillar Inc. Visibility Range Estimation Method and System
JP2010117335A (en) * 2008-11-14 2010-05-27 Nexco-Engineering Hokkaido Co Ltd Visibility determination system using image recorded by camera

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2720976B2 (en) * 1988-07-07 1998-03-04 三菱電機株式会社 Transponder device
US5195144A (en) * 1988-11-15 1993-03-16 Thomson-Csf Process for estimating the distance between a stationary object and a moving vehicle and device for using this process
JP5063985B2 (en) * 2006-11-02 2012-10-31 株式会社ニデック Obtaining the actual fundus distance
JP2009151078A (en) * 2007-12-20 2009-07-09 Samsung Electronics Co Ltd Projection optical system and image projection device
US20110108428A1 (en) * 2009-11-06 2011-05-12 Empire Level Mfg. Corp. Method for Manufacturing High-Visibility Measurement Tool
JP5349257B2 (en) * 2009-11-10 2013-11-20 弘允 石井 Visual status measurement device
US20120062867A1 (en) * 2010-09-10 2012-03-15 Kazuhiro Shibatani Laser distance measurement apparatus
JP5964687B2 (en) * 2012-08-02 2016-08-03 株式会社キーエンス Optical sensor
CN103905691B (en) * 2014-03-27 2015-07-15 深圳市保千里电子有限公司 Method for obtaining sharp image through penetration through rain, snow and fog, and photographing system
CN108292469B (en) * 2015-12-09 2021-02-05 笠原一 Position information determining method, position information determining device and computer storage medium
CN205403790U (en) * 2016-02-24 2016-07-27 中国石油化工股份有限公司胜利油田分公司东辛采油厂 Novel belt pulley coincidence correction appearance
AT518589A1 (en) * 2016-05-02 2017-11-15 Zkw Group Gmbh A method for improving lighting conditions from the perspective of a driver of a motor vehicle
JP6301416B2 (en) * 2016-09-05 2018-03-28 株式会社Screenホールディングス Image processing method, image processing apparatus, and imaging apparatus
CN107194924A (en) * 2017-05-23 2017-09-22 重庆大学 Expressway foggy-dog visibility detecting method based on dark channel prior and deep learning
KR101966750B1 (en) * 2017-11-23 2019-04-08 가천대학교 산학협력단 Device, system, and method for estimating visibility by machine learning using image data
CN117291864A (en) * 2022-06-17 2023-12-26 纬哲纽咨信息咨询有限公司 Visibility estimating device and method, and recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08219784A (en) * 1995-02-20 1996-08-30 Hokkaido Kaihatsukyoku Kaihatsu Doboku Kenkyusho Method for measuring visibility
JP2004317309A (en) * 2003-04-16 2004-11-11 Mts Institute Inc Visibility calculation system and its program
JP2008039763A (en) * 2006-06-15 2008-02-21 Valeo Vision Method for determining distance of visibility for driver of vehicle
US20090161914A1 (en) * 2007-12-21 2009-06-25 Caterpillar Inc. Visibility Range Estimation Method and System
JP2010117335A (en) * 2008-11-14 2010-05-27 Nexco-Engineering Hokkaido Co Ltd Visibility determination system using image recorded by camera

Also Published As

Publication number Publication date
CN112912689A (en) 2021-06-04
JPWO2021053789A1 (en) 2021-09-30
WO2021053789A1 (en) 2021-03-25

Similar Documents

Publication Publication Date Title
US9846927B2 (en) Systems and methods for haziness detection
US7602937B2 (en) Image-based visibility measurement
US11476795B2 (en) Solar power forecasting
CN115439424B (en) Intelligent detection method for aerial video images of unmanned aerial vehicle
Hautière et al. Towards fog-free in-vehicle vision systems through contrast restoration
CN110399856B (en) Feature extraction network training method, image processing method, device and equipment
US10839212B2 (en) Systems and methods for detecting imaged clouds
Kurtz et al. A sea-ice lead detection algorithm for use with high-resolution airborne visible imagery
Vaibhav et al. Real-time fog visibility range estimation for autonomous driving applications
KR102267517B1 (en) Road fog detecting appartus and method using thereof
WO2010002379A1 (en) Digital camera control system
JP6901647B1 (en) Visibility estimation device, visibility estimation method, and recording medium
CN117291864A (en) Visibility estimating device and method, and recording medium
KR101877173B1 (en) Coastline Detection System using Satellite Image and method thereof
CN117037007B (en) Aerial photographing type road illumination uniformity checking method and device
Nasiri et al. UAV-Based Canopy Height Modeling under Leaf-on and Leaf-off Conditions for Determining Tree Height and Crown Diameter (Case Study: Hyrcanian Mixed Forest)
US20230298144A1 (en) Infra-red contrast enhancement filter
CN116596805B (en) Polarization defogging method based on polarization state difference of scene object and atmosphere light
Chow Cloud Characterization for Solar Forecasting Using Sky Imagery
Hautière¹ et al. Perception through scattering media for autonomous vehicles
Kim et al. Incorrect Match Detection Method for Arctic Sea-Ice Reconstruction Using UAV Images
Madadikhaljan et al. Single-Image Dehazing on Aerial Imagery Using Convolutional Neural Networks
Che Mat et al. Surf Zone Mapping Using Multirotor Unmanned Aerial Vehicle Imagery
CN117291865A (en) Visibility estimating device and method, and recording medium
ApinayaPrethi et al. Fog detection and visibility measurement using SVM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210309

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210617

R150 Certificate of patent or registration of utility model

Ref document number: 6901647

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150