JP4701383B2 - 視界不良評価方法および視界不良評価装置 - Google Patents

視界不良評価方法および視界不良評価装置 Download PDF

Info

Publication number
JP4701383B2
JP4701383B2 JP2005035004A JP2005035004A JP4701383B2 JP 4701383 B2 JP4701383 B2 JP 4701383B2 JP 2005035004 A JP2005035004 A JP 2005035004A JP 2005035004 A JP2005035004 A JP 2005035004A JP 4701383 B2 JP4701383 B2 JP 4701383B2
Authority
JP
Japan
Prior art keywords
frequency
image
visibility
cpd
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005035004A
Other languages
English (en)
Other versions
JP2006221467A (ja
Inventor
亨 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hokkaido University NUC
Original Assignee
Hokkaido University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hokkaido University NUC filed Critical Hokkaido University NUC
Priority to JP2005035004A priority Critical patent/JP4701383B2/ja
Publication of JP2006221467A publication Critical patent/JP2006221467A/ja
Application granted granted Critical
Publication of JP4701383B2 publication Critical patent/JP4701383B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、視界不良評価方法および視界不良評価装置に関し、特に、デジタル画像を用いて視界不良時の視認性レベルを数値化する技術に関する。
従来一般に、道路の視程障害である霧や吹雪は、視程計によって計測される。視程計による計測では、空気中の水滴や粒子の密度を測定し、得られた結果を視程距離に変換する。しかし、視程計は、非常に高価であり、かつ、計測値にも問題がある。すなわち、視程距離は、設置場所による影響が大きいため、視程計は、運転者や道路管理者(以下「運転者等」という)が感じる視界と異なる視程距離を出力する場合が多く、信頼性は低い。
このため、近時、もっと簡単な方法で視界の悪さを評価する方法の開発が進められている。このような方法の例として、例えば、霧や吹雪による視界不良を道路監視用(ITV:Industrial TeleVision)カメラの画像から評価する技術が提案されている(非特許文献1、非特許文献2参照)。これらの方法では、視程値と画像を結び付けることを目指している。
非特許文献1記載の方法では、画像から対象物のコントラストを計測し、計測結果から、視程距離を予測する式を観測に基づいて求める。すなわち、視程距離を予測するために、デジタル画像から画像の明るさを求め、コントラストを横軸とし、視程距離との関係を求める。この方法では、視程距離の計算プロセスにコントラスト値を入れ込むことから、画像処理から得た横軸に意味を持たせている。非特許文献1によれば、画像撮影位置などを細かくパラメータとして入力し、視程距離をある程度の誤差で予測可能であるとしている。
非特許文献2記載の方法も、非特許文献1記載の方法と同様に、視程計の代替として画像処理技術から視程距離を求める技術である。ただし、非特許文献1記載の方法のように対象物を設定せずに、ITVカメラが捕らえた道路とその周辺の画像から、視程距離を予測するシステムを提案している。具体的には、ITVカメラと視程計とがほぼ同一の地点にある箇所で、画像の10分間の平均輝度の標準偏差を横軸とし、縦軸を視程距離(m)にして、両者の相関を検討している。その結果、非特許文献2によれば、両者の間には非常に高い相関があり、画像処理の結果を視程計の代替として利用可能としている。
Taek Mu Kwon, "Atomospheric Visibility Measurements using Video Cameras: Relative Visibility," Center for Transportation Studies (CTS) at the University of Minnesota, CTS04-03, July 2004 千葉 隆広、石本 敬志、加治屋 安彦、「道路監視用カメラによる視程計測手法を用いた視程の空間的変動分析」、第12回寒地技術シンポジウム、CTC96−I−055、1996年11月
しかしながら、上記した従来の方法においては、やはり、いずれも、視程距離を評価の指標にしているため、次のような問題がある。
まず、視程距離を画像から求めることに起因する問題として、システムの複雑化を挙げることができる。視程は大気中の粒子の密度を示す物理量であり、画像から判別するためには照度や対象までの距離といった付加的な情報を必要とするからである。
より詳細には、視程距離は、上記のように、大気中の粒子の密度をベースとして求められる。しかし、画像として捕らえられた大気の状況は、粒子で散乱した光の状態を表している。そこで、光の状態から粒子の状態を推定する必要がある。その際、光の状態を示すためには、固定した対象物、当該対象物との距離・角度、太陽の位置、カメラの位置などを考慮する必要があり、非常に複雑な仕組みを必要とする。
また、視程距離を視界の評価に適用することに起因する問題として、視程距離それ自体の、評価指標としての限界を挙げることができる。実際の見やすさは、同じ霧の濃さや物理的な粒子密度であっても、周囲が明るければ悪くなり、周囲が暗ければ良くなる。昼間の霧の方が、同じ霧の程度ならば、夜間の霧よりも見づらい。視程距離は、このような評価を表すことができず、同じ値となる。また、運転していると、道路の前方の背景が空であれば、同じ霧であっても前方を見にくく感じる。このような評価も視程距離では行うことができない。すなわち、人間の視認性レベルと異なる評価結果となる場合があり、信頼性の点で一定の限界がある。
さらに、特に、非特許文献1記載の方法では、コントラストを求めるための対象物を設置しなければならず、既存のITVカメラの画像を直接使うことができないという問題もある。
また、特に非特許文献2記載の方法では、相関に技術的な意味がなく、相関があるからと言って因果関係を示しているわけではない。したがって、特定の1箇所でパラメータを決めることができたとしても、そのまま他の箇所に対応できるとは限らない。他の箇所に対応するためには、その都度、視程距離と画像を観測し、パラメータを決定する必要がある。
本発明は、かかる点に鑑みてなされたものであり、システムを複雑化することなく、評価の信頼性を向上することができる視界不良評価方法および視界不良評価装置を提供することを目的とする。
本発明は、
屋外に設置したカメラにより取得したデジタル画像を入力する入力ステップと、
入力したデジタル画像を周波数成分に変換し、前記周波数成分をパワースペクトルの形で出力する変換ステップと、
変換後の周波数成分を、画素をベースとした周波数(サイクル/画素:cpp)から画角をベースとした周波数(サイクル/度:cpd)に変換した後、フィルタ処理して1.5cpdから18cpdの領域の周波数成分を取得するフィルタ処理ステップと、
取得した周波数成分のパワースペクトルの合計値に基づいて、悪天候による視界の見づらさを評価指標として、視界の状態を判定する判定ステップと、を有する。
また、
屋外に設置したカメラにより取得したデジタル画像を入力する入力ステップと、
入力したデジタル画像を周波数成分に変換し、前記周波数成分をパワースペクトルの形で出力する変換ステップと、
変換後の周波数成分を、画素をベースとした周波数(サイクル/画素:cpp)から画角をベースとした周波数(サイクル/度:cpd)に変換した後、フィルタ処理して1.5cpdから18cpdの領域の周波数成分を取得するフィルタ処理ステップと、
取得した周波数成分のパワースペクトルの合計値に基づいて、悪天候による視界の見づらさを評価指標として、視界の状態を判定する判定ステップと、を有する。
本発明によれば、システムを複雑化することなく、評価の信頼性を向上することができる。
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
本発明者は、システムを複雑化することなく、視界不良評価の信頼性を向上するためには、従来の視程距離ではなく、人間が感じる見づらさをそのまま評価の指標にする必要があることを見出した。また、どこでも容易に視界を評価するためには、指標に技術的な裏付けを要するため、人間が認識できる空間周波数の範囲をターゲットとした部分の画像処理結果に着目する必要があることを見出した。さらに、そのためには、人間のコントラスト感度を利用し、コントラスト感度が良好な空間周波数領域に着目して画像処理を行う必要があることを見出したのである。
本発明は、視界不良の評価指標として、人間が感じる見づらさをそのまま用い、かつ、画像の空間周波数を利用し、人間のコントラスト感度を利用したフィルタ処理により、上記指標(見づらさ)と結び付く画像処理を行うものである。
まず、本発明の原理を説明する。
元々、視程距離は、人間が昼間に十分大きい黒い板を見ることができる距離として定義されており、非常にあいまいな指標である。視程距離では、上記のように、人間の見づらさを表現できない場面が多くあり、見づらさを的確に表現できないという欠点を有する。よって、本来の視程という言葉が表すように、人間の感覚を取り入れた指標を使用するべきである。そこで、本発明では、視程距離の代替として、人間が感じる見づらさをそのまま指標として採用する。言わば、本発明は、画像は人間の「見え」を表しているとし、それをストレートに表現する指標を示したものと言える。
また、画像から見づらさを求めるためには、コントラストに着目して、空間周波数を利用した画像処理を行う必要がある。このとき、画像から得られた各画素の明るさの違い全部を対象とした場合、当該処理はあくまで画像そのものの処理(空間周波数の全領域を対象とした処理)であり、技術的には何の裏付けもない指標となってしまう。そこで、本発明では、人間が認識できる空間周波数の範囲をターゲットとした部分の画像処理結果に着目する。そのため、人間のコントラスト感度を利用する。コントラスト感度は空間周波数によって異なる。コントラスト感度の高い範囲の画像処理結果の大小を見づらさ(指標)に結び付けるため、指標に技術的な裏付けを提供することが可能になる。換言すれば、本発明では、画像処理に際し、空間周波数について、視覚として感知できる領域と、感知できない領域とを分けて処理する。視覚として感知できる領域としては、例えば、コントラスト感度が良好な空間周波数領域を用いることができる。さらに、感知できる領域内においてもその白黒の差(コントラスト)をパワースペクトルとして評価する。
要するに、本発明では、人間のコントラスト感度を利用し、コントラスト感度が良好な空間周波数領域に着目して画像処理を行う。視界の悪化は、人間にとってコントラスト感度が良好な空間周波数が減少することを意味する。言わば、本発明は、人間の視覚特性に基づいた画像処理手法であり、そこから出力される視認性レベルは、共通指標となる。
なお、コントラスト感度によって重み付けする場合は、より一層、本当の人間が見ている通りの評価が可能となる。
このように、本発明は、霧や吹雪による視界の悪さを評価する指標として、人間が感じる見づらさをそのまま採用するとともに、画像の空間周波数を利用し、上記指標(見づらさ)と結び付く画像処理を行うものである。具体的には、霧や吹雪による視界不良を画像から評価する指標を出力する。その評価指標は、人間が実際にその画像を見たときの視認性レベルに対応している。
これにより、例えば、既にある地域に設置されている多数(数十台、数百台など)のITVカメラから送られてくる画像のリアルタイム処理が可能になり、悪天候時の道路管理技術の高度化や利用者への情報提供が可能となる。
図1は、本発明の一実施の形態に係る視界不良評価装置の構成を示すブロック図である。
この視界不良評価装置100は、上記の原理に基づいて、視界の状態を評価する装置であって、複数(N台)のカメラ110−1、110−2、‥、110−Nと、カメラ110−1〜110−Nで撮影した画像を入力処理する画像入力部120と、画像入力部120から出力されるデジタル画像をFFT処理するFFT処理部130と、FFT処理部130から出力されるスペクトルデータに対して、人間の視覚感度を踏まえた空間周波数の帯域フィルタを適用するフィルタ処理部140と、フィルタ処理部140の出力結果を用いて視界状態の評価を行う判定部150と、判定部150の判定結果を外部に出力する結果出力部160とを有する。画像入力部120、FFT処理部130、フィルタ処理部140、および判定部150は、例えば、専用または汎用の計算機170で構成されている。また、結果出力部160は、例えば、ディスプレイやプリンタなどである。
次いで、上記構成を有する視界不良評価装置100の動作について、図2に示すフロー図を用いて説明する。図2は、本発明の一実施の形態に係る視界不良評価方法の手順を示すフロー図である。なお、ここでは、一例として、例えば、道路における視界不良の評価を例にとって説明する。また、ここでは、本発明方法の手順の各ステップを、図1の装置の構成要素と対応付けて説明するが、もちろん、これは単なる一例である。
まず、ステップS1000では、カメラ110−1〜110−Nおよび画像入力部120を用いて、画像の入力を行う。具体的な手順は、次の通りである。
まず、カメラ110−1〜110−Nで道路空間の画像を撮影する。カメラ110−1〜110−Nは、道路に設置したITVカメラ、道路パトロールカー内の車載カメラ、定点設置されているデジタルカメラ、現地で撮影したハンディカメラなど、画像のデジタル化が可能なものであれば、どんなカメラであってもよい。カメラ110−1〜110−Nで撮影した画像(オリジナル画像)の一例を、図3(A)に示す。図3(A)は、ITVカメラで撮影した画像の一例を示している。カメラ110−1〜110−Nで撮影した画像は、画像入力部120に送られる。
そして、画像入力部120で、カメラ110−1〜110−Nで撮影した画像をデジタル化する。
なお、カメラ自身で画像のデジタル化を行う場合、画像入力部120は、カメラから出力されるデジタル画像をそのまま入力する。
そして、同じく画像入力部120で、入力したデジタル画像のどこを評価するかを決める。ただし、好ましくは、容易にFFT(Fast Fourier Transform:高速フーリエ変換)で処理できるように、画素数が128×128や256×256のように、2のべき乗となる画像領域とする(画像の切り出し)。切り出す画像の領域は、あらかじめ設定され、または、ユーザにより任意に設定可能である。このようにして所望の領域を切り出した画像(切り出し画像)の一例を、図3(B)に示す。
そして、画像は通常カラーであるため、各画像の表現を明るさ成分のみとなるように変換する。一般に、RGBの各々の明るさで、1つの画素の明るさ成分と色成分が表現されているが、RGBの値を使って、1つの明るさ成分を作る。この変換は、一般的なものを用いればよく、図1の装置の場合は、同じく画像入力部120で行われる。この変換された明るさ成分はピクセル値(または画素値)と呼ばれ、画面ではグレイスケール(通常、白から黒、つまり、0から255の256階調)で表現される。グレイスケールでは、白が一番明るく、黒が一番暗い。明るさ成分のみに変換されたデジタル画像は、FFT処理部130に送られる。
次に、ステップS1100では、FFT処理部130で、FFT処理を行う。具体的には、FFTを用いて、入力したデジタル画像の2次元周波数解析を行う。
すなわち、周波数成分の解析については、入力したデジタル画像は、上記のように、明るさ成分がグレイスケールで表現されるが、デジタル画像を構成する画像単位毎の明るさの濃度分布は周波数成分として数値化することが可能である。画像を周波数成分に分解し、高周波・低周波成分の分布により画像を特徴付ける。例えば、比較的明るい場合は高周波となり、比較的暗い場合には低周波となる。また、視界が良好なときは複雑な周波数分布が得られ、霧や吹雪で視界が悪化したときは単純な周波数分布となる。周波数成分として数値化するには、例えば、直交変換の2次元FFTを適用する。その周波数成分を出力するにはパワースペクトルの形で行う。FFT処理後のデータ(パワースペクトル)は、フィルタ処理部140に送られる。
より詳細には、一列に並ぶ画素の明るさ成分の変化は、三角関数の組み合わせで近似的に表現することができる。この表現は、フーリエ級数展開と呼ばれる。フーリエ級数展開によって得られる周波数別の係数を求める操作が、フーリエ変換である。フーリエ変換すると、1つの周波数成分の係数しか出力されない。
さらに、周波数別の係数を変えて、フーリエ変換の逆(逆フーリエ変換)を行うと、新しい画像を作成することになる。係数を変化させる処理をフィルタといい、フィルタ処理後の画像は見ることができる。
フーリエ変換された様々な三角関数の振幅の2乗和はパワースペクトルと呼ばれ、各々の三角関数の周波数に対応するパワースペクトルを求めることができる。コントラストが弱まって見分けづらくなると、パワースペクトルは小さくなる。
2次元のFFTでは、横の並びの画素の処理と縦の並びの画素の処理とを同時に行う。FFTとは、フーリエ変換を離散的な数値を対象に、高速に計算するための数値計算アルゴリズムの名称である。
図3(C)および図3(D)は、図3(B)の画像をFFT処理して得られたパワースペクトルの2次元分布を示すスペクトル図である。図3(C)は、水平方向の周波数別に鉛直方向のパワースペクトルを合計した結果を示し、図3(D)は、鉛直方向の周波数別に水平方向のパワースペクトルを合計した結果を示している。両図において、横軸は周波数であり、縦軸はパワースペクトルの合計(単位なし)である。横軸の周波数の単位は、後述する「サイクル/画素(cpp)」であるが、「サイクル/度(cpd)」に読み替えることも可能である。
なお、この例では、便宜上、パワースペクトルの2次元分布を2つの2次元グラフで表しているが、本来の表現方法として、3次元グラフで表すことも可能である。
次に、ステップS1200では、フィルタ処理部140で、入力したパワースペクトルに対して所定のフィルタ処理を行う。具体的には、カメラの解像度およびレンズ視野を考慮して、画像の空間周波数を「サイクル/画素(cpp:cycle/pixel)」の空間周波数から「サイクル/度(cpd:cycle/degree)」の空間周波数に換算した後、人間の視覚感度を踏まえた空間周波数の帯域フィルタを適用する。人間の視覚感度を踏まえた空間周波数としては、例えば、人間の視覚感度が良好な領域を用いる。そして、人間の視覚感度が良好な領域としては、例えば、コントラスト感度テストで採用されている1.5cpdから18cpdを用いる。この範囲外、つまり、1.5cpdよりも低いまたは18cpdよりも高い空間周波数領域は、カットする。
より詳細には、まず、カメラの画角から、1画素当たりの画角を求める。ステップS1100の周波数は、画素をベースとした周波数(cpp)であり、人間の視覚とは無関係であるため、1画素当たりの画角を求めて、画素をベースとした周波数(cpp)を、画角をベースとした周波数(cpd)に変換する。1画素当たりの画角は、カメラで使用されているレンズの画角と撮像素子としてのCCD(charge-coupled device:電荷結合素子)の解像度とによって求めることができる。
例えば、画素ベースの空間周波数(cpp)を画角ベースの空間周波数(cpd)に変換する具体的な過程は、次の通りである。ここで、撮影用のカメラのCCDのサイズ(水平、垂直)、CCDの画素数(水平、垂直)、およびレンズの焦点距離は、与えられるものとする。また、水平および垂直とも同じ変換過程であるため、以下では水平のみの変換過程を示す。
CCDに映る視野(利用者が見ているカメラの撮影像そのもの)の水平画角(以下単に「水平画角」という)は、次の(式1)から求めることができる。
水平画角=(180度/π)×tan−1(CCDの水平サイズ(mm)/レンズの焦点距離(mm)) ‥(式1)
次に、(式1)で求めた水平画角と既知のCCDの水平画素数を用いて、次の(式2)から、1水平画素当たりの画角を求めることができる。
1水平画素当たりの画角=水平画角/CCDの水平画素数 ‥(式2)
一方、空間周波数分析では、このカメラを用いて撮影された画像から、水平2画素×垂直2画素の2次元画像を切り取って用いる。例えば、n=8とすると、水平256画素×垂直256画素の2次元画像を切り抜くことになる。ところで、A間隔でサンプリングされた信号をフーリエ変換すると、周波数は、1/Aで繰り返されるものが得られる。離散フーリエ変換では、1/Aを256等分したものが周波数となる。例えば、Aが1画素のとき、周波数は画素ベースの空間周波数となり、その値は1/(256×1画素)(cpp)となる。1画素当たりの画角を考えたときは、周波数は画角ベースの空間周波数(cpd)となり、その値は1/(256×1画素当たり画角)(cpd)となる。一般に、画素ベースの水平空間周波数(cpp)がmのときの画角ベースの水平空間周波数(cpd)は、次の(式3)から求めることができる。
画角ベースの水平空間周波数(cpd)=m/(2×1水平画素当たりの画角)
‥(式3)
ここで、2は、解析画像の水平方向画素数である。
そして、画角をベースとした周波数が決まると、人間が認識できる空間周波数(画角による周波数)をコントラスト感度テストの1.5cpd(サイクル/度)から18cpd(サイクル/度)に設定する。この範囲は、人間の視覚感度が良好な領域と考えることができる。本実施の形態では、人間の視覚感度の限界値は不明であるため、人間の視覚感度が良好な領域を用いる。
これらの領域よりも高い領域(細かく明るさが変化する領域)と低い領域(ゆったり明るさが変化する領域)は、人間の目には映らない。そこで、フィルタ処理によって、これらの周波数領域を除いた空間周波数分布を作成する。フィルタ処理後のデータ(人間の視覚感度が良好な領域の空間周波数分布)は、判定部150に送られる。
このとき、作成した空間周波数分布を逆フーリエ変換することによって、フィルタ処理後の画像を表示することができる。図3(E)は、フィルタ処理後の逆フーリエ変換画像の一例を示す図である。
次に、ステップS1300では、判定部150で、ステップS1200で得られたフィルタ処理後の空間周波数分布を用いて、あらかじめ作成した判定基準に従って判定を行う。
具体的には、フィルタ処理後の画像は、人間の視覚感度が良好な領域の画像のみとなっており、視界が悪くなるに従って、残った画像の強度(パワースペクトル)は低下していく。そこで、フィルタ処理による画像強度(パワースペクトル)の値と被験者による見づらさの評価との関係をあらかじめ求めておき、これを判定基準として用いる。被験者による見づらさの評価は、画像強度(パワースペクトル)の値の対数に比例する。判定基準の一例を、図3(F)に示す。図3(F)のグラフにおいて、横軸はパワースペクトルの合計値(単位なし)であり、縦軸は見づらさ(上記のように主観的な評価指標で、単位なし)である。また、この例では、見づらさとして、「非常に見づらい(Very Poor)」、「見づらい(Poor)」、「普通(Fair)」、「見やすい(Good)」、「非常に見やすい(Very Good)」の5段階(レベル)を設定している。数値として「25」は「非常に見やすい」、「5」は「非常に見づらい」をそれぞれ意味する。この例では、5人の被験者の合計点を縦軸の数字としているため、最大値が25に、最小値が5にそれぞれなっている。
上記のように、図3(F)のグラフにおいて、横軸は、フィルタ処理後の空間周波数領域のパワースペクトルの合計値である。パワースペクトルの合計値は、見ている範囲における見えた量を示している。見える範囲の周波数であっても、コントラストが低い、つまり、白黒の差(明るさの差)が小さければ、合計値は小さくなる。判定の結果および判定前の中間データ(結果の出力に必要なデータのみ)は、結果出力部160に出力される。
次に、ステップS1400では、結果出力部160で、ステップS1300の判定の結果を所定の形式で出力する。
図4から図7は、それぞれ、判定結果を含む出力画面の一例を示す図である。図4は、判定結果が「見やすい」の場合であり、図5は、判定結果が「普通」の場合であり、図6は、判定結果が「見づらい」の場合であり、図7は、判定結果が「非常に見づらい」の場合である。
図4から図7の例では、いずれも、出力画面は、オリジナル画像(図3(A)参照)、切り出し画像(図3(B)参照)、切り出し画像をFFT処理して得られたパワースペクトルの2次元分布を示すスペクトル図(図3(C)、図3(D)参照)、フィルタ処理後の逆フーリエ変換画像(図3(E)参照)、および、判定結果のプロット位置を含む判定基準のグラフ(図3(F)参照)で構成されている。ここでは、例えば、オリジナル画像の画素数は、横が320画素で、縦が240画素であり(320画素×240画素)、切り出し画像の画素数は、横も縦も128画素である(128画素×128画素)。さらに、この例では、判定基準のグラフの上方に、判定結果(見づらさのレベル)を表示し、また、判定基準のグラフの下方に、判定結果のプロット位置に対応する横軸の数値(周波数別のパワースペクトルの合計値)を表示するように構成されている。
このように、本実施の形態によれば、評価の指標として、従来の視程距離に代えて、見づらさという主観的な指標を用いるとともに、人間のコントラスト感度を利用して、人間が視覚として感知できる領域とできない領域とを分けて処理(周波数成分の解析)を行うため、システムを複雑化することなく、評価の信頼性を向上することができる。
なお、本実施の形態では、画像の空間周波数を求めるためにフーリエ変換を用いているが、これに限定されるわけではなく、例えば、ウエーブレット変換などの高度の変換技術を用いることも可能である。
本発明に係る視界不良評価方法および視界不良評価装置は、システムを複雑化することなく、評価の信頼性を向上することができる視界不良評価方法および視界不良評価装置として有用である。
特に、本技術は、視程計の増設と比較して、低コストでより多地点の視程障害状況に関する情報をより人間の視覚に近い形で把握することができ、また、情報の蓄積とリアルタイムの処理・配信を行うことが可能であるため、運転者等への情報配信システムや道路管理者のサポートシステムとして有用である。
本発明の一実施の形態に係る視界不良評価装置の構成を示すブロック図 本発明の一実施の形態に係る視界不良評価方法の手順を示すフロー図 図2のフロー図の説明に供する図 判定結果が「見やすい」の場合の出力画面の一例を示す図 判定結果が「普通」の場合の出力画面の一例を示す図 判定結果が「見づらい」の場合の出力画面の一例を示す図 判定結果が「非常に見づらい」の場合の出力画面の一例を示す図
符号の説明
110−1〜110−N カメラ
120 画像入力部
130 FFT処理部
140 フィルタ処理部
150 判定部
160 結果出力部

Claims (2)

  1. 屋外に設置したカメラにより取得したデジタル画像を入力する入力ステップと、
    入力したデジタル画像を周波数成分に変換し、前記周波数成分をパワースペクトルの形で出力する変換ステップと、
    変換後の周波数成分を、画素をベースとした周波数(サイクル/画素:cpp)から画角をベースとした周波数(サイクル/度:cpd)に変換した後、フィルタ処理して1.5cpdから18cpdの領域の周波数成分を取得するフィルタ処理ステップと、
    取得した周波数成分のパワースペクトルの合計値に基づいて、悪天候による視界の見づらさを評価指標として、視界の状態を判定する判定ステップと、
    を有することを特徴とする視界不良評価方法。
  2. 屋外に設置したカメラにより取得したデジタル画像を入力する入力手段と、
    入力したデジタル画像を周波数成分に変換し、前記周波数成分をパワースペクトルの形で出力する変換手段と、
    変換後の周波数分布を、画素をベースとした周波数(サイクル/画素:cpp)から画角をベースとした周波数(サイクル/度:cpd)に変換した後、フィルタ処理して1.5cpdから18cpdの領域の周波数成分を取得するフィルタ処理手段と、
    取得した周波数成分のパワースペクトルの合計値に基づいて、悪天候による視界の見づらさを評価指標として、視界の状態を判定する判定手段と、
    を有することを特徴とする視界不良評価装置。
JP2005035004A 2005-02-10 2005-02-10 視界不良評価方法および視界不良評価装置 Active JP4701383B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005035004A JP4701383B2 (ja) 2005-02-10 2005-02-10 視界不良評価方法および視界不良評価装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005035004A JP4701383B2 (ja) 2005-02-10 2005-02-10 視界不良評価方法および視界不良評価装置

Publications (2)

Publication Number Publication Date
JP2006221467A JP2006221467A (ja) 2006-08-24
JP4701383B2 true JP4701383B2 (ja) 2011-06-15

Family

ID=36983759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005035004A Active JP4701383B2 (ja) 2005-02-10 2005-02-10 視界不良評価方法および視界不良評価装置

Country Status (1)

Country Link
JP (1) JP4701383B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4793571B2 (ja) * 2006-08-23 2011-10-12 社団法人北海道開発技術センター 走行支援システム及び走行支援方法
JP4321591B2 (ja) 2007-01-11 2009-08-26 株式会社デンソー 車載霧判定装置
JP4241834B2 (ja) 2007-01-11 2009-03-18 株式会社デンソー 車載霧判定装置
JP5170733B2 (ja) * 2007-03-30 2013-03-27 一般財団法人日本気象協会 広域視程情報作成装置および広域視程情報作成方法
DE102011086512B4 (de) * 2011-11-16 2022-12-01 Bayerische Motoren Werke Aktiengesellschaft Nebeldetektion
JP5770661B2 (ja) * 2012-03-19 2015-08-26 アスモ株式会社 視界情報取得方法、及び視界情報取得装置
US10803570B2 (en) 2018-05-10 2020-10-13 Eagle Technology, Llc Method and system for a measure of visibility from a single daytime image
US11481996B2 (en) 2018-09-20 2022-10-25 Nec Corporation Calculation device, information processing method, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194852A (ja) * 1998-12-24 2000-07-14 Ricoh Co Ltd 画像評価方法及び装置
JP2002230558A (ja) * 2001-02-02 2002-08-16 Toru Hagiwara 視環境評価方法
JP2002247391A (ja) * 2001-02-16 2002-08-30 Canon Inc 画像処理方法及びその装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194852A (ja) * 1998-12-24 2000-07-14 Ricoh Co Ltd 画像評価方法及び装置
JP2002230558A (ja) * 2001-02-02 2002-08-16 Toru Hagiwara 視環境評価方法
JP2002247391A (ja) * 2001-02-16 2002-08-30 Canon Inc 画像処理方法及びその装置

Also Published As

Publication number Publication date
JP2006221467A (ja) 2006-08-24

Similar Documents

Publication Publication Date Title
JP4701383B2 (ja) 視界不良評価方法および視界不良評価装置
US20050219362A1 (en) Quality analysis in imaging
Babari et al. A model-driven approach to estimate atmospheric visibility with ordinary cameras
US8437566B2 (en) Software methodology for autonomous concealed object detection and threat assessment
US9258531B2 (en) System and method for video-quality enhancement
JP2009180583A (ja) ディスプレイの輝度ムラ評価方法および装置
JP2012013675A (ja) 鋼管内部腐食解析装置及び腐食解析方法
US20060221181A1 (en) Video ghost detection by outline
CN106204524A (zh) 一种评价图像质量的方法及装置
JP2007172512A (ja) 画像品質定量評価方法及びその装置並びに画像品質定量評価値を計算するプログラム
CN114066857A (zh) 红外图像质量评价方法、装置、电子设备及可读存储介质
CN108898569A (zh) 一种针对于可见光和红外遥感影像的融合方法及其融合结果评价方法
CN113705332A (zh) 检测车载终端摄像头遮挡的方法和装置、车载终端、车辆
Hertel et al. Image quality standards in automotive vision applications
Purohit et al. Enhancing the surveillance detection range of image sensors using HDR techniques
US9232215B1 (en) Measuring video acuity
CN116524877A (zh) 车载屏幕亮度调节方法、装置、电子设备和存储介质
KR20210032188A (ko) 우시정 측정 시스템 및 방법
Livingston et al. Image processing for human understanding in low-visibility
JP5218634B2 (ja) 擬似濃淡画像生成装置及びプログラム
JP7040627B2 (ja) 算出装置、情報処理方法およびプログラム
Tong et al. Testing color dif ference evaluation methods for color digital images
US9197822B1 (en) Array augmented parallax image enhancement system and method
JP5598185B2 (ja) 目立ち画像生成装置及び目立ち画像生成プログラム
US11653084B2 (en) Method of configuring a camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110208