JP7476016B2 - 視程評価装置、視程評価システム及び視程評価方法 - Google Patents

視程評価装置、視程評価システム及び視程評価方法 Download PDF

Info

Publication number
JP7476016B2
JP7476016B2 JP2020124166A JP2020124166A JP7476016B2 JP 7476016 B2 JP7476016 B2 JP 7476016B2 JP 2020124166 A JP2020124166 A JP 2020124166A JP 2020124166 A JP2020124166 A JP 2020124166A JP 7476016 B2 JP7476016 B2 JP 7476016B2
Authority
JP
Japan
Prior art keywords
visibility
image
distance
evaluation
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020124166A
Other languages
English (en)
Other versions
JP2022020911A (ja
Inventor
亮祐 三木
健一 森田
智明 吉永
佳大 蛯原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020124166A priority Critical patent/JP7476016B2/ja
Publication of JP2022020911A publication Critical patent/JP2022020911A/ja
Application granted granted Critical
Publication of JP7476016B2 publication Critical patent/JP7476016B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)

Description

本発明は、視程を評価する視程評価装置、視程評価システム及び視程評価方法に関する。
従来、視程を評価するため、特開2001-330412号公報(特許文献1)に記載の技術がある。この公報には、「照明が配置されたトンネル内において、設置された監視カメラで撮像したビデオ信号を画像データに変換し、画像データ内の照明による輝度情報を観測して、予め輝度情報から視程への変換関数を保持しておき、該変換関数を用いて観測された輝度情報から視程を算出する。」という記載がある。
特開2001-330412号公報
特許文献1では、周辺輝度の変化が少ないトンネル内という環境を利用し、照明を光源として視程を計測するため、例えば屋外のように環境光が変動する状況には適さず、適用可能な状況が限定される。しかし、視程は、肉眼で物体を明瞭に確認できる最大の距離を示すものであり、視程の評価は空港での気象観測などにおいても重要な項目である。このため、環境光の変動する屋外などの多様な状況で視程を評価可能な、適用範囲の広い視程評価技術が求められている。
そこで、本発明では、適用範囲の広い視程評価技術を提供することを目的とする。
上記目的を達成するために、代表的な本発明の視程評価装置、視程評価システム及び視程評価方法の一つは、視程の評価指標となる目標物の位置を撮像範囲に含んだ画像を取得し、前記画像から特徴量を算出し、前記画像の撮像地点から前記目標物までの距離情報を取得し、前記画像の撮像時の環境光の状態を示す環境光情報を取得し、前記特徴量、前記距離情報及び前記環境光情報を用いて前記画像の撮像時の視程を評価する。
本発明によれば、適用範囲の広い視程評価技術を提供することができる。上記した以外の課題、構成及び効果は以下の実施の形態の説明により明らかにされる。
実施例1に係る視程評価の概念図。 視程評価装置の構成図。 視程障害と距離との関係についての説明図。 視程評価装置による視程評価の処理手順を示すフローチャート。 視程評価装置による機械学習の処理手順を示すフローチャート。 複数の目標物を利用した視程障害の検知についての説明図(その1)。 複数の目標物を利用した視程障害の検知についての説明図(その2)。 距離マップの登録についての説明図。 カメラの方向と精度についての説明図。 視程の評価結果の出力例。 実施例2に係る視程評価の概念図。 実施例2における複数の視程評価モデルの利用例。
以下、実施例を図面を用いて説明する。
図1は、実施例1に係る視程評価の概念図である。実施例1に係る視程評価装置10は、カメラ11による撮像を制御し、視程の評価指標となる目標物B1の位置を撮像範囲に含んだ画像を取得する。カメラ11は、例えば空港に設置されており、目標物B1は、空港周辺(少なくとも視程によってはカメラ11の地点から視認可能な距離)に所在する建造物や自然物(例えば山の稜線など)である。カメラ11から目標物B1までの距離である距離情報と、カメラ11に対する目標物B1の位置を示す位置情報とは、予め対応付けられて距離マップ21に登録されている。
視程評価装置10は、カメラ11が撮像した画像のコントラストを特徴量として算出する(S1)。また、視程評価装置10は、画像の撮像時の環境光の状態を示す環境光情報を取得する(S2)。環境光情報は、例えばカメラ11の近傍に照度計を設けて取得すればよい。
視程評価装置10は、距離マップ21から取得した目標物B1の距離情報と、画像から算出したコントラストと、環境光情報とを用いて入力データを構築し、視程評価モデル22に構築した入力データを与えて視程を評価する(S3)。
視程評価モデル22は、学習用に与えられた画像、環境光情報及び視程評価結果を用いて機械学習により予め生成する。学習用の視程評価結果は、例えば、視程の観測員が建造物B1を目視して判定した視程であり、学習用の画像はその時にカメラ11が撮像した画像であり、学習用の環境光情報はその時に取得した環境光情報である。
このように、観測員が判定した視程を教師として学習した視程評価モデル22を用いることで、視程評価装置10は、観測員と同様に視程を評価し、評価結果を出力する(S4)ことができる。視程の評価結果は、視程の推定値であってもよいし、目標物B1を目視できるか否かであってもよい。
図2は、視程評価装置10の構成図である。図2に示すように、視程評価装置10は、カメラ11、照度計12及び入出力装置13と接続される。カメラ11は、既に説明したように、空港等に設置される撮像装置であり、視程の評価指標となる目標物の位置を撮像範囲に含んで撮像を行うことが可能である。照度計12は、カメラ11の近傍に設けられ、カメラ11による撮像時の環境光の状態を示す環境光情報を取得することができる。入出力装置13は、視程評価装置10の操作者(例えば観測員)が使用する入出力インタフェースであり、ディスプレイやキーボードなどである。
視程評価装置10は、記憶部20及び制御部30を有する。記憶部20は、磁気ディスクデバイス等であり、距離マップ21及び視程評価モデル22を記憶する。距離マップ21は、カメラ11に対する目標物の距離情報と位置情報とを対応付けて登録したデータである。目標物は、複数登録することが望ましい。複数の目標物は、全てが同時に撮像範囲に入る必要はなく、カメラ11の向きを水平方向に回転させる制御(パン制御)や、高さ方向の傾きを変更する制御(チルト制御)を行って目標物を撮像範囲に含めることができればよい。視程評価モデル22は、画像の特徴量、目標物の距離情報及び環境光情報から構築された入力データを受け付けた場合に、視程の評価結果(視程値や目標物の視認可否など)を出力するモデルである。
制御部30は、視程評価装置10を全体制御する処理部であり、撮像制御部31、画像取得部32、対応関係特定部33、環境光情報取得部34、特徴量算出部35、距離情報取得部36、機械学習部37及び視程評価部38を有する。これらの機能部は、ハードウェアとして設けてもよいし、ソフトウェアで実現してもよい。これらの機能部をソフトウェアで実現する場合には、CPU(Central Processing Unit)が視程評価プログラムをメモリに展開し、順次実行することで、撮像制御部31、画像取得部32、対応関係特定部33、環境光情報取得部34、特徴量算出部35、距離情報取得部36、機械学習部37及び視程評価部38として動作することになる。視程評価プログラムは、例えば記憶部20に記憶させておけばよい。
撮像制御部31は、カメラ11による撮像を制御する処理部である。具体的には、撮像制御部31は、カメラ11のパン制御及びチルト制御、撮像の実行タイミングの指示などを行う。
画像取得部32は、視程の評価指標となる目標物の位置を撮像範囲に含んだ画像を取得する処理部である。具体的には、画像取得部32は、カメラ11が撮像した画像を取得する。
対応関係特定部33は、撮像制御部31がどのような制御を行ったかを示す制御情報に基づいてカメラ11の撮像範囲を判別し、撮像範囲と距離マップ21との対応関係を特定する。
環境光情報取得部34は、画像取得部32が取得した画像の撮像時の環境光の状態を示す環境光情報を取得する。具体的には、環境光情報取得部34は、画像の撮像時点における照度計12の出力を環境光情報として取得する。
特徴量算出部35は、画像取得部32が取得した画像から特徴量を算出する。具体的には、特徴量算出部35は、撮像範囲と距離マップ21との対応関係に基づいて、目標物の位置を含む所定範囲の像を画像から切り出し、切り出した所定範囲のコントラストを特徴量として算出する。
距離情報取得部36は、撮像範囲と距離マップ21との対応関係を用い、撮像範囲に含まれる目標物の距離情報を距離マップ21から取得する。
機械学習部37は、視程評価モデル22を生成して記憶部20に格納する。具体的には、機械学習部37は、学習用に与えられた画像、環境光情報及び視程評価結果を用いて機械学習により予め生成する。学習用の視程評価結果は、例えば、視程の観測員が建造物B1を目視して判定した視程であり、学習用の画像はその時にカメラ11が撮像した画像であり、学習用の環境光情報はその時に取得した環境光情報である。すなわち、機械学習部37は、入出力装置13が観測員による視程の評価結果を入力として受け付けたならば、環境光情報取得部34、特徴量算出部35及び距離情報取得部36の出力と対応付けて教師データを構築し、視程評価モデル22の学習に用いることができる。
視程評価部38は、特徴量、距離情報及び環境光情報を用いて画像の撮像時の視程を評価する。具体的には、視程評価部38は、環境光情報取得部34、特徴量算出部35及び距離情報取得部36の出力から入力データを構築し、視程評価モデル22に構築した入力データを与えて視程を評価する。
視程の評価結果は、視程の距離である視程値が好適である。また、目標物の視認可否を視程の評価結果としてもよい。さらに、視程評価部38は、視程の評価結果とともに、該評価結果の精度等を出力することも可能である。一例として、視程評価モデル22に深層学習を用いる場合、出力層のノードのスコアに対してソフトマックス関数を適用し、評価結果の精度とすればよい。また、回帰モデルを用いるならば、例えば事前に回帰分析モデルを評価した評価値を出力してもよい。このように、評価結果についての精度等の出力には、開示の例に限定されず、任意の手法を用いることができる。
また、視程評価部38は、複数の目標物の各々についての視程の評価結果をもとに、視程障害の所在を出力することができる。視程障害とは、降水や霧などで視程が小さくなることをいう。例えば、画像範囲に距離の異なる複数の目標物の像が含まれている場合には、視程評価部38は、複数の目標物についての視程の評価結果から顕著な視程障害がどの距離で発生しているかを判定し、出力することができる。
また、視程評価部38は、評価結果として得られた視程値、すなわち推定視程の近傍に所在する目標物の位置を識別可能に出力することができる。具体的には、視程評価部38は、推定視程の前後に所在する目標物の位置を強調表示して、視程の評価に用いた画像を出力する。推定視程の前に所在する目標物の位置には、視認可と評価された最も遠い目標物の像が含まれる。推定視程の後に所在する目標物の位置は、視認不可と評価された最も近い目標物の像が含まれるべき位置である。このように推定視程前後の目標物の位置が強調された画像が得られれば、観測員は、「推定視程の前の目標物が見えること」及び「推定視程の後ろの目標物が見えないこと」を確認し、簡易に視程を評価することができる。この他、強調表示の対象とする目標物を観測員が任意に指定可能としてもよい。例えば、目標物に優先順位を設定し、最も重要な目標物を常に強調表示する等の出力も可能である。
図3は、視程障害と距離との関係についての説明図である。まず、降雨、霧、砂塵などの視程障害によって、目標物の輪郭はぼやける。これは、画像の特徴量としては、コントラストの低下として検知できる。図3では、目標物B1と目標物B2とが、視程障害によるコントラストの低下を示している。
一方、コントラストの低下は、視程障害に有無に関わらず、目標物までの距離によっても生ずる。すなわち、距離によってコントラストは指数関数的に低下し、輝度は環境光に収束する。図3では、目標物B1と目標物B3とが、距離によるコントラストの低下を示している。
このように、コントラストの低下には、視程障害と距離とが関係するため、コントラストに基づいて視程を評価する場合には、目標物までの距離を無視することができない。また、コントラストがどのように低下するかについては、環境光の影響を受ける。そこで、視程評価装置10では、目標物の位置と距離とを対応付けた距離マップ21を用い、環境光の情報を取得することで、視程の正確な評価を可能としているのである。
図4は、視程評価装置10による視程評価の処理手順を示すフローチャートである。まず、撮像制御部31は、カメラ11を制御し、画像の撮像を実行する(ステップS102)。カメラ11が撮像した画像は、画像取得部32によって取得される。対応関係特定部33は、カメラ11の撮像範囲を判別し、撮像範囲と距離マップ21との対応関係を特定する(ステップS103)。
特徴量算出部35は、撮像範囲と距離マップ21との対応関係に基づいて、目標物の位置を含む矩形領域を画像から切り出し(ステップS104)、切り出した矩形領域のコントラストを特徴量として算出する(ステップS105)。
距離情報取得部36は、撮像範囲と距離マップ21との対応関係を用い、撮像範囲に含まれる目標物の距離情報を距離マップ21から取得する(ステップS106)。また、環境光情報取得部34は、画像の撮像時点における照度計12の出力を環境光情報として取得する(ステップS107)。
視程評価部38は、環境光情報取得部34、特徴量算出部35及び距離情報取得部36の出力から入力データを構築し(ステップS108)、視程評価モデル22に構築した入力データを与えて視程を評価する(ステップS109)。その後、視程評価部38は、視程の評価結果は、評価結果を出力し(ステップS110)、処理を終了する。
図5は、視程評価装置10による機械学習の処理手順を示すフローチャートである。ステップS201~ステップS207は、図4に示したステップS101~ステップS107と同様であるので、説明を省略する。ステップS207の後、機械学習部37は、学習用の視程評価結果を受け付け(ステップS208)、環境光情報取得部34、特徴量算出部35及び距離情報取得部36の出力と対応付けて教師データを構築する(ステップS209)。機械学習部37は、構築した教師データを用いて視程評価モデル22の機械学習を実行し(ステップS210)、機械学習の結果として得られた視程評価モデル22を記憶部20に保存して(ステップS211)、処理を終了する。
図6及び図7は、複数の目標物を利用した視程障害の検知についての説明図である。図6では、カメラ11から1kmの地点に目標物B11が存在し、カメラ11から2kmの地点に目標物B12が存在し、カメラ11から3kmの地点に目標物B12が存在する場合を示している。カメラ11がこれらの目標物B11~B13を撮像すると、それぞれの像について距離に応じたコントラストの減衰が生じる。ここで、目標物B13の像のコントラストが、距離による減衰から逸脱して低下していたならば、目標物B13のよりも手前に視程障害が存在することになる。したがって、例えば目標物B12の像のコントラストの低下が距離による減衰に従っていれば、視程評価装置10は、2kmから3kmの間に視程障害を検知したと判定することができる。
図7では、カメラ11から2kmの地点に目標物B21~B23が存在し、カメラ11から目標物B21~B23の方向が異なっている。ここで、目標物B23の像のコントラストが、距離による減衰から逸脱して低下していたならば、視程評価装置10は、目標物B23の方向に視程障害を検知したと判定することができる。
図8は、距離マップの登録についての説明図である。図8に示した表示画面D1は、例えば、入出力装置13に含まれるディスプレイに表示すればよい。表示画面D1は、カメラ画像の表示領域と、コントラストの表示領域と、距離マップの設定領域とを有する。カメラ画像の表示領域は、カメラ11が撮像した画像をカメラ画像として表示する。コントラストの表示領域は、カメラ画像の輝度分布を表示することでコントラストを示している。
表示画面D1における距離マップの設定領域は、カメラ画像と対応付けられており、カメラ画像に含まれる目標物の像の位置に対して矩形領域を設定し、目標物の距離を入力することで、目標物の位置と距離を対応づけて距離マップ21として登録することができる。また、設定した位置と距離は適宜表示して確認し、修正可能である。なお、図8では、カメラ画像の表示領域と距離マップの設定領域を並べているが、カメラ画像の表示領域に距離マップの設定領域を重畳してもよい。
図9は、カメラの方向と精度についての説明図である。表示画面D2aでは、カメラの方向が適正であり、撮像範囲と距離マップとが正しく対応している。このため、距離マップ21に設定された目標物の位置に基づいて矩形領域の位置を決定し、カメラ画像から切り出すと、目標物全体の像を含んで切り出しを行うことができる。
一方、表示画面D2bでは、カメラの方向にずれが生じている。このため、距離マップ21に設定された目標物の位置に基づいて矩形領域の位置を決定し、カメラ画像から切り出すと、目標物全体の像を含んだ切り出しにならない。この結果、矩形領域の画像の特徴量と距離情報とが不整合となり、視程の評価の精度は著しく低下することになる。
カメラ方向と精度の関係は、距離マップ21の評価に用いることも可能である。すなわち、カメラ方向を意図的にずらしたときに精度が顕著に低下したならば、距離マップ21が適正に設定され、利用されていたと判定することができる。
図10は、視程の評価結果の出力例である。図10に示した表示画面D3は、カメラ画像の表示領域と視程評価の表示領域とを有する。カメラ画像には3つの目標物の位置が含まれている。また、視程評価の表示領域には、推定視程、推定精度、目標物の視認可否、視程障害の検知結果などが表示される。図10では、「推定視程 7.3km」、「推定精度 82%」、「目標物(a)8km 視認不可 強調表示」、「目標物(b)6km 視認可 強調表示」、「目標物(c)0.8km 視認可」、「6kmから8kmの間に視程障害検知」と表示されている。
目標物の距離は、距離マップ21を参照して取得したものである。また、強調表示は、推定視程の前後の目標物に対して行われている。具体的には、視程評価装置10は、カメラ画像に破線で示したように、該当する目標物の位置を枠で囲むなどによって強調し、識別可能としている。図10では、目標物(b)が推定視程の手前に存在し、枠内に目標物(b)の像が含まれている。また、目標物(c)は推定視程よりも遠く、枠内に目標物(c)の像が見えない状態となっている。
実施例1では、建造物を目標物とする構成について説明を行ったが、本実施例2では移動体を目標物とする構成について説明する。図11は、実施例2に係る視程評価の概念図である。実施例2に係る視程評価装置10aは、カメラ11による撮像を制御し、視程の評価指標となる目標物P1として航空機の像を含んだ画像を取得する。
さらに、視程評価装置10aは、所定の移動体位置管理システムを利用して目標物P1の位置情報を取得する。例えば、航空機の位置は、レーダーなどを用いて管理されている。また、船舶の位置は、AIS(Automatic Identification System)により得ることができる。視程評価装置10aは、これらの移動体位置管理システムを介して目標物の位置を取得し、目標物P1までの距離情報を算出する。さらに、視程評価装置10aは、例えば位置情報を利用して画像から目標物P1の像を含む矩形領域を切り出し、矩形領域の画像のコントラストを特徴量として算出する(S1a)。また、視程評価装置10aは、画像の撮像時の環境光の状態を示す環境光情報を取得する(S2)。
視程評価装置10aは、目標物P1について算出した距離情報と、画像から算出したコントラストと、環境光情報とを用いて入力データを構築し、視程評価モデル22aに構築した入力データを与えて視程を評価する(S3a)。そして、視程評価装置10は、評価結果を出力する(S4)。
このように、視程評価装置10aは、移動体である目標物P1を撮像し、目標物P1の距離情報を位置情報からの算出によって取得して、視程の評価を行うことができる。視程評価装置10aの構成については、実施例1と同様であるので、説明を省略する。なお、移動体のみを目標物とする場合には、視程評価装置10aは距離マップ21を必要としない。一方で、移動体と建造物の双方を目標物として利用してもよく、この場合には距離マップ21を必要に応じて保持すればよい。さらに、建造物ベースの視程評価モデルと移動体ベースの視程評価モデルをそれぞれ設けてもよい。
図12は、実施例2における複数の視程評価モデルの利用例についての説明図である。まず、視程評価装置10aは、実施例1と同様に、建造物の画像と観測員による判定結果から教師データを構築して機械学習を行い、視程評価モデル22を生成する。この視程評価モデル22は、建造物を目標物として学習した建造物ベースのモデルであり、拠点依存度が高い。すなわち、カメラ11の設置地点では高い精度が期待できるが、他の地点で適用できるとは限らない。
その後、視程評価装置10aは、移動体の画像と視程評価モデル22による判定結果から教師データを構築して機械学習を行い、視程評価モデル22aを生成する。また、視程評価モデル22による判定結果に限定されず、観測員による判定結果も教師データの構築に利用可能である。この視程評価モデル22aは、移動体を目標物として学習した移動体ベースのモデルであり、拠点依存度が低い。このため、他の拠点への提供や、移動体への搭載といった利用を行うケースでは、視程評価モデル22よりも視程評価モデル22aを用いる方が良好な結果を期待することができる。
視程評価モデル22aを他の拠点に提供した場合には、提供先の視程評価装置が視程評価モデル22aをそのまま利用してもよい。また、視程評価モデル22aを初期モデルとし、提供先の近傍に所在する建造物を目標物として学習を行ってもよい。
視程評価モデル22aを移動体に搭載した場合には、例えば移動体は観測員の同行なしで視程を適宜評価することができる。この移動体は、一例として航空機や船舶である。船舶に適用したならば、船舶が他の船舶の画像を撮像して視程を評価することができる。また、車両に搭載し、自動運転などに利用してもよい。
上述してきたように、実施例に係る視程評価装置は、視程の評価指標となる目標物の位置を撮像範囲に含んだ画像を取得し、画像から特徴量を算出し、画像の撮像地点から目標物までの距離情報を取得し、画像の撮像時の環境光の状態を示す環境光情報を取得する。そして、視程評価装置は、特徴量、距離情報及び環境光情報を用いて画像の撮像時の視程を評価する。このため、環境光の変動する屋外などの多様な状況で視程を評価可能な、適用範囲の広い視程評価を実現することができる。
また、実施例に係る視程評価装置は、学習用に与えられた画像、環境光情報及び視程評価結果を用いて機械学習により生成された視程評価モデルを用いて視程を評価することができる。さらに、視程の評価結果とともに、該評価結果の精度を出力することも可能である。
また、実施例に係る視程評価装置は、一例として、画像のコントラストを示す特徴量を用いる。なお、画像の周波数特性、パワースペクトルなど、画像の鮮明さを表す任意の特徴量をコントラストに替えて、またはコントラストとともに用いてもよい。
また、実施例に係る視程評価装置は、目標物の位置を示す位置情報と距離情報とを対応付けた距離マップを記憶する記憶部をさらに備え、撮像装置の制御情報から特定される撮像範囲と距離マップとの対応関係に基づいて距離情報を取得する。
また、実施例に係る視程評価装置は、撮像範囲と距離マップとの対応関係に基づいて、前記目標物の位置を含む所定範囲の像から特徴量を算出することで、評価の精度を向上することができる。
また、実施例に係る視程評価装置は、一例として、照度計の出力を取得して環境光情報として用いる。なお、環境光情報は、照度計に限らず、任意の方法で取得することができる。例えば、カメラ11の近傍かつカメラ11の撮像範囲内にある物体の像をリファレンスとして撮像し、この物体の像を画像処理して環境光情報を求めてもよい。
さらに、環境光に限らず、コントラスト等の特徴量に影響を与える各種要因を使用してもよい。具体的には、太陽などの光源の位置を示す情報、時刻情報、季節情報、既知の視程障害の位置情報などを利用することができる。
また、実施例に係る視程評価装置は、撮像範囲に複数の目標物の位置が含まれる場合に、複数の目標物の各々についての視程の評価結果をもとに、視程障害の所在を出力することが可能である。
また、実施例に係る視程評価装置は、評価結果として得られた視程値の近傍に所在する目標物の位置を識別可能に出力することも可能である。
また、実施例に係る視程評価装置は、移動体を目標物とし、移動体から位置情報を取得して視程の評価を行うことができる。
なお、実施例に示した構成及び動作はあくまで一例であり、本発明は適宜構成及び動作を変更して実施することが可能である。
例えば、実施例では、学習と評価を同一の装置で行う場合を例に説明を行ったが、学習と評価を異なる装置が行ってもよい。また、実施例では、カメラ11の出力を用いてリアルタイムで学習や評価を行う場合を例示したが、過去に撮像された画像データを用いて学習や評価を行うことも可能である。
また、実施例では、推定視程を求め、その前後の目標物を強調表示する場合を示したが、推定視程ではなく各目標物の視認可否を評価結果とする場合にも、同様の強調表示が可能である。具体的には、視認可と判定した目標物のうち距離が最大の目標物と、視認不可と判定した目標物のうち距離が最小の目標物とを強調表示の対象とすればよい。
また、視程評価装置は、画像から撮像の方向のずれを評価し、修正するよう構成してもよい。具体的には、リファレンスとして設定した物体を画像処理によって識別することで撮像範囲と制御情報が対応しているかを判定可能である。この場合に、撮像範囲と制御情報のずれの許容範囲は、最も遠い目標物が適正に切り出せる範囲とすればよい。
10,10a:視程評価装置、11:カメラ、12:照度計、13:入出力装置、20:記憶部、21:距離マップ、22,22a:視程評価モデル、30:制御部、31:撮像制御部、32:画像取得部、33:対応関係特定部、34:環境光情報取得部、35:特徴量算出部、36:距離情報取得部、37:機械学習部、38:視程評価部

Claims (9)

  1. 視程の評価指標となる目標物と撮像装置との位置関係を示す位置情報と、前記撮像装置から前記目標物までの距離を示す距離情報とを対応付けた距離マップを記憶する記憶部と、
    前記撮像装置によって撮影された画像を取得する画像取得手段と、
    前記撮像装置が前記画像を撮像したときの撮像範囲と前記距離マップから読み出した前記位置情報とに基づいて、前記画像から前記目標物の像の位置を含む部分領域を切り出し、前記部分領域から特徴量を算出する特徴量算出部と、
    前記距離マップから前記距離情報を取得する距離情報取得部と、
    前記画像の撮像時の環境光の状態を示す環境光情報を取得する環境光情報取得部と、
    前記特徴量、前記距離情報及び前記環境光情報を視程評価モデルに入力し、前記視程評価モデルによって出力される視程の距離を、前記画像の撮像時の視程の評価結果とする視程評価部と
    を備えたことを特徴とする視程評価装置。
  2. 前記特徴量算出部は、前記画像のコントラストを示す特徴量を算出することを特徴とする請求項1に記載の視程評価装置。
  3. 前記距離マップは、前記撮像装置により撮像された登録用画像に含まれる目標物の像の位置に対して矩形の部分領域を設定することで前記位置関係を示し、前記部分領域に前記距離情報を対応づけて登録されたデータであり、
    前記距離情報取得部は、前記撮像装置の制御情報から特定される前記撮像範囲と前記距離マップの位置情報とに基づいて、前記画像に含まれる部分領域を特定し、前記画像に含まれる部分領域に対応する距離情報を取得する
    ことを特徴とする請求項1に記載の視程評価装置。
  4. 前記環境光情報取得部は照度計の出力を取得することを特徴とする請求項1に記載の視程評価装置。
  5. 前記視程評価部は、複数の目標物の距離情報と、前記複数の目標物にそれぞれ対応する部分領域のコントラストとを用い、コントラストの差が距離情報の差により想定される差から逸脱している場合に、視程障害が発生していると判定することを特徴とする請求項2に記載の視程評価装置。
  6. 前記視程評価部は、評価結果として得られた視程の距離の近傍に所在する前記目標物の前記画像における位置を識別可能に出力することを特徴とする請求項1に記載の視程評価装置。
  7. 撮像装置によって撮影された画像を取得する画像取得手段と、
    前記撮像装置が前記画像を撮像したときの撮像範囲と、視程の評価指標となる移動体の位置の情報とに基づいて、前記画像から前記移動体の像の位置を含む部分領域を切り出し、前記部分領域から特徴量を算出する特徴量算出部と、
    前記移動体の位置に基づいて前記撮像装置から前記移動体までの距離を示す距離情報を取得する距離情報取得部と、
    前記画像の撮像時の環境光の状態を示す環境光情報を取得する環境光情報取得部と、
    前記特徴量、前記距離情報及び前記環境光情報を視程評価モデルに入力し、前記視程評価モデルによって出力される視程の距離を、前記画像の撮像時の視程の評価結果とする視程評価部と
    を備えたことを特徴とする視程評価装置。
  8. 視程の評価指標となる目標物と撮像装置との位置関係を示す位置情報と、前記撮像装置から前記目標物までの距離を示す距離情報とを対応付けた距離マップを記憶する記憶部と、
    前記撮像装置によって撮影された画像を取得する画像取得手段と、
    前記撮像装置が前記画像を撮像したときの撮像範囲と前記距離マップから読み出した前記位置情報とに基づいて、前記画像から前記目標物の像の位置を含む部分領域を切り出し、前記部分領域から特徴量を算出する特徴量算出部と、
    前記距離マップから前記距離情報を取得する距離情報取得部と、
    前記画像の撮像時の環境光の状態を示す環境光情報を取得する環境光情報取得部と、
    前記特徴量、前記距離情報及び前記環境光情報を視程評価モデルに入力し、前記視程評価モデルによって出力される視程の距離を、前記画像の撮像時の視程の評価結果とする視程評価部と
    を備えたことを特徴とする視程評価システム。
  9. 視程の評価指標となる目標物と撮像装置との位置関係を示す位置情報と、前記撮像装置から前記目標物までの距離を示す距離情報とを対応付けた距離マップを記憶した視程評価装置が、前記撮像装置によって撮影された画像を取得する画像取得ステップと、
    前記視程評価装置が、前記撮像装置が前記画像を撮像したときの撮像範囲と前記距離マップから読み出した前記位置情報とに基づいて、前記画像から前記目標物の像の位置を含む部分領域を切り出し、前記部分領域から特徴量を算出する特徴量算出ステップと、
    前記視程評価装置が、前記距離マップから前記距離情報を取得する距離情報取得ステップと、
    前記視程評価装置が、前記画像の撮像時の環境光の状態を示す環境光情報を取得する環境光情報取得ステップと、
    前記視程評価装置が、前記特徴量、前記距離情報及び前記環境光情報を視程評価モデルに入力し、前記視程評価モデルによって出力される視程の距離を、前記画像の撮像時の視程を評価結果とする視程評価ステップと
    を含むことを特徴とする視程評価方法。
JP2020124166A 2020-07-21 2020-07-21 視程評価装置、視程評価システム及び視程評価方法 Active JP7476016B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020124166A JP7476016B2 (ja) 2020-07-21 2020-07-21 視程評価装置、視程評価システム及び視程評価方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020124166A JP7476016B2 (ja) 2020-07-21 2020-07-21 視程評価装置、視程評価システム及び視程評価方法

Publications (2)

Publication Number Publication Date
JP2022020911A JP2022020911A (ja) 2022-02-02
JP7476016B2 true JP7476016B2 (ja) 2024-04-30

Family

ID=80220053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020124166A Active JP7476016B2 (ja) 2020-07-21 2020-07-21 視程評価装置、視程評価システム及び視程評価方法

Country Status (1)

Country Link
JP (1) JP7476016B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008517292A (ja) 2004-10-19 2008-05-22 ラボラトワール セントラル デ ポンゼ シャッセ 見通し距離測定装置
JP6269147B2 (ja) 2014-02-19 2018-01-31 株式会社流機エンジニアリング 可撓性ダクト装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008517292A (ja) 2004-10-19 2008-05-22 ラボラトワール セントラル デ ポンゼ シャッセ 見通し距離測定装置
JP6269147B2 (ja) 2014-02-19 2018-01-31 株式会社流機エンジニアリング 可撓性ダクト装置

Also Published As

Publication number Publication date
JP2022020911A (ja) 2022-02-02

Similar Documents

Publication Publication Date Title
EP3230693B1 (en) Visual perception enhancement of displayed color symbology
US10726262B2 (en) Imaging support system, device and method, and imaging terminal
US8654149B2 (en) System and method for displaying enhanced vision and synthetic images
US20050286769A1 (en) Specific point detecting method and device
CN109916415B (zh) 道路类型确定方法、装置、设备及存储介质
KR20180007845A (ko) 3차원 공간분석을 이용한 cctv 카메라 설치위치 선정 방법
JP2006067272A (ja) カメラキャリブレーション装置及びカメラキャリブレーション方法
CN112649900A (zh) 一种能见度的监测方法、装置、设备、系统和介质
JP7092615B2 (ja) 影検出装置、影検出方法、影検出プログラム、学習装置、学習方法、及び学習プログラム
JP3232502B2 (ja) 霧監視システム
KR101803340B1 (ko) 영상 기반 주행거리 측정 시스템 및 방법
JP7476016B2 (ja) 視程評価装置、視程評価システム及び視程評価方法
US20220076399A1 (en) Photographing guide device
CN114998771B (zh) 飞行器视景增强的显示方法、系统、飞行器及存储介质
US11113833B2 (en) Object detection system
JP7235049B2 (ja) 評価装置、評価方法、及びコンピュータプログラム
JP7092616B2 (ja) 物体検出装置、物体検出方法、及び物体検出プログラム
JP3547946B2 (ja) エプロン監視装置
KR20200075692A (ko) 좌표계를 이용한 안개 탐지 장치 및 그 방법
JP7276762B2 (ja) リスク推定装置及びプログラム
CN113989774A (zh) 一种交通灯检测方法、装置、车辆和可读存储介质
JP7194534B2 (ja) 対象検知装置、画像処理装置、対象検知方法、画像処理方法、及びプログラム
US20210318221A1 (en) Airborne particulate density determination using standard user equipment
US20230325983A1 (en) Sensor noise removal device and sensor noise removal method
Maerz et al. Automated mobile highway sign visibility measurement system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240417