なお、以下の実施例は主に鉄道を検査対象設備として記載するが、検査対象設備が道路など移動体が所定のルートを移動する他のインフラ設備である場合にも適用可能である。また、以下の実施例では車両に搭載された車載カメラを用いた例を記載するが、車載カメラが搭載される移動体の種別は問わない。例えば、UAV(Unmanned Aerial Vehicle)、航空機、ドローンなどの移動体でも適用可能である。
図1は、本発明の実施例1の物体検知・評価システムの構成を示すブロック図である。
物体検知・評価システムは、車載カメラ100、ホストシステム110及びホスト端末140を有する。
車載カメラ100は、物体が反射する様々な光に対して数十種類に分光された波長域に対する物体の反射強度を取得することができるマルチスペクトルカメラ103と、GPS衛星と通信を行って現在位置である緯度経度及び観測時間を記録することができるGPS装置101と、加速度を計測できる加速度センサー102と、を有する。マルチスペクトルカメラ103で撮影した映像データ、GPS装置101で取得した緯度経度とその観測時間、及び、加速度センサー102で取得した加速度情報は、車載カメラ100及びホストシステム110からアクセス可能な車載映像データベース(DB)104に格納される。なお、車載映像データベース104は車載カメラ100の一部として構成されても良い。
ホストシステム110は、入力装置111、表示装置112、通信装置113、CPU114、メモリ115、記憶装置116、マルチスペクトル空中映像DB126、検査対象設備DB127、検出器DB128、検査種別分布地図DB129、検査対象解析結果DB130、及び車載カメラ情報DB131を有する。
入力装置111は、管理者等の操作を受け付ける。表示装置112は、管理画面及び映像等を表示する。通信装置113は、インターネット等のネットワーク150を介して他の装置(例えばホスト端末140)等と通信を行う。CPU114は、必要に応じて各プログラムをメモリ115に読み込ませ各種処理を実行する。
記憶装置116は、検査種別判定処理部117、検出器検索処理部118、検査対象物抽出処理部119、スペクトル解析処理部120、画像取得部121、検査種別分布地図作成部122、空間検索処理部123、フレーム画像位置情報取得部124、差分解析処理部125、及び評価処理部132を有する。
画像取得部121は、車載映像データベース104から物体検知評価処理の対象の映像データを取得するプログラムを有する。なお、以下の説明において、画像は静止画像を意味し、映像は複数の画像の集合体を意味する。例えば、動画像を映像と記載し、その動画像に含まれる各フレームの静止画像を画像と記載する場合がある。あるいは、定期的に撮影された複数の静止画像の各々を画像と記載し、それらの複数の静止画像の集合体を映像と記載する場合がある。
フレーム画像位置情報取得部124は、車載カメラ100で撮影された映像データに対して、その映像データからフレーム画像を読み込み、そのフレーム画像が撮影された位置情報を取得するプログラムを有する。検査種別判定処理部117は、撮影位置を特定したフレーム画像に対して最適な検査種別(検査対象と検査項目)を特定するプログラムを有する。検出器検索処理部118は、その検査種別において抽出すべき設備または物体を検出するために最適な検出器を特定するプログラムを有する。検査対象物抽出処理部119は、特定された検出器を用いて映像データ内から特定の検査対象を抽出するプログラムを有する。
スペクトル解析処理部120は、対象画像等に対してスペクトル解析を行い、特定の検査対象を抽出したり、特定の検査対象の状態を評価したりするプログラムを有する。空間検索処理部123は、撮影位置から近い位置にある検査対象のオブジェクトを抽出するプログラムを有する。評価処理部132は、抽出したオブジェクトに対し、検査項目に応じて障害物検知を行ったり、スペクトル解析処理部120にスペクトル解析の指示を出したりするプログラムを有する。差分解析処理部125は、過去に実施済の検査と同一の検査を実施した場合に、その評価結果の差分を取得するプログラムを有する。検査種別分布地図作成部122は、マルチスペクトル空中画像の画像データに基づき、エリアの特性に適した検査種別を定義した検査種別分布地図を作成するプログラムを有する。
上記の各部に相当するプログラムがメモリ115に読み込まれ、CPU114によって実行されることによって、上記の各部の機能が実現される。すなわち、以下の説明において上記の各部が実行する処理は、実際には、CPU114が上記のプログラムに従って実行する。
マルチスペクトル空中映像データベース126には、検査種別分布地図の作成に必要な、人工衛星、航空機またはドローンなどを利用して撮影されたマルチスペクトル空中画像の画像データが格納される。検査対象設備データベース127には、道路、鉄道などの各種検査対象設備の地図データが格納される。検出器データベース128には、検査対象物抽出処理部119が検査対象を抽出するために必要な各種検出器が格納される。検査種別分布地図データベース129には、エリアの特性に応じた検査種別の定義が格納される。車載カメラ情報データベース131には、各種車載カメラの仕様が格納される。検査対象解析結果データベース130には、本実施例の物体検知・評価システムでの検知結果及び評価結果が格納される。
ホスト端末140は、入力装置142、表示装置141、通信装置143、CPU144、メモリ145及び記憶装置146を有する。入力装置111は、ユーザ等の操作を受け付ける。表示装置112は、操作画面、車載カメラ100で撮影した映像、及び解析結果等を表示する。通信装置113は、インターネット等のネットワーク150を介して他の装置(例えばホストシステム110)と通信を行う。CPU114は、必要に応じて各プログラムをメモリ115に読み込ませ各種処理を実行する。
図2は、本発明の実施例1のマルチスペクトルカメラ103が取得したバンドの例を示す説明図である。
車載カメラ100を構成しているマルチスペクトルカメラ103は、図2に示すように撮影対象201が各波長で反射する反射強度を表した分光曲線204のうち、数十程度に分割した波長域203−1〜203−8に対応するスペクトル反射強度202を取得することが可能なカメラである。
通常のカメラは撮影対象の分光曲線204のうち赤色の波長域と緑色の波長域と青色の波長域の3つのスペクトル反射強度のみを取得し、これら3つのスペクトル情報を組み合わせることによってカラー画像として表現することができるが、マルチスペクトルカメラ103は赤色波長、緑色波長及び青色波長域以外にも数十程度の波長域における光の反射強度を取得することが可能である。
また、マルチスペクトルカメラ103に用いる画像センサーの種別によっても取得できる波長域の範囲が異なる。例えば、CCD又はCMOS画像センサーを用いたカメラは350nm〜1100nmの波長域を取得することが可能であり、特定の範囲の波長のみを通過させるレンズを利用することで指定した波長域を含んだ画像を取得することが可能である。また、InGaAs近赤外検出器のように900nm〜1700nmから複数のスペクトルを取得できる近赤外線カメラ、及び、近赤外(0.75〜3μm)、中赤外(3〜6μm)、遠赤外(6〜15μm)などの波長を取得し温度などを計測することが可能な赤外線カメラなどが存在している。そのため、検査対象及びエリアの特性に適した画像センサーを有するマルチスペクトルカメラ103を内蔵した車載カメラ100を用いることが望ましい。
これらのいずれの画像センサーを用いたカメラであっても、マルチスペクトルカメラ103による撮影画像は、図2で示すように、取得された各波長域203−1〜203−8のスペクトル情報は例えば画像データ205−1〜205−7のように反射強度によって色分けされた画像として認識することができる。
図3は、本発明の実施例1のマルチスペクトルカメラ103によって撮影された画像データの例を示す説明図である。
図3(A)に例示する画像はN×Mのピクセルにて構成されており、そのピクセルには指定した波長域における物体の反射強度を示す数値が格納されている。また、各波長域における反射強度が各ピクセルに格納された画像データをレイヤ301−305のような構造にて保持することで、複数の波長域の画像を1つの画像ファイルにて保持することができる。この画像をマルチスペクトル画像と呼び、マルチスペクトル画像が保持する各波長域に対応するレイヤをバンドと呼ぶ。なお、各バンドの反射強度のデータは、図3(B)の画像データテーブル310に例示されるような形式にて、車載映像DB104に登録される。ピクセル311は、レイヤの左上を基準としたレイヤ上での座標であり、バンドごとに、各ピクセル座標における反射強度の値(例えばバンド0からバンドNまでの反射強度312−0〜312−N)が登録される。
GPS装置101は、GPS衛星と通信を行って現在位置である緯度経度とその観測時間を記録することが可能である。GPS計測時間及び緯度経度はCSVのような形式にて保存することが可能である。また、加速度センサー102は、車載カメラ100を搭載している移動体が移動した際の加速度を取得することが可能である。これら車載カメラ100で撮影された映像データ(マルチスペクトル画像の動画)、GPS情報及び加速度情報は車載映像データベース104に格納される。
図4は、本発明の実施例1の車載映像データベース104に登録されている車載映像データテーブル400及びGPS位置情報ファイル410の例を示す説明図である。
図4(A)に示すように、車載映像データテーブル400は、映像を一意に識別することができる映像ID401、撮影に利用されたマルチスペクトルカメラ103の種別を示すマルチスペクトルカメラID402、撮影した映像データ及び撮影時に取得したGPS位置情報の保存場所であるデータ保存場所403、撮影した映像データを識別する映像データ名404、映像データの撮影日405、撮影時間406、及び、当該映像データの撮影時に取得したGPS位置情報データのGPSファイル名407にて構成されている。
マルチスペクトルカメラID402は、図5に示す車載カメラ情報データベース131のIDと連携しており、撮影に利用されたカメラの詳細スペックを車載カメラ情報データベース131から確認するために利用される。
また、GPSファイル名407にて指定されたGPS位置情報ファイル410には、図4(B)に示すように、各データを一意に識別するID411、GPS位置情報の観測日412及び観測時間413、並びに、GPS装置105で受信した緯度414及び経度135、が格納されている。なお、GPS位置情報の受信間隔は、性能及び作業に合わせて任意の間隔とする。
図5は、本発明の実施例1の車載カメラ情報データベース131に登録されている車載カメラ情報テーブル500の例を示す説明図である。
検査種別によっては異なる画像センサーを用いるため、複数台の車載カメラ100を用意する方が望ましい。例えば、植生などを検知評価する場合には350nm〜1100nmから複数のスペクトルを取得できるマルチスペクトルカメラ、ひび割れ等を検知するに当たっては白黒画像のみ取得するようなパンクロマティックカメラ、水滴及び水漏れを検知するには900nm〜1700nmから複数のスペクトルを取得できるマルチスペクトルカメラ、温度評価実施する場合には、近赤外(0.75〜3μm)、中赤外(3〜6μm)、遠赤外(6〜15μm)などの波長を取得することが可能な赤外線カメラを利用すべきである。そのため、映像データがどのような画像センサーを有するマルチスペクトルカメラ103によって撮影されかを車載カメラ情報テーブル500にて判別可能にする必要がある。
車載カメラ情報テーブル500は、マルチスペクトルカメラ103の種別を一意に識別するためのマルチスペクトルカメラID501、当該マルチスペクトルカメラ103が有する画像センサーの種別を示す画像センサー502、当該マルチスペクトルカメラ103のレンズ及び画像センサーの特性に関する、レンズ焦点距離503、横ピクセル数504、縦ピクセル数505、フレームレート506、バンドビット数507、及びバンド数508、を有する。
図8は、本発明の実施例1の検査対象設備データベース127に登録されている検査対象設備テーブル800及び検査対象設備のジオメトリデータ807の例を示す説明図である。
図8(A)及び(B)に示す検査対象設備テーブル800には、道路、鉄道、又はトンネル等の検査対象設備のそれぞれについて、当該検体対象設備を一意に特定できる設備ID801、鉄道、道路等の当該検査対象設備の種別である設備タイプ802、当該検査対象設備の名称である設備名称803、ポリゴン又はポイントといった検査対象設備のジオメトリデータ807の点群が形成する形状を示すGeometry Type804、当該検査対象設備を構成する位置情報である検査対象設備のジオメトリデータ807を指定するGeometry ID805、及び、当該検査対象設備テーブル800の最終更新日806、が登録される。
図8(C)に示す検査対象設備のジオメトリデータ807には、検査対象設備の位置情報が登録されており、Geometry ID805によって指定される。具体的には、検査対象設備のジオメトリデータ807のID808がGeometry ID805に対応し、Geometry809は、それぞれのID808の値に対応する位置情報(例えば座標値の集合)である。
図8(A)には、Geometry Type804が「ポイント」である検査対象設備テーブル800の例を示し、図8(C)にはそれに対応する検査対象設備のジオメトリデータ807の例を示す。この例では、検査対象である線路の位置が、複数の点の座標値の集合として、Geometry ID805の値「Senro_Point_001/001_1」と同一のID808の値に対応するGeometry809に登録される。一方、図8(B)には、Geometry Type804が「ポリゴン」である検査対象設備テーブル800の例を示す。これに対応する検査対象設備のジオメトリデータ807には、当該ポリゴンの位置情報(例えば当該ポリゴンの各頂点の座標値)が登録される。
なお、通常の検査業務は検査対象設備ごとに異なる事業者が実施するため、鉄道の保守事業者の検査対象設備データベース127には線路、架線及び鉄塔等の鉄道及びその周辺に関連する検査設備の情報が登録されており、道路の保守事業者の検査対象設備データベース127には道路及び電柱等の道路及びその周辺に関連する検査設備の情報が登録されることが一般的であるが、複数の検査対象設備について1つの検査対象設備データベース127で情報管理する場合は、検査対象設備テーブル800に検査対象設備を識別する項目を持たせて、近接する線路と道路で誤判断が生じないようにすることが望ましい。
図9は、本発明の実施例1の検査種別分布地図データベース129に登録されている検査種別分布テーブル900及び検査種別のジオメトリデータ907の例を示す説明図である。
図9(A)に示す検査種別分布テーブル900は、検査種別分布テーブル900のデータごとに付与される検査ID901、映像データ上で検出すべき対象物を示す検査対象902、検査対象に対してどのような評価を行うかを表す検査項目903、当該検査種別(検査対象と検査項目の組み合わせ)が適用されるエリアの形状を示すGeometry type904、当該検査種別が適用されるエリアのジオメトリデータを指定するGeometryID905、及び、当該検査種別分布テーブル900のレコードの有効期間を示す有効期限906で構成される。
なお、検査対象902が示す検査対象物は、例えばトンネル又は電柱など、検査対象設備そのもの(又はその一部)であってもよいし、例えば線路の近くにある樹木など、検査対象設備以外の物体であってもよい。
また、GeometryIDをキーとした位置情報のデータベースとして登録されている検査種別のジオメトリデータ907は、当該検査種別が適用される1つ以上のエリアの範囲を指定する位置情報が登録されている。具体的には、図9(B)に示すように、検査種別のジオメトリデータ907は、ID908と、それぞれのID908の値に対応するGeometry909とで構成される。ID908は、GeometryID905に対応する。Geometry909には、それぞれの検査種別が適用されるエリアのジオメトリデータとして、例えばそのエリアを表すポリゴンの頂点の座標値等が登録される。
図10は、本発明の実施例1の検出器データベース128に登録されている検出器テーブル1000の例を示す説明図である。
検出器テーブル1000には、検出器を特定する検出器ID1001、当該検出器が適用される検査対象の種別を表す検査ID1002、検出器の保存場所1003、及び、検出器のファイル名1004、で構成されている。検出器とは、学習させたい物体に対して、正解画像としてその物体が存在しているサンプル画像データの集合と、その物体とは全く異なるサンプル画像データの集合の入力に対して解析を行い、その画像データから特定の物体を抽出するのに有用な規則、ルール及び特徴などを記載したものである。
図15は、本発明の実施例1の検査対象解析結果データベース130に登録されている検査対象解析結果テーブル1500及び検査結果のジオメトリデータ1507の例を示す説明図である。
図15(A)に示す検査対象解析結果テーブル1500には、検査対象である映像データを識別する映像ID1501、実施された検査種別を識別する検査ID1502、検査を実施した設備を識別する設備ID1503、ポリゴン又はポイントといった検査結果のジオメトリデータ1507の位置情報が構成する形状を示すGeometry Type1504、検査の結果障害物及び異常が検知された場所の位置情報が格納されたファイルを示すGeometry ID1505、並びに、映像データのスペクトル解析結果及びオブジェクト抽出結果の格納先を示す解析結果格納場所1506、の情報が登録される。
図15(B)に示す検査結果のジオメトリデータ1507は、Geometry ID1505に対応するID1508と、検査の結果、障害物又は異常が検知された場所の検出位置のジオメトリ1509と、を有する。
なお、同じ映像の同一の検査設備に対して、複数の、互いに異なる検査種別の検査が実施された場合、同じ映像ID、同じ設備ID1504及び異なる検査IDをもつ複数の検査対象解析結果テーブル1500、及びそれぞれに対応する複数の検査結果のジオメトリデータ1507が生成される。
図6は、本発明の実施例1のホストシステム110が実行する物体検知・評価処理を示すフローチャートである。
なお、図6では1フレームずつ処理を実施する例を示しているが、処理を行うフレームの間隔は任意の間隔として良い。すなわち、ホストシステム110は、図6の処理を、映像に含まれる全てのフレームを対象として行ってもよいし、映像から任意の間隔で抽出されたフレームを対象として行ってもよい。
まず、画像取得部121が、通信装置113を経由し、処理対象の映像データを車載映像データベース104から読み込む(S601)。例えば、ホスト端末140の入力装置142がユーザからの検査対象設備の名称(路線名、道路名等)又は映像データのファイル名などの入力又は選択を受け付け、その結果をホストシステム110が通信装置143、ネットワーク150及び通信装置113を介して受け付けることによって、処理対象の映像データを特定しても良い。
次に、フレーム画像位置情報取得部124は、検査対象フレーム(例えば、α番目のフレーム)の画像が撮影された位置を特定する(S602)。
フレーム画像位置情報取得部124は、S601にて取得した映像データから、α番目のフレーム画像を読み込む。この例に置いて、映像データは動画であり、複数のフレーム画像の連続によって構成されている。Nは映像データを構成している全フレーム数であり、αは定数である。
フレーム画像位置情報取得部124は、この読み込まれたフレーム画像が撮影された位置情報を特定する。
図7は、本発明の実施例1のフレーム画像位置情報取得部124が実行する処理の例を示す説明図である。
例えば図7に示すようにα番目のフレーム画像701の位置情報を求める場合、車載映像データテーブル400において対応付けられたGPS位置情報ファイル410から、α番目のフレーム画像701が有する撮影時間に一番近い観測日412及び観測時間413を有するGPS位置情報を取得する。取得したGPS位置情報の観測時間tにおけるGPS取得位置702とし、その緯度経度情報をGPS(xt、yt)とする。
このGPS情報は、時刻tにGPS装置101が観測した、車載カメラ100の位置情報であるが、観測誤差を含んでいる可能性がある。そこで外部データとして検査対象設備データベース127に格納されている線路、道路等の位置情報である検査対象設備テーブル800及び検査対象設備のジオメトリデータ807の情報を利用する。まず、フレーム画像位置情報取得部124は、検査対象設備のジオメトリデータ807を検索し、GPS(xt、yt)に最も近い位置情報を含む検査対象設備のジオメトリデータ807のID808及びジオメトリ809を取得する。そして取得したジオメトリ809に列挙された緯度経度に対し順にIDを振り、作業用ジオメトリテーブル1700を作成する。
図17は、本発明の実施例1のフレーム画像位置情報取得部124が作成する作業用ジオメトリテーブル1700の例を示す説明図である。
図17に示す作業用ジオメトリテーブル1700は、個々の位置情報を一意に識別する作業用ジオメトリのID1701と、それぞれのIDに対応する緯度1702及び経度1703と、を有する。
ジオメトリ809は、その検査対象設備の位置情報を管理しているデータであり、密な点群データである。なお、ジオメトリ809が疎な点群データであっても、スプライン補完などで対象区間の検査対象設備の点群から、近似多項式を求め、その多項式を用いることで密な点群を求めることができる。
フレーム画像位置情報取得部124は、この作業用ジオメトリテーブル1700から、GPS(xt、yt)から最少の距離にあるデータを空間検索にて検索し、検出された緯度1702及び経度1703で表わされる位置情報GPS(xa、ya)704及びそれらに対応するID1701を取得する。そして、フレーム画像位置情報取得部124は、GPS受信時間tに撮影されたフレーム画像703を対象の映像データから検索し、時刻tにおけるフレーム画像703の位置情報をGPS(xa、ya)と定義する。
同様に、フレーム画像位置情報取得部124は、GPS受信時間tのs秒後(すなわち時間t+s)に観測したGPSの位置情報705から最少の距離にあるデータを空間検索にて作業用ジオメトリテーブル1700から取得し、検出された緯度1702及び経度1703で表わされる位置情報GPS(xb、yb)706及びそれらに対応するID1701を取得する。そして、フレーム画像位置情報取得部124は、GPS受信時刻t+sに撮影されたフレーム画像707の位置情報をGPS(xb、yb)とする。
sはGPSの観測時間間隔(秒)であり、a及びbは作業用ジオメトリテーブル1700に格納されている検査対象設備の地図情報の点群である作業用ジオメトリのID1701の値である。b−aでs秒間に移動した検査対象設備を構成している点群データの個数を計算できる。s秒間に含まれるフレーム画像の数はs×フレームレート506で求めることが可能である。フレームレートfpsの値をfとすると、GPS(xa、ya)からGPS(xb、yb)の間にはs×f枚のフレーム画像が存在することになる。よって時間tにおけるフレーム画像703のフレーム番号を1とすると、α番目のフレームの位置情報はGPS(xα’、yα’)とするこができる。ただしα’も作業用ジオメトリテーブル1700のID1701の値であり、α’=a+α(b−a)/(s×f)の整数部分である。また、(b−a)は(s×f)より十分大きな値とする。
例えば、aがID=2、bがID=162であり、フレームレートが30fps、sが4秒、αが10の場合、α’の整数部分は15となる。よって、作業用ジオメトリテーブル1700のID1701の値「15」に対応する緯度1702及び経度1703の値がα番目のフレーム画像701の位置情報となる。
次に、検査種別判定処理部117がα番目のフレーム画像に実施する検査種別(検査種別とその検査項目)を選択する(S603)。
具体的には、検査種別判定処理部117は、S602で求めたα番目のフレーム画像の位置情報GPS(xα’、yα’)を用い、その位置情報について、検査種別分布地図DB129の検査種別のジオメトリデータ907を空間検索にて検索すればよい。そして、検査種別判定処理部117は、該当した検査種別のジオメトリデータ907をGeometryID905として有する検査種別分布テーブル900から、検査ID901、検査対象902及び検査項目903を取得する。この際、検査種別判定処理部117は、さらに、有効期限906と現在の日時または映像データが撮影された日時とを比較し、現在の日時で有効な検査種別分布テーブル900を選択しても良い。
なお、1つの画像フレームに対して(すなわちそのフレームの撮影位置に対して)複数の検査種別が適用されても良い。例えば、ある地点に対し、樹木を対象とした検査と、信号機等の設備を対象とした検査の2種類を実施することも可能である。その場合は、複数の検査種別分布テーブル900がヒットし、それぞれの検査種別についてS605からS609の処理が行われる。一方で、α番目のフレーム画像の位置情報を含む検査種別分布テーブル900及び検査種別のジオメトリデータ907が存在しない場合は、そのフレーム画像において検査を実施する必要がないため、物体検知・評価処理は実施せず、次のフレーム画像へと進む(S604、S610)。
図14は、本発明の実施例1の検査種別判定処理部117が実行する処理の例を示す説明図である。
検査対象である線路1401の位置情報は、S602で特定された検査対象設備のジオメトリデータ807によって現わされる。
α番目のフレーム画像の撮影位置1404の場合、検査種別判定処理部117は、α番目のフレーム画像の撮影位置1404を含む検査種別のジオメトリデータ907を空間検索し、その位置情報に対応する検査種別のジオメトリデータ907、さらに検査種別分布テーブル900を取得する。これによって、α番目のフレーム画像の撮影位置1404に適用される検査種別(検査対象902、検査項目903)を特定する。
なお、検査種別分布地図データベース129の登録データを新規で作成する場合には検査種別分布地図作成部122が作成する。例えば、新たな検査対象設備を追加する際には、新たに、検査対象設備テーブル800及び検査対象設備のジオメトリデータ807を作成することに加え、どのような検査を実施するかを登録しておく必要がある。
検査種別分布地図作成部122は、あらかじめ撮影された空中写真が格納されたマルチスペクトル空中映像データベース126から対象の地域の空中写真を取得し、スペクトル解析処理部120がその地域特性である被服分類図を作成する。被服分類図とはたとえば、森林域地域、人工物地域、水域地域などその地形の特性を示した地図である。被服分類図を作成する技術はリモートセンシング分野において確立されている。
その被服分類図と検査対象設備データベース127に格納されている各種インフラ設備の検査対象設備テーブル800を地図上にマッピングしたものとの空間検索によって、その地域に最適な検査種別分布テーブル900とジオメトリデータ907を作成することが可能である。例えば、検査種別分布地図作成部122は、被覆分類図に当該被覆分類図上の位置に存在する検査対象設備テーブル800のデータをマッピングし、被覆分類が森林地域に該当する地域に含まれる検査対象設備の位置情報については、それら位置情報で検査種別のジオメトリデータ907を生成し、対応する検査種別分布テーブル900を新規作成し、新規作成したテーブルの検査対象902を樹木、検査項目903を障害物検知とする。
なお、検査種別分布地図データベース129の登録データは、上記のように検査種別分布地図作成部122が自動的に作成する代わりに、ユーザ等が手動で作成・修正してもよい。また、検査対象設備の位置情報からジオメトリデータ907を作成する際には、GISシステムが有する機能を用い、PointをPolyline、PolylineをPolygonに変換することもできるし、PolylineをPolygonに変換する際は、Polylineにあらかじめ指定された所定のバッファーを適用し、Polygonを生成しても良い。
なお、検査種別分布地図データベース129の登録情報は、例えば季節によって使い分けられるように、同じ線路又は道路に対応する複数のデータを含んでも良い。
図6の物体検知・評価処理の処理フローに戻る。S603においてα番目のフレーム画像における検査種別が特定できた場合(S604)、次に、検出器検索処理部118が、S603で特定した検査ID901をキーとして検出器データベース128から検出に最適な検出器を検索する(S605)。例えば検査ID901がkensatype1である場合、検査対象902は樹木、検査項目903は障害物検知であり、検査ID1002がkensatype1の検査器の情報が、検出器保存場所1003、検出器ファイル名1004に基づいて抽出される。
次に、検査対象物抽出処理部119が、S605で検索された検出器を利用して、α番目のフレーム画像から検査対象であるオブジェクトを検出する(S606)。例えば、検査対象が樹木である場合、検出器によって画像上で樹木と推定される領域が抽出される。検出器を用いたオブジェクト抽出に関しては様々な研究結果が公開されているため、本実施例では詳細は記載しない。
しかしながら、映像データの撮影条件、たとえば時間・天気・撮影方向などによっては検出したオブジェクトには誤差が含まれる可能性が高いという問題がある。そこで誤差を最小化させるために、合わせてスペクトル解析処理部120がスペクトル解析を実施する。例えば樹木の検知を実施したい場合を考えてみる。樹木のスペクトルは近赤外域での反射が強く、可視域赤での反射率が非常に低い傾向がある。そのため以下の計算式(1)によって植生指数と呼ばれる値を算出することができる。ここで、IRは、Infrared(赤外線)の略であり、マルチスペクトルカメラで撮影したマルチスペクトル画像のうち、赤外線のバンドの反射強度の値を表している。RはRedの略であり、マルチスペクトル画像のうち、赤のバンドの反射強度の値を表している。
植生指数=(IR−R)/(IR+R) ・・・(1)
この植生指数は−1〜+1までの値をとり、1に近づくほど植物である可能が高くなる。検査対象物抽出処理部119で検出したオブジェクトに対してこの植生指数を閾値として設定することによって、正解率を向上させることが可能である。例えば閾値を0.5に設定した場合、検査対象物抽出処理部119抽出したオブジェクトであってもそのオブジェクトの植生指数が0.5未満であれば、このオブジェクトは樹木ではないと判断することができる。植生ではIRとRに基づく指数計算を実施したが、他の物質においても反射が強いスペクトルと反射が弱いスペクトルが存在しているため、以下に示す同様の計算式(2)によって指数を計算し、閾値未満のオブジェクトを除外することが可能である。
スペクトル検査指数=(強反射バンド−弱反射バンド)/(強反射バンド+弱反射バンド) ・・・(2)
信号機などの鉄道設備は種別ごとに形状が概ね同じであるため検出器による検出でも十分検出可能であるが、樹木のような個体ごとに形状がことなる物体の場合には検出器では十分に検出できない可能性がある。一方で樹木は色相や反射強度に特徴があるため、スペクトル解析による検出に優れている。そのため、検出器による検出とスペクトル解析による検出を組み合わせることで、幅広い検査対象物を精度よく検出することができる。なお、検出器による検出とスペクトル解析による検出のいずれを先に適用するか、いずれの閾値を厳しくするかなどは、検査対象物に応じて設定しても良い。また、十分な精度が得られるのであれば、どちらか一方によって検査対象物(オブジェクト)を抽出しても良い。
上記は検出すべき検査対象物が植物の例であるが、一般に、図2に示すように、波長域によって反射強度が異なり、波長域と反射強度の関係は検査対象物の種類に依存する傾向があることから、複数の波長域の反射強度が所定の条件を満たすか否かに基づいて、所望の検査対象物を検出することができる。
次に、空間検索処理部123は、撮影位置から近い位置にある検査対象のオブジェクトを抽出する(S607)。この処理の詳細について、図11、図12、図18及び図20を参照して説明する。
図11は、本発明の実施例1の空間検索処理部123が撮影位置から近いオブジェクトを抽出する処理の例を示す説明図である。
具体的には、図11は、α番目のフレーム画像1101から樹木のオブジェクトを抽出したオブジェクト抽出画像1102の例を示す。車載カメラ100で撮影した映像の画像は2次元画像であるため、奥行という概念は存在しない。検査対象物抽出処理部119は、フレーム画像内に存在している検査対象物をその存在場所にかかわらずすべて抽出してしまう。オブジェクト抽出画像1102は、あくまでαフレーム画像に存在している樹木を抽出しているのであって、この画像に基づいてそれぞれの樹木の距離まで把握することは困難である。そのため、人間の目においては、フレーム画像の奥行きを考慮し、α番目のフレーム画像1101には走行に影響を与える位置に樹木が存在していることを検知することが可能であるが、コンピュータ上でのオブジェクトの抽出のみではそれが走行に影響を与えてしまう樹木か否かの判断は難しい。例えば、通常は、フレーム画像の上部ほど、撮影位置から遠いオブジェクトが映っている場合が多いことから、フレーム画像の上半分のピクセル行にあるオブジェクトは撮影位置での障害物の有無には影響しないと判定して機械的に除外することも考えられるが、それによって撮影位置の近くにある背の高い樹木の上部が取り除かれてしまい、正しく障害物検知できない恐れがある。
そこで、本実施例の空間検索処理部123は、α番目前後の複数枚のフレームを利用することによって検査対象物のオブジェクトの奥行を求める。移動している車両の車載カメラ100で映像を撮影した場合、フレーム間で物体の移動が発生する。空間検索処理部123は、この移動量を元に奥行を計算する。通常、手前にある物体ほどフレーム間の移動量(すなわち、あるフレームにおける当該物体の画像上の位置と、別のフレームにおける当該物体の画像上の位置との差)は大きく、遠くに存在している物体ほどフレーム間の移動量は小さい。そこでα―1番目、α―2番目、α+1番目、及びα+2番目などの前後複数のフレームから特徴点を取得し、フレーム間で対応する特徴点どうしの移動量を求める。特徴点の抽出及び特徴点のマッチングに関してはSURF(Speeded Up Robust Features)及びSIFT(Scale-Invariant Feature Transform)といった技術を用いることが可能である。
図12は、本発明の実施例1の空間検索処理部123が画像上の奥行きを検知する処理の例を示す説明図である。
たとえば、図12に示すように、α番目のフレーム画像1211、α―1番目のフレーム画像1210及びα+1番目フレーム画像1212の特定の特徴点1201の位置(x1、y1)及び特徴点1202の位置(x2、y2)の移動量に着目する。ここで(x1、y1)及び(x2、y2)はフレーム画像の左上のピクセル座標を(0,0)とした場合フレーム画像上でのピクセル座標値であり、特徴点1201αという記載は、α番目のフレーム画像1211での特徴点1201の座標(x1、y1)を、特徴点1202αという表記は、α番目のフレーム画像1211での特徴点1202の座標(x2、y2)を表すものとする。
この例では、特徴点1201(α−1)から特徴点1201αへの移動量1221、及び、特徴点1201αから特徴点1201(α+1)への移動量1231のベクトルはいずれも非常に小さく、特徴点1202(α−1)から特徴点1202αへの移動量1222、及び、特徴点1202αから特徴点1202(α+1)への移動量1232のベクトルはいずれも非常に大きいことがわかる。これらの複数枚のフレームから算出した特徴点ごとの移動距離を、α番目のフレーム画像の特徴点が存在するピクセルの移動距離と定義する。移動距離はピクセル座標値の2点間の距離として計算する。ただし、複数フレームで同一の特徴点を取得している場合はそれらの平均を移動量とする。ただし、平均を計算するのはα−a、α+a(aは定数)の両方にて同一の特徴点を取得できる場合に限るものとする。なお、特徴量の抽出及び移動量の算出は、画像フレーム全体に対して実施しても良いし、検査に必要な領域に絞って実施しても良い。
次に、空間検索処理部123は、算出した特徴点のピクセル移動量から、α番目のフレーム画像の撮影位置から近い位置にある特徴点のグリッドを抽出する。フレームレートが一定であれば、1ピクセルの移動が実際の距離の何メートルに相当するかは移動速度によって異なる。そのため、移動速度が不明な場合及び精度が悪い場合、撮影位置からXメートル以内に位置する特徴点のみを抽出するのは難しい。そこで、空間検索処理部123は、ピクセル移動量を相対的に比較することによって取得した特徴点が手前あるか奥に存在しているかを把握する。相対的に距離を把握するために、空間検索処理部123は、フレーム画面から取得した特徴点のピクセル移動量のCEP(Circular Error Probability、平均誤差半径)が所定の値(パーセント)となる閾値を求め、各特徴量のピクセル移動量が閾値より大きいか小さいかを比較することによって、各特徴量に対応するオブジェクトが手前に存在しているか、奥に存在しているかを把握することが可能である。
なお、以下の説明では便宜上CEPという用語を使用しているが、本実施例で扱われる移動量がスカラー値であるため、本実施例におけるCEPは、取得された移動量の値の総数のうち、所定の割合の(例えばX%の)数の値を含む、移動量の値の範囲である。例えば、α番目のフレームから抽出された100個の特徴点の各々と、α+1番前のフレームから抽出された100個の特徴点の各々が対応する場合、それらの100組の特徴点の移動量が計算され、100個の移動量の値が得られる。それらの100個の値を大きさの順に並べて、X個の値を含む範囲を探し、その範囲に含まれる最小の移動量から最大の移動量までの範囲が、CEPがX%の範囲に相当する。
図20は、本発明の実施例1の空間検索処理部123が画像内の領域の前後関係を判定する処理を示すフローチャートである。
図20に示す処理は、複数の段階に分けて行われる。まず、空間検索処理部123は、画像を複数の領域に分け(S2001)、夫々の領域においてCEPがX%(Xは0から100までの間の所定の値)となる移動量を算出し、領域ごとに前後関係を判断するための閾値を求める(S2002)。
図18は、本発明の実施例1の空間検索処理部123が画像の領域ごとに閾値を計算する処理の例を示す説明図である。
図18の例では、2つの分割領域1801、1802の夫々で閾値が算出される。画像フレームの撮影地点によっては、例えば右側が山で左側が谷である場合、又は、進路が左右いずれかにカーブしている場合のように左右でピクセル移動量の傾向に大きな違いがみられ、また、画像フレームの上部と下部でもピクセル移動量の傾向に大きな違いがみられる。そのため、特性の似た領域ごとに閾値を定めることで、傾向の異なる領域の移動量に影響されて不適切な閾値が算出されることを防ぐ。空間検索処理部123は、ピクセル移動量を昇順に並び替え、そのX%確率円に入る最大の値を求めることによって、閾値を求める。
具体的には、例えば、空間検索処理部123は、画像フレームの領域ごとに、取得されたピクセル移動量を昇順に並べ、その分布の中心を特定し、そこを中心とした、移動量の値の総数のX%の値を含む範囲を特定し、その範囲に含まれる移動量の最大値を閾値として特定してもよい。また、最大値の代わりに、CEPがX%の範囲の値の任意の統計量(例えば最小値、平均値、中央値、分布の中心、又は、その分布の標準偏差の値に所定の係数を乗じた値を分布の中心の値に加算した値等)を閾値としてもよい。
次に、空間検索処理部123は、S2002で処理した分割領域をさらに細かい領域(グリッド)に分け(S2003)、各グリッドにおいてCEPがY%となる移動量を算出し(S2004)、S2002で求めた閾値に基づき、グリッド間の前後関係を判断する(S2005)。図18の例では、空間検索処理部123は、分割領域1801をさらにグリッド1803等に分割し、グリッド単位でCEPがY%となる移動量を算出する。特徴点の中には、画像フレーム間の特徴点のマッチングミスによって、不正な移動量を有するものも含まれる。このような不正な移動量の特徴点を排除しつつグリッドの前後関係をみるために、グリッドは1回目より細かな領域に設定することが望ましい。空間検索処理部123は、ピクセル移動量を昇順に並び替えそのY%確率円に入る値を求める。
そして、空間検索処理部123は、グリッドのCEPがY%の閾値と、このグリッドが属する分割領域のCEPがX%で算出された閾値とを比較し、CEPがY%の移動量の値が、CEPがX%の閾値より大きければ相対的に手前にあるグリッド、CEPがX%の閾値より小さければ相対的に奥にあるグリッドと判断する。なお、グリッドごとの閾値は、グリッド内の特徴点の移動量に基づいて、上記の領域ごとの閾値と同様の方法で計算することができる。
なお、一般に、一つのグリッドには撮影位置に近いオブジェクトと遠いオブジェクトの両方が同時に映り込んでいる場合があるが、グリッドがある程度小さければ、各グリッドには一つのオブジェクトのみが映っているか、又は、複数のオブジェクトが映っていたとしてもそれらの一つが支配的である場合が多いと考えられる。上記の説明において「相対的に手前にあるグリッド」及び「相対的に奥にあるグリッド」とは、それぞれ、相対的に手前(すなわち撮影位置から近い位置)にあるオブジェクトが主に映っているグリッド、及び、相対的に奥(すなわち撮影位置から遠い位置)にあるオブジェクトが主に映っているグリッドを意味する。
空間検索処理部123は、上記の処理を分割領域に属する各グリッドについて実施し(S2006)、撮影位置から近いところにあるグリッドを特定することで、撮影位置から近い位置にある検査対象のオブジェクトを抽出する。空間検索処理部123は、上記の処理を、S2001で分割した各領域に対して実施する(S2007)。
このように、それぞれフレーム画面にて取得した特徴点のピクセル移動量のCEPが所定のパーセント値となる閾値を求め、各グリッドのピクセル移動量が閾値より大きいか小さいかを比較することによって、相対的に、各グリッドが手前に存在しているか、奥に存在しているかを把握することが可能である。ピクセル移動量が閾値より大きい場合に、グリッドが撮影位置に近いと把握される。なお、CEPを繰り返す回数及びX、Yの値は任意に決定してよく、XとYの値を同一にしても良い。また、CEPを算出する領域の区切り方も任意である。例えば画面を水平又は垂直に区切っても良いし、斜めに区切っても良い。また、フレーム画像上の特定の領域に絞ってCEPの算出を実行しても良い。また、CEP以外の、統計的な手法を用いて相対的な閾値を算出し、撮影位置から近い位置にある検査対象のオブジェクトを抽出しても良い。
上記の処理を実現する物体検知・評価システム構成の一例を示せば、次の通りである。すなわち、画像から検査対象物を検出するための検出器データを保持する記憶部と、移動するカメラが撮影した第1の画像から、前記検出器データを用いて検査対象物を抽出する検査対象物抽出処理部と、前記第1の画像に含まれる複数の第1の特徴点と、前記カメラが前記第1の画像の前又は後に撮影した第2の画像に含まれ、それぞれ前記複数の第1の特徴点に対応する複数の第2の特徴点と、の間の画像上の移動量に基づいて、それに含まれる移動量の割合が所定の値になる移動量の範囲を計算し、前記計算した範囲内の移動量に基づいて移動量の閾値を計算し、移動量が前記閾値より大きい前記特徴点を含む前記検査対象物を、前記第1の画像の撮影位置から近い検査対象物として取得する空間検索処理部と、を有する物体検知評価システムであって、前記空間検索処理部は、前記第1の画像及び前記第2の画像をそれぞれ所定の複数の領域に分割し、前記各領域に含まれる前記複数の第1の特徴点と前記複数の第2の特徴点とに基づいて、前記領域ごとに前記閾値を計算し、前記複数の領域を、それぞれ、より小さい複数のグリッドに分割し、前記各グリッドに含まれる前記複数の第1の特徴点と前記複数の第2の特徴点とに基づいて、前記グリッドごとに前記閾値を計算し、前記各グリッドの閾値と前記各グリッドを含む前記各領域の閾値とを比較し、いずれかの前記グリッドの閾値が当該グリッドを含む前記領域の閾値より大きい場合、当該グリッド内の前記特徴点を含む前記検査対象物を、前記第1の画像の撮影位置から近い検査対象物として取得する。
図11の奥行き画像1103は、上記の処理によって画像に含まれるオブジェクトの前後関係を判定した結果の例である。この例では、撮影位置の近くにあるオブジェクトほど薄い網掛けが、遠くにあるオブジェクトほど濃い網掛けが施されている。
次に、空間検索処理部123は、S606において検査対象のオブジェクトとして抽出されたピクセルと、S607において撮影位置から近いところにある特徴点として抽出されたピクセルとを比較し、撮影位置から近い位置にある検査対象のオブジェクトを抽出する。例えば、S606において検査対象のオブジェクトとして抽出されたピクセルが、S607において撮影位置から近い特徴点として抽出されたピクセルを含む場合、その検査対象のオブジェクトが、撮影位置から近い検査対象のオブジェクトとして抽出される。その結果、図11のα番目のフレーム画像1101から特定オブジェクト抽出画面1104が生成される。
次に、評価処理部132が、検査項目903に応じて、S607で抽出した撮影位置から近い位置にある検査対象のオブジェクトを検査する(S608)。検査の方法としては、オブジェクトの障害物検知又はオブジェクトの状態監視などがある。
検査項目903が障害物検知の場合、評価処理部132は、検査対象であるオブジェクトが検査対象設備の運用の障害になっていないかを評価する。たとえば、評価処理部132は、線路の架線もしくは道路脇にある電線上に樹木が覆いかぶさって障害になっていないかの確認、又は、線路もしくは高速道路の脇に存在している樹木が線路内もしくは道路内に入りこんで障害になっていないかの確認などを行う。
検査項目903が状態監視の場合は、検査対象であるオブジェクトの状態を評価する。たとえば、スペクトル解析処理部120が、バンドの反射強度の値に基づき、線路もしくは道路の温度変化を記録する、又は、線路もしくは道路の水分量の変化を記録するなどの評価を行う。
図13は、本発明の実施例1のホストシステム110が実行する検査処理の例を示す説明図である。
検査項目903が障害物の検知である場合は、評価処理部132が、S607で生成した特定オブジェクト抽出画面1104に対してさらに、XY方向に検知範囲を指定するXYウィンドウ1301を設定し、XYウィンドウ1301内に存在する検査対象のオブジェクトを抽出する。なお、XYウィンドウ1301の範囲は固定されていても良いし、検査対象設備又は検査種別ごとに登録しておき、それらに応じて範囲を適宜切り替えても良い。さらに、ホスト端末140を用いてユーザが範囲を調整可能にしても良い。これによって、例えば線路を走行する鉄道車両に衝突する可能性がある樹木の枝等、検査対象設備を利用する物の運用の障害となる可能性がある検査対象物を抽出することができる。
検査項目903が状態監視である場合は、スペクトル解析処理部120が、S607で抽出した撮影位置から近い位置にある検査対象のオブジェクトのピクセルについての各バンドの反射強度の値に基づき、スペクトル解析を行う。例えば、スペクトル解析処理部120は、S606で示したスペクトル検査指数の計算と同様にバンド間差分を算出し、その値に基づいて温度又は水分量等、検査対象の状態をチェックする。なお、状態監視の場合も、XYウィンドウ1301を設けても良い。
抽出されたオブジェクトのピクセルの情報及びS602で算出したα番目のフレーム画像の位置情報は、障害物情報として検査対象解析結果データベース130に登録される。なお、新しい映像データついての結果を格納する場合には、S602又はS603などで特定した情報に基づき、検査対象解析結果テーブル1300が新規に作成され、検査対象解析結果データベース130に格納される。
ホストシステム110は、S602からS608の処理を、検査対象となる各フレームについて実施する(S609、S610)。
図16は、本発明の実施例1のホスト端末140が表示する検査処理の結果の画面の例を示す説明図である。
結果画面1601では、検査対象解析結果テーブル1500及び検査結果のジオメトリデータ1507に基づき、地図上に検査対象設備1603が表示され、さらに、障害物が検知された場所及び状態変化に問題のあった場所上にマークが付される。障害物検知の場合、障害検出位置マーク1604の他に、場所の緯度経度、検査結果情報等の詳細情報1602を表示しても良い。また、マーク又は詳細情報をクリックすることで、車載カメラ100で撮影したその位置の画像又は映像を表示し、現場の状況を確認できるようにしてもよい。
図19は、本発明の実施例1のホスト端末140が表示する検査処理の結果の画面の別の例を示す説明図である。
例えば、障害物検知の結果、いずれかのオブジェクトの少なくとも一部が障害物として検出された場合、画像上の検出された当該オブジェクトのピクセルに色を付けておき、映像を再生する際には、図19に例示する障害物1901のように、識別可能に表示することも考えられる。XYウィンドウ1301を画像上に表示しても良い。
状態監視の場合の場合も、状態変化検出位マークに代えて、検出された温度に応じて色を変えた状態表示1605を行っても良い。また、結果に関する詳細情報1606(例えば、スペクトル解析の結果、温度が閾値を超えていることなど)を表示しても良い。
結果画面1601には、そのほかに、現在画面に表示されている障害物検知の検査に関する情報1607及び状態監視の検査に関する情報1608を表示しても良く、複数の検査結果を同時に地図情報に表示しても良く、「表示」「非表示」ボタンを設けて複数の結果のうちいずれを表示するか切り替え可能にしても良い。
上記の図16、図19のような表示によって、検査対象施設を利用する移動体に影響を与える可能性がある検査対象物(例えば線路を走行する鉄道車両に衝突する可能性がある樹木の枝等)の存在を、当該物体検知・評価システムの利用者に明確に認識させることができる。
S606にて取得した特定位置の検査対象のスペクトル解析による評価を異なる日に実施した場合、過去に実施した物体検知・評価処理において、各検査対象物はそれぞれ位置情報を持った評価結果を保存しているため容易に検査対象物の状態の変化を抽出することが可能である。例えば検査対象の一つである道路脇又は線路脇の植生指数の変化を考えてみる。抽出されたそれぞれの検査対象物は植生指数を保有している。もし特定の樹木のみ植生指数が減少傾向にある場合、これは枯れが進んできたと判断することができる。よって、同一場所に存在している検査対象物に、異なる時期に同一項目の評価を行った場合、差分解析処理部125がその差分傾向を取得し、評価指数が減少傾向または増加傾向にあった場合、何等かの警告を発することも可能となる。
なお、実施例1では車載カメラ100にマルチスペクトルカメラ103を用いた例を記載したが、マルチスペクトルカメラ103に代えて通常のカメラを用いても良い。通常のカメラの場合、図2に記載した撮影対象の分光曲線204の例のうち、赤色の波長域と緑色の波長域と青色の波長域の3つのスペクトル反射強度が取得でき、これら3つのスペクトル情報を組み合わせることによってカラー画像が表現される。よって、図3の画像データテーブル310は、3つのバンドのデータを有することになる。
この場合、図6の物体検知・評価処理のS606では、通常のカメラにて取得できる赤色の波長域と緑色の波長域と青色の波長域の反射強度のデータを用い、検査対象物において反射が強いスペクトルと反射が弱いスペクトルに基づき、閾値未満のオブジェクトを除外することで、検査対象物の抽出精度を高めることができる。