JP2019121979A - 画像合成システムおよび画像合成方法 - Google Patents

画像合成システムおよび画像合成方法 Download PDF

Info

Publication number
JP2019121979A
JP2019121979A JP2018001764A JP2018001764A JP2019121979A JP 2019121979 A JP2019121979 A JP 2019121979A JP 2018001764 A JP2018001764 A JP 2018001764A JP 2018001764 A JP2018001764 A JP 2018001764A JP 2019121979 A JP2019121979 A JP 2019121979A
Authority
JP
Japan
Prior art keywords
image
cameras
camera
combining
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018001764A
Other languages
English (en)
Other versions
JP6815338B2 (ja
Inventor
章悟 喜多村
Shogo Kitamura
章悟 喜多村
恭平 海野
Kyohei UNNO
恭平 海野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018001764A priority Critical patent/JP6815338B2/ja
Priority to US16/958,277 priority patent/US11335036B2/en
Priority to PCT/JP2018/043703 priority patent/WO2019138716A1/ja
Priority to EP18899995.7A priority patent/EP3739877A4/en
Publication of JP2019121979A publication Critical patent/JP2019121979A/ja
Application granted granted Critical
Publication of JP6815338B2 publication Critical patent/JP6815338B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L15/00Indicators provided on the vehicle or vehicle train for signalling purposes ; On-board control or communication systems
    • B61L15/0081On-board diagnosis or maintenance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning, or like safety means along the route or between vehicles or vehicle trains
    • B61L23/04Control, warning, or like safety means along the route or between vehicles or vehicle trains for monitoring the mechanical state of the route
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L25/00Recording or indicating positions or identities of vehicles or vehicle trains or setting of track apparatus
    • B61L25/06Indicating or recording the setting of track apparatus, e.g. of points, of signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

【課題】劣悪な環境条件下においても走行しながら得られた画像の画質を向上させる。【解決手段】カメラ101−1は列車1−1に搭載され、カメラ101−2は列車1−2に搭載され、各カメラ101−1、カメラ101−2は同一の軌道5に沿って移動しながら同一対象物を異なる時刻に撮像し、処理装置2は、カメラ101−1、101−2が同一の軌道5に沿って移動しながら撮像した同一対象物に関する画像を合成することで、合成画像7を生成し、表示画面2Aに表示させる。【選択図】図1

Description

本発明は、複数のカメラを用いた画像合成システムおよび画像合成方法に関する。
画像合成システムの主な用途として、例えば、遠隔地から映像を介して沿線機器のモニタリングを行う鉄道保守支援システムがある。鉄道の遠隔保守では、列車周辺の沿線機器の状態を把握するために、列車にカメラを搭載し、ネットワークまたは可搬式ストレージを介して収集した撮影映像を用いて解析を行うことがある。
特許文献1には、車外を撮る撮像装置と、GPS(Global Positioning System)受信機と、その測位結果から列車位置を得る列車位置検出部と、軌道に沿って設置された沿線設置機器に係る機器位置および機器画像をデータ保持する沿線設置機器データ記憶部と、撮像装置で撮った画像において機器画像を検出するに際して列車位置と機器位置とに基づいて画像探索位置を決定する沿線設置機器検出部とを備える列車搭載用画像処理システムが開示されている。
特開2011−201423号公報
しかしながら、高速走行しながら沿線機器を撮影する場合、短時間で列車が沿線機器を通り過ぎる。このため、低照度・霧雨・雪等の劣悪な環境下では、これらが撮影を阻害し、解析に足る画質の映像を収集するのが困難となることがあった。
本発明は、上記事情に鑑みなされたものであり、その目的は、劣悪な環境条件下においても走行しながら得られた画像の画質を向上させることが可能な画像合成システムおよび画像合成方法を提供することにある。
上記目的を達成するため、第1の観点に係る画像合成システムは、N(Nは2以上の整数)台のカメラと、前記N台のカメラが同一経路に沿って移動しながら撮像した同一対象物に関する画像を合成する合成部とを備える。
本発明によれば、劣悪な環境条件下においても走行しながら得られた画像の画質を向上させることができる。
図1は、第1実施形態に係る画像合成システムが適用される鉄道保守支援システムの概略構成を示す模式図である。 図2は、第1実施形態に係る画像合成システムの構成を示すブロック図である。 図3は、第1実施形態に係る画像合成システムの画像合成方法を示す模式図である。 図4は、第1実施形態に係る画像合成システムの画像合成処理の一例を示すフローチャートである。 図5は、第1実施形態に係る画像合成システムの画像合成処理のその他の例を示すフローチャートである。 図6は、第2実施形態に係る画像合成システムの構成を示すブロック図である。 図7は、第3実施形態に係る画像合成システムの構成を示すブロック図である。 図8は、第4実施形態に係る画像合成システムの構成を示すブロック図である。 図9は、第5実施形態に係る画像合成システムの構成を示すブロック図である。 図10は、第6実施形態に係る画像合成システムの構成を示すブロック図である。 図11は、第7実施形態に係る画像合成システムの画像合成方法を示す模式図である。 図12は、第8実施形態に係る画像合成システムの画像合成方法を示す模式図である。 図13は、第9実施形態に係る画像合成システムの画像合成方法を示す模式図である。 図14は、第9実施形態に係る画像合成システムの構成を示すブロック図である。 図15は、第9実施形態に係る画像合成システムに搭載されたカメラの使用例を図である。 図16は、第10実施形態に係る画像合成システムの画像合成方法を示す模式図である。 図17は、第11実施形態に係る画像合成システムの画像合成方法を示す模式図である。 図18は、第11実施形態に係る画像合成システムの構成を示すブロック図である。 図19は、第12実施形態に係る画像合成システムの構成を示すブロック図である。 図20は、第13実施形態に係る画像合成システムが適用される道路保守支援システムの概略構成を示す模式図である。
実施形態について、図面を参照して説明する。なお、以下に説明する実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態の中で説明されている諸要素およびその組み合わせの全てが発明の解決手段に必須であるとは限らない。
(第1実施形態)
図1は、第1実施形態に係る画像合成システムが適用される鉄道保守支援システムの概略構成を示す模式図である。
図1において、列車1−1、1−2が走行する軌道5の周辺には沿線機器6が設けられている。図1では、軌道5が鉄道のレールである場合を示した。沿線機器6は、信号機、転轍機、電柱、電線、遮断機、踏切、踏切警報機または送電線などである。鉄道保守支援システムには、処理装置2およびカメラ101−1、101−2が設けられている。処理装置2には、表示画面2Aが設けられている。処理装置2およびカメラ101−1、101−2は、ネットワーク3を介して接続されている。
ネットワーク3は、インターネットやデジタル専用線などのWAN(Wide Area Network)であってもよいし、イーサネット(登録商標)やWiFiなどのLAN(Local Area Network)であってもよいし、WANとLANが混在していてもよい。ネットワーク3は、有線であってもよいし、無線であってもよいし、有線と無線が混在していてもよい。
カメラ101−1は列車1−1に搭載され、カメラ101−2は列車1−2に搭載されている。この時、各カメラ101−1、101−2は同一の軌道5に沿って移動しながら同一対象物を異なる時刻に撮像することができる。処理装置2は、カメラ101−1、101−2が同一の軌道5に沿って移動しながら撮像した同一対象物に関する画像を合成することで合成画像7を生成し、表示画面2Aに表示させることができる。
列車1−1、1−2は異なる時刻に軌道5上を直列に走行することができる。各カメラ101−1、101−2は、列車1−1、1−2の走行中に沿線の物体を撮像することができる。この時、各列車1−1、1−2が沿線機器6に近づくと、沿線機器6が各カメラ101−1、101−2の画角に入り、各カメラ101−1、101−2で沿線機器6が撮像される。各カメラ101−1、101−2で撮像された画像はネットワーク3を介して処理装置2に伝送される。
処理装置2は、各カメラ101−1、101−2で撮像された画像を受信すると、各画像から沿線機器6の領域を抽出する。そして、処理装置2は、各画像から抽出された沿線機器6の領域を合成することで合成画像7を生成し、表示画面2Aに表示させる。保守員4は、合成画像7を目視点検することにより、保守員4が沿線機器6から離れた遠隔地にいる場合においても、沿線機器6の実際の設置場所へ徒歩で巡視に向かうことなく、沿線機器6を保守点検することができる。
ここで、カメラ101−1、101−2が同一の軌道5に沿って移動しながら沿線機器6を撮像し、それらの沿線機器6に関する画像を合成することにより、各カメラ101−1、101−2で撮像された画像に不鮮明な部分がある場合においても、それらの不鮮明な部分が目立たなくなるように沿線機器6に関する合成画像7を生成することができる。このため、低照度・霧雨・雪等の劣悪な環境条件下において、カメラ101−1、101−2が短時間で沿線機器6を通り過ぎる場合においても、解析に足る画質の合成画像7を得ることができる。
また、カメラ101−1、101−2が移動しながら沿線機器6を撮像することにより、保守員4は、広範囲に渡って短時間に軌道5の沿線の状態を監視することができ、鉄道保守を効率化することが可能となる。
なお、上述した実施形態では、各カメラ101−1、101−2で撮像された画像から沿線機器6の領域を抽出する例を説明したが、沿線の木々の繁茂状態の確認等、列車1−1、1−2が走行する軌道5全体を俯瞰するような点検項目の場合は、沿線機器6の領域抽出は行わなくてもよい。
また、処理装置2において領域抽出および画像合成を行う処理部を独立させ、ネットワーク3上にクラウドサーバとして別途設置する構成としてもよい。さらに、各列車1−1、1−2に可搬式ストレージを搭載し、各カメラ101−1、101−2で撮像された画像を可搬式ストレージに記憶するようにしてもよい。この時、処理装置2は、可搬式ストレージに記憶されたデータを読み出すことにより、ネットワーク3を用いることなく、各カメラ101−1、101−2で撮像された画像を収集することができ、オフライン解析を行うことができる。
図2は、第1実施形態に係る画像合成システムの構成を示すブロック図である。
図2において、画像合成システムには、カメラ101−1〜101−N(Nは2以上の整数)、合成部102Aおよび制御部103Aが設けられている。合成部102Aおよび制御部103Aは、図1の処理装置2に設けることができる。
各カメラ101−1〜101−Nは同一の軌道に沿って移動しながら同一対象物を異なる時刻に撮像することができる。合成部102Aは、各カメラ101−1〜101−Nが同一の軌道に沿って移動しながら撮像した同一対象物に関する画像を合成する。制御部103Aは、各カメラ101−1〜101−Nで撮像された同一対象物に関する画像の合成条件を設定する。
各カメラ101−1〜101−Nで撮像された画像201−1〜201−Nは合成部102Aに入力される。合成部102Aは、各カメラ101−1〜101−Nで撮像された同一対象物に関する画像を合成する。この時、制御部103Aは、合成部102Aが画像合成を行う上で必要な情報を合成部102Aに提供する。例えば、制御部103Aは、点検項目として指定された対象物が写っている画像を合成するように指示することができる。この時、合成部102Aは、パターン照合などの方法を用いることにより、各カメラ101−1〜101−Nで撮像された画像から、制御部103Aで指定された対象物が写っている画像を抽出し、それらの画像を合成することができる。
この時、合成部102Aには、切り出し部202Aおよびパターン認識部202Aを設けることができる。制御部103Aは、合成部102Aにて合成対象となる対象パターン203Aおよび対象パターン203Aの配置情報303Aを保持することができる。配置情報303Aは、各カメラ101−1〜101−Nで撮像された画像201−1〜201−Nのどの位置に対象パターン203Aがあるかを示すことができる。
そして、切り出し部202Aは、各カメラ101−1〜101−Nで撮像された画像201−1〜201−Nから配置情報303Aで指定される領域を切り出す。パターン認識部202Aは、切り出し部202Aにて切り出された領域の画像と、制御部103Aで指定される対象パターン203Aとを比較し、各カメラ101−1〜101−Nで撮像された画像201−1〜201−Nから、対象パターン203Aと一致する画像を同一対象物に関する画像として抽出する。そして、合成部102Aは、各カメラ101−1〜101−Nで撮像された画像201−1〜201−Nから抽出された同一対象物に関する画像を合成する。
図1の例では、対象パターン203Aは、列車運行時に撮像された沿線機器6の画像である。この対象パターン203Aは、例えば、列車の試験運行時に沿線機器6を撮像し、その沿線機器6の画像を対象パターン203Aとすることができる。対象パターン203Aの撮像は、降雪や霧などが発生していない好天時に行うことができる。列車の試験運行時に撮像された画像のどの位置に沿線機器6が配置されているかを示す情報を対象パターン203Aの配置情報303Aとすることができる。なお、対象パターン203Aは、コンピュータグラフックスで作成するようにしてもよい。
ここで、各カメラ101−1、101−2が搭載された列車1−1、1−2は、同一の軌道5を走行する。このため、カメラ101−1、101−2が異なる列車1−1、1−2に搭載されている場合においても、各列車1−1、1−2が沿線機器6を通過する時に、各カメラ101−1、101−2で撮像された画像201−1〜201−N内において配置位置およびサイズが等しい沿線機器6の画像を取得することができる。この結果、合成部102Aは、対象パターン203Aおよび配置情報303Aに基づいて、カメラ101−1、101−2で撮像された画像201−1〜201−Nから沿線機器6の画像を精度よく特定することができる。
各カメラ101−1〜101−Nで撮像された同一対象物に関する画像を合成する場合、各カメラ101−1〜101−Nで撮像された画像間で変化しない部分はそのまま残し、各カメラ101−1〜101−Nで撮像された画像間で変化する部分は除去することができる。
図3は、第1実施形態に係る画像合成システムの画像合成方法を示す模式図である。
図3において、列車が軌道5上を走行している時に降雪8があったものとする。この時、降雪8は沿線機器6に対する視認性の阻害要因となり、各カメラ101−1〜101−Nで撮像された沿線機器6に関する画像7−1〜7−Nは視認性が低下している。
各画像7−1〜7−Nは、同一軌道5上を移動するカメラ101−1〜101−Nで撮像される。このため、画像7−1〜7−N間において、沿線機器6の画像の位置および大きさは一定である。一方、沿線機器6に対する降雪8による阻害要因の位置はランダムに分散する。そこで、図2の合成部102Aは、例えば、画像7−1〜7−N間でメディアンフィルタのような画像処理を適用して画像7−1〜7−Nを合成することにより、合成画像7を生成することができる。これにより、沿線機器6の画像情報を保持しつつ、阻害要因の影響を除去することが可能となり、沿線機器6に関する合成画像7の視認性を向上させることができる。
図4は、第1実施形態に係る画像合成システムの画像合成処理の一例を示すフローチャートである。
図4において、複数のカメラ101−1〜101−Nによる画像は既に映像ファイルとして揃っていることを前提とする。
ステップS1において、合成部102Aは、画像を抽出する映像ファイルを選択する。
次に、ステップS2において、合成部102Aは、制御部103Aの合成条件の設定に基づき画像を抽出する。ここで、制御部103Aの設定として、沿線機器6の位置情報や物体検出情報を用いてもよい。
次に、ステップS3において、合成部102Aは、抽出した画像を合成用画像バッファに保存する。
次に、ステップS4において、合成部102Aは、合成に用いる全映像ファイルから画像を抽出したかどうかを判定する。合成に用いる全映像フから画像を抽出していない場合、ステップS1に戻り、合成に用いる全映像ファイルから画像を抽出するまでステップS1からS4の処理を繰り返す。
次に、ステップS5において、合成に用いる全映像ファイルから画像を抽出すると、これらの画像を合成する。
図5は、第1実施形態に係る画像合成システムの画像合成処理のその他の例を示すフローチャートである。
図5において、この処理フローを動作させる時点で、複数のカメラ101−1〜101−Nは移動しながら継続的に撮影を行っていることを前提とする。
ステップS11において、合成部102Aは、鉄道保守支援システムの動作終了命令の有無を監視し、システム動作を継続するかどうかを判定する。システム動作を継続する場合、ステップS12に進み、合成部102Aは、制御部103Aの合成条件を満たす画像が在るかどうかを確認する。制御部103Aの合成条件を満たす画像が在る場合、合成部102Aは、ステップS13において抽出した画像を合成用画像バッファに保存する。
次に、ステップS14において、合成部102Aは、合成に用いる全てのカメラ101−1〜101−Nの画像を抽出したかどうかを判定する。合成に用いる全てのカメラ101−1〜101−Nの画像を抽出していない場合、ステップS11に戻り、合成に用いる全てのカメラ101−1〜101−Nの画像を抽出するまでステップS11からS14の処理を繰り返す。
次に、ステップS15において、合成に用いる全てのカメラ101−1〜101−Nの画像を抽出すると、これらの画像を合成する。
以上のような処理フローを取ることにより、低照度・霧雨・雪等の劣悪な環境条件下においても、画像の視認性を向上させつつ、画像合成処理を連続的に行う鉄道保守支援システムを実現することが可能となる。
(第2実施形態)
図6は、第2実施形態に係る画像合成システムの構成を示すブロック図である。
図6において、各列車1−1〜1−Nには、カメラ101−1〜101−Nおよび位置情報取得部104−1〜104−Nが搭載されている。位置情報取得部104−1〜104−Nは、GPS受信機であってもよいし、加速度/ジャイロセンサであってもよい。
各位置情報取得部104−1〜104−Nは、各カメラ101−1〜101−Nで撮像された画像201−1〜201−Nの取得に併せて同時刻の各カメラ101−1〜101−Nのカメラ位置情報204−1〜204−Nを取得する。合成部102Bは、各カメラ101−1〜101−Nのカメラ位置情報204−1〜204−Nに基づいて、各カメラ101−1〜101−Nが撮像した同一対象物に関する画像を合成する。制御部103Bは、各カメラ101−1〜101−Nの位置情報に基づいて、各カメラ101−1〜101−Nで撮像された同一対象物に関する画像の合成条件を設定する。
この時、制御部103Bは、軌道5の周辺に配置された沿線機器6の位置を示す対象物位置情報203Bを保持することができる。また、制御部103Bには、カメラ位置情報204−1〜204−Nと対象物位置情報203Bを比較する位置情報比較部303Bを設けることができる。合成部102Bには、位置情報比較部303Bによる比較結果に基づいて、各カメラ101−1〜101−Nで撮像された画像から同一対象物に関する画像を抽出する画像抽出部202Bを設けることができる。
各位置情報取得部104−1〜104−Nで取得されたカメラ位置情報204−1〜204−Nは制御部103Bに入力される。各カメラ101−1〜101−Nで撮像された画像201−1〜201−Nは合成部102Bに入力される。そして、位置情報比較部303Bは、各位置情報取得部104−1〜104−Nで取得された各カメラ101−1〜101−Nのカメラ位置情報204−1〜204−Nと、軌道5の周辺に配置された沿線機器6の対象物位置情報203Bを比較する。そして、カメラ位置情報204−1〜204−Nと対象物位置情報203Bが一致すると、制御部103Bは、各カメラ101−1〜101−Nが沿線機器6の位置を移動する時の画像を抽出および保存するように合成条件を設定する。そして、画像抽出部202Bは、各カメラ101−1〜101−Nで撮像された画像201−1〜201−Nから、各カメラ101−1〜101−Nが沿線機器6の位置を移動する時の画像を抽出する。そして、合成部102Bは、各カメラ101−1〜101−Nが沿線機器6の位置を移動する時に収集された沿線機器6に関する画像を合成する。
これにより、各列車1−1〜1−Nの長時間走行で得られた膨大な画像201−1〜201−Nの中から、保守に用いる沿線機器6の複数の画像を抽出し、それらの画像を合成することが可能となる。
(第3実施形態)
図7は、第3実施形態に係る画像合成システムの構成を示すブロック図である。
図7において、各列車1−1〜1−Nには、カメラ101−1〜101−Nおよび位置情報取得部114−1〜114−Nが搭載されている。
各位置情報取得部114−1〜114−Nは、各カメラ101−1〜101−Nで撮像された画像の取得に併せて同時刻の各カメラ101−1〜101−Nのカメラ位置情報を取得する。ここで、各位置情報取得部114−1〜114−Nは、軌道5の周辺に配置された沿線機器6の位置を示す対象物位置情報214−1〜214−Nを予め保持することができる。合成部102Cは、各カメラ101−1〜101−Nが撮像した同一対象物に関する画像301−1〜301−Nを合成する。制御部103Cは、各カメラ101−1〜101−Nで撮像された同一対象物に関する画像301−1〜301−Nの合成条件を設定する。
そして、各位置情報取得部114−1〜114−Nは、各カメラ101−1〜101−Nのカメラ位置情報と、軌道5の周辺に配置された沿線機器6の対象物位置情報214−1〜214−Nとを比較する。そして、これらの情報が一致すると、各位置情報取得部114−1〜114−Nは、各カメラ101−1〜101−Nが沿線機器6の位置を移動する時に撮像した画像301−1〜301−Nを出力するように指示する。そして、各カメラ101−1〜101−Nが沿線機器6の位置を移動する時に撮像された画像301−1〜301−Nが合成部102Cに送信される。合成部102Cは、制御部103Cの合成条件に基づいて、それらの沿線機器6に関する画像301−1〜301−Nを合成する。
これにより、各カメラ101−1〜101−Nは、各列車1−1〜1−Nの長時間走行で得られる膨大な画像のうち、保守に用いる沿線機器6の画像301−1〜301−Nのみを合成部102Cに送信することができ、画像送信時にネットワーク3にかかる負荷を低減することが可能となる。
(第4実施形態)
図8は、第4実施形態に係る画像合成システムの構成を示すブロック図である。
図8において、各列車1−1〜1−Nには、カメラ101−1〜101−N、位置情報取得部124−1〜124−Nおよび速度情報取得部134−1〜134−Nが搭載されている。速度情報取得部134−1〜134−Nは、速度センサを用いることができる。
各位置情報取得部124−1〜124−Nは、各列車1−1〜1−Nの列車位置情報224−1〜224−Nを取得する。速度情報取得部134−1〜134−Nは、各列車1−1〜1−Nの列車速度情報234−1〜234−Nを取得する。合成部102Gは、各カメラ101−1〜101−Nが撮像した同一対象物に関する画像を合成する。制御部103Gは、各カメラ101−1〜101−Nで撮像された同一対象物に関する画像の合成条件を設定する。
この時、制御部103Gは、軌道5の周辺に配置された沿線機器6の位置を示す対象物位置情報203Gを保持することができる。また、制御部103Gには、沿線機器6を所定時間範囲内に通過する列車1−1〜1−Nを特定する列車特定部303Gを設けることができる。合成部102Gには、列車特定部303Gによる列車1−1〜1−Nの特定結果に基づいて、各カメラ101−1〜101−Nで撮像された画像から同一対象物に関する画像を抽出する画像抽出部202Gを設けることができる。
各位置情報取得部124−1〜124−Nで取得された列車位置情報224−1〜224−Nおよび速度情報取得部134−1〜134−Nで取得された列車速度情報234−1〜234−Nは制御部103Gに入力される。各カメラ101−1〜101−Nで撮像された画像201−1〜201−Nは合成部102Gに入力される。そして、列車特定部303Gは、列車位置情報224−1〜224−Nと対象物位置情報203Gとを比較し、各列車1−1〜1−Nと沿線機器6との距離を算出する。そして、各列車1−1〜1−Nの列車速度情報234−1〜234−Nに基づいて、各列車1−1〜1−Nが沿線機器6に到達するまでの時間を算出し、各列車1−1〜1−Nの車両長から、沿線機器6を所定時間範囲内に通過する列車1−1〜1−Nを特定する。
そして、制御部103Gは、各列車1−1〜1−Nが沿線機器6を所定時間範囲内に通過する時に、その列車1−1〜1−Nに搭載されたカメラ101−1〜101−Nで撮像された画像を抽出および保存するように合成条件を設定する。そして、画像抽出部202Gは、各カメラ101−1〜101−Nで撮像された画像201−1〜201−Nから、各カメラ101−1〜101−Nが沿線機器6の位置を移動する時の画像を抽出する。そして、合成部102Gは、各カメラ101−1〜101−Nが沿線機器6の位置を移動する時に収集された沿線機器6に関する画像を合成する。
これにより、カメラ101−1〜101−Nの位置を特定するために列車位置情報224−1〜224−Nを用いた場合においても、各列車1−1〜1−Nの長時間走行で得られた膨大な画像201−1〜201−Nの中から、保守に用いる沿線機器6の複数の画像を抽出し、それらの画像を合成することが可能となる。
(第5実施形態)
図9は、第5実施形態に係る画像合成システムの構成を示すブロック図である。
図9において、各列車1−1〜1−Nには、カメラ101−1〜101−Nおよび物体検出部105−1〜105−Nが搭載されている。
各物体検出部105−1〜105−Nは、各カメラ101−1〜101−Nが撮像した画像から対象とする沿線機器6本体およびその近傍領域のみの画像を抽出する。この抽出には、テンプレートマッチングや機械学習等の物体検出アルゴリズムを適用することができる。
各物体検出部105−1〜105−Nは、沿線機器6本体およびその近傍領域のみの画像を合成部102Cに送信する。合成部102Cは、制御部103Cの合成条件に基づいて、それらの沿線機器6本体およびその近傍領域の画像を合成する。
これにより、ネットワーク3中の伝送データ量または可搬式ストレージ中の保存データ量を削減できるだけでなく、各列車1−1〜1−Nの振動の影響が取り除かれた画像を合成に使用できるため、画像合成時の位置合わせ処理の演算量を低減することが可能となる。
(第6実施形態)
図10は、第6実施形態に係る画像合成システムの構成を示すブロック図である。
図10において、各列車1−1〜1−Nには、カメラ101−1〜101−Nが搭載されている。さらに、この画像合成システムには、合成部102E、制御部103Eおよび物体検出部105が設けられている。
各カメラ101−1〜101−Nで撮像された画像は、合成部102Eおよび物体検出部105に送信される。物体検出部105は、各カメラ101−1〜101−Nから伝送された画像に物体検出アルゴリズムを適用し、対象とする沿線機器6が写る時刻や、各画像内における沿線機器6の領域の位置および大きさ等の情報を抽出し、制御部103Eに出力する。制御部103Eは、物体検出部105から出力された情報に基づいて、各カメラ101−1〜101−Nで撮像された画像の合成条件を設定する。合成部102Eは、制御部103Eで設定された合成条件に基づいて、各カメラ101−1〜101−Nが撮像した同一対象物に関する画像を合成する。
これにより、図9の物体検出部105−1〜105−Nが各列車1−1〜1−Nに搭載されていない場合においても、列車の振動の影響が取り除かれた画像を合成に使用し、画像合成時の位置合わせ処理の演算量を低減することが可能となる。
なお、鉄道保守支援システムにおいて、図6から図10の構成を単独で用いるようにしてもよいし、図6から図10の構成を適宜組み合わせて用いるようにしてもよい。
また、同一軌道5上を移動する複数のカメラ101−1〜101−Nの撮影条件は必ずしも同一とは限らず、カメラ101−1〜101−Nごとに撮影条件を設定してもよい。
以下、カメラ101−1〜101−Nごとに異なる露光条件、画角および撮影方向を設定した例を説明する。
(第7実施形態)
図11は、第7実施形態に係る画像合成システムの画像合成方法を示す模式図である。
図11において、図1の列車1−1、1−2が昼間にトンネル内を走行しているものとする。この時、カメラ101−1にて画像F601が生成され、カメラ101−2にて画像F602が生成されたものとする。各画像F601、F602において、トンネル画像F1外は明るく写り、トンネル画像F1内は暗く写る。
ここで、カメラ101−1の撮影条件は暗めの露光条件に設定し、カメラ101−2の撮影条件は明るめの露光条件に設定することができる。カメラ101−1の撮影条件では、トンネル画像F1外の速度標識画像F2は鮮明化することができ、良好な視認性を得ることができる。一方、トンネル画像F1内の速度標識画像F3は黒潰れが発生し、速度標識画像F3の視認性は低下する。カメラ101−2の撮影条件では、トンネル画像F1外の速度標識画像F4は白飛びが発生し、速度標識画像F4の視認性は低下する。一方、トンネル画像F1内の速度標識画像F5は鮮明化することができ、良好な視認性を得ることができる。
この時、図2の制御部103Aには、トンネルの出口付近では、高視認性が保持できている領域が合成されるように合成条件を設定することができる。高視認性が保持できている領域として、トンネルの出口の外側では、暗めの露光条件で撮像された画像を選択し、トンネルの出口の内側では、明るめ露光条件で撮像された画像を選択することができる。
合成部102Aは、制御部103Aで設定された合成条件に基づいて、画像F601、F602を合成することにより、合成画像F603を生成する。この合成画像F603では、トンネル画像F1内では速度標識画像F5が選択され、トンネル画像F1外では、速度標識画像F2が選択される。このため、トンネル画像F1内およびトンネル画像F1外の双方において、鮮明な速度標識画像F2、F5を保守員4に提示することができる。
この時の各カメラ101−1、101−2の撮影条件の切替方法としては、位置情報取得部にて、各カメラ101−1、101−2の位置または各列車1−1、1−2の位置を取得し、各カメラ101−1、101−2または各列車1−1、1−2がトンネルの出口に近づいた時に撮影条件を切り替えるようにしてもよい。あるいは、各列車1−1、1−2がトンネル内を走行中に物体検出部にてトンネルの出口を検出し、トンネルの出口が検出された時に撮影条件を切り替えるようにしてもよい。
あるいは、各列車1−1、1−2の走行中において、各カメラ101−1、101−2で撮像された画像全体の平均輝度を算出し、その画像全体の平均輝度の変化のパターンを監視するようにしてもよい。そして、各列車1−1、1−2の走行中に得られた画像全体の平均輝度の変化のパターンが、トンネルを通過する際の平均輝度の変化のパターンと一致した時に、各列車1−1、1−2がトンネルの出口に近づいたとみなし、各カメラ101−1、101−2の撮影条件を切り替えるようにしてもよい。
(第8実施形態)
図12は、第8実施形態に係る画像合成システムの画像合成方法を示す模式図である。
図12において、3台のカメラ101−1、101−2、101−3が同一軌道上を移動するものとする。カメラ101−1の視点方向は水平に設定され、カメラ101−2の視点方向は上向きに設定され、カメラ101−3の視点方向は下向きに設定されているものとする。あるいは、カメラ101−1は、カメラ101−2、101−3の中央に設置し、カメラ101−2はカメラ101−1の上方に設置し、カメラ101−3はカメラ101−1の下方に設置するようにしてもよい。
カメラ101−1には画角の大きいレンズが取り付けられ、カメラ101−2、101−3には画角の小さいレンズが取り付けられているものとする。画角が大きいレンズを取り付けた場合は、広範囲を撮影可能だが、被写体の詳細部分の分解能は低下する。一方、画角が小さいレンズを取り付けた場合は、撮影範囲が狭いものの、所定の範囲内を高分解能で撮影することが可能である。
この時、カメラ101−1にて沿線機器6Aが撮像されることで画像F701が生成され、カメラ101−2にて沿線機器6Aが撮像されることで画像F702が生成され、カメラ101−3にて沿線機器6Aが撮像されることで画像F703が生成されたものとする。カメラ101−1は画角が大きいので、画像F701には沿線機器6A全体が写っている。カメラ101−2は画角が小さく、視点方向が上向きに設定されているので、画像F702には沿線機器6Aの上部が写っている。カメラ101−3は画角が小さく、視点方向が下向きに設定されているので、画像F703には沿線機器6Aの下部が写っている。
この時、図2の制御部103Aには、例えば、画像F702、F703と類似度の高い領域を画像F701から抽出し、画像F701から抽出された領域の位置関係に基づいて画像F702、F703間の位置関係を設定し、画像F702、F703間の位置関係に基づいて画像F702、F703が合成されるように合成条件を設定することができる。合成部102Aは、制御部103Aで設定された合成条件に基づいて、画像F702、F703を合成することにより、合成画像F704を生成する。
これにより、画像F702、F703の高解像度を保持したまま、沿線機器6A全体を含む合成画像F704を生成することができ、沿線機器6Aを細部に渡って効率よく点検することが可能となる。
各カメラ101−1、101−2、101−3の撮影方向は、その移動方向に対して前方、後方、側方、斜め方向というバリエーションを取ることができる。各カメラ101−1、101−2、101−3の移動方向に対して各カメラ101−1、101−2、101−3が前方または後方を向く時は、そのカメラ101−1、101−2、101−3は、遠距離から沿線機器6Aを撮影可能であるため、長時間にわたって沿線機器6Aを視野に含めることができる。このため、各カメラ101−1、101−2、101−3は、合成に使用する沿線機器6Aに関する画像量を増大することが可能だが、沿線機器6Aに最も接近する真横通過時において、沿線機器6Aを視野に含めることができない。
一方、各カメラ101−1、101−2、101−3の移動方向に対して各カメラ101−1、101−2、101−3が側方を向く時は、そのカメラ101−1、101−2、101−3は、沿線機器6Aを視野に含めることが可能な時間は短いが、沿線機器6Aに最も接近する真横通過時に沿線機器6Aを大きく撮影することが可能である。
各カメラ101−1、101−2、101−3の移動方向に対して各カメラ101−1、101−2、101−3が斜め方向を向く時は、そのカメラ101−1、101−2、101−3は、前方または後方を向くカメラと、側方を向くカメラの中間の性質を有する。
沿線機器の種類によって点検に好適な撮影方向は様々である。このため、点検対象の沿線機器に合わせて各カメラ101−1、101−2、101−3の撮影方向を設定するのが望ましい。また、点検対象の沿線機器の種類が多い場合は、複数の撮影方向を有するカメラ101−1、101−2、101−3を組み合わせることで、列車などの移動体の周囲に対する視野を満遍なく確保することが可能となる。
以上説明した露光条件、画角および撮影方向の設定は、いずれかのみを適用する構成としてもよいし、複数の設定を組み合わせる構成としてもよい。また、それぞれの設定のバリエーション数やカメラの台数は、図11および図12に示した数に限定せず、より多い、もしくはより少ない設定バリエーションおよびカメラ台数であってもよい。
上述した実施形態では、同一軌道上を走行する異なる編成の列車にカメラを搭載する構成について説明したが、一編成の列車の車両ごとにカメラを搭載することにより、複数のカメラを同一軌道上で移動させるようにしてもよい。
(第9実施形態)
図13は、第9実施形態に係る画像合成システムの画像合成方法を示す模式図である。
図13において、列車1の車両ごとにカメラ101−1、101−2、101−3が搭載されている。そして、時刻t1において、列車1の先頭車両が沿線機器6付近に差し掛かると、先頭車両のカメラ101−1が沿線機器6を撮像することで画像F901を生成する。
次に、列車1が前進し、時刻t2において、後続の2番目の車両が沿線機器6付近に差し掛かると、2番目の車両のカメラ101−2が沿線機器6を撮像することで画像F902を生成する。この時、2番目の車両のカメラ101−2は、先頭車両のカメラ101−1と同一の位置で沿線機器6を撮像することができ、画像F902は画像F901と同等の視野を有することができる。
次に、列車1がさらに前進し、時刻t3において、後続の3番目の車両が沿線機器6付近に差し掛かると、3番目の車両のカメラ101−3が沿線機器6を撮像することで画像F903を生成する。この時、3番目の車両のカメラ101−2は、先頭車両のカメラ101−1と同一の位置で沿線機器6を撮像することができ、画像F903は画像F901と同等の視野を有することができる。
そして、合成部102Aは、例えば、画像F901〜F903間でメディアンフィルタのような画像処理を適用して画像F901〜F903を合成し、合成画像F904を生成することができる。これにより、沿線機器6の画像情報を保持しつつ、降雪などによる阻害要因の影響を除去することが可能となり、沿線機器6の合成画像F904の視認性を向上させることができる。
図14は、第9実施形態に係る画像合成システムの構成を示すブロック図である。
図14において、画像合成システムには、カメラ101−1〜101−N、合成部102F、制御部103F、位置情報取得部104Fおよび速度情報取得部106Fが設けられている。カメラ101−1〜01−Nは列車1の車両ごとに搭載することができる。位置情報取得部104Fおよび速度情報取得部106Fは列車1に搭載することができる。位置情報取得部104Fは、列車1の列車位置情報224を取得する。速度情報取得部106Fは、列車1の列車速度情報234を取得する。合成部102Fは、各カメラ101−1〜101−Nが撮像した同一対象物に関する画像を合成する。制御部103Fは、各カメラ101−1〜101−Nで撮像された同一対象物に関する画像の合成条件を設定する。
この時、制御部103Fは、軌道5の周辺に配置された沿線機器6の位置を示す対象物位置情報203Fおよび列車1上の各カメラ101−1〜101−Nの位置を示すカメラ位置情報303Fを保持することができる。また、制御部103Fには、列車1上の各カメラ101−1〜101−Nの位置と対象物位置情報203Fを比較する位置情報比較部403Fを設けることができる。合成部102Fには、位置情報比較部403Fによる比較結果に基づいて、各カメラ101−1〜101−Nで撮像された画像から同一対象物に関する画像を抽出する画像抽出部202Fを設けることができる。
位置情報取得部104Fで取得された列車位置情報224および速度情報取得部106Fで取得された列車速度情報234は制御部103Fに入力される。各カメラ101−1〜101−Nで撮像された画像201−1〜201−Nは合成部102Gに入力される。そして、位置情報比較部403Fは、列車位置情報224、列車速度情報234および列車1上の各カメラ101−1〜101−Nのカメラ位置情報303Fに基づいて、地面を基準とした時の各カメラ101−1〜101−Nの位置を算出し、各カメラ101−1〜101−Nの位置と対象物位置情報203Fとを比較する。そして、各カメラ101−1〜101−Nの位置と対象物位置情報203Fが一致すると、制御部103Fは、対象物位置情報203Fと位置が一致した各カメラ101−1〜101−Nで撮像された画像を抽出および保存するように合成条件を設定する。そして、画像抽出部202Fは、各カメラ101−1〜101−Nで撮像された画像201−1〜201−Nから、各カメラ101−1〜101−Nが沿線機器6の位置を移動する時の画像を抽出する。そして、合成部102Fは、各カメラ101−1〜101−Nが沿線機器6の位置を移動する時に収集された沿線機器6に関する画像を合成する。
これにより、カメラ101−1〜101−Nごとに位置情報取得部104Fを設けることなく、列車1の長時間走行で得られた膨大な画像の中から、保守に用いる沿線機器6の複数の画像を抽出し、それらの画像を合成することが可能となる。
図15は、第9実施形態に係る画像合成システムに搭載されたカメラの使用例を図である。
図15において、カメラ101−1〜101−Nは、列車1の各車両の側面の端部に搭載することができる。この時、各カメラ101−1〜101−Nは、列車1の静止時には同一時刻にそれぞれ異なる対象物を撮像し、列車1の移動時には異なる時刻にそれぞれ同一の対象物を撮像することができる。
この時、列車1の移動時には、カメラ101−1〜101−Nで撮像された画像を合成し、その合成画像を表示画面2Aに表示させ、保守員4に提示させることができる。列車1の静止時には、駅のプラットフォーム上の状態をカメラ101−1〜101−Nで撮像し、駅に設置されたモニタ画面F1100に表示させることができる。例えば、列車1の静止時には、プラットフォーム画像F1101と、乗客画像F1102と、ドア画像1Aをモニタ画面F1100に表示させることができる。そして、駅員はモニタ画面F1100を確認することで、プラットフォーム上の乗客と、列車1のドアとの位置関係を把握し、列車1の停車時のドア開閉におけるプラットフォーム上の乗客の安全確保を図ることができる。
これにより、カメラ101−1〜101−Nを沿線機器6の保守点検に用いるだけでなく、プラットフォーム上の乗客の安全確保などの用途にも使用することができる。
(第10実施形態)
図16は、第10実施形態に係る画像合成システムの画像合成方法を示す模式図である。
図16において、列車1にはカメラ101−1、101−2が搭載されている。ここで、カメラ101−1、101−2の視点方向は互いに異ならせることができる。この時、カメラ101−1、101−2の視点方向は互いに近づくように設定することができる。カメラ101−1、101−2の視点方向は交わるようにしてもよい。
そして、列車1が沿線機器F1201の付近を通過する時に、異なる視点方向からカメラ101−1、101−2にて沿線機器F1201が撮像されることにより、画像F1202、F1203が生成される、
この時、沿線機器F1201が傾いているものとすると、各画像F1202、F1203内における沿線機器画像F1204、F1205の位置および大きさは、沿線機器F1201と各カメラ101−1、101−2との位置関係に依って変化する。
例えば、図16の例では、沿線機器F1201は、奥のカメラ101−2よりも手前のカメラ101−1に近いため、沿線機器画像F1204に比べて沿線機器画像F1205の方が大きくなっている。一台のカメラの画像のみでは次元が削減され、被写体までの距離は不定となる。これに対して、視点方向の異なる複数のカメラ101−1、101−2の画像F1202、F1203を用いることで、各カメラ101−1、101−2から被写体までの距離を算出でき、被写体の三次元形状計測が可能となる。
そこで、例えば、図10の物体検出部105によって、画像F1202から物体領域F1206を抽出し、画像F1203から物体領域F1207を抽出する。そして、各物体領域F1206、F1207における沿線機器画像F1204、F1205の位置および大きさに基づいて、沿線機器F1201の三次元計測を行うことで、沿線機器F1201を真上から撮像した時の沿線機器画像F1209を生成することができる。そして、沿線機器画像F1209と建築限界F1208との位置関係を確認することにより、傾いた沿線機器F1201と列車1の抵触の有無などの点検を行うことが可能となる。
なお、物体検出部105による検出を機械学習で行う場合、一般には膨大な量の学習用データを準備し、物体領域の位置および大きさ情報を手動で与えて学習を行う必要がある。
そこで、視点方向や位置が既知である複数のカメラ101−1、101−2を用いて学習用データを収集し、物体および複数のカメラ101−1、101−2間の三次元的な幾何学的関係を満たすことを学習時の条件に加えることで、手動で与える情報量を削減することが可能となる。
また、物体検出に基づいて三次元計測を行う場合、検出対象の沿線機器F1201の物体領域が他の物体によって一部隠れていると、位置および大きさを正しく求めることができず、三次元計測結果に誤差が生じる。このような場合は、取得した画像における視認可能な領域から隠れている領域を含めた元の物体領域の位置および大きさを推定する処理を一旦行い、推定した元の物体領域を用いて三次元計測を行うことで、三次元計測結果の誤差を低減することが可能となる。
これにより、複数のカメラ101−1、101−2を用いて沿線機器F1201の三次元計測を行うことが可能となり、沿線機器F1201の二次元的な状態だけでなく沿線機器F1201の三次元的な状態も監視することが可能な距離鉄道保守支援システムを実現することができる。
(第11実施形態)
図17は、第11実施形態に係る画像合成システムの画像合成方法を示す模式図である。
図17において、鉄道保守支援システムが適用される環境には、カメラ101−1、101−2が移動する軌道として複数の軌道5−1、5−2が設けられている。これらの軌道5−1、5−2は互いに隣接して並列に配置されている。本実施形態では、互いに隣接して並列に配置されている複数の軌道5−1、5−2は、同一の軌道と見なす。これらの軌道5−1、5−2として、鉄道の複線を用いることができる。カメラ101−1は軌道5−1に沿って移動し、カメラ101−2は軌道5−2に移動することができる。
そして、カメラ101−1が沿線機器6の付近を通過する時に沿線機器6を撮像することにより、画像F1301を生成する。カメラ101−2が沿線機器6の付近を通過する時に沿線機器6を撮像することにより、画像F1302を生成する。
この時、各軌道5−1、5−2から沿線機器6までの距離が異なる。このため、画像F1301における沿線機器画像F1303と、画像F1302における沿線機器画像F1304とでは、各画像F1301、F1302内での位置および大きさが異なる。
そこで、例えば、図10の物体検出部105によって、画像F1301から物体領域F1305を抽出し、画像F1302から物体領域F1306を抽出する。そして、各物体領域F1305、F1306の位置および大きさが等しくなるように画像処理を行うことで、沿線機器画像F1303、F1304の位置および大きさの差異が解消された補正画像F1307、F1308を生成することができる。
ここで、各画像F1301、F1302は、同一軌道5−1、5−2上を移動するカメラ101−1、101−2で撮像される。このため、画像F1301、F1302間において、沿線機器画像F1303、F1304の位置および大きさの相対関係は一定である。このため、各物体領域F1305、F1306について一定の画像処理を行うことで、沿線機器画像F1303、F1304の位置および大きさの差異を解消することができる。
この補正画像F1307、F1308間にメディアンフィルタのような画像処理を適用して補正画像F1307、F1308を合成することにより、合成画像F1309を生成することができる。これにより、カメラ101−1、101−2の移動経路として複数の軌道5−1、5−2がある場合においても、沿線機器6の画像情報を保持しつつ、降雪8等による阻害要因の影響を除去することが可能となり、沿線機器6の合成画像F1309の視認性を向上させることができる。
さらには、カメラ101−1の移動方向と、カメラ101−2の移動方向が逆である時に、カメラ101−1の視点方向と、カメラ101−2の視点方向を等しくすることができる。例えば、カメラ101−1が往路を走行する列車に搭載され、カメラ101−2が復路を走行する列車に搭載されているものとする。この時、カメラ101−1は前方を向くように設置し、カメラ101−1は後方を向くように設置することで、カメラ101−1の視点方向と、カメラ101−2の視点方向を等しくすることができる。あるいは、カメラ101−1は後方を向くように設置し、カメラ101−1は前方を向くように設置するようにしてもよい。
これにより、劣悪な環境条件に対するカメラ101−1、101−2の頑健性を高めることが可能となる。例えば、大雪時において、前方に向いたカメラのレンズに雪が付着する程の劣悪な環境条件においても、後方に向いたカメラではレンズに雪が付着するのを防止することができ、軌道5−1、5−2の周辺の対象物の状態を判断可能な情報を得ることができる。
なお、図17の実施形態では、複数の軌道5−1、5−2として複線を用いた例を示したが、複数の軌道として複々線を用いるようにしてもよい。この時、列車に搭載されたカメラの移動方向は1つの軌道ごとに交互に異なるようにしてもよいし、2つの軌道ごとに交互に異なるようにしてもよい。例えば、軌道5−1、5−2、5−3、5−4がこの順に並列に並んでいる時に、軌道5−1、5−3では列車が往路、軌道5−2、5−4では列車が復路を進行するようにしてもよいし、軌道5−1、5−2では列車が往路、軌道5−3、5−4では列車が復路を進行するようにしてもよい。
図18は、第11実施形態に係る画像合成システムの構成を示すブロック図である。
図18において、各列車1−1〜1−Nには、カメラ101−1〜101−N、位置情報取得部124−1〜124−N、速度情報取得部134−1〜134−Nおよび方向情報取得部144−1〜144−Nが搭載されている。
各位置情報取得部124−1〜124−Nは、各列車1−1〜1−Nの列車位置情報224−1〜224−Nを取得する。速度情報取得部134−1〜134−Nは、各列車1−1〜1−Nの列車速度情報234−1〜234−Nを取得する。方向情報取得部144−1〜144−Nは、各列車1−1〜1−Nの列車方向情報244−1〜244−Nを取得する。列車方向情報244−1〜244−Nは、各列車1−1〜1−Nが軌道5−1、5−2に沿って進む方向である。各列車1−1〜1−Nが各軌道5−1、5−2を進む方向は互いに反対方向に設定することができる。合成部102Hは、各カメラ101−1〜101−Nが撮像した同一対象物に関する画像を合成する。制御部103Hは、各カメラ101−1〜101−Nで撮像された同一対象物に関する画像の合成条件を設定する。
この時、制御部103Hは、軌道5の周辺に配置された沿線機器6の位置を示す対象物位置情報203Hを保持することができる。また、制御部103Hには、沿線機器6を所定時間範囲内に通過する列車1−1〜1−Nを特定する列車特定部303Hを設けることができる。合成部102Hには、列車特定部303Hによる列車1−1〜1−Nの特定結果および列車方向情報234−1〜234−Nに基づいて、各カメラ101−1〜101−Nで撮像された画像から同一対象物に関する画像を抽出する画像抽出部202Hを設けることができる。また、合成部102Hには、沿線機器6の画像の位置および大きさを調整する画像処理部202Hを設けることができる。
各位置情報取得部124−1〜124−Nで取得された列車位置情報224−1〜224−Nおよび速度情報取得部134−1〜134−Nで取得された列車速度情報234−1〜234−Nは制御部103Hに入力される。各カメラ101−1〜101−Nで撮像された画像211−1〜211−Nおよび列車方向情報234−1〜234−Nは合成部102Hに入力される。そして、列車特定部303Hは、列車位置情報224−1〜224−Nと対象物位置情報203Hとを比較し、各列車1−1〜1−Nと沿線機器6との距離を算出する。そして、各列車1−1〜1−Nの列車速度情報234−1〜234−Nに基づいて、各列車1−1〜1−Nが沿線機器6に到達するまでの時間を算出し、各列車1−1〜1−Nの車両長から、沿線機器6を所定時間範囲内に通過する列車1−1〜1−Nを特定する。
そして、制御部103Hは、各列車1−1〜1−Nが沿線機器6を所定時間範囲内に通過する時に、その列車1−1〜1−Nに搭載されたカメラ101−1〜101−Nで撮像された画像を抽出および保存するように合成条件を設定する。そして、画像抽出部202Hは、各カメラ101−1〜101−Nで撮像された画像211−1〜211−Nから、各カメラ101−1〜101−Nが沿線機器6の位置を移動する時の画像を抽出する。さらに、画像抽出部202Hは、列車方向情報234−1〜234−Nに基づいて、沿線機器6の位置を移動する時の画像から沿線機器6の画像を抽出する。
この時、図17に示すように、各列車1−1〜1−Nが軌道5−1を走行している時と、各列車1−1〜1−Nが軌道5−2を走行している時では、沿線機器画像F1303、F1304の位置および大きさが異なる。このため、画像抽出部202Hは、列車方向情報234−1〜234−Nに基づいて、各列車1−1〜1−Nがどちらの軌道5−1、5−2を走行しているかを判断する。そして、各列車1−1〜1−Nが軌道5−1を走行している時は、画像F1301に設定された物体領域F1305から沿線機器画像F1303を抽出する。一方、各列車1−1〜1−Nが軌道5−2を走行している時は、画像F1302に設定された物体領域F1306から沿線機器画像F1304を抽出する。
次に、画像処理部202Hは、沿線機器画像F1303、F1304の位置および大きさが互いに一致するように、沿線機器画像F1303、F1304の画像処理を行うことで、補正画像F1307、F1308を生成する。そして、合成部102Hは、補正画像F1307、F1308間にメディアンフィルタのような画像処理を適用して補正画像F1307、F1308を合成する。
これにより、各列車1−1〜1−Nの走行経路として複数の軌道5−1、5−2が設けられている場合においても、各列車1−1〜1−Nの長時間走行で得られた膨大な画像201−1〜201−Nの中から、保守に用いる沿線機器6の複数の画像を抽出し、それらの画像を合成することが可能となる。
また、各カメラ101−1〜101−Nが搭載された列車1−1〜1−Nは、同一の軌道5−1、5−2を走行する。このため、カメラ101−1〜101−Nが異なる列車1−1〜1−Nに搭載されている場合においても、各列車1−1〜1−Nが沿線機器6を通過する時に、各カメラ101−1〜101−Nで撮像された画像211−1〜211−N内において配置位置およびサイズの相対的な関係が等しい沿線機器6の画像を取得することができる。この結果、合成部102Hは、カメラ101−1〜101−Nで撮像された画像211−1〜211−Nから沿線機器6の画像を精度よく特定することが可能となるとともに、各カメラ101−1〜101−Nで撮像された沿線機器6の画像について一定の画像処理を行うことで、合成に適するように沿線機器6の画像を変換することができる。
(第12実施形態)
図19は、第12実施形態に係る画像合成システムの構成を示すブロック図である。
図19の画像合成システムでは、図2の構成に解析部106が追加されている。解析部106は、合成部102Aで生成された合成画像に基づいて沿線機器の異常状態を判定し、その判定結果を出力する。
これにより、保守員4は、合成画像を確認することなく、沿線機器の異常状態を認識することができる。このため、保守員4が合成画像を参照しながら、沿線機器の変形や破損等が存在するかどうかを確認する必要がなくなり、保守員4の点検の労力を軽減することが可能となる。
解析部106における異常状態判定方法として、例えば、機械学習を用いることができる。この場合、一般には正常状態と異常状態の両方の学習用データを準備して学習を行うことができる。ただし、沿線機器に異常が発生しているケースは非常に稀なため、必ずしも学習に足る量のデータを準備できるとは限らない。そこで、例えば、CG(Computer Graphics)ツールや生成モデル技術を活用して沿線機器の異常状態の画像を作成し、学習用データとして用いるようにしてもよい。
以上、画像合成システムを鉄道保守支援システムに適用した場合について説明したが、この画像合成システムは、鉄道保守支援システム以外の用途にも適用可能である。
以下、画像合成システムを道路保守支援システムに適用した場合について説明する。
(第13実施形態)
図20は、第13実施形態に係る画像合成システムが適用される道路保守支援システムの概略構成を示す模式図である。
図20おいて、自動車F1501、F1502が走行する軌道5Aの周辺には道路標識F1502が設けられている。図20では、軌道5Aが道路である場合を示した。道路保守支援システムには、処理装置2およびカメラ101−1、101−2が設けられている。処理装置2およびカメラ101−1、101−2は、ネットワーク3を介して接続されている。
カメラ101−1は自動車F1501に搭載され、カメラ101−2は自動車F1502に搭載されている。この時、各カメラ101−1、101−2は同一の軌道5Aに沿って移動しながら同一対象物を異なる時刻に撮像することができる。処理装置2は、カメラ101−1、101−2が同一の軌道5Aに沿って移動しながら撮像した道路標識F1502の画像を合成することで合成画像F1503を生成し、表示画面2Aに表示させることができる。
自動車F1501、F1502は異なる時刻に軌道5A上を直列に走行する。各カメラ101−1、101−2は、自動車F1501、F1502の走行中に道路の周辺の物体を撮像することができる。この時、各自動車F1501、F1502が道路標識F1502に近づくと、道路標識F1502が各カメラ101−1、101−2の画角に入り、各カメラ101−1、101−2で道路標識F1502が撮像される。各カメラ101−1、101−2で撮像された画像はネットワーク3を介して処理装置2に伝送される。
処理装置2は、各カメラ101−1、101−2で撮像された画像を受信すると、各画像から道路標識F1502の領域を抽出する。そして、処理装置2は、各画像から抽出された道路標識F1502の領域を合成することで、合成画像F1503を生成し、表示画面2Aに表示させる。保守員4は、合成画像F1503を目視点検することにより、保守員4が道路標識F1502から離れた遠隔地にいる場合においても、道路標識F1502の実際の設置場所へ徒歩で巡視に向かうことなく、道路標識F1502を保守点検することができる。
ここで、カメラ101−1、101−2が同一の軌道5Aに沿って移動しながら道路標識F1502を撮像し、それらの道路標識F1502に関する画像を合成することにより、各カメラ101−1、101−2で撮像された画像に不鮮明な部分がある場合においても、それらの不鮮明な部分が目立たなくなるように道路標識F1502に関する合成画像F1503を生成することができる。このため、低照度・霧雨・雪等の劣悪な環境条件下において、カメラ101−1、101−2が短時間で道路標識F1502を通り過ぎる場合においても、解析に足る画質の合成画像F1503を得ることができる。
なお、図20の実施形態では、道路保守支援システムの監視対象が道路標識F1502である場合を示したが、道路保守支援システムの監視対象は道路標識F1502以外であってもよい。例えば、道路保守支援システムの監視対象は、信号機、防音壁、電灯、電柱、行先案内板、ガードレールまたは車線などであってもよい。道路の陥没、ひび割れ、損傷などが監視対象であってもよい。
なお、画像収集に使用する道路は一車線に限らず、例えば道路が片側2車線以上であってもよい。この時、自動車F1501、F1502は同一進行方向に異なる車線を走行するようにしてもよいし、自動車F1501、F1502は対向方向に異なる車線を走行するようにしてもよい。これらの場合、各カメラ101−1、101−2から道路標識F1502までの距離が異なる。この時、例えば、図10の物体検出部105を用いて物体検出を行うことで、撮像画像内における位置および大きさの差異を解消した補正画像を生成し、それらの補正画像を合成に用いるようにしてもよい。
上述した実施形態では、複数のカメラを列車または自動車に搭載した場合について説明したが、複数のカメラは列車または自動車以外の移動体に搭載するようにしてもよい。複数のカメラは、エレベータに搭載するようにしてもよいし、製造ライン上に搭載するようにしてもよいし、人工衛星に搭載するようにしてもよい。複数のカメラをエレベータに搭載した場合は、エレベータ保守支援システムに画像合成システムを適用することができる。複数のカメラを製造ライン上に搭載した場合は、製造ライン保守支援システムに画像合成システムを適用することができる。複数のカメラを人工衛星に搭載した場合は、地上監視システムなどに画像合成システムを適用することができる。
なお、本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成は、それらの一部又は全部が、ハードウェアで構成されても、プロセッサでプログラムが実行されることにより実現されるように構成されてもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1−1、1−2…列車、2…処理装置、3…ネットワーク、4…保守員、5…軌道、6…沿線機器、7…合成画像、101−1、101−2、101−N…カメラ、102A〜102F…合成部、103A〜103F…制御部、104−1、104−2、104−N…位置情報取得部、105−1、105−2、105−N…物体検出部、106…解析部

Claims (15)

  1. N(Nは2以上の整数)台のカメラと、
    前記N台のカメラが同一経路に沿って移動しながら撮像した同一対象物に関する画像を合成する合成部とを備える画像合成システム。
  2. 前記N台のカメラで撮像された画像の合成条件を設定する制御部をさらに備える請求項1に記載の画像合成システム。
  3. 前記経路は軌道である請求項1に記載の画像合成システム。
  4. 前記経路は、互いに隣接して並列に配置されたM(Mは2以上の整数)個の経路からなる請求項1に記載の画像合成システム。
  5. 前記経路は、互いに隣接して並列に配置された第1経路と第2経路とを備え、
    前記第1経路上のカメラの移動方向と、前記第2経路上のカメラの移動方向は逆であり、
    前記第1経路上のカメラの視点方向と、前記第2経路上のカメラの視点方向と等しい請求項4に記載の画像合成システム。
  6. 前記カメラは前記経路上を移動する異なる移動体に搭載され、前記移動体は直列に移動する請求項1に記載の画像合成システム。
  7. 前記カメラは前記経路上を移動する同一の移動体に搭載されている請求項1に記載の画像合成システム。
  8. 前記N台のカメラの位置情報を取得する位置情報取得部を備え、
    前記合成部は、前記位置情報に基づいて抽出された同一対象物に関する画像を合成する請求項1に記載の画像合成システム。
  9. 前記N台のカメラが撮像した画像から対象物を検出する物体検出部を備え、
    前記合成部は、前記物体検出部にて検出された同一対象物に関する画像を合成する請求項1に記載の画像合成システム。
  10. 前記N台のカメラで撮像された画像のうち前記同一対象物に関する画像のみを前記合成部に出力する請求項1に記載の画像合成システム。
  11. 前記合成部にて合成された画像に基づいて前記対象物の状態を解析する解析部を備える請求項1に記載の画像合成システム。
  12. 前記N台のカメラは静止時において同一時刻にそれぞれ異なる第1対象物を撮像し、前記N台のカメラは移動時において異なる時刻にそれぞれ同一の第2対象物を撮像し、
    前記合成部は、前記第2対象物に関する画像を合成する請求項1に記載の画像合成システム。
  13. 前記カメラは、視点方向が互いに異なる第1カメラと第2カメラとを備え、
    前記合成部は、前記第1カメラと前記第2カメラで撮像された視点方向が互いに異なる同一対象物に関する画像を合成する請求項1に記載の画像合成システム。
  14. 前記カメラは、露光条件が互いに異なる第1カメラと第2カメラとを備え、
    前記合成部は、前記第1カメラで撮像された画像から切り取られた同一対象物の第1部分の画像と、前記第2カメラで撮像された画像から切り取られた同一対象物の第2部分の画像を合成する請求項1に記載の画像合成システム。
  15. 同一経路に沿って移動しているN(Nは2以上の整数)台のカメラで同一対象物を撮像し、
    前記N台のカメラで撮像された前記同一対象物に関する画像を合成する画像合成方法。

JP2018001764A 2018-01-10 2018-01-10 画像合成システムおよび画像合成方法 Active JP6815338B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018001764A JP6815338B2 (ja) 2018-01-10 2018-01-10 画像合成システムおよび画像合成方法
US16/958,277 US11335036B2 (en) 2018-01-10 2018-11-28 Image synthesizing system and image synthesizing method
PCT/JP2018/043703 WO2019138716A1 (ja) 2018-01-10 2018-11-28 画像合成システムおよび画像合成方法
EP18899995.7A EP3739877A4 (en) 2018-01-10 2018-11-28 SYSTEM AND METHOD OF PICTURE COMPOSITION

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018001764A JP6815338B2 (ja) 2018-01-10 2018-01-10 画像合成システムおよび画像合成方法

Publications (2)

Publication Number Publication Date
JP2019121979A true JP2019121979A (ja) 2019-07-22
JP6815338B2 JP6815338B2 (ja) 2021-01-20

Family

ID=67218252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018001764A Active JP6815338B2 (ja) 2018-01-10 2018-01-10 画像合成システムおよび画像合成方法

Country Status (4)

Country Link
US (1) US11335036B2 (ja)
EP (1) EP3739877A4 (ja)
JP (1) JP6815338B2 (ja)
WO (1) WO2019138716A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10752271B2 (en) * 2018-11-15 2020-08-25 Avante International Technology, Inc. Image-based monitoring and detection of track/rail faults
WO2020179167A1 (ja) * 2019-03-04 2020-09-10 株式会社日立国際電気 列車監視システム
JP7461275B2 (ja) * 2020-10-28 2024-04-03 株式会社日立製作所 軌道輸送システム、軌道輸送システムの制御方法および沿線設備形状計測システム
US11699225B2 (en) * 2020-11-24 2023-07-11 Get Spiffy, Inc. Tire sensing and analysis system
WO2022244920A1 (ko) * 2021-05-18 2022-11-24 주식회사 쓰리아이 휴대 단말기 및 단말기 거치대의 제어 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011152865A (ja) * 2010-01-27 2011-08-11 Kyocera Corp 車載撮像装置
JP2011201423A (ja) * 2010-03-25 2011-10-13 National Traffic Safety & Environment Laboratory 列車搭載用画像処理システム
JP2012001191A (ja) * 2010-06-21 2012-01-05 Hitachi Ltd 鉄道車両の状況監視装置
JP2014176065A (ja) * 2013-03-13 2014-09-22 Seiko Epson Corp 撮像装置及び方法
JP2015060558A (ja) * 2013-09-20 2015-03-30 株式会社日立ハイテクファインシステムズ 建築限界表示方法及び装置
JP2016196233A (ja) * 2015-04-03 2016-11-24 クラリオン株式会社 車両用道路標識認識装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150235094A1 (en) * 2014-02-17 2015-08-20 General Electric Company Vehicle imaging system and method
US8213685B2 (en) * 2007-01-05 2012-07-03 American Traffic Solutions, Inc. Video speed detection system
JP4513905B2 (ja) 2008-06-27 2010-07-28 ソニー株式会社 信号処理装置、信号処理方法、プログラム及び記録媒体
KR102375411B1 (ko) * 2015-05-11 2022-03-18 삼성전자주식회사 차량 주변 영상 제공 방법 및 장치
SE540595C2 (en) * 2015-12-02 2018-10-02 Icomera Ab Method and system for identifying alterations to railway tracks or other objects in the vicinity of a train

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011152865A (ja) * 2010-01-27 2011-08-11 Kyocera Corp 車載撮像装置
JP2011201423A (ja) * 2010-03-25 2011-10-13 National Traffic Safety & Environment Laboratory 列車搭載用画像処理システム
JP2012001191A (ja) * 2010-06-21 2012-01-05 Hitachi Ltd 鉄道車両の状況監視装置
JP2014176065A (ja) * 2013-03-13 2014-09-22 Seiko Epson Corp 撮像装置及び方法
JP2015060558A (ja) * 2013-09-20 2015-03-30 株式会社日立ハイテクファインシステムズ 建築限界表示方法及び装置
JP2016196233A (ja) * 2015-04-03 2016-11-24 クラリオン株式会社 車両用道路標識認識装置

Also Published As

Publication number Publication date
JP6815338B2 (ja) 2021-01-20
US20200349743A1 (en) 2020-11-05
EP3739877A1 (en) 2020-11-18
US11335036B2 (en) 2022-05-17
EP3739877A4 (en) 2021-08-18
WO2019138716A1 (ja) 2019-07-18

Similar Documents

Publication Publication Date Title
WO2019138716A1 (ja) 画像合成システムおよび画像合成方法
US10607090B2 (en) Train security system
EP3138754B1 (en) Rail track asset survey system
US11017228B2 (en) Method and arrangement for condition monitoring of an installation with operating means
US20160232410A1 (en) Vehicle speed detection
Wohlfeil Vision based rail track and switch recognition for self-localization of trains in a rail network
Angel et al. Methods of analyzing traffic imagery collected from aerial platforms
US20240046689A1 (en) Road side vehicle occupancy detection system
JP5698285B2 (ja) 架線位置計測装置及び方法
US11804058B2 (en) Road side vehicle occupancy detection system
CN113011252B (zh) 轨道异物侵限检测系统及方法
EP3026652A1 (en) Double stereoscopic sensor
KR101736439B1 (ko) 터널관제용 cctv 레일 시스템 및 그의 제어 방법
GB2527330A (en) Railway vehicle position and specific track location, provided by track and point detection combined with optical flow, using a near-infra-red video camera
JP5952759B2 (ja) 架線位置計測装置及び方法
Mirchandani et al. Application of aerial video for traffic flow monitoring and management
CN204495924U (zh) 受电弓滑板监测装置
JP2004042737A (ja) 踏切監視装置および踏切監視方法
JP4744789B2 (ja) 物体識別方法及び物体識別装置
JP6196910B2 (ja) シミュレーション方法及びシミュレータ
WO2021153068A1 (ja) 設備診断システム
JP2023109105A (ja) 列車監視システム及び列車監視方法
WO2016129091A1 (ja) 物体検出システムおよび物体検出方法
JP2021197014A (ja) 混雑度算出装置および方法
CN110879057A (zh) 一种基于激光和图像的空间测算方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201222

R150 Certificate of patent or registration of utility model

Ref document number: 6815338

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150