JP2022067096A - Device, system and method for monitoring and computer program - Google Patents

Device, system and method for monitoring and computer program Download PDF

Info

Publication number
JP2022067096A
JP2022067096A JP2021198516A JP2021198516A JP2022067096A JP 2022067096 A JP2022067096 A JP 2022067096A JP 2021198516 A JP2021198516 A JP 2021198516A JP 2021198516 A JP2021198516 A JP 2021198516A JP 2022067096 A JP2022067096 A JP 2022067096A
Authority
JP
Japan
Prior art keywords
image
positioning
monitoring
information
shooting position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021198516A
Other languages
Japanese (ja)
Other versions
JP7417871B2 (en
Inventor
恒生 堀地
Tsuneo Horichi
善行 神野
Yoshiyuki Jinno
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2021198516A priority Critical patent/JP7417871B2/en
Publication of JP2022067096A publication Critical patent/JP2022067096A/en
Priority to JP2023180978A priority patent/JP2024001239A/en
Application granted granted Critical
Publication of JP7417871B2 publication Critical patent/JP7417871B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a method which accurately identifies an imaging position of an image taken for a maintenance or a monitoring of a traffic infrastructure including a railway and the like.
SOLUTION: A monitoring device to monitor a maintained object on a travel route of a vehicle has a control unit to store a first image taken about a maintained object and a second image taken about a periphery of the imaging position of the first image in an information storing unit in association with each other. The control unit associates positioning information obtained by positioning the imaging position of the first image with the first image and the second image. The positioning information includes positioning accuracy indicating accuracy of the positioning. The control unit identifies the imaging position of the first image based on the positioning information when the positioning accuracy is equal to or better than a prescribed threshold value and identifies the imaging position of the first image based on the second image when the positioning accuracy is under the threshold value.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2022,JPO&INPIT

Description

本開示は、監視装置、監視システム、監視方法、及び、コンピュータプログラムに関する。 The present disclosure relates to monitoring devices, monitoring systems, monitoring methods, and computer programs.

従来、鉄道の保守用車両等にカメラを装着し、保守用車両等を走行させながらカメラでレールを撮影し、その撮影した画像をレールの保守に用いることが行われている。 Conventionally, a camera is attached to a maintenance vehicle or the like of a railway, a rail is photographed by the camera while the maintenance vehicle or the like is running, and the photographed image is used for maintenance of the rail.

特許文献1には、保守用車両等に装着した赤外線カメラでレールを撮影して赤外線画像を生成し、その赤外線画像を撮影した位置を保守用車両等の走行距離から特定し、その特定した位置と赤外線画像とを対応付けたデータを生成することが開示されている。 In Patent Document 1, an infrared camera mounted on a maintenance vehicle or the like captures a rail to generate an infrared image, and the position where the infrared image is captured is specified from the mileage of the maintenance vehicle or the like, and the specified position is specified. It is disclosed to generate data in which an infrared image is associated with an infrared image.

特開平10-73413号公報Japanese Unexamined Patent Publication No. 10-73413

しかしながら、特許文献1のように走行距離から位置を特定するためには、保守用車両等の発車位置及び走行ルートを示す情報を予め登録しておく必要がある。また、走行距離は、保守用車両等が備える走行距離計において車輪の回転数を用いて算出されるため、車輪の摩耗及び/又はスリップ等により大きな誤差を含み得る。 However, in order to specify the position from the mileage as in Patent Document 1, it is necessary to register in advance information indicating the departure position and the travel route of the maintenance vehicle or the like. Further, since the mileage is calculated by using the number of rotations of the wheels in the mileage meter provided in the maintenance vehicle or the like, a large error may be included due to wear and / or slip of the wheels.

本開示は、鉄道等を含む交通インフラの保守又は監視のために撮影した画像の撮影位置を精度良く特定できる技術を提供することを目的とする。 It is an object of the present disclosure to provide a technique capable of accurately specifying the shooting position of an image taken for maintenance or monitoring of a transportation infrastructure including a railway.

本開示の一態様に係る監視装置は、車両の移動経路上の保守対象物を監視する監視装置であって、前記保守対象物を撮影した第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納させる制御部、を備え、前記制御部は、前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、前記測位情報は、前記測位の精度を示す測位精度を含み、前記制御部は、前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、前記測位精度が前記閾値未満の場合、前記第2画像に基づいて前記第1画像の撮影位置を特定する。 The monitoring device according to one aspect of the present disclosure is a monitoring device that monitors a maintenance object on the movement path of the vehicle, and is a monitoring device for photographing the maintenance object and the periphery of the photographing position of the first image and the first image. The control unit is provided with a control unit that stores the image in the information storage unit in association with the second image obtained by the image. The positioning information is associated with the positioning information, and the positioning information includes the positioning accuracy indicating the accuracy of the positioning. When the positioning accuracy is equal to or higher than a predetermined threshold value, the control unit uses the positioning information as the first image. If the positioning accuracy is less than the threshold value, the shooting position of the first image is specified based on the second image.

本開示の一態様に係る監視装置は、車両の移動経路上の保守対象物を監視する監視装置であって、前記保守対象物を撮影した第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納させる制御部、を備え、前記制御部は、前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、前記測位情報は、前記測位の精度を示す測位精度を含み、前記制御部は、前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、前記測位精度が前記閾値未満の場合、前記第2画像を表示させ、ユーザから前記第2画像の撮影位置の入力を受付ける。 The monitoring device according to one aspect of the present disclosure is a monitoring device that monitors a maintenance object on the movement path of the vehicle, and is a monitoring device for photographing the maintenance object and the periphery of the photographing position of the first image and the first image. The control unit is provided with a control unit that stores the image in the information storage unit in association with the second image obtained by the image. The positioning information is associated with the positioning information, and the positioning information includes the positioning accuracy indicating the accuracy of the positioning. When the positioning accuracy is equal to or higher than a predetermined threshold value, the control unit uses the positioning information as the first image. If the positioning accuracy is less than the threshold value, the second image is displayed and the user accepts the input of the shooting position of the second image.

本開示の一態様に係る監視システムは、車両の移動経路上の保守対象物を監視する監視システムであって、前記保守対象物を撮影して第1画像を生成する第1のカメラと、前記第1画像の撮影位置の周辺を撮影して第2画像を生成する第2のカメラと、前記保守対象物を撮影した前記第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納し、測位の精度を示す測位精度を含む前記第1画像の撮影位置を測位した測位情報を対応付け、前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、前記測位精度が前記閾値未満の場合、前記第2画像に基づいて前記第1画像の撮影位置を特定する監視装置と、を備える。 The monitoring system according to one aspect of the present disclosure is a monitoring system that monitors a maintenance object on a vehicle's movement path, and includes a first camera that photographs the maintenance object and generates a first image, and the above-mentioned. A second camera that captures the periphery of the shooting position of the first image to generate a second image, the first image that captures the maintenance object, and a second camera that captures the periphery of the shooting position of the first image. When the positioning information for positioning the shooting position of the first image including the positioning accuracy indicating the positioning accuracy is associated with the two images and stored in the information storage unit, and the positioning accuracy is equal to or higher than a predetermined threshold value. A monitoring device for specifying the shooting position of the first image based on the positioning information and specifying the shooting position of the first image based on the second image when the positioning accuracy is less than the threshold value is provided. ..

本開示の一態様に係る監視システムは、車両の移動経路上の保守対象物を監視する監視システムであって、前記保守対象物を撮影して第1画像を生成する第1のカメラと、前記第1画像の撮影位置の周辺を撮影して第2画像を生成する第2のカメラと、前記保守対象物を撮影した前記第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納し、測位の精度を示す測位精度を含む前記第1画像の撮影位置を測位した測位情報を対応付け、前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、前記測位精度が前記閾値未満の場合、前記第2画像前記第2画像を表示させ、ユーザから前記第2画像の撮影位置の入力を受付ける監視装置と、を備える。 The monitoring system according to one aspect of the present disclosure is a monitoring system that monitors a maintenance object on a vehicle's movement path, and includes a first camera that photographs the maintenance object and generates a first image, and the above-mentioned. A second camera that captures the periphery of the shooting position of the first image to generate a second image, the first image that captures the maintenance object, and a second camera that captures the periphery of the shooting position of the first image. When the positioning information for positioning the shooting position of the first image including the positioning accuracy indicating the positioning accuracy is associated with the two images and stored in the information storage unit, and the positioning accuracy is equal to or higher than a predetermined threshold value. The shooting position of the first image is specified based on the positioning information, and when the positioning accuracy is less than the threshold value, the second image is displayed and the user inputs the shooting position of the second image. It is equipped with a monitoring device that accepts images.

本開示の一態様に係る監視方法は、車両の移動経路上の保守対象物を監視する監視方法であって、前記保守対象物を撮影した第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納し、前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、前記測位情報は、前記測位の精度を示す測位精度を含み、前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、前記測位精度が前記閾値未満の場合、前記第2画像に基づいて前記第1画像の撮影位置を特定する。 The monitoring method according to one aspect of the present disclosure is a monitoring method for monitoring a maintenance object on the movement path of the vehicle, the first image in which the maintenance object is photographed, and the periphery of the imaging position of the first image. The first image is stored in the information storage unit in association with the second image in which the image was taken, and in addition to the second image, the positioning information obtained by positioning the shooting position of the first image is associated with the positioning. The information includes positioning accuracy indicating the accuracy of the positioning, and when the positioning accuracy is equal to or higher than a predetermined threshold value, the shooting position of the first image is specified based on the positioning information, and the positioning accuracy is less than the threshold value. In this case, the shooting position of the first image is specified based on the second image.

本開示の一態様に係る監視方法は、車両の移動経路上の保守対象物を監視する監視方法であって、前記保守対象物を撮影した第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納し、前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、前記測位情報は、前記測位の精度を示す測位精度を含み、前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、前記測位精度が前記閾値未満の場合、前記第2画像を表示させ、ユーザから前記第2画像の撮影位置の入力を受付ける。 The monitoring method according to one aspect of the present disclosure is a monitoring method for monitoring a maintenance object on the movement path of the vehicle, the first image in which the maintenance object is photographed, and the periphery of the imaging position of the first image. The first image is stored in the information storage unit in association with the second image in which the image was taken, and in addition to the second image, the positioning information obtained by positioning the shooting position of the first image is associated with the positioning. The information includes positioning accuracy indicating the accuracy of the positioning, and when the positioning accuracy is equal to or higher than a predetermined threshold value, the shooting position of the first image is specified based on the positioning information, and the positioning accuracy is less than the threshold value. In this case, the second image is displayed, and the user accepts the input of the shooting position of the second image.

本開示の一態様に係るコンピュータプログラムは、車両の移動経路上の保守対象物を監視するためのコンピュータプログラムであって、前記保守対象物を撮影した第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納させ、前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、前記測位情報は、前記測位の精度を示す測位精度を含み、前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、前記測位精度が前記閾値未満の場合、前記第2画像に基づいて前記第1画像の撮影位置を特定する、ことをコンピュータに実行させる。 The computer program according to one aspect of the present disclosure is a computer program for monitoring a maintenance object on a moving path of a vehicle, and is a first image in which the maintenance object is photographed and a photographing position of the first image. The first image is stored in the information storage unit in association with the second image obtained by photographing the periphery of the above image, and in addition to the second image, the positioning information obtained by positioning the photographing position of the first image is associated with the first image. The positioning information includes a positioning accuracy indicating the accuracy of the positioning, and when the positioning accuracy is equal to or higher than a predetermined threshold value, the shooting position of the first image is specified based on the positioning information, and the positioning accuracy is the threshold value. If it is less than, the computer is made to specify the shooting position of the first image based on the second image.

本開示の一態様に係るコンピュータプログラムは、車両の移動経路上の保守対象物を監視するためのコンピュータプログラムであって、前記保守対象物を撮影した第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納させ、前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、前記測位情報は、前記測位の精度を示す測位精度を含み、前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、前記測位精度が前記閾値未満の場合、前記第2画像を表示させ、ユーザから前記第2画像の撮影位置の入力を受付ける、ことをコンピュータに実行させる。 The computer program according to one aspect of the present disclosure is a computer program for monitoring a maintenance object on a moving path of a vehicle, and is a first image in which the maintenance object is photographed and a photographing position of the first image. The first image is stored in the information storage unit in association with the second image obtained by photographing the periphery of the above image, and in addition to the second image, the positioning information obtained by positioning the photographing position of the first image is associated with the first image. The positioning information includes positioning accuracy indicating the accuracy of the positioning, and when the positioning accuracy is equal to or higher than a predetermined threshold value, the shooting position of the first image is specified based on the positioning information, and the positioning accuracy is the threshold value. If it is less than, the second image is displayed and the computer is made to accept the input of the shooting position of the second image from the user.

なお、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又は記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 It should be noted that these comprehensive or specific embodiments may be realized by a system, an apparatus, a method, an integrated circuit, a computer program or a recording medium, and any of the system, an apparatus, a method, an integrated circuit, a computer program and a recording medium. It may be realized by various combinations.

本開示によれば、鉄道等を含む交通インフラの保守又は監視のために撮影した画像の撮影位置を精度良く特定できる。 According to the present disclosure, it is possible to accurately identify the shooting position of an image taken for maintenance or monitoring of transportation infrastructure including railways and the like.

本実施の形態に係る監視システムの構成例を示すブロック図Block diagram showing a configuration example of the monitoring system according to this embodiment 本実施の形態に係る監視装置の構成例を示す機能ブロック図Functional block diagram showing a configuration example of the monitoring device according to this embodiment 本実施の形態に係る監視情報の構成例を示す図The figure which shows the structural example of the monitoring information which concerns on this embodiment 監視画像と測位情報との対応付け方法の一例を説明するための図A diagram for explaining an example of a method of associating a monitored image with positioning information. 測位情報の推定方法の一例を説明するための図A diagram for explaining an example of a method for estimating positioning information. 監視画像の撮影位置を特定する処理の一例を示すフローチャートA flowchart showing an example of the process of specifying the shooting position of the surveillance image. 本実施の形態に係る保守用UI(User Interface)の表示例を示す図The figure which shows the display example of the maintenance UI (User Interface) which concerns on this embodiment. 本実施の形態に係る監視装置の機能ブロックをコンピュータプログラムにより実現するコンピュータのハードウェア構成を示す図The figure which shows the hardware configuration of the computer which realizes the functional block of the monitoring apparatus which concerns on this embodiment by a computer program.

以下、図面を適宜参照して、本開示の実施の形態について、詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明及び実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の記載の主題を限定することは意図されていない。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art. It should be noted that the accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter of the claims.

(本実施の形態)
<監視システムの構成>
図1は、本実施の形態に係る監視システムの構成例を示すブロック図である。
(Implementation)
<Configuration of monitoring system>
FIG. 1 is a block diagram showing a configuration example of a monitoring system according to the present embodiment.

監視システム2は、鉄道の保守対象物を監視するためのシステムである。鉄道の保守対象物の例として、レール、レール締結装置、枕木、道床、路盤、架線、架線電柱、碍子、バランサ、信号機、トンネル内壁、橋梁、のり面等が挙げられる。なお、本開示に係る「鉄道」には、一般的な電車又は汽車が走行する軌道に限られず、路面電車が走行する軌道、モノレールが走行する軌道、新幹線が走行する軌道等も含まれる。 The monitoring system 2 is a system for monitoring railway maintenance objects. Examples of railway maintenance objects include rails, rail fastening devices, sleepers, trackbeds, roadbeds, overhead lines, overhead wire poles, insulators, balancers, traffic lights, tunnel inner walls, bridges, slopes, and the like. The "railway" according to the present disclosure is not limited to a track on which a general train or a train travels, but also includes a track on which a tram travels, a track on which a monorail travels, a track on which a Shinkansen travels, and the like.

監視システム2は、鉄道の保守用車両等(以下「車両」という)1に載せられる。車両1は、動力付き車両であってもよいし、動力付き車両に牽引される車両(台車)であってもよい。なお、監視システム2の一部は、車両1とは異なる場所に設置されてもよい。 The monitoring system 2 is mounted on a railway maintenance vehicle or the like (hereinafter referred to as "vehicle") 1. The vehicle 1 may be a powered vehicle or a vehicle (bogie) towed by the powered vehicle. A part of the monitoring system 2 may be installed in a place different from that of the vehicle 1.

監視システム2は、カメラ10A、10B、10C、映像レコーダ20、全球測位衛星(以下GNSS(Global Navigation Satellite System)と記載)受信装置30、及び、RTK(Real Time Kinematic)受信装置40、及び、監視装置100を備える。 The monitoring system 2 includes cameras 10A, 10B, 10C, a video recorder 20, a global positioning satellite (hereinafter referred to as GNSS (Global Navigation Satellite System)) receiving device 30, an RTK (Real Time Kinematic) receiving device 40, and monitoring. The device 100 is provided.

カメラ10A、10B、10Cは、PoE(Power over Ethernet)に対応しており、イーサネットケーブルによって、映像レコーダ20に接続されてよい。ただし、カメラ10A、10B、10Cは、イーサネットケーブルとは異なる有線ケーブル(例えばUSB(Universal Serial Bus)ケーブル)又は無線方式(例えばIEEE802.11又はBluetooth)によって、映像レコーダ20に接続されてもよい。また、カメラ10A、10B、10Cと映像レコーダ20との接続方式は、PoEに限られない。例えば、カメラ10A、10B、10Cは、他の接続方式によって補助電力が供給されてもよい。 The cameras 10A, 10B, and 10C are compatible with PoE (Power over Ethernet) and may be connected to the video recorder 20 by an Ethernet cable. However, the cameras 10A, 10B, and 10C may be connected to the video recorder 20 by a wired cable (for example, a USB (Universal Serial Bus) cable) different from the Ethernet cable or a wireless method (for example, IEEE802.11 or Bluetooth). Further, the connection method between the cameras 10A, 10B and 10C and the video recorder 20 is not limited to PoE. For example, the cameras 10A, 10B, and 10C may be supplied with auxiliary power by another connection method.

映像レコーダ20は、例えばイーサネットケーブルによって、監視装置100に接続される。ただし、映像レコーダ20は、イーサネットケーブルとは異なる有線ケーブル(例えばUSBケーブル)又は無線方式(例えばIEEE802.11又はBluetooth)によって、監視装置100に接続されてもよい。 The video recorder 20 is connected to the monitoring device 100 by, for example, an Ethernet cable. However, the video recorder 20 may be connected to the monitoring device 100 by a wired cable (for example, a USB cable) different from the Ethernet cable or a wireless method (for example, IEEE802.11 or Bluetooth).

GNSS受信装置30は、例えばUSBケーブルによって、監視装置100に接続される。ただし、GNSS受信装置30は、USBケーブルとは異なる有線ケーブル又は無線方式によって、監視装置100に接続されてもよい。 The GNSS receiving device 30 is connected to the monitoring device 100 by, for example, a USB cable. However, the GNSS receiving device 30 may be connected to the monitoring device 100 by a wired cable or a wireless method different from the USB cable.

RTK受信装置40は、例えばUSBケーブルによって、監視装置100に接続される。ただし、RTK受信装置40は、USBケーブルとは異なる有線ケーブル又は無線方式によって、監視装置100に接続されてもよい。 The RTK receiving device 40 is connected to the monitoring device 100 by, for example, a USB cable. However, the RTK receiving device 40 may be connected to the monitoring device 100 by a wired cable or a wireless method different from the USB cable.

カメラ10Aは、保守対象物を撮影できるように車両1に設置される。カメラ10Aの設置数は1つに限られず、2つ以上であってもよい。走行中の車両1からカメラ10Aが撮影して生成した動画データを、監視動画と称する。監視動画のフォーマットの例として、MPEG2、MPEG4、H.264、H.265、JPEG、非圧縮データが挙げられる。 The camera 10A is installed in the vehicle 1 so that the object to be maintained can be photographed. The number of cameras 10A installed is not limited to one, and may be two or more. The moving image data generated by the camera 10A taken from the moving vehicle 1 is referred to as a surveillance moving image. As an example of the format of the surveillance video, MPEG2, MPEG4, H.M. 264, H. 265, JPEG, uncompressed data and the like.

カメラ10Bは、軌道周辺に存在する距離標を撮影できるように車両1に設置される。カメラ10Bの設置数は1つに限られず、2つ以上であってもよい。走行中の車両1からカメラ10Bが撮影して生成した動画データを、距離標動画と称する。距離標動画のフォーマットは、監視動画と同じであってよい。距離標とは、鉄道において、ある起点からの距離を表す標識である。距離標には、その距離を示す文字が記されていることが多いが、文字が示されていなくてもよい。なお、距離標の「文字」には、数字及び記号等が含まれてよい。また、距離標は、ある起点からの距離を表す標識に限られず、距離、距離の間隔、又は特定の場所を示す物であってもよい。 The camera 10B is installed in the vehicle 1 so that a distance marker existing around the track can be photographed. The number of cameras 10B installed is not limited to one, and may be two or more. The moving image data generated by the camera 10B taken from the moving vehicle 1 is referred to as a distance marker moving image. The format of the distance marker video may be the same as that of the surveillance video. A distance marker is a sign indicating the distance from a certain starting point on a railway. The distance marker often has a character indicating the distance, but the character may not be indicated. The "character" of the distance marker may include numbers, symbols and the like. Further, the distance marker is not limited to a sign indicating a distance from a certain starting point, and may be a thing indicating a distance, a distance interval, or a specific place.

カメラ10Cは、車両1から見える風景を撮影できるように車両1に設置される。カメラ10Cの設置数は1つに限られず、2つ以上であってもよい。走行中の車両1からカメラ10Cが撮影して生成した動画データを、風景動画と称する。風景動画のフォーマットは、監視動画と同じであってよい。カメラ10Cは、車両1の後方、前方、又は、側方の風景が撮影されるように設置されてよい。カメラ10Cは、車両1の内側に設置されてもよいし、車両1の外側(例えば車両1の屋根の上)に設置されてもよい。 The camera 10C is installed in the vehicle 1 so that the scenery seen from the vehicle 1 can be photographed. The number of cameras 10C installed is not limited to one, and may be two or more. The moving image data generated by the camera 10C taken from the moving vehicle 1 is referred to as a landscape moving image. The format of the landscape video may be the same as that of the surveillance video. The camera 10C may be installed so as to capture a landscape behind, in front of, or on the side of the vehicle 1. The camera 10C may be installed inside the vehicle 1 or may be installed outside the vehicle 1 (for example, on the roof of the vehicle 1).

カメラ10A、カメラ10B、カメラ10Cは、互いに異なる方向を撮影できるように車両1に設置されてよい。これにより、上述したように、保守対象物、距離標、風景といった互いに異なるものを撮影できる。あるいは、1つのカメラで距離標及び風景の両方を撮影できる場合、カメラ10Cを設置せずに、カメラ10Bで距離標及び風景の両方を含む動画を撮影してもよい。 The camera 10A, the camera 10B, and the camera 10C may be installed in the vehicle 1 so as to be able to shoot in different directions from each other. As a result, as described above, different objects such as maintenance objects, distance markers, and landscapes can be photographed. Alternatively, if one camera can shoot both the distance marker and the landscape, the camera 10B may shoot a moving image including both the distance marker and the landscape without installing the camera 10C.

映像レコーダ20は、カメラ10A、10B、10Cから監視動画、距離標動画、及び、風景動画をそれぞれ受信して記録する装置である。 The video recorder 20 is a device that receives and records a surveillance video, a distance marker video, and a landscape video from the cameras 10A, 10B, and 10C, respectively.

GNSS受信装置30は、GNSS衛星3から発射される測位用の信号であるGNSS信号を定期的に受信し、受信したGNSS信号からGNSS情報201(図2参照)を生成する。GNSS情報201には、GNSS信号の受信時刻と、当該受信時刻におけるGNSS受信装置30の緯度及び経度と、当該緯度及び経度の測位精度とが対応付けて含まれる。GNSS受信装置30は、生成したGNSS情報201を監視装置100へ送信する。以下、測位された緯度及び経度を測位座標と称する。 The GNSS receiving device 30 periodically receives a GNSS signal, which is a positioning signal emitted from the GNSS satellite 3, and generates GNSS information 201 (see FIG. 2) from the received GNSS signal. The GNSS information 201 includes the reception time of the GNSS signal, the latitude and longitude of the GNSS receiving device 30 at the reception time, and the positioning accuracy of the latitude and longitude. The GNSS receiving device 30 transmits the generated GNSS information 201 to the monitoring device 100. Hereinafter, the measured latitude and longitude are referred to as positioning coordinates.

RTK受信装置40は、無線基地局4から送信される測位用の信号であるRTK信号を定期的に受信し、受信したRTK信号から補正情報202(図2参照)を生成する。補正情報202には、GNSS信号が示す測位座標を補正するための情報が含まれる。RTK信号を用いて補正した測位座標は、補正前の測位座標よりも正確な位置を示す。RTK受信装置40は、生成した補正情報202を監視装置100へ送信する。 The RTK receiving device 40 periodically receives an RTK signal, which is a positioning signal transmitted from the radio base station 4, and generates correction information 202 (see FIG. 2) from the received RTK signal. The correction information 202 includes information for correcting the positioning coordinates indicated by the GNSS signal. The positioning coordinates corrected by using the RTK signal indicate a more accurate position than the positioning coordinates before the correction. The RTK receiving device 40 transmits the generated correction information 202 to the monitoring device 100.

監視装置100は、GNSS受信装置30及びRTK受信装置40からGNSS情報201及び補正情報202をそれぞれ受信する。監視装置100は、受信したGNSS情報201及び補正情報202に基づいて、そのGNSS情報201及び補正情報202に含まれる受信時刻における、カメラ10Aの測位座標を示す情報(以下「測位情報」という)206を生成する。例えば、GNSS受信装置30及びカメラ10Aを高さ方向にて一直線に並ぶように設置することにより、GNSS情報201からカメラ10Aの測位座標を得ることができる。あるいは、GNSS受信装置30とカメラ10Aとの間の位置ずれを予め登録しておき、GNSS情報201が示す測位座標を、その登録された位置ずれで補正することにより、カメラ10Aの測位座標を得ることができる。 The monitoring device 100 receives the GNSS information 201 and the correction information 202 from the GNSS receiving device 30 and the RTK receiving device 40, respectively. The monitoring device 100 is based on the received GNSS information 201 and correction information 202, and the information indicating the positioning coordinates of the camera 10A at the reception time included in the GNSS information 201 and the correction information 202 (hereinafter referred to as “positioning information”) 206. To generate. For example, by installing the GNSS receiving device 30 and the camera 10A so as to be aligned in a straight line in the height direction, the positioning coordinates of the camera 10A can be obtained from the GNSS information 201. Alternatively, the positioning coordinates of the camera 10A can be obtained by registering the positional deviation between the GNSS receiving device 30 and the camera 10A in advance and correcting the positioning coordinates indicated by the GNSS information 201 with the registered positional deviations. be able to.

監視装置100は、GNSS情報201に含まれる時刻情報、及び、時刻サーバ5(例えばNTP(Network Time Protocol)サーバ)から受信した時刻情報のうちの少なくとも1つに基づいて、当該監視装置100の内部時計を設定する。これにより、監視装置100の内部時計は、正確な時刻に同期される。加えて、監視装置100は、映像レコーダ20、及び、カメラ10A、10B、10Cの内部時計を、当該監視装置100の内部時計と同期させる。これにより、カメラ10A、10B、10C、映像レコーダ20、及び、監視装置100の内部時計が、正確な時刻に同期される。 The monitoring device 100 is inside the monitoring device 100 based on at least one of the time information included in the GNSS information 201 and the time information received from the time server 5 (for example, an NTP (Network Time Protocol) server). Set the clock. As a result, the internal clock of the monitoring device 100 is synchronized with the correct time. In addition, the monitoring device 100 synchronizes the video recorder 20 and the internal clocks of the cameras 10A, 10B, and 10C with the internal clock of the monitoring device 100. As a result, the internal clocks of the cameras 10A, 10B, 10C, the video recorder 20, and the monitoring device 100 are synchronized with the correct time.

監視装置100は、映像レコーダ20から、監視動画を構成する各画像フレーム(以下「監視画像」という)203(図2参照)と、距離標動画を構成する各画像フレーム(以下「距離標画像」という)204(図2参照)と、風景動画を構成する各画像フレーム(以下「風景画像」という)205(図2参照)とを取得して格納する。 From the video recorder 20, the monitoring device 100 includes each image frame (hereinafter referred to as “surveillance image”) 203 (see FIG. 2) constituting the surveillance moving image and each image frame (hereinafter referred to as “distance marker image”) constituting the distance marker moving image. 204 (see FIG. 2) and each image frame (hereinafter referred to as “landscape image”) 205 (see FIG. 2) constituting the landscape moving image are acquired and stored.

監視装置100は、監視画像203の撮影時刻と同時刻に測位された測位情報206を用いて、当該監視画像203の撮影位置を特定する。これにより、監視画像203の撮影位置を精度良く特定できる。しかし、車両1が山間部、都市部、又はトンネル内等を走行中は、GNSS信号を受信できなかったり、GNSS信号の測位精度が不十分であったりして、測位情報206を用いることができない場合がある。このような場合、監視装置100は、監視画像203の撮影時刻と同時刻に撮影された距離標画像204及び風景画像205のうちの少なくとも1つを用いて、当該監視画像203の撮影位置を特定する。これにより、測位情報206を用いることができない場合であっても、監視画像203の撮影位置を精度良く特定できる。なお、本開示の説明において、「撮影時刻と同時刻」という表現は、厳密に同じ時刻を表すものではなく、撮影時刻を含む所定の期間内に含まれる時刻を表す。次に、上述の内容について詳細に説明する。 The monitoring device 100 identifies the shooting position of the monitoring image 203 by using the positioning information 206 positioned at the same time as the shooting time of the monitoring image 203. As a result, the shooting position of the surveillance image 203 can be accurately specified. However, while the vehicle 1 is traveling in a mountainous area, an urban area, a tunnel, or the like, the positioning information 206 cannot be used because the GNSS signal cannot be received or the positioning accuracy of the GNSS signal is insufficient. In some cases. In such a case, the monitoring device 100 specifies the shooting position of the monitoring image 203 by using at least one of the distance marker image 204 and the landscape image 205 taken at the same time as the shooting time of the monitoring image 203. do. As a result, even when the positioning information 206 cannot be used, the shooting position of the monitoring image 203 can be accurately specified. In the description of the present disclosure, the expression "same time as the shooting time" does not mean exactly the same time, but represents a time included in a predetermined period including the shooting time. Next, the above-mentioned contents will be described in detail.

<監視装置の構成>
図2は、本実施の形態に係る監視装置100の構成例を示す機能ブロック図である。
<Configuration of monitoring device>
FIG. 2 is a functional block diagram showing a configuration example of the monitoring device 100 according to the present embodiment.

監視装置100は、情報格納部101、GNSS情報受信部102、補正情報受信部103、時計同期部104、画像取得部105、測位情報生成部106、監視情報生成部107、撮影位置特定部108、及び、UI処理部109を有する。 The monitoring device 100 includes an information storage unit 101, a GNSS information receiving unit 102, a correction information receiving unit 103, a clock synchronization unit 104, an image acquisition unit 105, a positioning information generation unit 106, a monitoring information generation unit 107, and a shooting position specifying unit 108. It also has a UI processing unit 109.

情報格納部101は、図8に示すメモリ1002、ストレージ1003又はこれらの組み合わせによって実現されてよい。情報格納部101は、GNSS情報201、補正情報202、監視画像203、距離標画像204、風景画像205、測位情報206、及び、監視情報207を格納する。 The information storage unit 101 may be realized by the memory 1002, the storage 1003, or a combination thereof shown in FIG. The information storage unit 101 stores GNSS information 201, correction information 202, monitoring image 203, distance marker image 204, landscape image 205, positioning information 206, and monitoring information 207.

GNSS情報受信部102、補正情報受信部103、時計同期部104、画像取得部105、測位情報生成部106、監視情報生成部107、撮影位置特定部108、及び、UI処理部109は、図8に示すプロセッサ1001がメモリ1002等と協働することによって実現されてよい。したがって、これらの機能ブロック102~109を主体として説明する処理は、プロセッサ1001を主体とする処理に読み替えることができる。 The GNSS information receiving unit 102, the correction information receiving unit 103, the clock synchronization unit 104, the image acquisition unit 105, the positioning information generation unit 106, the monitoring information generation unit 107, the shooting position specifying unit 108, and the UI processing unit 109 are shown in FIG. The processor 1001 shown in the above may be realized by cooperating with the memory 1002 and the like. Therefore, the process described mainly of these functional blocks 102 to 109 can be read as the process mainly composed of the processor 1001.

GNSS情報受信部102は、GNSS受信装置30から定期的にGNSS情報201を受信し、情報格納部101に格納する。 The GNSS information receiving unit 102 periodically receives the GNSS information 201 from the GNSS receiving device 30 and stores it in the information storage unit 101.

補正情報受信部103は、RTK受信装置40から定期的に補正情報202を受信し、情報格納部101に格納する。 The correction information receiving unit 103 periodically receives the correction information 202 from the RTK receiving device 40 and stores it in the information storage unit 101.

時計同期部104は、GNSS情報201及び補正情報202に含まれる時刻情報、及び、時刻サーバ5から受信した時刻情報のうちの少なくとも1つに基づいて、監視装置100の内部時計を設定する。例えば、時計同期部104は、GNSS情報201及び補正情報202のうちの少なくとも1つから時刻情報が得られた場合、その時刻情報を用いて監視装置100の内部時計を設定する。時計同期部104は、GNSS情報201及び補正情報202の何れからも時刻情報が得られなかった場合、時刻サーバ5から時刻情報を取得し、その時刻情報を用いて監視装置100の内部時計を設定する。 The clock synchronization unit 104 sets the internal clock of the monitoring device 100 based on at least one of the time information included in the GNSS information 201 and the correction information 202 and the time information received from the time server 5. For example, when the time information is obtained from at least one of the GNSS information 201 and the correction information 202, the clock synchronization unit 104 sets the internal clock of the monitoring device 100 using the time information. When the time information cannot be obtained from either the GNSS information 201 or the correction information 202, the clock synchronization unit 104 acquires the time information from the time server 5 and sets the internal clock of the monitoring device 100 using the time information. do.

加えて、時計同期部104は、映像レコーダ20及びカメラ10A、10B、10Cの内部時計を、監視装置100の内部時計と同期させる。これにより、カメラ10A、10B、10C、映像レコーダ20、及び、監視装置100の内部時計が正確な時刻に同期される。よって、監視画像203、距離標画像204、及び、風景画像205の撮影時刻は、いずれも正確な時刻を表す。 In addition, the clock synchronization unit 104 synchronizes the internal clocks of the video recorder 20 and the cameras 10A, 10B, and 10C with the internal clocks of the monitoring device 100. As a result, the internal clocks of the cameras 10A, 10B, 10C, the video recorder 20, and the monitoring device 100 are synchronized with the correct time. Therefore, the shooting times of the monitoring image 203, the distance marker image 204, and the landscape image 205 all represent accurate times.

画像取得部105は、映像レコーダ20から、監視画像203、距離標画像204、及び、風景画像205を取得し、情報格納部101に格納する。 The image acquisition unit 105 acquires the monitoring image 203, the distance marker image 204, and the landscape image 205 from the video recorder 20 and stores them in the information storage unit 101.

測位情報生成部106は、GNSS情報201及び補正情報202に基づいて、そのGNSS情報201及び補正情報202に含まれる受信時刻における、カメラ10Aの測位座標(緯度及び経度)を示す測位情報206を生成し、情報格納部101に格納する。 The positioning information generation unit 106 generates positioning information 206 indicating the positioning coordinates (latitude and longitude) of the camera 10A at the reception time included in the GNSS information 201 and the correction information 202 based on the GNSS information 201 and the correction information 202. Then, it is stored in the information storage unit 101.

監視情報生成部107は、監視画像203と、当該監視画像203の撮影時刻と同時刻に撮影された距離標画像204及び風景画像205と、当該撮影時刻と同時刻に測位された測位情報206とを対応付けて監視情報207を生成する。なお、監視情報207の詳細については後述する(図3参照)。 The monitoring information generation unit 107 includes the monitoring image 203, the distance marker image 204 and the landscape image 205 taken at the same time as the shooting time of the monitoring image 203, and the positioning information 206 positioned at the same time as the shooting time. Is associated with each other to generate monitoring information 207. The details of the monitoring information 207 will be described later (see FIG. 3).

撮影位置特定部108は、監視情報207において監視画像203と対応付けられている測位情報206、距離標画像204及び風景画像205のうちの少なくとも1つを用いて、当該監視画像203の撮影位置を特定する。監視画像203の撮影位置は、鉄道路線における、所定の起点からの距離を示す営業キロとして表現されてよい。 The shooting position specifying unit 108 uses at least one of the positioning information 206, the distance marker image 204, and the landscape image 205 associated with the monitoring image 203 in the monitoring information 207 to determine the shooting position of the monitoring image 203. Identify. The shooting position of the surveillance image 203 may be expressed as a business kilometer indicating a distance from a predetermined starting point on a railway line.

撮影位置特定部108は、監視情報207において監視画像203と対応付けられている測位情報206の測位精度が十分である(例えば測位精度が所定の閾値以上である)場合、その測位情報206の測位座標に対応する営業キロを、当該監視画像203の撮影位置としてよい。例えば、撮影位置特定部108は、軌道上の測位座標を営業キロに変換する所定のデータベースを用いて、測位情報206の測位座標を営業キロに変換する。 When the positioning accuracy of the positioning information 206 associated with the monitoring image 203 in the monitoring information 207 is sufficient (for example, the positioning accuracy is equal to or higher than a predetermined threshold value), the photographing position specifying unit 108 positions the positioning information 206. The business kilometer corresponding to the coordinates may be the shooting position of the monitoring image 203. For example, the photographing position specifying unit 108 converts the positioning coordinates of the positioning information 206 into business kilometers by using a predetermined database that converts the positioning coordinates on the orbit into business kilometers.

撮影位置特定部108は、監視情報207において監視画像203に測位情報206が対応付けられていない場合、あるいは、監視画像203と対応付けられている測位情報206の測位精度が不十分である(例えば測位精度が所定の閾値未満である)場合、次の処理を行ってよい。すなわち、撮影位置特定部108は、監視情報207において監視画像203と対応付けられている距離標画像204及び風景画像205のうちの少なくとも1つを用いて、当該監視画像203の撮影位置の営業キロを特定してよい。なお、この特定方法の詳細については後述する。 When the positioning information 206 is not associated with the monitoring image 203 in the monitoring information 207, or the positioning accuracy of the positioning information 206 associated with the monitoring image 203 is insufficient (for example, the shooting position specifying unit 108). If the positioning accuracy is less than the predetermined threshold value), the following processing may be performed. That is, the shooting position specifying unit 108 uses at least one of the distance marker image 204 and the landscape image 205 associated with the monitoring image 203 in the monitoring information 207, and uses the business kilometer of the shooting position of the monitoring image 203. May be specified. The details of this specific method will be described later.

UI処理部109は、監視情報207に基づいて保守用UI400(図7参照)を表示し、保守用UI400に対する操作を受け付ける。例えば、UI処理部109は、図8に示す出力装置1005の一例であるディスプレイに保守用UI400を表示する。そして、UI処理部109は、図8に示す入力装置1004の一例であるキーボード及びマウスを通じて保守用UI400に対する操作を受け付ける。なお、保守用UI400の詳細については後述する(図7参照)。 The UI processing unit 109 displays the maintenance UI 400 (see FIG. 7) based on the monitoring information 207, and accepts operations for the maintenance UI 400. For example, the UI processing unit 109 displays the maintenance UI 400 on a display which is an example of the output device 1005 shown in FIG. Then, the UI processing unit 109 receives an operation on the maintenance UI 400 through a keyboard and a mouse, which are examples of the input device 1004 shown in FIG. The details of the maintenance UI 400 will be described later (see FIG. 7).

<監視情報の構成>
図3は、本実施の形態に係る監視情報207の構成例を示す図である。
<Structure of monitoring information>
FIG. 3 is a diagram showing a configuration example of the monitoring information 207 according to the present embodiment.

監視情報207は、項目として、監視画像、距離標画像、風景画像、撮影時刻、測位情報、路線名称、営業キロ、保守要否フラグ、保守要因、撮影手段、撮影者、及び、メモを有する。すなわち、監視情報207は、これらの項目の対応関係を示す情報であるともいえる。 The monitoring information 207 has, as items, a monitoring image, a distance marker image, a landscape image, a shooting time, positioning information, a route name, a business kilometer, a maintenance necessity flag, a maintenance factor, a shooting means, a photographer, and a memo. That is, it can be said that the monitoring information 207 is information indicating the correspondence between these items.

監視画像の項目には、監視画像203のID(Identification)が登録される。監視画像203のIDの例として、監視画像203のファイル名が挙げられる。 The ID (Identification) of the surveillance image 203 is registered in the item of the surveillance image. An example of the ID of the surveillance image 203 is the file name of the surveillance image 203.

距離標画像の項目には、距離標画像204のIDが登録される。距離標画像204のIDの例として、距離標画像204のファイル名が挙げられる。 The ID of the distance marker image 204 is registered in the item of the distance marker image. An example of the ID of the distance marker image 204 is the file name of the distance marker image 204.

風景画像の項目には、風景画像205のIDが登録される。風景画像205のIDの例として、風景画像205のファイル名が挙げられる。 The ID of the landscape image 205 is registered in the landscape image item. An example of the ID of the landscape image 205 is the file name of the landscape image 205.

撮影時刻の項目には、監視画像203の撮影時刻が登録される。なお、撮影時刻の項目には、時刻だけでなく、日付も含まれてよい。また、撮影時刻は、撮影のfpsに応じて、ミリ秒又はマイクロ秒まで表示することで各画像の撮影のタイミングを詳細に確認することができる。これによって、fpsの値が大きくなったとしても、異なるタイミングで撮影された画像に対して、同時刻で撮影されたと認識することを防ぐことができる。例えば、1ミリ秒ごとで撮影される画像に対して、撮影時刻が秒単位までしか表示されないと各画像の撮影順を把握することができないが、ミリ秒単位まで表示することで各画像の撮影順を把握することができる。 The shooting time of the surveillance image 203 is registered in the shooting time item. The shooting time item may include not only the time but also the date. Further, the shooting time can be displayed in milliseconds or microseconds depending on the shooting fps, so that the shooting timing of each image can be confirmed in detail. As a result, even if the value of fps becomes large, it is possible to prevent the images taken at different timings from being recognized as being taken at the same time. For example, for an image shot every millisecond, if the shooting time is displayed only in seconds, it is not possible to grasp the shooting order of each image, but by displaying it in milliseconds, each image is shot. You can grasp the order.

測位情報の項目には、監視画像203の撮影時刻と同時刻に測位された測位座標と、その測位座標の測位精度とが登録される。測位精度は、精度の高さを示す数値で表現されてもよい。あるいは、測位精度は、精度が十分であることを示す「良好」、精度が不十分であることを示す「不良」、測位ができなかったことを示す「不可」の3段階で表現されてもよい。 In the item of positioning information, the positioning coordinates measured at the same time as the shooting time of the monitoring image 203 and the positioning accuracy of the positioning coordinates are registered. The positioning accuracy may be expressed by a numerical value indicating the high accuracy. Alternatively, the positioning accuracy may be expressed in three stages: "good" indicating that the accuracy is sufficient, "poor" indicating that the accuracy is insufficient, and "impossible" indicating that positioning could not be performed. good.

路線名称の項目には、監視画像203が撮影された路線の名称が登録される。 In the item of the route name, the name of the route on which the monitoring image 203 was taken is registered.

営業キロの項目には、監視画像203の撮影位置の営業キロが登録される。 In the item of business kilometers, the business kilometers of the shooting position of the surveillance image 203 are registered.

保守要否フラグの項目には、監視画像203に示される保守対象物について、保守作業が必要か否かを示すフラグが登録される。保守作業者は、後述する保守用UI400に表示された監視画像203を見て、監視画像203内の保守対象物について保守作業が必要か否かを判断してよい。あるいは、監視装置100は、監視画像203を画像解析して監視画像203内の保守対象物について保守作業が必要か否かを自動的に判断してもよい。保守要否フラグの項目には、その判断の結果を示すフラグが登録されてよい。例えば、保守要否フラグには、保守作業が必要であることを示す「必要」、又は、保守作業が不要であることを示す「不要」が登録されてよい。 In the maintenance necessity flag item, a flag indicating whether or not maintenance work is required is registered for the maintenance target object shown in the monitoring image 203. The maintenance worker may see the monitoring image 203 displayed on the maintenance UI 400 described later and determine whether or not maintenance work is necessary for the maintenance target object in the monitoring image 203. Alternatively, the monitoring device 100 may analyze the monitoring image 203 and automatically determine whether or not maintenance work is required for the maintenance target in the monitoring image 203. A flag indicating the result of the determination may be registered in the maintenance necessity flag item. For example, "necessary" indicating that maintenance work is required or "unnecessary" indicating that maintenance work is not required may be registered in the maintenance necessity flag.

保守要因の項目には、保守要否フラグが「必要」である場合に、保守作業が必要である要因が登録される。例えば、保守対象物の設備が異常である場合、保守要因の項目には「設備異常」が登録されてよい。例えば、保守対象物が欠損している場合、保守要因の項目には「欠損」が登録されてよい。 In the maintenance factor item, when the maintenance necessity flag is "necessary", the factor that requires maintenance work is registered. For example, when the equipment of the maintenance target is abnormal, "equipment abnormality" may be registered in the item of maintenance factor. For example, when the maintenance object is missing, "missing" may be registered in the maintenance factor item.

撮影手段の項目には、監視画像203の撮影手段が登録される。例えば、監視画像203が、保守用車両等に載せられたカメラ10Aで撮影されたものである場合、撮影手段の項目には「保守用車両等」が登録されてよい。例えば、監視画像203が、保守作業者が所持するカメラ付き端末によって撮影されたものである場合、撮影手段の項目には「手元端末」が登録されてよい。 The photographing means of the surveillance image 203 is registered in the item of the photographing means. For example, when the monitoring image 203 is taken by the camera 10A mounted on the maintenance vehicle or the like, "maintenance vehicle or the like" may be registered in the item of the photographing means. For example, when the surveillance image 203 is taken by a terminal with a camera owned by a maintenance worker, the "hand terminal" may be registered in the item of the shooting means.

撮影者の項目には、監視画像203の撮影者が登録される。例えば、監視画像203が、「パナ花子」という氏名の保守作業者によって撮影されたものである場合、撮影者の項目には「パナ花子」が登録される。例えば、監視画像203が、「松下太郎」という氏名の保守作業者によって撮影されたものである場合、撮影者の項目には「松下太郎」が登録される。 The photographer of the surveillance image 203 is registered in the photographer item. For example, when the surveillance image 203 is taken by a maintenance worker named "Pana Hanako", "Pana Hanako" is registered in the photographer's item. For example, when the surveillance image 203 is taken by a maintenance worker named "Taro Matsushita", "Taro Matsushita" is registered in the item of the photographer.

メモの項目には、監視画像203に対するメモの内容が登録される。例えば、保守作業者が、後述する保守用UI400に表示された監視画像203を見てメモを入力した場合、メモの項目には、その入力されたメモの内容が登録される。 In the memo item, the content of the memo for the monitoring image 203 is registered. For example, when a maintenance worker inputs a memo by looking at the monitoring image 203 displayed on the maintenance UI 400 described later, the content of the input memo is registered in the memo item.

<監視画像と測位情報の対応付け>
図4は、監視画像203と測位情報206との対応付け方法の一例を説明するための図である。
<Association of surveillance image and positioning information>
FIG. 4 is a diagram for explaining an example of a method of associating the monitoring image 203 with the positioning information 206.

図3に示すように、監視情報生成部107は、監視画像203に、当該監視画像203の撮影時刻と同時刻に測位された測位情報206を対応付けて監視情報207を生成する。これにより、監視画像203の撮影位置を、当該監視画像203に対応付けられている測位情報206から特定することができる。 As shown in FIG. 3, the monitoring information generation unit 107 generates monitoring information 207 by associating the monitoring image 203 with the positioning information 206 positioned at the same time as the shooting time of the monitoring image 203. Thereby, the shooting position of the surveillance image 203 can be specified from the positioning information 206 associated with the surveillance image 203.

しかし、監視動画のフレームレートと、GNSS信号の受信頻度とは異なり得る。例えば、監視動画のフレームレートが30fpsであり、GNSS信号の受信頻度が10Hzであるとする。この場合、監視動画のフレーム周期は(1/30)秒であり、GNSS信号による測位周期は(1/10)秒であるため、すべての監視画像203に対して1対1で測位情報206を対応付けることはできない。 However, the frame rate of the surveillance video and the reception frequency of the GNSS signal may differ. For example, it is assumed that the frame rate of the surveillance video is 30 fps and the reception frequency of the GNSS signal is 10 Hz. In this case, since the frame period of the surveillance video is (1/30) seconds and the positioning cycle by the GNSS signal is (1/10) seconds, the positioning information 206 is provided one-to-one for all the surveillance images 203. It cannot be associated.

そこで、撮影位置特定部108は、監視画像203の撮影時刻と同時刻に測位された測位情報206が存在する場合、その監視画像203にその測位情報206を対応付け、監視画像203の撮影時刻と同時刻に測位された測位情報206が存在しない場合、他の時刻に測位された測位情報206に基づいて、その監視画像203に対応する測位情報206を推定する。 Therefore, when the positioning information 206 positioned at the same time as the shooting time of the monitoring image 203 exists, the shooting position specifying unit 108 associates the positioning information 206 with the monitoring image 203 and sets the shooting time of the monitoring image 203. If the positioning information 206 positioned at the same time does not exist, the positioning information 206 corresponding to the monitoring image 203 is estimated based on the positioning information 206 positioned at another time.

例えば、図4に示すように、時刻t1、t2、t3、t4のそれぞれにて監視画像203が撮影され、時刻t1と時刻t4にて測位情報206が測位された場合、撮影位置特定部108は、次の処理を行う。すなわち、撮影位置特定部108は、時刻t1に撮影された監視画像203に、時刻t1に測位された測位情報206を対応付け、時刻t4に撮影された監視画像203に、時刻t4に測位された測位情報206を対応付ける。加えて、撮影位置特定部108は、時刻t1及び時刻t4における測位情報206に基づいて、時刻t2及び時刻t3における測位情報206を推定する。次に、当該推定方法について説明する。 For example, as shown in FIG. 4, when the monitoring image 203 is captured at each of the time t1, t2, t3, and t4, and the positioning information 206 is positioned at the time t1 and the time t4, the imaging position specifying unit 108 , Performs the following processing. That is, the shooting position specifying unit 108 associates the monitoring image 203 shot at time t1 with the positioning information 206 positioned at time t1, and positions the monitoring image 203 shot at time t4 at time t4. The positioning information 206 is associated with it. In addition, the photographing position specifying unit 108 estimates the positioning information 206 at the time t2 and the time t3 based on the positioning information 206 at the time t1 and the time t4. Next, the estimation method will be described.

図5は、測位情報の推定方法の一例を説明するための図である。 FIG. 5 is a diagram for explaining an example of a method for estimating positioning information.

例えば、図5に示すように、撮影位置特定部108は、時刻t1の測位情報206が示す位置P1と時刻t4の測位情報206が示す位置P4とを結ぶ線分Lを3分割し、分割点P2、P3を得る。なお、分割数は、測位の周期を監視画像203の周期で除した値に基づいて算出されてよい。また、線分Lの形状は、レールの線形に沿うものであってよい。 For example, as shown in FIG. 5, the photographing position specifying unit 108 divides the line segment L connecting the position P1 indicated by the positioning information 206 at time t1 and the position P4 indicated by the positioning information 206 at time t4 into three division points. Obtain P2 and P3. The number of divisions may be calculated based on a value obtained by dividing the positioning cycle by the cycle of the monitoring image 203. Further, the shape of the line segment L may be along the alignment of the rail.

撮影位置特定部108は、分割点P2を時刻t2の測位情報206と推定し、分割点P3を時刻t3の測位情報206と推定する。そして、撮影位置特定部108は、監視情報207において、時刻t2の監視画像203に、その推定した時刻t2の測位情報206を対応付け、時刻t3の監視画像203に、その推定した時刻t3の測位情報206を対応付ける。 The shooting position specifying unit 108 estimates the division point P2 as the positioning information 206 at the time t2, and the division point P3 as the positioning information 206 at the time t3. Then, in the monitoring information 207, the shooting position specifying unit 108 associates the estimated time t2 positioning information 206 with the time t2 monitoring image 203, and associates the estimated time t2 positioning information 206 with the time t3 monitoring image 203. Correspond to information 206.

これにより、監視動画のフレーム周期と、GNSS信号による測位周期とが異なる場合であっても、各監視画像203に測位情報206を対応付けることができる。 As a result, the positioning information 206 can be associated with each surveillance image 203 even when the frame cycle of the surveillance video and the positioning cycle based on the GNSS signal are different.

<測位精度が不十分な場合>
車両1がトンネル又は地下等を走行している間、GNSS信号を受信できないため、測位情報生成部106は、その間の測位情報206を生成できない。したがって、監視情報207において、車両1がトンネル又は地下等を走行している間に撮影された監視画像203には、測位情報206が対応付けられない場合がある。この場合、測位情報206からは監視画像203の撮影位置を特定することができない。
<When positioning accuracy is insufficient>
Since the GNSS signal cannot be received while the vehicle 1 is traveling in a tunnel, underground, or the like, the positioning information generation unit 106 cannot generate the positioning information 206 during that time. Therefore, in the monitoring information 207, the positioning information 206 may not be associated with the monitoring image 203 taken while the vehicle 1 is traveling in a tunnel, underground, or the like. In this case, the shooting position of the monitoring image 203 cannot be specified from the positioning information 206.

また、車両1が都市部又は山間部等を走行している間、GNSS信号は受信できるもののRTK信号を受信できなかったり、GNSS信号の受信精度が不十分であったりして、生成された監視情報207の測位精度が不十分な場合がある。したがって、監視情報207において、車両1が都市部又は山間部等を走行している間に撮影された監視画像203に対応付けられている測位情報206は、測位精度が不十分である場合がある。この場合、測位情報206から特定した監視画像203の撮影位置は、実際の撮影位置から大きくずれていることがある。 Further, while the vehicle 1 is traveling in an urban area or a mountainous area, the GNSS signal can be received but the RTK signal cannot be received, or the reception accuracy of the GNSS signal is insufficient. The positioning accuracy of information 207 may be insufficient. Therefore, in the monitoring information 207, the positioning information 206 associated with the monitoring image 203 taken while the vehicle 1 is traveling in an urban area, a mountainous area, or the like may have insufficient positioning accuracy. .. In this case, the shooting position of the monitoring image 203 specified from the positioning information 206 may be significantly deviated from the actual shooting position.

そこで、撮影位置特定部108は、監視情報207において、測位情報206が対応付けられていない、あるいは、測位精度が不十分(所定の閾値未満)な測位情報206が対応付けられている監視画像203については、当該監視画像203の撮影時刻と同時刻に撮影された距離標画像204及び風景画像205のうちの少なくとも1つを用いて、当該監視画像203の撮影位置を特定する。 Therefore, the photographing position specifying unit 108 is associated with the monitoring image 203 in which the positioning information 206 is not associated with the monitoring information 207, or the positioning information 206 with insufficient positioning accuracy (less than a predetermined threshold value) is associated with the monitoring information 207. The shooting position of the surveillance image 203 is specified by using at least one of the distance marker image 204 and the landscape image 205 taken at the same time as the shooting time of the surveillance image 203.

例えば、撮影位置特定部108は、次のように、距離標画像204から撮影位置を特定する。すなわち、撮影位置特定部108は、監視画像203の撮影時刻と同時刻に撮影された距離標画像204に対して文字認識を行い、距離標の文字を読み取る。撮影位置特定部108は、その読み取った距離標の文字から、その距離標が示す営業キロを特定する。撮影位置特定部108は、監視情報207において、その距離標画像204の撮影時刻と同時刻に撮影された監視画像203に対して、その特定した営業キロを対応付ける。 For example, the shooting position specifying unit 108 specifies the shooting position from the distance marker image 204 as follows. That is, the shooting position specifying unit 108 performs character recognition on the distance marker image 204 shot at the same time as the shooting time of the monitoring image 203, and reads the characters of the distance marker. The shooting position specifying unit 108 identifies the business kilometer indicated by the distance marker from the characters of the read distance marker. In the monitoring information 207, the shooting position specifying unit 108 associates the specified business kilometer with the monitoring image 203 shot at the same time as the shooting time of the distance marker image 204.

例えば、撮影位置特定部108は、次のように、風景画像205から撮影位置を特定する。すなわち、撮影位置特定部108は、監視画像203の撮影時刻と同時刻に撮影された風景画像205に対して物体認識を行い、その物体を認識する。撮影位置特定部108は、認識した物体と当該物体が存在する位置との対応関係を有する所定のデータベースに、その認識した物体が存在する位置を問い合わせ、その物体が存在する位置を得る。撮影位置特定部108は、監視情報207において、その風景画像205の撮影時刻と同時刻に撮影された監視画像203に、その物体が存在する位置の営業キロを対応付ける。風景画像に撮影され、位置を特定し得る物体の例として、トンネル、橋りょう、駅舎、店舗、看板、標識、橋、ランドマークが挙げられる。 For example, the shooting position specifying unit 108 specifies the shooting position from the landscape image 205 as follows. That is, the shooting position specifying unit 108 recognizes an object on the landscape image 205 shot at the same time as the shooting time of the monitoring image 203, and recognizes the object. The photographing position specifying unit 108 inquires of a predetermined database having a correspondence relationship between the recognized object and the position where the object exists, and obtains the position where the recognized object exists. In the monitoring information 207, the photographing position specifying unit 108 associates the operating kilometer at the position where the object exists with the monitoring image 203 photographed at the same time as the photographing time of the landscape image 205. Examples of objects that can be photographed and located in landscape images include tunnels, bridges, station buildings, stores, signs, signs, bridges, and landmarks.

例えば、撮影位置特定部108は、UI処理部109と連携して、次のように、風景画像205から撮影位置を特定する。すなわち、UI処理部109は、監視画像203の撮影時刻と同時刻に撮影された風景画像205を表示し、保守作業者からその風景画像205が示す位置の入力を受け付ける。保守作業者は、表示された風景画像205を見て、その風景画像205が撮影された位置を入力する。撮影位置特定部108は、監視情報207において、その風景画像205の撮影時刻と同時刻に撮影された監視画像203に、その入力された位置の営業キロを対応付ける。 For example, the shooting position specifying unit 108 specifies the shooting position from the landscape image 205 as follows in cooperation with the UI processing unit 109. That is, the UI processing unit 109 displays the landscape image 205 taken at the same time as the shooting time of the monitoring image 203, and receives the input of the position indicated by the landscape image 205 from the maintenance worker. The maintenance worker looks at the displayed landscape image 205 and inputs the position where the landscape image 205 was taken. In the monitoring information 207, the shooting position specifying unit 108 associates the business kilometer of the input position with the monitoring image 203 shot at the same time as the shooting time of the landscape image 205.

<監視画像の撮影位置を特定する処理>
図6は、監視画像203の撮影位置を特定する処理の一例を示すフローチャートである。
<Process to specify the shooting position of the surveillance image>
FIG. 6 is a flowchart showing an example of the process of specifying the shooting position of the surveillance image 203.

撮影位置特定部108は、監視情報207に含まれる複数の監視画像203の中から、監視画像203を1つ選択する(S101)。 The shooting position specifying unit 108 selects one of the monitoring images 203 from the plurality of monitoring images 203 included in the monitoring information 207 (S101).

撮影位置特定部108は、監視情報207においてS101にて選択された監視画像203と対応付けられている(つまり監視画像203の撮影時刻と同時刻に測定された)測位情報206を取得する(S102)。 The shooting position specifying unit 108 acquires the positioning information 206 associated with the monitoring image 203 selected in S101 in the monitoring information 207 (that is, measured at the same time as the shooting time of the monitoring image 203) (S102). ).

監視情報生成部107は、S102にて取得された測位情報206に含まれる測位精度が所定の閾値以上であるか否かを判定する(S103)。 The monitoring information generation unit 107 determines whether or not the positioning accuracy included in the positioning information 206 acquired in S102 is equal to or higher than a predetermined threshold value (S103).

測位精度が閾値以上である場合(S103:YES)、撮影位置特定部108は、S102にて取得された測位情報206の測位座標における営業キロを特定する(S104)。そして、S112の処理が実行される。 When the positioning accuracy is equal to or higher than the threshold value (S103: YES), the shooting position specifying unit 108 specifies the business kilometer in the positioning coordinates of the positioning information 206 acquired in S102 (S104). Then, the process of S112 is executed.

測位精度が閾値未満である場合、又は、S101にて選択された監視画像203に測位情報206が対応付けられていない場合(S103:NO)、撮影位置特定部108は、次の処理を行う。すなわち、撮影位置特定部108は、監視情報207においてS101にて選択された監視画像203と対応付けられている(つまり監視画像203の撮影時刻と同時刻に撮影された)距離標画像204を取得する(S105)。 When the positioning accuracy is less than the threshold value, or when the positioning information 206 is not associated with the monitoring image 203 selected in S101 (S103: NO), the photographing position specifying unit 108 performs the following processing. That is, the shooting position specifying unit 108 acquires the distance marker image 204 associated with the monitoring image 203 selected in S101 in the monitoring information 207 (that is, taken at the same time as the shooting time of the monitoring image 203). (S105).

撮影位置特定部108は、S105にて選択された距離標画像204に対して距離標の文字認識を行う(S106)。撮影位置特定部108は、S106にて距離標の文字認識に成功したか否かを判定する(S107)。 The shooting position specifying unit 108 performs character recognition of the distance marker for the distance marker image 204 selected in S105 (S106). The shooting position specifying unit 108 determines whether or not the character recognition of the distance marker is successful in S106 (S107).

距離標の文字認識に成功した場合(S107:YES)、撮影位置特定部108は、認識した距離標の文字が示す営業キロを特定する(S108)。そして、S112の処理が実行される。 When the character recognition of the distance marker is successful (S107: YES), the shooting position specifying unit 108 specifies the business kilometer indicated by the recognized character of the distance marker (S108). Then, the process of S112 is executed.

距離標の文字認識に失敗した場合(S107:NO)、撮影位置特定部108は、UI処理部109と連携し、次の処理を行う。すなわち、UI処理部109は、保守用UI400として、監視情報207においてS101にて選択された監視画像203と対応付けられている(つまり監視画像203の撮影時刻と同時刻に撮影された)風景画像205を表示し、その風景画像205が示す位置の入力を受け付ける(S109)。 When the character recognition of the distance marker fails (S107: NO), the shooting position specifying unit 108 cooperates with the UI processing unit 109 to perform the following processing. That is, the UI processing unit 109 is associated with the monitoring image 203 selected in S101 in the monitoring information 207 as the maintenance UI 400 (that is, the landscape image taken at the same time as the shooting time of the monitoring image 203). 205 is displayed, and the input of the position indicated by the landscape image 205 is accepted (S109).

保守作業者は、表示された風景画像205が示す位置情報を入力する(S110)。撮影位置特定部108は、S110で入力された位置の営業キロを特定する(S111)。そして、S112の処理が実行される。 The maintenance worker inputs the position information indicated by the displayed landscape image 205 (S110). The shooting position specifying unit 108 specifies the business kilometer of the position input in S110 (S111). Then, the process of S112 is executed.

撮影位置特定部108は、監視情報207において、S101にて選択された監視画像203に、S104、S108又はS111で特定した営業キロを対応付ける(S112)。監視装置100は、監視情報207に含まれる各監視画像203について上述した処理を実行した後、本処理を終了する。 In the monitoring information 207, the shooting position specifying unit 108 associates the monitoring image 203 selected in S101 with the business kilometer specified in S104, S108, or S111 (S112). The monitoring device 100 executes the above-described processing for each monitoring image 203 included in the monitoring information 207, and then ends this processing.

以上の処理によれば、撮影位置特定部108は、監視画像203に対応付けられている測位情報206の測位精度が十分な場合、その測位情報206を用いて監視画像203の撮影位置の営業キロを特定する。また、撮影位置特定部108は、監視画像203に対応付けられている測位情報206の測位精度が不十分な場合、あるいは、監視画像203に測位情報206が対応付けられてない場合、監視画像203に対応付けられている距離標画像204又は風景画像205を用いて監視画像203の撮影位置の営業キロを特定する。これにより、監視画像203が何れの場所で撮影されたものであっても、その監視画像203の撮影位置の営業キロを特定することができる。 According to the above processing, when the positioning accuracy of the positioning information 206 associated with the monitoring image 203 is sufficient, the shooting position specifying unit 108 uses the positioning information 206 to operate the shooting position of the monitoring image 203. To identify. Further, when the positioning accuracy of the positioning information 206 associated with the monitoring image 203 is insufficient, or when the positioning information 206 is not associated with the monitoring image 203, the photographing position specifying unit 108 monitors the monitoring image 203. The business kilometer of the shooting position of the monitoring image 203 is specified by using the distance marker image 204 or the landscape image 205 associated with the above. Thereby, regardless of the place where the surveillance image 203 is photographed, it is possible to specify the business kilometer of the imaging position of the surveillance image 203.

<保守用UIの表示>
図7は、本実施の形態に係る保守用UI400の表示例を示す図である。
<Display of maintenance UI>
FIG. 7 is a diagram showing a display example of the maintenance UI 400 according to the present embodiment.

UI処理部109は、図7に示すような保守用UI400の画像を、出力装置1005の一例であるディスプレイに表示する。保守用UI400は、監視画像領域401、距離標画像領域402、風景画像領域403、情報領域404、地図領域405、前ボタン406、次ボタン407、要保守ボタン408、及び、メモボタン409を含む。 The UI processing unit 109 displays an image of the maintenance UI 400 as shown in FIG. 7 on a display which is an example of the output device 1005. The maintenance UI 400 includes a monitoring image area 401, a distance marker image area 402, a landscape image area 403, an information area 404, a map area 405, a front button 406, a next button 407, a maintenance-required button 408, and a memo button 409.

監視画像領域401には、監視情報207に含まれる監視画像203の1つが表示される。 In the surveillance image area 401, one of the surveillance images 203 included in the surveillance information 207 is displayed.

距離標画像領域402には、監視情報207において監視画像領域401に表示された監視画像203と対応付けられている距離標画像204が表示される。 In the distance marker image area 402, the distance marker image 204 associated with the monitoring image 203 displayed in the monitoring image area 401 in the monitoring information 207 is displayed.

風景画像領域403には、監視情報207において監視画像領域401に表示された監視画像203と対応付けられている風景画像205が表示される。 In the landscape image area 403, the landscape image 205 associated with the monitoring image 203 displayed in the monitoring image area 401 in the monitoring information 207 is displayed.

情報領域404には、監視画像領域401に表示された監視画像203に関する情報が表示される。例えば、監視画像203のファイル名、撮影日、撮影時刻、撮影者、メモ、営業キロ、撮影位置を示す緯度及び経度が表示される。UI処理部109は、監視情報207を参照して、情報領域404にこれらの情報を表示してよい。 In the information area 404, information about the monitoring image 203 displayed in the monitoring image area 401 is displayed. For example, the file name of the surveillance image 203, the shooting date, the shooting time, the photographer, the memo, the business kilometer, and the latitude and longitude indicating the shooting position are displayed. The UI processing unit 109 may display the information in the information area 404 with reference to the monitoring information 207.

地図領域405には、監視画像領域401に表示された監視画像203の撮影位置の周辺地図と、その撮影位置を示すピン410とが表示される。 In the map area 405, a map around the shooting position of the monitoring image 203 displayed in the monitoring image area 401 and a pin 410 indicating the shooting position are displayed.

なお、図6のS110で述べた、風景画像205が示す位置の入力を受け付けるUIは、保守用UI400と同様であってよい。この場合、保守作業者は、風景画像領域403に表示された風景画像205を見て、その風景が示す地図上の位置にピン410を打つことにより、風景画像205が示す位置情報を入力できる。 The UI for accepting the input of the position indicated by the landscape image 205 described in S110 of FIG. 6 may be the same as the maintenance UI 400. In this case, the maintenance worker can input the position information indicated by the landscape image 205 by looking at the landscape image 205 displayed in the landscape image area 403 and hitting the pin 410 at the position on the map indicated by the landscape.

前ボタン406が押下されると、UI処理部109は、監視情報207において1つ前の撮影時刻に対応付けられている監視画像203、距離標画像204、及び、風景画像205を、監視画像領域401、距離標画像領域402、及び、風景画像領域403にそれぞれ表示する。また、UI処理部109は、1つ前の撮影時刻に対応付けられている監視画像203の撮影位置の周辺地図と、その撮影位置を示すピン410とを地図領域405に表示する。 When the front button 406 is pressed, the UI processing unit 109 displays the monitoring image 203, the distance marker image 204, and the landscape image 205 associated with the previous shooting time in the monitoring information 207 in the monitoring image area. It is displayed in 401, a distance marker image area 402, and a landscape image area 403, respectively. Further, the UI processing unit 109 displays a map around the shooting position of the monitoring image 203 associated with the previous shooting time and a pin 410 indicating the shooting position in the map area 405.

次ボタン407が押下されると、UI処理部109は、監視情報207において1つ後の撮影時刻に対応付けられている監視画像203、距離標画像204、及び、風景画像205を、監視画像領域401、距離標画像領域402、及び、風景画像領域403にそれぞれ表示する。また、UI処理部109は、1つ後の撮影時刻に対応付けられている監視画像203の撮影位置の周辺地図と、その撮影位置を示すピン410とを地図領域405に表示する。 When the next button 407 is pressed, the UI processing unit 109 displays the monitoring image 203, the distance marker image 204, and the landscape image 205 associated with the next shooting time in the monitoring information 207 in the monitoring image area. It is displayed in 401, a distance marker image area 402, and a landscape image area 403, respectively. Further, the UI processing unit 109 displays a map around the shooting position of the monitoring image 203 associated with the next shooting time and a pin 410 indicating the shooting position in the map area 405.

要保守ボタン408が押下されると、UI処理部109は、監視情報207において、表示中の監視画像203と対応付けられている保守要否フラグを「必要」に変更する。 When the maintenance-required button 408 is pressed, the UI processing unit 109 changes the maintenance-required flag associated with the displayed monitoring image 203 to "necessary" in the monitoring information 207.

メモボタン409が押下されると、UI処理部109は、メモ入力用UI(図示しない)を表示する。加えて、UI処理部109は、監視情報207において、表示中の監視画像203と対応付けられているメモの項目に、メモ入力用UIに入力された内容を登録する。 When the memo button 409 is pressed, the UI processing unit 109 displays a memo input UI (not shown). In addition, the UI processing unit 109 registers the content input to the memo input UI in the memo item associated with the monitored image 203 being displayed in the monitoring information 207.

例えば、保守作業者は、次ボタン407を押下して、表示させる監視画像203を切り替えていき、保守対象物に問題が無いか否かを確認する。保守作業者は、保守対象物に問題がある場合、要保守ボタン408を押下する。また、保守作業者は、保守対象物にコメントを付しておきたい場合、メモボタン409を押下してメモを入力する。 For example, the maintenance worker presses the next button 407 to switch the monitoring image 203 to be displayed, and confirms whether or not there is a problem with the maintenance object. When there is a problem with the maintenance object, the maintenance worker presses the maintenance-required button 408. Further, when the maintenance worker wants to add a comment to the maintenance object, he / she presses the memo button 409 and inputs a memo.

UI処理部109は、検索機能を提供してもよい。例えば、UI処理部109は、監視情報207の中から、営業キロが対応付けられていない監視画像203を検索して、保守用UI400に表示してもよい。これにより、保守作業者は、風景画像205が示す位置の入力を効率的に行うことができる。また、例えば、UI処理部109は、監視情報207の中から、保守要否フラグ「必要」に対応付けられている監視画像203を検索して、保守用UI400に表示してもよい。これにより、保守作業者は、保守が必要な保守対象物の監視画像203を効率的に確認できる。 The UI processing unit 109 may provide a search function. For example, the UI processing unit 109 may search for the monitoring image 203 to which the business kilometer is not associated from the monitoring information 207 and display it on the maintenance UI 400. As a result, the maintenance worker can efficiently input the position indicated by the landscape image 205. Further, for example, the UI processing unit 109 may search the monitoring image 203 associated with the maintenance necessity flag "necessary" from the monitoring information 207 and display it on the maintenance UI 400. As a result, the maintenance worker can efficiently confirm the monitoring image 203 of the maintenance target object that requires maintenance.

<変形例及び補足>
情報格納部101には、車両1に備えたカメラ10A、10B、10Cから撮影した監視画像203、距離標画像204、風景画像205に加えて、保守作業者が所持するカメラから撮影した監視画像203、距離標画像204、風景画像205も格納されてよい。この場合、監視情報生成部107は、保守作業者が撮影した監視画像203、距離標画像204、風景画像205についても、監視情報207に加えてよい。保守作業者が所持するカメラは、カメラ付きのスマートフォン又はタブレット端末であってよい。あるいは、保守作業者が所持するカメラは、保守作業者がかぶっているヘルメットに装着されたものであってもよい。
<Modifications and supplements>
In the information storage unit 101, in addition to the surveillance image 203, the distance marker image 204, and the landscape image 205 taken from the cameras 10A, 10B, and 10C provided in the vehicle 1, the surveillance image 203 taken from the camera owned by the maintenance worker , Distance marker image 204, landscape image 205 may also be stored. In this case, the monitoring information generation unit 107 may also add the monitoring image 203, the distance marker image 204, and the landscape image 205 taken by the maintenance worker to the monitoring information 207. The camera possessed by the maintenance worker may be a smartphone with a camera or a tablet terminal. Alternatively, the camera possessed by the maintenance worker may be attached to the helmet worn by the maintenance worker.

上述では測位にRTK信号も使用しているが、RTK信号を使用せずに、GNSS信号のみで測位を行ってもよい。あるいは、監視装置100は、GNSS信号及びRTK信号のいずれも使用せず、距離標画像204又は風景画像205を用いて、監視画像203の撮影位置を特定してもよい。 In the above description, the RTK signal is also used for positioning, but positioning may be performed only by the GNSS signal without using the RTK signal. Alternatively, the monitoring device 100 may specify the shooting position of the monitoring image 203 by using the distance marker image 204 or the landscape image 205 without using either the GNSS signal or the RTK signal.

上述では、保守対象を鉄道とした場合について説明したが、保守対象は鉄道に限られない。上述した内容は、一般道路又は高速道路といった車両が走行する場所に適応することができる。例えば、上述した内容を高速道路に適応することにより、高速道路上のトンネル、路肩又は崩落防止壁といった保守のために撮影した画像の撮影位置を精度良く特定できる。 In the above, the case where the maintenance target is a railway has been described, but the maintenance target is not limited to the railway. The above-mentioned contents can be applied to a place where a vehicle travels, such as a general road or a highway. For example, by applying the above-mentioned contents to a highway, it is possible to accurately specify the shooting position of an image taken for maintenance such as a tunnel, a shoulder or a collapse prevention wall on the highway.

また、上述では、GNSS又はRTKを用いて位置を特定する場合について説明したが、路線名及び営業キロの情報に基づいて、位置を特定することもできる。この構成によれば、距離標等から認識した営業キロと路線名とから位置を正確に特定できる。なお、路線名は事前に登録しておき、距離標からは営業キロを認識するような構成でもよい。 Further, in the above description, the case of specifying the position by using GNSS or RTK has been described, but the position can also be specified based on the information of the route name and the business kilometer. According to this configuration, the position can be accurately specified from the business kilometers recognized from the distance marker and the route name. The route name may be registered in advance so that the business kilometer can be recognized from the distance marker.

<ハードウェア構成>
上述した監視装置100の機能ブロックは、コンピュータプログラムにより実現されてもよい。図8は、本実施の形態に係る監視装置100の機能ブロックをコンピュータプログラムにより実現するコンピュータのハードウェア構成を示す図である。なお、コンピュータは、情報処理装置と読み替えられてもよい。
<Hardware configuration>
The functional block of the monitoring device 100 described above may be realized by a computer program. FIG. 8 is a diagram showing a hardware configuration of a computer that realizes a functional block of the monitoring device 100 according to the present embodiment by a computer program. The computer may be read as an information processing device.

コンピュータ1000は、プロセッサ1001、メモリ1002、ストレージ1003、入力装置1004、出力装置1005、通信装置1006、GPU(Graphics Processing Unit)1007、読取装置1008、及び、バス1009を備える。 The computer 1000 includes a processor 1001, a memory 1002, a storage 1003, an input device 1004, an output device 1005, a communication device 1006, a GPU (Graphics Processing Unit) 1007, a reading device 1008, and a bus 1009.

各装置1001~1008は、バス1009に接続され、バス1009を介して双方向にデータを送受信できる。 Each of the devices 1001 to 1008 is connected to the bus 1009 and can transmit and receive data in both directions via the bus 1009.

プロセッサ1001は、メモリ1002に記憶されたコンピュータプログラムを実行し、上述した機能ブロックを実現する装置である。プロセッサ1001は、制御部と読み替えられてもよい。プロセッサ1001の例として、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、コントローラ、LSI(large scale integration)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field-Programmable Gate Array)が挙げられる。 The processor 1001 is a device that executes a computer program stored in the memory 1002 and realizes the above-mentioned functional block. The processor 1001 may be read as a control unit. As an example of the processor 1001, CPU (Central Processing Unit), MPU (Micro Processing Unit), controller, LSI (large scale integration), ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), FPGA (Field-Programmable Gate) Array).

メモリ1002は、コンピュータ1000が取り扱うコンピュータプログラム及びデータを記憶する装置である。メモリ1002は、記憶部と読み替えられてもよい。メモリ1002は、ROM(Real-Only Memory)及びRAM(Random Access Memory)を含んでよい。RAMの例として、DRAM(Dynamic Random Access Memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)が挙げられる。 The memory 1002 is a device for storing computer programs and data handled by the computer 1000. The memory 1002 may be read as a storage unit. The memory 1002 may include a ROM (Real-Only Memory) and a RAM (Random Access Memory). Examples of RAM include DRAM (Dynamic Random Access Memory), MRAM (Magnetoresistive Random Access Memory), and FeRAM (Ferroelectric Random Access Memory).

ストレージ1003は、不揮発性記憶媒体で構成され、コンピュータ1000が取り扱うコンピュータプログラム及びデータを記憶する装置である。ストレージ1003の例として、HDD(Hard Disk Drive)、SSD(Solid State Drive)が挙げられる。 The storage 1003 is a device composed of a non-volatile storage medium and storing computer programs and data handled by the computer 1000. Examples of the storage 1003 include HDD (Hard Disk Drive) and SSD (Solid State Drive).

入力装置1004は、プロセッサ1001に入力するデータを受け付ける装置である。入力装置1004の例として、キーボード、マウス、タッチパッド、マイクが挙げられる。 The input device 1004 is a device that receives data to be input to the processor 1001. Examples of the input device 1004 include a keyboard, a mouse, a touch pad, and a microphone.

出力装置1005は、プロセッサ1001が生成したデータを出力する装置である。出力装置1005の例として、ディスプレイ、スピーカーが挙げられる。 The output device 1005 is a device that outputs data generated by the processor 1001. Examples of the output device 1005 include a display and a speaker.

通信装置1006は、サーバに代表される他の装置と、通信ネットワークを介して、データを送受信する装置である。通信装置1006は、データを送信する送信部とデータを受信する受信部とを含んでよい。通信装置1006は、有線通信及び無線通信の何れに対応してもよい。有線通信の例として、Ethernet(登録商標)が挙げられる。無線通信の例として、IEEE802.11、Bluetooth、LTE、4G、5Gが挙げられる。 The communication device 1006 is a device that transmits / receives data to / from another device represented by a server via a communication network. The communication device 1006 may include a transmitting unit for transmitting data and a receiving unit for receiving data. The communication device 1006 may support either wired communication or wireless communication. An example of wired communication is Ethernet®. Examples of wireless communication include 802.11, Bluetooth, LTE, 4G, and 5G.

GPU1007は、画像描写を高速に処理する装置である。なお、GPU1007は、AI(Artificial Intelligence)に関する処理(例えばディープラーニング)や、距離標等に対する文字認識に関する処理に利用されてもよい。 The GPU 1007 is a device that processes image depiction at high speed. The GPU 1007 may be used for processing related to AI (Artificial Intelligence) (for example, deep learning) and processing related to character recognition for a distance marker or the like.

読取装置1008は、DVD-ROM(Digital Versatile Disk Read Only Memory)又はUSBメモリといった外部の記録媒体からデータを読み取る装置である。 The reading device 1008 is a device that reads data from an external recording medium such as a DVD-ROM (Digital Versatile Disk Read Only Memory) or a USB memory.

なお、監視装置100の機能ブロックは、集積回路であるLSIとして実現されてもよい。これらの機能ブロックは、個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。 The functional block of the monitoring device 100 may be realized as an LSI which is an integrated circuit. These functional blocks may be individually integrated into one chip, or may be integrated into one chip so as to include a part or all of them. Although it is referred to as LSI here, it may be referred to as IC, system LSI, super LSI, or ultra LSI depending on the degree of integration. Furthermore, if an integrated circuit technology that replaces an LSI appears due to advances in semiconductor technology or another technology derived from it, it is naturally possible to integrate functional blocks using that technology.

なお、本実施の形態の映像レコーダ20は、カメラ10A、10B、10Cから監視動画、距離標動画、及び、風景動画をそれぞれ受信したが、映像レコーダ20は、カメラ10A、10B、10Cから監視画像、距離標画像、及び、風景画像をそれぞれ受信してもよい。この構成によれば、動画から画像を抽出する処理が不要となる。 The video recorder 20 of the present embodiment receives the surveillance video, the distance marker video, and the landscape video from the cameras 10A, 10B, and 10C, respectively, but the video recorder 20 receives the surveillance images from the cameras 10A, 10B, and 10C. , Distance marker image, and landscape image may be received respectively. This configuration eliminates the need for processing to extract images from moving images.

以上、添付図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した実施の形態における各構成要素を任意に組み合わせてもよい。 Although the embodiments have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is clear that a person skilled in the art can come up with various modifications, modifications, substitutions, additions, deletions, and even examples within the scope of the claims. It is understood that it belongs to the technical scope of the present disclosure. Further, each component in the above-described embodiment may be arbitrarily combined as long as the gist of the invention is not deviated.

本開示の技術は、鉄道を含む、交通インフラ全般の監視及び保守に有用である。 The techniques disclosed in the present disclosure are useful for monitoring and maintaining transportation infrastructure in general, including railways.

1 車両
2 監視システム
3 GNSS衛星
4 無線基地局
5 時刻サーバ
10A、10B、10C カメラ
20 映像レコーダ
30 GNSS受信装置
40 RTK受信装置
100 監視装置
101 情報格納部
102 GNSS情報受信部
103 補正情報受信部
104 時計同期部
105 画像取得部
106 測位情報生成部
107 監視情報生成部
108 撮影位置特定部
109 UI処理部
201 GNSS情報
202 補正情報
203 監視画像
204 距離標画像
205 風景画像
206 測位情報
207 監視情報
400 保守用UI
401 監視画像領域
402 距離標画像領域
403 風景画像領域
404 情報領域
405 地図領域
406 前ボタン
407 次ボタン
408 要保守ボタン
409 メモボタン
410 ピン
1000 コンピュータ
1001 プロセッサ
1002 メモリ
1003 ストレージ
1004 入力装置
1005 出力装置
1006 通信装置
1007 GPU
1008 読取装置
1009 バス
1 Vehicle 2 Surveillance system 3 GNSS satellite 4 Radio base station 5 Time server 10A, 10B, 10C Camera 20 Video recorder 30 GNSS receiver 40 RTK receiver 100 Monitoring device 101 Information storage 102 GNSS information receiver 103 Correction information receiver 104 Clock synchronization unit 105 Image acquisition unit 106 Positioning information generation unit 107 Monitoring information generation unit 108 Shooting position specification unit 109 UI processing unit 201 GNSS information 202 Correction information 203 Monitoring image 204 Distance marker image 205 Landscape image 206 Positioning information 207 Monitoring information 400 Maintenance UI for
401 Surveillance image area 402 Distance target image area 403 Landscape image area 404 Information area 405 Map area 406 Front button 407 Next button 408 Maintenance required button 409 Memo button 410 pin 1000 Computer 1001 Processor 1002 Memory 1003 Storage 1004 Input device 1005 Output device 1006 Communication Equipment 1007 GPU
1008 Reader 1009 Bus

Claims (8)

車両の移動経路上の保守対象物を監視する監視装置であって、
前記保守対象物を撮影した第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納させる制御部、を備え、
前記制御部は、前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、
前記測位情報は、前記測位の精度を示す測位精度を含み、
前記制御部は、
前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、
前記測位精度が前記閾値未満の場合、前記第2画像に基づいて前記第1画像の撮影位置を特定する、
監視装置。
A monitoring device that monitors maintenance objects on the vehicle's travel path.
A control unit for storing the first image of the maintenance object and the second image of the periphery of the shooting position of the first image in the information storage unit in association with each other is provided.
The control unit associates the first image with the positioning information obtained by positioning the shooting position of the first image in addition to the second image.
The positioning information includes positioning accuracy indicating the accuracy of the positioning.
The control unit
When the positioning accuracy is equal to or higher than a predetermined threshold value, the shooting position of the first image is specified based on the positioning information.
When the positioning accuracy is less than the threshold value, the shooting position of the first image is specified based on the second image.
Monitoring device.
車両の移動経路上の保守対象物を監視する監視装置であって、
前記保守対象物を撮影した第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納させる制御部、を備え、
前記制御部は、前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、
前記測位情報は、前記測位の精度を示す測位精度を含み、
前記制御部は、
前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、
前記測位精度が前記閾値未満の場合、前記第2画像を表示させ、ユーザから前記第2画像の撮影位置の入力を受付ける、
監視装置。
A monitoring device that monitors maintenance objects on the vehicle's travel path.
A control unit for storing the first image of the maintenance object and the second image of the periphery of the shooting position of the first image in the information storage unit in association with each other is provided.
The control unit associates the first image with the positioning information obtained by positioning the shooting position of the first image in addition to the second image.
The positioning information includes positioning accuracy indicating the accuracy of the positioning.
The control unit
When the positioning accuracy is equal to or higher than a predetermined threshold value, the shooting position of the first image is specified based on the positioning information.
When the positioning accuracy is less than the threshold value, the second image is displayed and the user accepts the input of the shooting position of the second image.
Monitoring device.
車両の移動経路上の保守対象物を監視する監視システムであって、
前記保守対象物を撮影して第1画像を生成する第1のカメラと、
前記第1画像の撮影位置の周辺を撮影して第2画像を生成する第2のカメラと、
前記保守対象物を撮影した前記第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納し、
測位の精度を示す測位精度を含む前記第1画像の撮影位置を測位した測位情報を対応付け、
前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、
前記測位精度が前記閾値未満の場合、前記第2画像に基づいて前記第1画像の撮影位置を特定する監視装置と、を備える、
監視システム。
A monitoring system that monitors maintenance objects on the vehicle's travel path.
A first camera that captures the maintenance object and generates a first image,
A second camera that captures the periphery of the shooting position of the first image to generate a second image, and
The first image in which the maintenance object is photographed and the second image in which the periphery of the photographing position of the first image is photographed are associated and stored in the information storage unit.
Corresponding the positioning information for positioning the shooting position of the first image including the positioning accuracy indicating the positioning accuracy,
When the positioning accuracy is equal to or higher than a predetermined threshold value, the shooting position of the first image is specified based on the positioning information.
When the positioning accuracy is less than the threshold value, a monitoring device for specifying the shooting position of the first image based on the second image is provided.
Monitoring system.
車両の移動経路上の保守対象物を監視する監視システムであって、
前記保守対象物を撮影して第1画像を生成する第1のカメラと、
前記第1画像の撮影位置の周辺を撮影して第2画像を生成する第2のカメラと、
前記保守対象物を撮影した前記第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納し、
測位の精度を示す測位精度を含む前記第1画像の撮影位置を測位した測位情報を対応付け、
前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、
前記測位精度が前記閾値未満の場合、前記第2画像前記第2画像を表示させ、ユーザから前記第2画像の撮影位置の入力を受付ける監視装置と、を備える、
監視システム。
A monitoring system that monitors maintenance objects on the vehicle's travel path.
A first camera that captures the maintenance object and generates a first image,
A second camera that captures the periphery of the shooting position of the first image to generate a second image, and
The first image in which the maintenance object is photographed and the second image in which the periphery of the photographing position of the first image is photographed are associated and stored in the information storage unit.
Corresponding the positioning information for positioning the shooting position of the first image including the positioning accuracy indicating the positioning accuracy,
When the positioning accuracy is equal to or higher than a predetermined threshold value, the shooting position of the first image is specified based on the positioning information.
When the positioning accuracy is less than the threshold value, the second image is provided with a monitoring device that displays the second image and accepts an input of a shooting position of the second image from a user.
Monitoring system.
車両の移動経路上の保守対象物を監視する監視方法であって、
前記保守対象物を撮影した第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納し、
前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、
前記測位情報は、前記測位の精度を示す測位精度を含み、
前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、
前記測位精度が前記閾値未満の場合、前記第2画像に基づいて前記第1画像の撮影位置を特定する、
監視方法。
It is a monitoring method that monitors maintenance objects on the vehicle's movement path.
The first image in which the maintenance object is photographed and the second image in which the periphery of the photographing position of the first image is photographed are associated and stored in the information storage unit.
In addition to the first image and the second image, positioning information for positioning the shooting position of the first image is associated with each other.
The positioning information includes positioning accuracy indicating the accuracy of the positioning.
When the positioning accuracy is equal to or higher than a predetermined threshold value, the shooting position of the first image is specified based on the positioning information.
When the positioning accuracy is less than the threshold value, the shooting position of the first image is specified based on the second image.
Monitoring method.
車両の移動経路上の保守対象物を監視する監視方法であって、
前記保守対象物を撮影した第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納し、
前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、
前記測位情報は、前記測位の精度を示す測位精度を含み、
前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、
前記測位精度が前記閾値未満の場合、前記第2画像を表示させ、ユーザから前記第2画像の撮影位置の入力を受付ける、
監視方法。
It is a monitoring method that monitors maintenance objects on the vehicle's movement path.
The first image in which the maintenance object is photographed and the second image in which the periphery of the photographing position of the first image is photographed are associated and stored in the information storage unit.
In addition to the first image and the second image, positioning information for positioning the shooting position of the first image is associated with each other.
The positioning information includes positioning accuracy indicating the accuracy of the positioning.
When the positioning accuracy is equal to or higher than a predetermined threshold value, the shooting position of the first image is specified based on the positioning information.
When the positioning accuracy is less than the threshold value, the second image is displayed and the user accepts the input of the shooting position of the second image.
Monitoring method.
車両の移動経路上の保守対象物を監視するためのコンピュータプログラムであって、
前記保守対象物を撮影した第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納させ、
前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、
前記測位情報は、前記測位の精度を示す測位精度を含み、
前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、
前記測位精度が前記閾値未満の場合、前記第2画像に基づいて前記第1画像の撮影位置を特定する、
ことをコンピュータに実行させる、
コンピュータプログラム。
A computer program for monitoring maintenance objects on the vehicle's travel path.
The first image in which the maintenance object is photographed and the second image in which the periphery of the photographing position of the first image is photographed are associated and stored in the information storage unit.
In addition to the first image and the second image, positioning information for positioning the shooting position of the first image is associated with each other.
The positioning information includes positioning accuracy indicating the accuracy of the positioning.
When the positioning accuracy is equal to or higher than a predetermined threshold value, the shooting position of the first image is specified based on the positioning information.
When the positioning accuracy is less than the threshold value, the shooting position of the first image is specified based on the second image.
Let the computer do that,
Computer program.
車両の移動経路上の保守対象物を監視するためのコンピュータプログラムであって、
前記保守対象物を撮影した第1画像と、前記第1画像の撮影位置の周辺を撮影した第2画像とを対応付けて情報格納部に格納させ、
前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、
前記測位情報は、前記測位の精度を示す測位精度を含み、
前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、
前記測位精度が前記閾値未満の場合、前記第2画像を表示させ、ユーザから前記第2画像の撮影位置の入力を受付ける、
ことをコンピュータに実行させる、
コンピュータプログラム。
A computer program for monitoring maintenance objects on the vehicle's travel path.
The first image in which the maintenance object is photographed and the second image in which the periphery of the photographing position of the first image is photographed are associated and stored in the information storage unit.
In addition to the first image and the second image, positioning information for positioning the shooting position of the first image is associated with each other.
The positioning information includes positioning accuracy indicating the accuracy of the positioning.
When the positioning accuracy is equal to or higher than a predetermined threshold value, the shooting position of the first image is specified based on the positioning information.
When the positioning accuracy is less than the threshold value, the second image is displayed and the user accepts the input of the shooting position of the second image.
Let the computer do that,
Computer program.
JP2021198516A 2020-10-19 2021-12-07 Monitoring device, monitoring system, monitoring method, and computer program Active JP7417871B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021198516A JP7417871B2 (en) 2020-10-19 2021-12-07 Monitoring device, monitoring system, monitoring method, and computer program
JP2023180978A JP2024001239A (en) 2020-10-19 2023-10-20 Monitoring device, monitoring system, monitoring method, and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020175472A JP7117645B2 (en) 2020-10-19 2020-10-19 MONITORING DEVICE, MONITORING SYSTEM, MONITORING METHOD, AND COMPUTER PROGRAM
JP2021198516A JP7417871B2 (en) 2020-10-19 2021-12-07 Monitoring device, monitoring system, monitoring method, and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020175472A Division JP7117645B2 (en) 2020-10-19 2020-10-19 MONITORING DEVICE, MONITORING SYSTEM, MONITORING METHOD, AND COMPUTER PROGRAM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023180978A Division JP2024001239A (en) 2020-10-19 2023-10-20 Monitoring device, monitoring system, monitoring method, and computer program

Publications (2)

Publication Number Publication Date
JP2022067096A true JP2022067096A (en) 2022-05-02
JP7417871B2 JP7417871B2 (en) 2024-01-19

Family

ID=81389861

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020175472A Active JP7117645B2 (en) 2020-10-19 2020-10-19 MONITORING DEVICE, MONITORING SYSTEM, MONITORING METHOD, AND COMPUTER PROGRAM
JP2021198516A Active JP7417871B2 (en) 2020-10-19 2021-12-07 Monitoring device, monitoring system, monitoring method, and computer program
JP2023180978A Pending JP2024001239A (en) 2020-10-19 2023-10-20 Monitoring device, monitoring system, monitoring method, and computer program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020175472A Active JP7117645B2 (en) 2020-10-19 2020-10-19 MONITORING DEVICE, MONITORING SYSTEM, MONITORING METHOD, AND COMPUTER PROGRAM

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023180978A Pending JP2024001239A (en) 2020-10-19 2023-10-20 Monitoring device, monitoring system, monitoring method, and computer program

Country Status (1)

Country Link
JP (3) JP7117645B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015163107A1 (en) * 2014-04-25 2015-10-29 ソニー株式会社 Information processing device, information processing method, and computer program
JP2019048604A (en) * 2017-09-12 2019-03-28 西日本旅客鉄道株式会社 Inspection work support device, distance mark information management method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6821284B1 (en) 2020-03-24 2021-01-27 株式会社ファンクリエイト Road surface covering sheet and road surface covering sheet inspection method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015163107A1 (en) * 2014-04-25 2015-10-29 ソニー株式会社 Information processing device, information processing method, and computer program
JP2019048604A (en) * 2017-09-12 2019-03-28 西日本旅客鉄道株式会社 Inspection work support device, distance mark information management method, and program

Also Published As

Publication number Publication date
JP7117645B2 (en) 2022-08-15
JP7417871B2 (en) 2024-01-19
JP2024001239A (en) 2024-01-09
JP2022066880A (en) 2022-05-02

Similar Documents

Publication Publication Date Title
CN108413975B (en) Map acquisition method and system, cloud processor and vehicle
CN106462729B (en) Vehicle image data management system and method
US20200356108A1 (en) Information transmission method and client device
US8477067B2 (en) Vehicle localization system
US20130102335A1 (en) Mobile device, information processing device, location information acquisition method, location information acquisition system, and program
US11467001B2 (en) Adjustment value calculation method
CN104260762A (en) Precise positioning method and set of mine locomotives
US20200034637A1 (en) Real-Time Track Asset Recognition and Position Determination
US11335036B2 (en) Image synthesizing system and image synthesizing method
de Frutos et al. Using smartphones as a very low-cost tool for road inventories
JP2009083815A (en) Drive recorder device and accident analysis simulation device
JP2007206099A (en) Map creation support system
US20230257009A1 (en) Digital context-aware data collection
WO2013098980A1 (en) Information processing system, information processing device, information processing program, information recording medium and method for processing information
JP2002357557A (en) Control system of road, surrounding facility, and the like
CN109387218A (en) Mobile unit and road upkeep aided management system
CN111829546A (en) AR navigation system and equipment, and clock correction method
JP7117645B2 (en) MONITORING DEVICE, MONITORING SYSTEM, MONITORING METHOD, AND COMPUTER PROGRAM
JP2019087969A (en) Travel field investigation support device
CN106840181B (en) System and method for determining vehicle position
US20220165151A1 (en) Traffic jam information providing device, traffic jam information processing method, and recording medium
JP2021107803A (en) Tag position information management system, tag position registration system, tag position display system, tag position registration method, and tag position display method
CN215572911U (en) Portable non-contact image acquisition device
CN209357074U (en) A kind of track detecting positioning system combined based on NFC technique and machine vision
CN110267204A (en) A kind of arrival of subway automatic reminding method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231221

R151 Written notification of patent or utility model registration

Ref document number: 7417871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151