JP7117645B2 - MONITORING DEVICE, MONITORING SYSTEM, MONITORING METHOD, AND COMPUTER PROGRAM - Google Patents

MONITORING DEVICE, MONITORING SYSTEM, MONITORING METHOD, AND COMPUTER PROGRAM Download PDF

Info

Publication number
JP7117645B2
JP7117645B2 JP2020175472A JP2020175472A JP7117645B2 JP 7117645 B2 JP7117645 B2 JP 7117645B2 JP 2020175472 A JP2020175472 A JP 2020175472A JP 2020175472 A JP2020175472 A JP 2020175472A JP 7117645 B2 JP7117645 B2 JP 7117645B2
Authority
JP
Japan
Prior art keywords
image
monitoring
positioning
information
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020175472A
Other languages
Japanese (ja)
Other versions
JP2022066880A (en
Inventor
恒生 堀地
善行 神野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020175472A priority Critical patent/JP7117645B2/en
Priority to JP2021198516A priority patent/JP7417871B2/en
Publication of JP2022066880A publication Critical patent/JP2022066880A/en
Application granted granted Critical
Publication of JP7117645B2 publication Critical patent/JP7117645B2/en
Priority to JP2023180978A priority patent/JP2024001239A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Studio Devices (AREA)

Description

本開示は、監視装置、監視システム、監視方法、及び、コンピュータプログラムに関する。 The present disclosure relates to a monitoring device, a monitoring system, a monitoring method, and a computer program.

従来、鉄道の保守用車両等にカメラを装着し、保守用車両等を走行させながらカメラでレールを撮影し、その撮影した画像をレールの保守に用いることが行われている。 2. Description of the Related Art Conventionally, a camera is attached to a railroad maintenance vehicle or the like, a rail is photographed by the camera while the maintenance vehicle or the like is running, and the photographed image is used for rail maintenance.

特許文献1には、保守用車両等に装着した赤外線カメラでレールを撮影して赤外線画像を生成し、その赤外線画像を撮影した位置を保守用車両等の走行距離から特定し、その特定した位置と赤外線画像とを対応付けたデータを生成することが開示されている。 In Patent Document 1, an infrared camera attached to a maintenance vehicle or the like captures a rail to generate an infrared image, specifies the position where the infrared image was captured from the travel distance of the maintenance vehicle, etc., and specifies the position and infrared images.

特開平10-73413号公報JP-A-10-73413

しかしながら、特許文献1のように走行距離から位置を特定するためには、保守用車両等の発車位置及び走行ルートを示す情報を予め登録しておく必要がある。また、走行距離は、保守用車両等が備える走行距離計において車輪の回転数を用いて算出されるため、車輪の摩耗及び/又はスリップ等により大きな誤差を含み得る。 However, in order to specify the position from the travel distance as in Patent Document 1, it is necessary to register in advance information indicating the departure position and travel route of the maintenance vehicle or the like. In addition, since the traveled distance is calculated using the number of rotations of the wheels in the odometer provided in the maintenance vehicle or the like, it may include a large error due to wear and/or slippage of the wheels.

本開示は、鉄道等を含む交通インフラの保守又は監視のために撮影した画像の撮影位置を精度良く特定できる技術を提供することを目的とする。 An object of the present disclosure is to provide a technology capable of accurately specifying the photographing position of an image photographed for maintenance or monitoring of transportation infrastructure including railways.

本開示の一態様に係る監視装置は、車両の移動経路上の保守対象物を監視する監視装置であって、前記保守対象物を撮影した第1画像と、前記第1画像の撮影時刻にて距離又は場所を示す物体を撮影した第2画像とを対応付ける制御部、を備え、前記制御部は、前記第1画像と、前記第1画像に対応付けられている前記第2画像を表示させる。 A monitoring device according to an aspect of the present disclosure is a monitoring device that monitors a maintenance target on a vehicle movement route, and includes a first image obtained by capturing the maintenance target, and at the capturing time of the first image. a control unit that associates a second image obtained by photographing an object indicating a distance or a location, wherein the control unit displays the first image and the second image associated with the first image.

本開示の一態様に係る監視装置は、車両の移動経路上の保守対象物を監視する監視装置であって、前記保守対象物を撮影した第1画像と、前記第1画像の撮影時刻にて距離又は場所を示す物体を撮影した第2画像とを対応付ける制御部、を備え、前記制御部は、前記第1画像の撮影位置を、前記第1画像に対応付けられている前記第2画像に基づいて特定する。 A monitoring device according to an aspect of the present disclosure is a monitoring device that monitors a maintenance target on a vehicle movement route, and includes a first image obtained by capturing the maintenance target, and at the capturing time of the first image. a control unit that associates a second image obtained by photographing an object indicating a distance or a location, wherein the control unit associates the photographing position of the first image with the second image associated with the first image. Identify based on

本開示の一態様に係る監視装置は、車両の移動経路上の保守対象物を監視する監視装置であって、前記保守対象物を撮影した第1画像と、前記第1画像の撮影時刻にて前記第1画像の撮影位置の周辺を撮影した風景画像とを対応付ける制御部、を備え、前記制御部は、前記第1画像と、前記第1画像に対応付けられている前記風景画像を表示させる。 A monitoring device according to an aspect of the present disclosure is a monitoring device that monitors a maintenance target on a vehicle movement route, and includes a first image obtained by capturing the maintenance target, and at the capturing time of the first image. a controller that associates the landscape image captured around the shooting position of the first image with the controller, wherein the controller displays the first image and the landscape image associated with the first image. .

本開示の一態様に係る監視システムは、車両の移動経路上の保守対象物を監視する監視システムであって、前記保守対象物を撮影して第1画像を生成する第1のカメラと、前記第1画像の撮影時刻にて距離又は場所を示す物体を撮影して第2画像を生成する第2のカメラと、前記保守対象物を撮影した前記第1画像と、前記第1画像の撮影時刻にて距離又は場所を示す物体を撮影した第2画像とを対応付け、前記第1画像と、前記第1画像に対応付けられている前記第2画像を表示させる監視装置と、を備える。 A monitoring system according to one aspect of the present disclosure is a monitoring system for monitoring a maintenance target on a vehicle movement route, comprising: a first camera that captures the maintenance target to generate a first image; a second camera that captures an object indicating the distance or location at the capturing time of the first image to generate a second image; the first image capturing the maintenance object; and the capturing time of the first image. and a monitoring device that associates a second image obtained by photographing an object indicating a distance or a location with and displays the first image and the second image associated with the first image.

本開示の一態様に係る監視システムは、車両の移動経路上の保守対象物を監視する監視システムであって、前記保守対象物を撮影して第1画像を生成する第1のカメラと、前記第1画像の撮影時刻にて距離又は場所を示す物体を撮影して第2画像を生成する第2のカメラと、前記保守対象物を撮影した前記第1画像と、前記第1画像の撮影時刻にて距離又は場所を示す物体を撮影した第2画像とを対応付け、前記第1画像の撮影位置を、前記第1画像に対応付けられている前記第2画像に基づいて特定する監視装置と、を備える。 A monitoring system according to one aspect of the present disclosure is a monitoring system for monitoring a maintenance target on a vehicle movement route, comprising: a first camera that captures the maintenance target to generate a first image; a second camera that captures an object indicating the distance or location at the capturing time of the first image to generate a second image; the first image capturing the maintenance object; and the capturing time of the first image. and a monitoring device that associates a second image obtained by photographing an object indicating a distance or location with a monitoring device that specifies the photographing position of the first image based on the second image associated with the first image; , provided.

本開示の一態様に係る監視システムは、車両の移動経路上の保守対象物を監視する監視システムであって、前記保守対象物を撮影して第1画像を生成する第1のカメラと、前記第1画像の撮影時刻にて前記第1画像の撮影位置の周辺を撮影して風景画像を生成する第2のカメラと、前記保守対象物を撮影した前記第1画像と、前記第1画像の撮影時刻にて前記第1画像の撮影位置の周辺を撮影した風景画像とを対応付け、前記第1画像と、前記第1画像に対応付けられている前記風景画像を表示させる監視装置と、を備える。 A monitoring system according to one aspect of the present disclosure is a monitoring system for monitoring a maintenance target on a vehicle movement route, comprising: a first camera that captures the maintenance target to generate a first image; a second camera that captures the surroundings of the capturing position of the first image at the capturing time of the first image to generate a landscape image; the first image that captures the maintenance object; a monitoring device that associates a scenery image captured around the shooting position of the first image at a shooting time, and displays the first image and the scenery image associated with the first image; Prepare.

本開示の一態様に係る監視方法は、車両の移動経路上の保守対象物を監視する監視方法であって、前記保守対象物を撮影した第1画像と、前記第1画像の撮影時刻にて距離又は場所を示す物体を撮影した第2画像とを対応付け、前記第1画像と、前記第1画像に対応付けられている前記第2画像を表示させる。 A monitoring method according to an aspect of the present disclosure is a monitoring method for monitoring a maintenance target on a moving route of a vehicle. A second image obtained by photographing an object indicating a distance or a place is associated with the first image and the second image associated with the first image are displayed.

本開示の一態様に係る監視方法は、車両の移動経路上の保守対象物を監視する監視方法であって、前記保守対象物を撮影した第1画像と、前記第1画像の撮影時刻にて距離又は場所を示す物体を撮影した第2画像とを対応付け、前記第1画像の撮影位置を、前記第1画像に対応付けられている前記第2画像に基づいて特定する。 A monitoring method according to an aspect of the present disclosure is a monitoring method for monitoring a maintenance target on a moving route of a vehicle. A second image obtained by photographing an object indicating the distance or location is associated, and the photographing position of the first image is specified based on the second image associated with the first image.

本開示の一態様に係る監視方法は、車両の移動経路上の保守対象物を監視する監視方法であって、前記保守対象物を撮影した第1画像と、前記第1画像の撮影時刻にて前記第1画像の撮影位置の周辺を撮影した風景画像とを対応付け、前記第1画像と、前記第1画像に対応付けられている前記風景画像を表示させる。 A monitoring method according to an aspect of the present disclosure is a monitoring method for monitoring a maintenance target on a moving route of a vehicle. A scenery image photographed around the shooting position of the first image is associated with the first image, and the scenery image associated with the first image is displayed.

本開示の一態様に係るコンピュータプログラムは、車両の移動経路上の保守対象物を監視するためのコンピュータプログラムであって、前記保守対象物を撮影した第1画像と、前記第1画像の撮影時刻にて距離又は場所を示す物体を撮影した第2画像とを対応付け、前記第1画像と、前記第1画像に対応付けられている前記第2画像を表示させる、ことをコンピュータに実行させる。 A computer program according to an aspect of the present disclosure is a computer program for monitoring a maintenance target on a vehicle travel route, and includes a first image obtained by capturing the maintenance target and a capturing time of the first image. and a second image obtained by photographing an object indicating the distance or location, and causing the computer to display the first image and the second image associated with the first image.

本開示の一態様に係るコンピュータプログラムは、車両の移動経路上の保守対象物を監視するためのコンピュータプログラムであって、前記保守対象物を撮影した第1画像と、前記第1画像の撮影時刻にて距離又は場所を示す物体を撮影した第2画像とを対応付け、前記第1画像の撮影位置を、前記第1画像に対応付けられている前記第2画像に基づいて特定する、ことをコンピュータに実行させる。 A computer program according to an aspect of the present disclosure is a computer program for monitoring a maintenance target on a vehicle travel route, and includes a first image obtained by capturing the maintenance target and a capturing time of the first image. is associated with a second image obtained by photographing an object indicating the distance or location, and the photographing position of the first image is specified based on the second image associated with the first image. let the computer do it.

本開示の一態様に係るコンピュータプログラムは、車両の移動経路上の保守対象物を監視するためのコンピュータプログラムであって、前記保守対象物を撮影した第1画像と、前記第1画像の撮影時刻にて前記第1画像の撮影位置の周辺を撮影した風景画像とを対応付け、前記第1画像と、前記第1画像に対応付けられている前記風景画像を表示させる、ことをコンピュータに実行させる。 A computer program according to an aspect of the present disclosure is a computer program for monitoring a maintenance target on a vehicle travel route, and includes a first image obtained by capturing the maintenance target and a capturing time of the first image. causing a computer to perform the following: .

なお、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又は記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 In addition, these generic or specific aspects may be realized by a system, device, method, integrated circuit, computer program or recording medium, and any of the system, device, method, integrated circuit, computer program and recording medium may be implemented. may be implemented in any combination.

本開示によれば、鉄道等を含む交通インフラの保守又は監視のために撮影した画像の撮影位置を精度良く特定できる。 Advantageous Effects of Invention According to the present disclosure, it is possible to accurately identify the photographing position of an image photographed for maintenance or monitoring of transportation infrastructure including railways.

本実施の形態に係る監視システムの構成例を示すブロック図FIG. 1 is a block diagram showing a configuration example of a monitoring system according to this embodiment; 本実施の形態に係る監視装置の構成例を示す機能ブロック図FIG. 1 is a functional block diagram showing a configuration example of a monitoring device according to this embodiment; 本実施の形態に係る監視情報の構成例を示す図A diagram showing a configuration example of monitoring information according to the present embodiment 監視画像と測位情報との対応付け方法の一例を説明するための図A diagram for explaining an example of a method of associating a monitoring image with positioning information. 測位情報の推定方法の一例を説明するための図Diagram for explaining an example of a method of estimating positioning information 監視画像の撮影位置を特定する処理の一例を示すフローチャートFlowchart showing an example of a process for specifying a shooting position of a surveillance image 本実施の形態に係る保守用UI(User Interface)の表示例を示す図A diagram showing a display example of a maintenance UI (User Interface) according to the present embodiment. 本実施の形態に係る監視装置の機能ブロックをコンピュータプログラムにより実現するコンピュータのハードウェア構成を示す図FIG. 3 is a diagram showing the hardware configuration of a computer that realizes the functional blocks of the monitoring device according to the present embodiment by means of a computer program;

以下、図面を適宜参照して、本開示の実施の形態について、詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明及び実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の記載の主題を限定することは意図されていない。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art. It should be noted that the accompanying drawings and the following description are provided to allow those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter of the claims.

(本実施の形態)
<監視システムの構成>
図1は、本実施の形態に係る監視システムの構成例を示すブロック図である。
(this embodiment)
<Structure of monitoring system>
FIG. 1 is a block diagram showing a configuration example of a monitoring system according to this embodiment.

監視システム2は、鉄道の保守対象物を監視するためのシステムである。鉄道の保守対象物の例として、レール、レール締結装置、枕木、道床、路盤、架線、架線電柱、碍子、バランサ、信号機、トンネル内壁、橋梁、のり面等が挙げられる。なお、本開示に係る「鉄道」には、一般的な電車又は汽車が走行する軌道に限られず、路面電車が走行する軌道、モノレールが走行する軌道、新幹線が走行する軌道等も含まれる。 The monitoring system 2 is a system for monitoring railway maintenance objects. Examples of railway maintenance objects include rails, rail fasteners, sleepers, roadbeds, roadbeds, overhead wires, overhead wire utility poles, insulators, balancers, traffic signals, inner walls of tunnels, bridges, slopes, and the like. In addition, the “railway” according to the present disclosure is not limited to tracks on which general electric trains or trains run, but also includes tracks on which trams run, tracks on which monorails run, tracks on which bullet trains run, and the like.

監視システム2は、鉄道の保守用車両等(以下「車両」という)1に載せられる。車両1は、動力付き車両であってもよいし、動力付き車両に牽引される車両(台車)であってもよい。なお、監視システム2の一部は、車両1とは異なる場所に設置されてもよい。 The monitoring system 2 is mounted on a railroad maintenance vehicle or the like (hereinafter referred to as “vehicle”) 1 . The vehicle 1 may be a motorized vehicle or a vehicle (bogie) towed by a motorized vehicle. Note that part of the monitoring system 2 may be installed at a location different from the vehicle 1 .

監視システム2は、カメラ10A、10B、10C、映像レコーダ20、全球測位衛星(以下GNSS(Global Navigation Satellite System)と記載)受信装置30、及び、RTK(Real Time Kinematic)受信装置40、及び、監視装置100を備える。 The monitoring system 2 includes cameras 10A, 10B, 10C, a video recorder 20, a global positioning satellite (hereinafter referred to as GNSS (Global Navigation Satellite System)) receiver 30, an RTK (Real Time Kinematic) receiver 40, and a monitor A device 100 is provided.

カメラ10A、10B、10Cは、PoE(Power over Ethernet)に対応しており、イーサネットケーブルによって、映像レコーダ20に接続されてよい。ただし、カメラ10A、10B、10Cは、イーサネットケーブルとは異なる有線ケーブル(例えばUSB(Universal Serial Bus)ケーブル)又は無線方式(例えばIEEE802.11又はBluetooth)によって、映像レコーダ20に接続されてもよい。また、カメラ10A、10B、10Cと映像レコーダ20との接続方式は、PoEに限られない。例えば、カメラ10A、10B、10Cは、他の接続方式によって補助電力が供給されてもよい。 The cameras 10A, 10B, and 10C are compatible with PoE (Power over Ethernet) and may be connected to the video recorder 20 via Ethernet cables. However, the cameras 10A, 10B, and 10C may be connected to the video recorder 20 by a wired cable (eg, USB (Universal Serial Bus) cable) different from the Ethernet cable or by a wireless system (eg, IEEE802.11 or Bluetooth). Also, the connection method between the cameras 10A, 10B, and 10C and the video recorder 20 is not limited to PoE. For example, the cameras 10A, 10B, 10C may be supplemented with auxiliary power through other connection schemes.

映像レコーダ20は、例えばイーサネットケーブルによって、監視装置100に接続される。ただし、映像レコーダ20は、イーサネットケーブルとは異なる有線ケーブル(例えばUSBケーブル)又は無線方式(例えばIEEE802.11又はBluetooth)によって、監視装置100に接続されてもよい。 The video recorder 20 is connected to the monitoring device 100 by, for example, an Ethernet cable. However, the video recorder 20 may be connected to the monitoring device 100 by a wired cable (eg, USB cable) different from the Ethernet cable or by a wireless system (eg, IEEE802.11 or Bluetooth).

GNSS受信装置30は、例えばUSBケーブルによって、監視装置100に接続される。ただし、GNSS受信装置30は、USBケーブルとは異なる有線ケーブル又は無線方式によって、監視装置100に接続されてもよい。 The GNSS receiver 30 is connected to the monitoring device 100 by, for example, a USB cable. However, the GNSS receiver 30 may be connected to the monitoring device 100 by a wired cable or a wireless method different from the USB cable.

RTK受信装置40は、例えばUSBケーブルによって、監視装置100に接続される。ただし、RTK受信装置40は、USBケーブルとは異なる有線ケーブル又は無線方式によって、監視装置100に接続されてもよい。 The RTK receiving device 40 is connected to the monitoring device 100 by, for example, a USB cable. However, the RTK receiving device 40 may be connected to the monitoring device 100 by a wired cable or a wireless system different from the USB cable.

カメラ10Aは、保守対象物を撮影できるように車両1に設置される。カメラ10Aの設置数は1つに限られず、2つ以上であってもよい。走行中の車両1からカメラ10Aが撮影して生成した動画データを、監視動画と称する。監視動画のフォーマットの例として、MPEG2、MPEG4、H.264、H.265、JPEG、非圧縮データが挙げられる。 The camera 10A is installed in the vehicle 1 so as to photograph the maintenance object. The number of installed cameras 10A is not limited to one, and may be two or more. The moving image data generated by the camera 10A capturing images from the running vehicle 1 is referred to as a monitoring moving image. Examples of surveillance video formats include MPEG2, MPEG4, H. 264, H. H.265, JPEG, and uncompressed data.

カメラ10Bは、軌道周辺に存在する距離標を撮影できるように車両1に設置される。カメラ10Bの設置数は1つに限られず、2つ以上であってもよい。走行中の車両1からカメラ10Bが撮影して生成した動画データを、距離標動画と称する。距離標動画のフォーマットは、監視動画と同じであってよい。距離標とは、鉄道において、ある起点からの距離を表す標識である。距離標には、その距離を示す文字が記されていることが多いが、文字が示されていなくてもよい。なお、距離標の「文字」には、数字及び記号等が含まれてよい。また、距離標は、ある起点からの距離を表す標識に限られず、距離、距離の間隔、又は特定の場所を示す物であってもよい。 The camera 10B is installed on the vehicle 1 so as to photograph distance markers existing around the track. The number of installed cameras 10B is not limited to one, and may be two or more. The moving image data generated by the camera 10B shooting the moving vehicle 1 will be referred to as a distance marker moving image. The format of the distance marker video may be the same as the surveillance video. A distance marker is a sign that indicates the distance from a certain starting point on a railway. The distance marker often has characters indicating the distance, but the characters may not be indicated. Note that the "characters" of the distance marker may include numbers, symbols, and the like. Further, the distance marker is not limited to a marker that indicates a distance from a certain starting point, and may be a marker that indicates a distance, an interval of distances, or a specific location.

カメラ10Cは、車両1から見える風景を撮影できるように車両1に設置される。カメラ10Cの設置数は1つに限られず、2つ以上であってもよい。走行中の車両1からカメラ10Cが撮影して生成した動画データを、風景動画と称する。風景動画のフォーマットは、監視動画と同じであってよい。カメラ10Cは、車両1の後方、前方、又は、側方の風景が撮影されるように設置されてよい。カメラ10Cは、車両1の内側に設置されてもよいし、車両1の外側(例えば車両1の屋根の上)に設置されてもよい。 The camera 10C is installed on the vehicle 1 so as to photograph the scenery seen from the vehicle 1. - 特許庁The number of installed cameras 10C is not limited to one, and may be two or more. The moving image data generated by the camera 10C shooting the moving vehicle 1 is referred to as scenery moving image. The format of the scenery video may be the same as that of the surveillance video. The camera 10</b>C may be installed so as to photograph the scenery behind, in front of, or to the side of the vehicle 1 . The camera 10C may be installed inside the vehicle 1 or outside the vehicle 1 (for example, on the roof of the vehicle 1).

カメラ10A、カメラ10B、カメラ10Cは、互いに異なる方向を撮影できるように車両1に設置されてよい。これにより、上述したように、保守対象物、距離標、風景といった互いに異なるものを撮影できる。あるいは、1つのカメラで距離標及び風景の両方を撮影できる場合、カメラ10Cを設置せずに、カメラ10Bで距離標及び風景の両方を含む動画を撮影してもよい。 The camera 10A, the camera 10B, and the camera 10C may be installed on the vehicle 1 so as to capture images in different directions. As a result, as described above, it is possible to photograph different things such as maintenance objects, distance markers, and landscapes. Alternatively, if one camera can capture both the distance marker and the scenery, the camera 10B may capture a moving image including both the distance marker and the scenery without installing the camera 10C.

映像レコーダ20は、カメラ10A、10B、10Cから監視動画、距離標動画、及び、風景動画をそれぞれ受信して記録する装置である。 The video recorder 20 is a device that receives and records a monitoring video, a distance marker video, and a scenery video from the cameras 10A, 10B, and 10C.

GNSS受信装置30は、GNSS衛星3から発射される測位用の信号であるGNSS信号を定期的に受信し、受信したGNSS信号からGNSS情報201(図2参照)を生成する。GNSS情報201には、GNSS信号の受信時刻と、当該受信時刻におけるGNSS受信装置30の緯度及び経度と、当該緯度及び経度の測位精度とが対応付けて含まれる。GNSS受信装置30は、生成したGNSS情報201を監視装置100へ送信する。以下、測位された緯度及び経度を測位座標と称する。 The GNSS receiver 30 periodically receives GNSS signals, which are positioning signals emitted from the GNSS satellites 3, and generates GNSS information 201 (see FIG. 2) from the received GNSS signals. The GNSS information 201 includes the reception time of the GNSS signal, the latitude and longitude of the GNSS receiver 30 at the reception time, and the positioning accuracy of the latitude and longitude in association with each other. The GNSS receiver 30 transmits the generated GNSS information 201 to the monitoring device 100 . The measured latitude and longitude are hereinafter referred to as positioning coordinates.

RTK受信装置40は、無線基地局4から送信される測位用の信号であるRTK信号を定期的に受信し、受信したRTK信号から補正情報202(図2参照)を生成する。補正情報202には、GNSS信号が示す測位座標を補正するための情報が含まれる。RTK信号を用いて補正した測位座標は、補正前の測位座標よりも正確な位置を示す。RTK受信装置40は、生成した補正情報202を監視装置100へ送信する。 The RTK receiver 40 periodically receives an RTK signal, which is a positioning signal transmitted from the radio base station 4, and generates correction information 202 (see FIG. 2) from the received RTK signal. The correction information 202 includes information for correcting the positioning coordinates indicated by the GNSS signal. The positioning coordinates corrected using the RTK signal indicate a more accurate position than the positioning coordinates before correction. The RTK receiving device 40 transmits the generated correction information 202 to the monitoring device 100 .

監視装置100は、GNSS受信装置30及びRTK受信装置40からGNSS情報201及び補正情報202をそれぞれ受信する。監視装置100は、受信したGNSS情報201及び補正情報202に基づいて、そのGNSS情報201及び補正情報202に含まれる受信時刻における、カメラ10Aの測位座標を示す情報(以下「測位情報」という)206を生成する。例えば、GNSS受信装置30及びカメラ10Aを高さ方向にて一直線に並ぶように設置することにより、GNSS情報201からカメラ10Aの測位座標を得ることができる。あるいは、GNSS受信装置30とカメラ10Aとの間の位置ずれを予め登録しておき、GNSS情報201が示す測位座標を、その登録された位置ずれで補正することにより、カメラ10Aの測位座標を得ることができる。 The monitoring device 100 receives GNSS information 201 and correction information 202 from the GNSS receiver 30 and the RTK receiver 40, respectively. Based on the received GNSS information 201 and correction information 202, the monitoring device 100 generates information (hereinafter referred to as “positioning information”) 206 indicating the positioning coordinates of the camera 10A at the reception time included in the GNSS information 201 and the correction information 202. to generate For example, the positioning coordinates of the camera 10A can be obtained from the GNSS information 201 by installing the GNSS receiver 30 and the camera 10A so as to be aligned in the height direction. Alternatively, the positional deviation between the GNSS receiver 30 and the camera 10A is registered in advance, and the positioning coordinates of the camera 10A are obtained by correcting the positioning coordinates indicated by the GNSS information 201 with the registered positional deviation. be able to.

監視装置100は、GNSS情報201に含まれる時刻情報、及び、時刻サーバ5(例えばNTP(Network Time Protocol)サーバ)から受信した時刻情報のうちの少なくとも1つに基づいて、当該監視装置100の内部時計を設定する。これにより、監視装置100の内部時計は、正確な時刻に同期される。加えて、監視装置100は、映像レコーダ20、及び、カメラ10A、10B、10Cの内部時計を、当該監視装置100の内部時計と同期させる。これにより、カメラ10A、10B、10C、映像レコーダ20、及び、監視装置100の内部時計が、正確な時刻に同期される。 Based on at least one of the time information included in the GNSS information 201 and the time information received from the time server 5 (for example, an NTP (Network Time Protocol) server), the monitoring device 100 detects the internal set the clock; Thereby, the internal clock of the monitoring device 100 is synchronized with the correct time. In addition, the monitoring device 100 synchronizes the internal clocks of the video recorder 20 and the cameras 10A, 10B, and 10C with the internal clocks of the monitoring device 100 . Thereby, the internal clocks of the cameras 10A, 10B, 10C, the video recorder 20, and the monitoring device 100 are synchronized with the correct time.

監視装置100は、映像レコーダ20から、監視動画を構成する各画像フレーム(以下「監視画像」という)203(図2参照)と、距離標動画を構成する各画像フレーム(以下「距離標画像」という)204(図2参照)と、風景動画を構成する各画像フレーム(以下「風景画像」という)205(図2参照)とを取得して格納する。 The monitoring apparatus 100 receives from the video recorder 20 each image frame (hereinafter referred to as "monitoring image") 203 (see FIG. 2) constituting the monitoring video and each image frame (hereinafter "distance mark image") constituting the distance mark moving image. ) 204 (refer to FIG. 2) and each image frame (hereinafter referred to as “landscape image”) 205 (refer to FIG. 2) constituting the landscape moving image are acquired and stored.

監視装置100は、監視画像203の撮影時刻と同時刻に測位された測位情報206を用いて、当該監視画像203の撮影位置を特定する。これにより、監視画像203の撮影位置を精度良く特定できる。しかし、車両1が山間部、都市部、又はトンネル内等を走行中は、GNSS信号を受信できなかったり、GNSS信号の測位精度が不十分であったりして、測位情報206を用いることができない場合がある。このような場合、監視装置100は、監視画像203の撮影時刻と同時刻に撮影された距離標画像204及び風景画像205のうちの少なくとも1つを用いて、当該監視画像203の撮影位置を特定する。これにより、測位情報206を用いることができない場合であっても、監視画像203の撮影位置を精度良く特定できる。なお、本開示の説明において、「撮影時刻と同時刻」という表現は、厳密に同じ時刻を表すものではなく、撮影時刻を含む所定の期間内に含まれる時刻を表す。次に、上述の内容について詳細に説明する。 The monitoring apparatus 100 identifies the captured position of the monitoring image 203 using the positioning information 206 obtained at the same time as the monitoring image 203 was captured. As a result, it is possible to accurately identify the imaging position of the monitoring image 203 . However, when the vehicle 1 is traveling in a mountainous area, an urban area, or in a tunnel, the positioning information 206 cannot be used because the GNSS signal cannot be received or the positioning accuracy of the GNSS signal is insufficient. Sometimes. In such a case, the monitoring apparatus 100 uses at least one of the distance marker image 204 and the landscape image 205 captured at the same time as the monitoring image 203 is captured to specify the capturing position of the monitoring image 203. do. As a result, even if the positioning information 206 cannot be used, the imaging position of the monitoring image 203 can be specified with high accuracy. Note that in the description of the present disclosure, the expression “same time as the shooting time” does not strictly represent the same time, but represents a time included within a predetermined period including the shooting time. Next, the above contents will be described in detail.

<監視装置の構成>
図2は、本実施の形態に係る監視装置100の構成例を示す機能ブロック図である。
<Structure of monitoring device>
FIG. 2 is a functional block diagram showing a configuration example of the monitoring device 100 according to this embodiment.

監視装置100は、情報格納部101、GNSS情報受信部102、補正情報受信部103、時計同期部104、画像取得部105、測位情報生成部106、監視情報生成部107、撮影位置特定部108、及び、UI処理部109を有する。 The monitoring device 100 includes an information storage unit 101, a GNSS information reception unit 102, a correction information reception unit 103, a clock synchronization unit 104, an image acquisition unit 105, a positioning information generation unit 106, a monitoring information generation unit 107, an imaging position identification unit 108, and a UI processing unit 109 .

情報格納部101は、図8に示すメモリ1002、ストレージ1003又はこれらの組み合わせによって実現されてよい。情報格納部101は、GNSS情報201、補正情報202、監視画像203、距離標画像204、風景画像205、測位情報206、及び、監視情報207を格納する。 The information storage unit 101 may be implemented by the memory 1002, the storage 1003, or a combination thereof shown in FIG. The information storage unit 101 stores GNSS information 201 , correction information 202 , monitoring images 203 , distance marker images 204 , scenery images 205 , positioning information 206 and monitoring information 207 .

GNSS情報受信部102、補正情報受信部103、時計同期部104、画像取得部105、測位情報生成部106、監視情報生成部107、撮影位置特定部108、及び、UI処理部109は、図8に示すプロセッサ1001がメモリ1002等と協働することによって実現されてよい。したがって、これらの機能ブロック102~109を主体として説明する処理は、プロセッサ1001を主体とする処理に読み替えることができる。 The GNSS information receiving unit 102, the correction information receiving unit 103, the clock synchronization unit 104, the image acquisition unit 105, the positioning information generation unit 106, the monitoring information generation unit 107, the shooting position identification unit 108, and the UI processing unit 109 are shown in FIG. may be realized by cooperation of the processor 1001 shown in FIG. Therefore, the processing mainly performed by these functional blocks 102 to 109 can be read as the processing mainly performed by the processor 1001 .

GNSS情報受信部102は、GNSS受信装置30から定期的にGNSS情報201を受信し、情報格納部101に格納する。 The GNSS information receiver 102 periodically receives GNSS information 201 from the GNSS receiver 30 and stores it in the information storage 101 .

補正情報受信部103は、RTK受信装置40から定期的に補正情報202を受信し、情報格納部101に格納する。 The correction information reception unit 103 periodically receives the correction information 202 from the RTK reception device 40 and stores it in the information storage unit 101 .

時計同期部104は、GNSS情報201及び補正情報202に含まれる時刻情報、及び、時刻サーバ5から受信した時刻情報のうちの少なくとも1つに基づいて、監視装置100の内部時計を設定する。例えば、時計同期部104は、GNSS情報201及び補正情報202のうちの少なくとも1つから時刻情報が得られた場合、その時刻情報を用いて監視装置100の内部時計を設定する。時計同期部104は、GNSS情報201及び補正情報202の何れからも時刻情報が得られなかった場合、時刻サーバ5から時刻情報を取得し、その時刻情報を用いて監視装置100の内部時計を設定する。 The clock synchronization unit 104 sets the internal clock of the monitoring device 100 based on at least one of the time information included in the GNSS information 201 and the correction information 202 and the time information received from the time server 5 . For example, when time information is obtained from at least one of the GNSS information 201 and the correction information 202, the clock synchronization unit 104 sets the internal clock of the monitoring device 100 using the time information. If the time information is not obtained from either the GNSS information 201 or the correction information 202, the clock synchronization unit 104 obtains the time information from the time server 5, and uses the time information to set the internal clock of the monitoring device 100. do.

加えて、時計同期部104は、映像レコーダ20及びカメラ10A、10B、10Cの内部時計を、監視装置100の内部時計と同期させる。これにより、カメラ10A、10B、10C、映像レコーダ20、及び、監視装置100の内部時計が正確な時刻に同期される。よって、監視画像203、距離標画像204、及び、風景画像205の撮影時刻は、いずれも正確な時刻を表す。 Additionally, the clock synchronization unit 104 synchronizes the internal clocks of the video recorder 20 and the cameras 10A, 10B, and 10C with the internal clock of the monitoring device 100 . Thereby, the internal clocks of the cameras 10A, 10B, 10C, the video recorder 20, and the monitoring device 100 are synchronized with the correct time. Therefore, the photographing times of the monitoring image 203, the distance marker image 204, and the landscape image 205 all represent accurate times.

画像取得部105は、映像レコーダ20から、監視画像203、距離標画像204、及び、風景画像205を取得し、情報格納部101に格納する。 The image acquisition unit 105 acquires the monitoring image 203 , the distance marker image 204 and the landscape image 205 from the video recorder 20 and stores them in the information storage unit 101 .

測位情報生成部106は、GNSS情報201及び補正情報202に基づいて、そのGNSS情報201及び補正情報202に含まれる受信時刻における、カメラ10Aの測位座標(緯度及び経度)を示す測位情報206を生成し、情報格納部101に格納する。 Based on the GNSS information 201 and the correction information 202, the positioning information generation unit 106 generates the positioning information 206 indicating the positioning coordinates (latitude and longitude) of the camera 10A at the reception time included in the GNSS information 201 and the correction information 202. and stored in the information storage unit 101 .

監視情報生成部107は、監視画像203と、当該監視画像203の撮影時刻と同時刻に撮影された距離標画像204及び風景画像205と、当該撮影時刻と同時刻に測位された測位情報206とを対応付けて監視情報207を生成する。なお、監視情報207の詳細については後述する(図3参照)。 The monitoring information generation unit 107 generates a monitoring image 203, a distance marker image 204 and a landscape image 205 captured at the same time as the monitoring image 203 was captured, and positioning information 206 positioned at the same time as the capturing time. are associated to generate monitoring information 207 . Details of the monitoring information 207 will be described later (see FIG. 3).

撮影位置特定部108は、監視情報207において監視画像203と対応付けられている測位情報206、距離標画像204及び風景画像205のうちの少なくとも1つを用いて、当該監視画像203の撮影位置を特定する。監視画像203の撮影位置は、鉄道路線における、所定の起点からの距離を示す営業キロとして表現されてよい。 The shooting position specifying unit 108 uses at least one of the positioning information 206, the distance marker image 204, and the scenery image 205, which are associated with the monitoring image 203 in the monitoring information 207, to determine the shooting position of the monitoring image 203. Identify. The photographing position of the surveillance image 203 may be expressed as a business kilometer indicating the distance from a predetermined starting point on the railway line.

撮影位置特定部108は、監視情報207において監視画像203と対応付けられている測位情報206の測位精度が十分である(例えば測位精度が所定の閾値以上である)場合、その測位情報206の測位座標に対応する営業キロを、当該監視画像203の撮影位置としてよい。例えば、撮影位置特定部108は、軌道上の測位座標を営業キロに変換する所定のデータベースを用いて、測位情報206の測位座標を営業キロに変換する。 If the positioning accuracy of the positioning information 206 associated with the monitoring image 203 in the monitoring information 207 is sufficient (for example, the positioning accuracy is equal to or greater than a predetermined threshold value), the imaging position specifying unit 108 determines the positioning of the positioning information 206. A business kilometer corresponding to the coordinates may be used as the photographing position of the monitoring image 203 . For example, the shooting position specifying unit 108 converts the positioning coordinates of the positioning information 206 into operating kilometers using a predetermined database that converts the positioning coordinates on the orbit into operating kilometers.

撮影位置特定部108は、監視情報207において監視画像203に測位情報206が対応付けられていない場合、あるいは、監視画像203と対応付けられている測位情報206の測位精度が不十分である(例えば測位精度が所定の閾値未満である)場合、次の処理を行ってよい。すなわち、撮影位置特定部108は、監視情報207において監視画像203と対応付けられている距離標画像204及び風景画像205のうちの少なくとも1つを用いて、当該監視画像203の撮影位置の営業キロを特定してよい。なお、この特定方法の詳細については後述する。 The imaging position specifying unit 108 detects that the positioning information 206 is not associated with the monitoring image 203 in the monitoring information 207, or that the positioning accuracy of the positioning information 206 associated with the monitoring image 203 is insufficient (for example, If the positioning accuracy is less than a predetermined threshold), the following processing may be performed. That is, the photographing position specifying unit 108 uses at least one of the distance marker image 204 and the scenery image 205 associated with the surveillance image 203 in the monitoring information 207 to determine the operating kilometer of the photographing position of the surveillance image 203 . may be specified. The details of this specifying method will be described later.

UI処理部109は、監視情報207に基づいて保守用UI400(図7参照)を表示し、保守用UI400に対する操作を受け付ける。例えば、UI処理部109は、図8に示す出力装置1005の一例であるディスプレイに保守用UI400を表示する。そして、UI処理部109は、図8に示す入力装置1004の一例であるキーボード及びマウスを通じて保守用UI400に対する操作を受け付ける。なお、保守用UI400の詳細については後述する(図7参照)。 The UI processing unit 109 displays the maintenance UI 400 (see FIG. 7) based on the monitoring information 207, and receives operations on the maintenance UI 400. FIG. For example, the UI processing unit 109 displays a maintenance UI 400 on a display, which is an example of the output device 1005 shown in FIG. The UI processing unit 109 receives operations on the maintenance UI 400 through the keyboard and mouse, which are examples of the input device 1004 shown in FIG. Details of the maintenance UI 400 will be described later (see FIG. 7).

<監視情報の構成>
図3は、本実施の形態に係る監視情報207の構成例を示す図である。
<Structure of monitoring information>
FIG. 3 is a diagram showing a configuration example of the monitoring information 207 according to this embodiment.

監視情報207は、項目として、監視画像、距離標画像、風景画像、撮影時刻、測位情報、路線名称、営業キロ、保守要否フラグ、保守要因、撮影手段、撮影者、及び、メモを有する。すなわち、監視情報207は、これらの項目の対応関係を示す情報であるともいえる。 The monitoring information 207 has items of monitoring image, distance marker image, landscape image, photographing time, positioning information, route name, operating kilometer, maintenance necessity flag, maintenance factor, photographing means, photographer, and memo. In other words, the monitoring information 207 can be said to be information indicating the correspondence between these items.

監視画像の項目には、監視画像203のID(Identification)が登録される。監視画像203のIDの例として、監視画像203のファイル名が挙げられる。 The ID (Identification) of the monitoring image 203 is registered in the monitoring image item. An example of the ID of the monitoring image 203 is the file name of the monitoring image 203 .

距離標画像の項目には、距離標画像204のIDが登録される。距離標画像204のIDの例として、距離標画像204のファイル名が挙げられる。 The ID of the distance mark image 204 is registered in the item of the distance mark image. An example of the ID of the distance mark image 204 is the file name of the distance mark image 204 .

風景画像の項目には、風景画像205のIDが登録される。風景画像205のIDの例として、風景画像205のファイル名が挙げられる。 The ID of the scenery image 205 is registered in the item of scenery image. An example of the ID of the landscape image 205 is the file name of the landscape image 205 .

撮影時刻の項目には、監視画像203の撮影時刻が登録される。なお、撮影時刻の項目には、時刻だけでなく、日付も含まれてよい。また、撮影時刻は、撮影のfpsに応じて、ミリ秒又はマイクロ秒まで表示することで各画像の撮影のタイミングを詳細に確認することができる。これによって、fpsの値が大きくなったとしても、異なるタイミングで撮影された画像に対して、同時刻で撮影されたと認識することを防ぐことができる。例えば、1ミリ秒ごとで撮影される画像に対して、撮影時刻が秒単位までしか表示されないと各画像の撮影順を把握することができないが、ミリ秒単位まで表示することで各画像の撮影順を把握することができる。 The shooting time of the monitoring image 203 is registered in the item of shooting time. Note that the shooting time item may include not only the time but also the date. In addition, by displaying the shooting time in milliseconds or microseconds according to the shooting fps, the shooting timing of each image can be confirmed in detail. As a result, even if the fps value increases, it is possible to prevent images shot at different timings from being recognized as having been shot at the same time. For example, for images shot every 1 millisecond, if the shooting time is displayed only in seconds, it is impossible to know the shooting order of each image. You can figure out the order.

測位情報の項目には、監視画像203の撮影時刻と同時刻に測位された測位座標と、その測位座標の測位精度とが登録される。測位精度は、精度の高さを示す数値で表現されてもよい。あるいは、測位精度は、精度が十分であることを示す「良好」、精度が不十分であることを示す「不良」、測位ができなかったことを示す「不可」の3段階で表現されてもよい。 In the item of positioning information, the positioning coordinates measured at the same time as the imaging time of the monitoring image 203 and the positioning accuracy of the positioning coordinates are registered. Positioning accuracy may be represented by a numerical value that indicates the degree of accuracy. Alternatively, the positioning accuracy can be expressed in three levels: "good" indicating sufficient accuracy, "poor" indicating insufficient accuracy, and "improper" indicating that positioning was not possible. good.

路線名称の項目には、監視画像203が撮影された路線の名称が登録される。 The name of the route on which the monitoring image 203 was captured is registered in the line name item.

営業キロの項目には、監視画像203の撮影位置の営業キロが登録される。 The business km of the shooting position of the monitoring image 203 is registered in the business km item.

保守要否フラグの項目には、監視画像203に示される保守対象物について、保守作業が必要か否かを示すフラグが登録される。保守作業者は、後述する保守用UI400に表示された監視画像203を見て、監視画像203内の保守対象物について保守作業が必要か否かを判断してよい。あるいは、監視装置100は、監視画像203を画像解析して監視画像203内の保守対象物について保守作業が必要か否かを自動的に判断してもよい。保守要否フラグの項目には、その判断の結果を示すフラグが登録されてよい。例えば、保守要否フラグには、保守作業が必要であることを示す「必要」、又は、保守作業が不要であることを示す「不要」が登録されてよい。 A flag indicating whether maintenance work is required for the maintenance object shown in the monitoring image 203 is registered in the maintenance necessity flag item. The maintenance worker may look at the monitoring image 203 displayed on the maintenance UI 400, which will be described later, and determine whether maintenance work is required for the maintenance object in the monitoring image 203. FIG. Alternatively, the monitoring apparatus 100 may analyze the monitoring image 203 and automatically determine whether maintenance work is required for the maintenance target in the monitoring image 203 . A flag indicating the result of the determination may be registered in the maintenance necessity flag item. For example, the maintenance necessity flag may be registered with "necessary" indicating that maintenance work is required or "unnecessary" indicating that maintenance work is not required.

保守要因の項目には、保守要否フラグが「必要」である場合に、保守作業が必要である要因が登録される。例えば、保守対象物の設備が異常である場合、保守要因の項目には「設備異常」が登録されてよい。例えば、保守対象物が欠損している場合、保守要因の項目には「欠損」が登録されてよい。 In the item of maintenance factor, when the maintenance necessity flag is "required", the factor that maintenance work is required is registered. For example, when the equipment of the maintenance object is abnormal, "equipment abnormality" may be registered in the maintenance factor item. For example, if the maintenance target is missing, "missing" may be registered in the maintenance factor item.

撮影手段の項目には、監視画像203の撮影手段が登録される。例えば、監視画像203が、保守用車両等に載せられたカメラ10Aで撮影されたものである場合、撮影手段の項目には「保守用車両等」が登録されてよい。例えば、監視画像203が、保守作業者が所持するカメラ付き端末によって撮影されたものである場合、撮影手段の項目には「手元端末」が登録されてよい。 The shooting means of the monitoring image 203 is registered in the shooting means item. For example, when the monitoring image 203 is captured by the camera 10A mounted on a maintenance vehicle or the like, "maintenance vehicle or the like" may be registered in the imaging means item. For example, if the monitoring image 203 is captured by a camera-equipped terminal possessed by a maintenance worker, "hand terminal" may be registered in the photographing means item.

撮影者の項目には、監視画像203の撮影者が登録される。例えば、監視画像203が、「パナ花子」という氏名の保守作業者によって撮影されたものである場合、撮影者の項目には「パナ花子」が登録される。例えば、監視画像203が、「松下太郎」という氏名の保守作業者によって撮影されたものである場合、撮影者の項目には「松下太郎」が登録される。 The photographer of the monitoring image 203 is registered in the item of photographer. For example, if the monitoring image 203 was taken by a maintenance worker whose name is "Hanako Pana", "Hanako Pana" is registered in the item of photographer. For example, if the monitoring image 203 was taken by a maintenance worker whose name is "Taro Matsushita", "Taro Matsushita" is registered in the item of photographer.

メモの項目には、監視画像203に対するメモの内容が登録される。例えば、保守作業者が、後述する保守用UI400に表示された監視画像203を見てメモを入力した場合、メモの項目には、その入力されたメモの内容が登録される。 The content of the memo for the monitoring image 203 is registered in the memo item. For example, when a maintenance worker views a monitoring image 203 displayed on the maintenance UI 400 (to be described later) and inputs a memo, the content of the input memo is registered in the memo item.

<監視画像と測位情報の対応付け>
図4は、監視画像203と測位情報206との対応付け方法の一例を説明するための図である。
<Association of monitoring images with positioning information>
FIG. 4 is a diagram for explaining an example of a method of associating the monitoring image 203 and the positioning information 206. As shown in FIG.

図3に示すように、監視情報生成部107は、監視画像203に、当該監視画像203の撮影時刻と同時刻に測位された測位情報206を対応付けて監視情報207を生成する。これにより、監視画像203の撮影位置を、当該監視画像203に対応付けられている測位情報206から特定することができる。 As shown in FIG. 3 , the monitoring information generation unit 107 generates monitoring information 207 by associating a monitoring image 203 with positioning information 206 positioned at the same time as when the monitoring image 203 was captured. Thereby, the shooting position of the monitoring image 203 can be specified from the positioning information 206 associated with the monitoring image 203 .

しかし、監視動画のフレームレートと、GNSS信号の受信頻度とは異なり得る。例えば、監視動画のフレームレートが30fpsであり、GNSS信号の受信頻度が10Hzであるとする。この場合、監視動画のフレーム周期は(1/30)秒であり、GNSS信号による測位周期は(1/10)秒であるため、すべての監視画像203に対して1対1で測位情報206を対応付けることはできない。 However, the frame rate of the surveillance video and the reception frequency of the GNSS signals may differ. For example, it is assumed that the frame rate of the monitoring video is 30 fps and the reception frequency of the GNSS signal is 10 Hz. In this case, the frame cycle of the monitoring video is (1/30) second, and the positioning cycle by the GNSS signal is (1/10) second. cannot be matched.

そこで、撮影位置特定部108は、監視画像203の撮影時刻と同時刻に測位された測位情報206が存在する場合、その監視画像203にその測位情報206を対応付け、監視画像203の撮影時刻と同時刻に測位された測位情報206が存在しない場合、他の時刻に測位された測位情報206に基づいて、その監視画像203に対応する測位情報206を推定する。 Therefore, if there is positioning information 206 that was positioned at the same time as the time when the monitoring image 203 was captured, the capturing position specifying unit 108 associates the monitoring image 203 with the positioning information 206, If the positioning information 206 positioned at the same time does not exist, the positioning information 206 corresponding to the monitoring image 203 is estimated based on the positioning information 206 positioned at another time.

例えば、図4に示すように、時刻t1、t2、t3、t4のそれぞれにて監視画像203が撮影され、時刻t1と時刻t4にて測位情報206が測位された場合、撮影位置特定部108は、次の処理を行う。すなわち、撮影位置特定部108は、時刻t1に撮影された監視画像203に、時刻t1に測位された測位情報206を対応付け、時刻t4に撮影された監視画像203に、時刻t4に測位された測位情報206を対応付ける。加えて、撮影位置特定部108は、時刻t1及び時刻t4における測位情報206に基づいて、時刻t2及び時刻t3における測位情報206を推定する。次に、当該推定方法について説明する。 For example, as shown in FIG. 4, when the monitoring image 203 is captured at times t1, t2, t3, and t4, respectively, and the positioning information 206 is measured at times t1 and t4, the capturing position specifying unit 108 , do the following: That is, the photographing position specifying unit 108 associates the monitoring image 203 photographed at time t1 with the positioning information 206 positioned at time t1, and associates the surveillance image 203 photographed at time t4 with the positioning information 206 positioned at time t4. Positioning information 206 is associated. In addition, the shooting position specifying unit 108 estimates the positioning information 206 at time t2 and time t3 based on the positioning information 206 at time t1 and time t4. Next, the estimation method will be described.

図5は、測位情報の推定方法の一例を説明するための図である。 FIG. 5 is a diagram for explaining an example of a positioning information estimation method.

例えば、図5に示すように、撮影位置特定部108は、時刻t1の測位情報206が示す位置P1と時刻t4の測位情報206が示す位置P4とを結ぶ線分Lを3分割し、分割点P2、P3を得る。なお、分割数は、測位の周期を監視画像203の周期で除した値に基づいて算出されてよい。また、線分Lの形状は、レールの線形に沿うものであってよい。 For example, as shown in FIG. 5, the photographing position specifying unit 108 divides a line segment L connecting a position P1 indicated by the positioning information 206 at time t1 and a position P4 indicated by the positioning information 206 at time t4 into three segments. Get P2 and P3. Note that the number of divisions may be calculated based on a value obtained by dividing the positioning period by the period of the monitoring image 203 . Also, the shape of the line segment L may follow the linear shape of the rail.

撮影位置特定部108は、分割点P2を時刻t2の測位情報206と推定し、分割点P3を時刻t3の測位情報206と推定する。そして、撮影位置特定部108は、監視情報207において、時刻t2の監視画像203に、その推定した時刻t2の測位情報206を対応付け、時刻t3の監視画像203に、その推定した時刻t3の測位情報206を対応付ける。 The shooting position specifying unit 108 estimates the division point P2 as the positioning information 206 at time t2, and the division point P3 as the positioning information 206 at time t3. Then, in the monitoring information 207, the imaging position specifying unit 108 associates the monitoring image 203 at time t2 with the estimated positioning information 206 at time t2, and associates the monitoring image 203 at time t3 with the estimated positioning information at time t3. Information 206 is associated.

これにより、監視動画のフレーム周期と、GNSS信号による測位周期とが異なる場合であっても、各監視画像203に測位情報206を対応付けることができる。 Thereby, even if the frame cycle of the monitoring video and the positioning cycle by the GNSS signal are different, the positioning information 206 can be associated with each monitoring image 203 .

<測位精度が不十分な場合>
車両1がトンネル又は地下等を走行している間、GNSS信号を受信できないため、測位情報生成部106は、その間の測位情報206を生成できない。したがって、監視情報207において、車両1がトンネル又は地下等を走行している間に撮影された監視画像203には、測位情報206が対応付けられない場合がある。この場合、測位情報206からは監視画像203の撮影位置を特定することができない。
<When positioning accuracy is insufficient>
Since the GNSS signal cannot be received while the vehicle 1 is traveling in a tunnel, underground, or the like, the positioning information generation unit 106 cannot generate the positioning information 206 during that time. Therefore, in the monitoring information 207, the positioning information 206 may not be associated with the monitoring image 203 captured while the vehicle 1 is traveling in a tunnel, underground, or the like. In this case, the imaging position of the monitoring image 203 cannot be specified from the positioning information 206. FIG.

また、車両1が都市部又は山間部等を走行している間、GNSS信号は受信できるもののRTK信号を受信できなかったり、GNSS信号の受信精度が不十分であったりして、生成された監視情報207の測位精度が不十分な場合がある。したがって、監視情報207において、車両1が都市部又は山間部等を走行している間に撮影された監視画像203に対応付けられている測位情報206は、測位精度が不十分である場合がある。この場合、測位情報206から特定した監視画像203の撮影位置は、実際の撮影位置から大きくずれていることがある。 In addition, while the vehicle 1 is traveling in an urban area, a mountainous area, or the like, the GNSS signal can be received but the RTK signal cannot be received, or the reception accuracy of the GNSS signal is insufficient. The positioning accuracy of the information 207 may be insufficient. Therefore, in the monitoring information 207, the positioning information 206 associated with the monitoring image 203 captured while the vehicle 1 is traveling in an urban area, a mountainous area, or the like may have insufficient positioning accuracy. . In this case, the shooting position of the monitoring image 203 specified from the positioning information 206 may deviate greatly from the actual shooting position.

そこで、撮影位置特定部108は、監視情報207において、測位情報206が対応付けられていない、あるいは、測位精度が不十分(所定の閾値未満)な測位情報206が対応付けられている監視画像203については、当該監視画像203の撮影時刻と同時刻に撮影された距離標画像204及び風景画像205のうちの少なくとも1つを用いて、当該監視画像203の撮影位置を特定する。 Therefore, the imaging position specifying unit 108 determines whether the monitoring image 203 associated with the monitoring information 207 is not associated with the positioning information 206 or is associated with the positioning information 206 with insufficient positioning accuracy (less than a predetermined threshold). , the photographing position of the surveillance image 203 is specified using at least one of the range marker image 204 and the scenery image 205 photographed at the same time as the surveillance image 203 was photographed.

例えば、撮影位置特定部108は、次のように、距離標画像204から撮影位置を特定する。すなわち、撮影位置特定部108は、監視画像203の撮影時刻と同時刻に撮影された距離標画像204に対して文字認識を行い、距離標の文字を読み取る。撮影位置特定部108は、その読み取った距離標の文字から、その距離標が示す営業キロを特定する。撮影位置特定部108は、監視情報207において、その距離標画像204の撮影時刻と同時刻に撮影された監視画像203に対して、その特定した営業キロを対応付ける。 For example, the shooting position specifying unit 108 specifies the shooting position from the distance marker image 204 as follows. That is, the photographing position specifying unit 108 performs character recognition on the distance post image 204 photographed at the same time as the monitoring image 203 is photographed, and reads the characters of the distance post. The photographing position specifying unit 108 specifies the operating kilometer indicated by the read distance marker from the read character of the distance marker. In the monitoring information 207, the photographing position specifying unit 108 associates the specified operating kilometers with the surveillance image 203 photographed at the same time as the distance mark image 204 was photographed.

例えば、撮影位置特定部108は、次のように、風景画像205から撮影位置を特定する。すなわち、撮影位置特定部108は、監視画像203の撮影時刻と同時刻に撮影された風景画像205に対して物体認識を行い、その物体を認識する。撮影位置特定部108は、認識した物体と当該物体が存在する位置との対応関係を有する所定のデータベースに、その認識した物体が存在する位置を問い合わせ、その物体が存在する位置を得る。撮影位置特定部108は、監視情報207において、その風景画像205の撮影時刻と同時刻に撮影された監視画像203に、その物体が存在する位置の営業キロを対応付ける。風景画像に撮影され、位置を特定し得る物体の例として、トンネル、橋りょう、駅舎、店舗、看板、標識、橋、ランドマークが挙げられる。 For example, the shooting position specifying unit 108 specifies the shooting position from the scenery image 205 as follows. That is, the photographing position specifying unit 108 performs object recognition on the scenery image 205 photographed at the same time as the monitoring image 203 is photographed, and recognizes the object. The photographing position specifying unit 108 obtains the position where the recognized object exists by querying a predetermined database having a correspondence relationship between the recognized object and the position where the object exists. In the surveillance information 207, the photographing position specifying unit 108 associates the surveillance image 203 photographed at the same time as the landscape image 205 with the operating kilometer of the position where the object exists. Examples of identifiable objects captured in landscape images include tunnels, bridges, station buildings, shops, billboards, signs, bridges, and landmarks.

例えば、撮影位置特定部108は、UI処理部109と連携して、次のように、風景画像205から撮影位置を特定する。すなわち、UI処理部109は、監視画像203の撮影時刻と同時刻に撮影された風景画像205を表示し、保守作業者からその風景画像205が示す位置の入力を受け付ける。保守作業者は、表示された風景画像205を見て、その風景画像205が撮影された位置を入力する。撮影位置特定部108は、監視情報207において、その風景画像205の撮影時刻と同時刻に撮影された監視画像203に、その入力された位置の営業キロを対応付ける。 For example, the shooting position specifying unit 108 specifies the shooting position from the landscape image 205 in cooperation with the UI processing unit 109 as follows. That is, the UI processing unit 109 displays a landscape image 205 captured at the same time as the monitoring image 203 was captured, and receives an input of a position indicated by the landscape image 205 from the maintenance worker. The maintenance worker looks at the displayed scenery image 205 and inputs the position where the scenery image 205 was photographed. In the monitoring information 207, the photographing position specifying unit 108 associates the surveillance image 203 photographed at the same time as the landscape image 205 with the operating kilometers of the input position.

<監視画像の撮影位置を特定する処理>
図6は、監視画像203の撮影位置を特定する処理の一例を示すフローチャートである。
<Processing for Identifying Shooting Position of Monitoring Image>
FIG. 6 is a flow chart showing an example of processing for specifying the shooting position of the monitoring image 203. As shown in FIG.

撮影位置特定部108は、監視情報207に含まれる複数の監視画像203の中から、監視画像203を1つ選択する(S101)。 The shooting position specifying unit 108 selects one monitoring image 203 from among the plurality of monitoring images 203 included in the monitoring information 207 (S101).

撮影位置特定部108は、監視情報207においてS101にて選択された監視画像203と対応付けられている(つまり監視画像203の撮影時刻と同時刻に測定された)測位情報206を取得する(S102)。 The imaging position specifying unit 108 acquires the positioning information 206 associated with the monitoring image 203 selected in S101 in the monitoring information 207 (that is, measured at the same time as the imaging time of the monitoring image 203) (S102). ).

監視情報生成部107は、S102にて取得された測位情報206に含まれる測位精度が所定の閾値以上であるか否かを判定する(S103)。 The monitoring information generation unit 107 determines whether or not the positioning accuracy included in the positioning information 206 acquired in S102 is equal to or greater than a predetermined threshold (S103).

測位精度が閾値以上である場合(S103:YES)、撮影位置特定部108は、S102にて取得された測位情報206の測位座標における営業キロを特定する(S104)。そして、S112の処理が実行される。 If the positioning accuracy is equal to or greater than the threshold (S103: YES), the shooting position specifying unit 108 specifies operating kilometers in the positioning coordinates of the positioning information 206 acquired in S102 (S104). Then, the process of S112 is executed.

測位精度が閾値未満である場合、又は、S101にて選択された監視画像203に測位情報206が対応付けられていない場合(S103:NO)、撮影位置特定部108は、次の処理を行う。すなわち、撮影位置特定部108は、監視情報207においてS101にて選択された監視画像203と対応付けられている(つまり監視画像203の撮影時刻と同時刻に撮影された)距離標画像204を取得する(S105)。 If the positioning accuracy is less than the threshold value, or if the monitoring image 203 selected in S101 is not associated with the positioning information 206 (S103: NO), the imaging position specifying unit 108 performs the following processing. That is, the imaging position specifying unit 108 acquires the distance marker image 204 associated with the monitoring image 203 selected in S101 in the monitoring information 207 (that is, captured at the same time as the monitoring image 203 was captured). (S105).

撮影位置特定部108は、S105にて選択された距離標画像204に対して距離標の文字認識を行う(S106)。撮影位置特定部108は、S106にて距離標の文字認識に成功したか否かを判定する(S107)。 The photographing position specifying unit 108 performs character recognition of the distance mark on the distance mark image 204 selected in S105 (S106). The shooting position specifying unit 108 determines whether or not character recognition of the distance marker has succeeded in S106 (S107).

距離標の文字認識に成功した場合(S107:YES)、撮影位置特定部108は、認識した距離標の文字が示す営業キロを特定する(S108)。そして、S112の処理が実行される。 If character recognition of the distance marker is successful (S107: YES), the photographing position identification unit 108 identifies operating kilometers indicated by the characters of the recognized distance marker (S108). Then, the process of S112 is executed.

距離標の文字認識に失敗した場合(S107:NO)、撮影位置特定部108は、UI処理部109と連携し、次の処理を行う。すなわち、UI処理部109は、保守用UI400として、監視情報207においてS101にて選択された監視画像203と対応付けられている(つまり監視画像203の撮影時刻と同時刻に撮影された)風景画像205を表示し、その風景画像205が示す位置の入力を受け付ける(S109)。 When the character recognition of the distance marker fails (S107: NO), the shooting position specifying unit 108 cooperates with the UI processing unit 109 to perform the following processing. That is, the UI processing unit 109 uses the landscape image associated with the monitoring image 203 selected in S101 in the monitoring information 207 (that is, captured at the same time as the monitoring image 203) as the maintenance UI 400. 205 is displayed, and the input of the position indicated by the landscape image 205 is accepted (S109).

保守作業者は、表示された風景画像205が示す位置情報を入力する(S110)。撮影位置特定部108は、S110で入力された位置の営業キロを特定する(S111)。そして、S112の処理が実行される。 The maintenance worker inputs position information indicated by the displayed landscape image 205 (S110). The photographing position specifying unit 108 specifies the operating kilometers of the position input in S110 (S111). Then, the process of S112 is executed.

撮影位置特定部108は、監視情報207において、S101にて選択された監視画像203に、S104、S108又はS111で特定した営業キロを対応付ける(S112)。監視装置100は、監視情報207に含まれる各監視画像203について上述した処理を実行した後、本処理を終了する。 In the monitoring information 207, the imaging position specifying unit 108 associates the operating kilometers specified in S104, S108, or S111 with the monitoring image 203 selected in S101 (S112). After the monitoring apparatus 100 executes the above-described processing for each monitoring image 203 included in the monitoring information 207, the processing ends.

以上の処理によれば、撮影位置特定部108は、監視画像203に対応付けられている測位情報206の測位精度が十分な場合、その測位情報206を用いて監視画像203の撮影位置の営業キロを特定する。また、撮影位置特定部108は、監視画像203に対応付けられている測位情報206の測位精度が不十分な場合、あるいは、監視画像203に測位情報206が対応付けられてない場合、監視画像203に対応付けられている距離標画像204又は風景画像205を用いて監視画像203の撮影位置の営業キロを特定する。これにより、監視画像203が何れの場所で撮影されたものであっても、その監視画像203の撮影位置の営業キロを特定することができる。 According to the above processing, if the positioning information 206 associated with the monitoring image 203 has sufficient positioning accuracy, the shooting position specifying unit 108 uses the positioning information 206 to determine the operating kilometer of the shooting position of the monitoring image 203 . identify. In addition, when the positioning accuracy of the positioning information 206 associated with the monitoring image 203 is insufficient, or when the positioning information 206 is not associated with the monitoring image 203, the imaging position specifying unit 108 Using the distance marker image 204 or landscape image 205 associated with , the operating kilometers of the shooting position of the surveillance image 203 are specified. As a result, it is possible to specify the operating kilometer of the shooting position of the surveillance image 203 regardless of where the surveillance image 203 was shot.

<保守用UIの表示>
図7は、本実施の形態に係る保守用UI400の表示例を示す図である。
<Display of maintenance UI>
FIG. 7 is a diagram showing a display example of the maintenance UI 400 according to this embodiment.

UI処理部109は、図7に示すような保守用UI400の画像を、出力装置1005の一例であるディスプレイに表示する。保守用UI400は、監視画像領域401、距離標画像領域402、風景画像領域403、情報領域404、地図領域405、前ボタン406、次ボタン407、要保守ボタン408、及び、メモボタン409を含む。 The UI processing unit 109 displays an image of the maintenance UI 400 as shown in FIG. 7 on a display, which is an example of the output device 1005 . The maintenance UI 400 includes a monitoring image area 401 , a distance marker image area 402 , a landscape image area 403 , an information area 404 , a map area 405 , a previous button 406 , a next button 407 , a maintenance required button 408 and a memo button 409 .

監視画像領域401には、監視情報207に含まれる監視画像203の1つが表示される。 One of the monitoring images 203 included in the monitoring information 207 is displayed in the monitoring image area 401 .

距離標画像領域402には、監視情報207において監視画像領域401に表示された監視画像203と対応付けられている距離標画像204が表示される。 A distance mark image 204 associated with the monitoring image 203 displayed in the monitoring image area 401 in the monitoring information 207 is displayed in the distance mark image area 402 .

風景画像領域403には、監視情報207において監視画像領域401に表示された監視画像203と対応付けられている風景画像205が表示される。 A landscape image 205 associated with the monitoring image 203 displayed in the monitoring image area 401 in the monitoring information 207 is displayed in the landscape image area 403 .

情報領域404には、監視画像領域401に表示された監視画像203に関する情報が表示される。例えば、監視画像203のファイル名、撮影日、撮影時刻、撮影者、メモ、営業キロ、撮影位置を示す緯度及び経度が表示される。UI処理部109は、監視情報207を参照して、情報領域404にこれらの情報を表示してよい。 Information about the monitoring image 203 displayed in the monitoring image area 401 is displayed in the information area 404 . For example, the file name, shooting date, shooting time, photographer, memo, business kilometers, and latitude and longitude indicating the shooting position of the surveillance image 203 are displayed. The UI processing unit 109 may refer to the monitoring information 207 and display this information in the information area 404 .

地図領域405には、監視画像領域401に表示された監視画像203の撮影位置の周辺地図と、その撮影位置を示すピン410とが表示される。 In the map area 405, a peripheral map of the imaging position of the monitoring image 203 displayed in the monitoring image area 401 and a pin 410 indicating the imaging position are displayed.

なお、図6のS110で述べた、風景画像205が示す位置の入力を受け付けるUIは、保守用UI400と同様であってよい。この場合、保守作業者は、風景画像領域403に表示された風景画像205を見て、その風景が示す地図上の位置にピン410を打つことにより、風景画像205が示す位置情報を入力できる。 Note that the UI for receiving the input of the position indicated by the landscape image 205, described in S110 of FIG. 6, may be the same as the UI for maintenance 400. FIG. In this case, the maintenance worker can input the position information indicated by the landscape image 205 by looking at the landscape image 205 displayed in the landscape image area 403 and placing a pin 410 on the position on the map indicated by the landscape.

前ボタン406が押下されると、UI処理部109は、監視情報207において1つ前の撮影時刻に対応付けられている監視画像203、距離標画像204、及び、風景画像205を、監視画像領域401、距離標画像領域402、及び、風景画像領域403にそれぞれ表示する。また、UI処理部109は、1つ前の撮影時刻に対応付けられている監視画像203の撮影位置の周辺地図と、その撮影位置を示すピン410とを地図領域405に表示する。 When the previous button 406 is pressed, the UI processing unit 109 moves the monitoring image 203, the distance marker image 204, and the scenery image 205, which are associated with the immediately previous shooting time in the monitoring information 207, into the monitoring image area. 401, distance mark image area 402, and scenery image area 403, respectively. In addition, the UI processing unit 109 displays in the map area 405 a peripheral map of the shooting position of the monitoring image 203 associated with the previous shooting time and a pin 410 indicating the shooting position.

次ボタン407が押下されると、UI処理部109は、監視情報207において1つ後の撮影時刻に対応付けられている監視画像203、距離標画像204、及び、風景画像205を、監視画像領域401、距離標画像領域402、及び、風景画像領域403にそれぞれ表示する。また、UI処理部109は、1つ後の撮影時刻に対応付けられている監視画像203の撮影位置の周辺地図と、その撮影位置を示すピン410とを地図領域405に表示する。 When the next button 407 is pressed, the UI processing unit 109 moves the monitoring image 203, the distance marker image 204, and the scenery image 205, which are associated with the next shooting time in the monitoring information 207, into the monitoring image area. 401, distance mark image area 402, and scenery image area 403, respectively. In addition, the UI processing unit 109 displays in the map area 405 a peripheral map of the shooting position of the monitoring image 203 associated with the next shooting time and a pin 410 indicating the shooting position.

要保守ボタン408が押下されると、UI処理部109は、監視情報207において、表示中の監視画像203と対応付けられている保守要否フラグを「必要」に変更する。 When the maintenance required button 408 is pressed, the UI processing unit 109 changes the maintenance necessity flag associated with the displayed monitoring image 203 in the monitoring information 207 to "required".

メモボタン409が押下されると、UI処理部109は、メモ入力用UI(図示しない)を表示する。加えて、UI処理部109は、監視情報207において、表示中の監視画像203と対応付けられているメモの項目に、メモ入力用UIに入力された内容を登録する。 When the memo button 409 is pressed, the UI processing unit 109 displays a memo input UI (not shown). In addition, the UI processing unit 109 registers the content input to the memo input UI in the memo item associated with the monitoring image 203 being displayed in the monitoring information 207 .

例えば、保守作業者は、次ボタン407を押下して、表示させる監視画像203を切り替えていき、保守対象物に問題が無いか否かを確認する。保守作業者は、保守対象物に問題がある場合、要保守ボタン408を押下する。また、保守作業者は、保守対象物にコメントを付しておきたい場合、メモボタン409を押下してメモを入力する。 For example, the maintenance worker presses the next button 407 to switch the displayed monitoring images 203 and confirms whether or not there is a problem with the maintenance object. The maintenance worker presses the maintenance required button 408 when there is a problem with the maintenance object. Also, if the maintenance worker wants to add a comment to the maintenance object, he or she presses the memo button 409 to enter a memo.

UI処理部109は、検索機能を提供してもよい。例えば、UI処理部109は、監視情報207の中から、営業キロが対応付けられていない監視画像203を検索して、保守用UI400に表示してもよい。これにより、保守作業者は、風景画像205が示す位置の入力を効率的に行うことができる。また、例えば、UI処理部109は、監視情報207の中から、保守要否フラグ「必要」に対応付けられている監視画像203を検索して、保守用UI400に表示してもよい。これにより、保守作業者は、保守が必要な保守対象物の監視画像203を効率的に確認できる。 The UI processing unit 109 may provide a search function. For example, the UI processing unit 109 may search the monitoring information 207 for a monitoring image 203 not associated with a business kilometer and display it on the maintenance UI 400 . Thereby, the maintenance worker can efficiently input the position indicated by the scenic image 205 . Further, for example, the UI processing unit 109 may search the monitoring image 203 associated with the maintenance necessity flag “required” from the monitoring information 207 and display it on the maintenance UI 400 . As a result, the maintenance worker can efficiently check the monitoring image 203 of the maintenance object requiring maintenance.

<変形例及び補足>
情報格納部101には、車両1に備えたカメラ10A、10B、10Cから撮影した監視画像203、距離標画像204、風景画像205に加えて、保守作業者が所持するカメラから撮影した監視画像203、距離標画像204、風景画像205も格納されてよい。この場合、監視情報生成部107は、保守作業者が撮影した監視画像203、距離標画像204、風景画像205についても、監視情報207に加えてよい。保守作業者が所持するカメラは、カメラ付きのスマートフォン又はタブレット端末であってよい。あるいは、保守作業者が所持するカメラは、保守作業者がかぶっているヘルメットに装着されたものであってもよい。
<Modification and Supplement>
The information storage unit 101 stores monitoring images 203 captured by the cameras 10A, 10B, and 10C provided in the vehicle 1, distance marker images 204, and landscape images 205, as well as monitoring images 203 captured by cameras possessed by maintenance workers. , a distance marker image 204 and a landscape image 205 may also be stored. In this case, the monitoring information generation unit 107 may add to the monitoring information 207 the monitoring image 203, the distance marker image 204, and the landscape image 205 captured by the maintenance worker. The camera possessed by the maintenance worker may be a camera-equipped smartphone or tablet terminal. Alternatively, the camera carried by the maintenance worker may be attached to the helmet worn by the maintenance worker.

上述では測位にRTK信号も使用しているが、RTK信号を使用せずに、GNSS信号のみで測位を行ってもよい。あるいは、監視装置100は、GNSS信号及びRTK信号のいずれも使用せず、距離標画像204又は風景画像205を用いて、監視画像203の撮影位置を特定してもよい。 Although the RTK signal is also used for positioning in the above description, positioning may be performed using only the GNSS signal without using the RTK signal. Alternatively, the monitoring device 100 may identify the capturing position of the monitoring image 203 using the range marker image 204 or the landscape image 205 without using either the GNSS signal or the RTK signal.

上述では、保守対象を鉄道とした場合について説明したが、保守対象は鉄道に限られない。上述した内容は、一般道路又は高速道路といった車両が走行する場所に適応することができる。例えば、上述した内容を高速道路に適応することにより、高速道路上のトンネル、路肩又は崩落防止壁といった保守のために撮影した画像の撮影位置を精度良く特定できる。 In the above description, the case where the maintenance object is the railway has been described, but the maintenance object is not limited to the railway. What has been described above can be applied to locations where the vehicle travels, such as general roads or highways. For example, by applying the above-described content to an expressway, it is possible to accurately specify the photographing positions of images photographed for maintenance, such as tunnels, road shoulders, or collapsing prevention walls on the expressway.

また、上述では、GNSS又はRTKを用いて位置を特定する場合について説明したが、路線名及び営業キロの情報に基づいて、位置を特定することもできる。この構成によれば、距離標等から認識した営業キロと路線名とから位置を正確に特定できる。なお、路線名は事前に登録しておき、距離標からは営業キロを認識するような構成でもよい。 Moreover, although the case where the position is specified using GNSS or RTK has been described above, the position can also be specified based on the information on the route name and operating kilometers. According to this configuration, it is possible to accurately specify the position from the operating kilometers and the route name recognized from the milepost or the like. It should be noted that the route name may be registered in advance, and the operating kilometers may be recognized from the distance marker.

<ハードウェア構成>
上述した監視装置100の機能ブロックは、コンピュータプログラムにより実現されてもよい。図8は、本実施の形態に係る監視装置100の機能ブロックをコンピュータプログラムにより実現するコンピュータのハードウェア構成を示す図である。なお、コンピュータは、情報処理装置と読み替えられてもよい。
<Hardware configuration>
The functional blocks of the monitoring device 100 described above may be realized by a computer program. FIG. 8 is a diagram showing the hardware configuration of a computer that implements the functional blocks of monitoring apparatus 100 according to this embodiment by means of a computer program. Note that the computer may be read as an information processing device.

コンピュータ1000は、プロセッサ1001、メモリ1002、ストレージ1003、入力装置1004、出力装置1005、通信装置1006、GPU(Graphics Processing Unit)1007、読取装置1008、及び、バス1009を備える。 Computer 1000 includes processor 1001 , memory 1002 , storage 1003 , input device 1004 , output device 1005 , communication device 1006 , GPU (Graphics Processing Unit) 1007 , reader 1008 , and bus 1009 .

各装置1001~1008は、バス1009に接続され、バス1009を介して双方向にデータを送受信できる。 Each device 1001-1008 is connected to a bus 1009 and can transmit and receive data bi-directionally over the bus 1009. FIG.

プロセッサ1001は、メモリ1002に記憶されたコンピュータプログラムを実行し、上述した機能ブロックを実現する装置である。プロセッサ1001は、制御部と読み替えられてもよい。プロセッサ1001の例として、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、コントローラ、LSI(large scale integration)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field-Programmable Gate Array)が挙げられる。 A processor 1001 is a device that executes a computer program stored in a memory 1002 and implements the functional blocks described above. The processor 1001 may be read as a control unit. Examples of the processor 1001 include CPU (Central Processing Unit), MPU (Micro Processing Unit), controller, LSI (large scale integration), ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), FPGA (Field-Programmable Gate Array).

メモリ1002は、コンピュータ1000が取り扱うコンピュータプログラム及びデータを記憶する装置である。メモリ1002は、記憶部と読み替えられてもよい。メモリ1002は、ROM(Real-Only Memory)及びRAM(Random Access Memory)を含んでよい。RAMの例として、DRAM(Dynamic Random Access Memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)が挙げられる。 Memory 1002 is a device that stores computer programs and data handled by computer 1000 . The memory 1002 may be read as a storage unit. The memory 1002 may include ROM (Real-Only Memory) and RAM (Random Access Memory). Examples of RAM include DRAM (Dynamic Random Access Memory), MRAM (Magnetoresistive Random Access Memory), and FeRAM (Ferroelectric Random Access Memory).

ストレージ1003は、不揮発性記憶媒体で構成され、コンピュータ1000が取り扱うコンピュータプログラム及びデータを記憶する装置である。ストレージ1003の例として、HDD(Hard Disk Drive)、SSD(Solid State Drive)が挙げられる。 The storage 1003 is configured by a non-volatile storage medium and is a device that stores computer programs and data handled by the computer 1000 . Examples of the storage 1003 include HDDs (Hard Disk Drives) and SSDs (Solid State Drives).

入力装置1004は、プロセッサ1001に入力するデータを受け付ける装置である。入力装置1004の例として、キーボード、マウス、タッチパッド、マイクが挙げられる。 The input device 1004 is a device that receives data to be input to the processor 1001 . Examples of input devices 1004 include keyboards, mice, touchpads, and microphones.

出力装置1005は、プロセッサ1001が生成したデータを出力する装置である。出力装置1005の例として、ディスプレイ、スピーカーが挙げられる。 The output device 1005 is a device that outputs data generated by the processor 1001 . Examples of the output device 1005 include a display and speakers.

通信装置1006は、サーバに代表される他の装置と、通信ネットワークを介して、データを送受信する装置である。通信装置1006は、データを送信する送信部とデータを受信する受信部とを含んでよい。通信装置1006は、有線通信及び無線通信の何れに対応してもよい。有線通信の例として、Ethernet(登録商標)が挙げられる。無線通信の例として、IEEE802.11、Bluetooth、LTE、4G、5Gが挙げられる。 The communication device 1006 is a device that transmits and receives data to and from another device represented by a server via a communication network. Communication device 1006 may include a transmitter for transmitting data and a receiver for receiving data. The communication device 1006 may support both wired communication and wireless communication. An example of wired communication is Ethernet (registered trademark). Examples of wireless communication include IEEE802.11, Bluetooth, LTE, 4G, 5G.

GPU1007は、画像描写を高速に処理する装置である。なお、GPU1007は、AI(Artificial Intelligence)に関する処理(例えばディープラーニング)や、距離標等に対する文字認識に関する処理に利用されてもよい。 The GPU 1007 is a device that processes image rendering at high speed. Note that the GPU 1007 may be used for processing related to AI (Artificial Intelligence) (for example, deep learning) and processing related to character recognition for distance markers and the like.

読取装置1008は、DVD-ROM(Digital Versatile Disk Read Only Memory)又はUSBメモリといった外部の記録媒体からデータを読み取る装置である。 The reading device 1008 is a device that reads data from an external recording medium such as a DVD-ROM (Digital Versatile Disk Read Only Memory) or USB memory.

なお、監視装置100の機能ブロックは、集積回路であるLSIとして実現されてもよい。これらの機能ブロックは、個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。 Note that the functional blocks of the monitoring device 100 may be implemented as an LSI, which is an integrated circuit. These functional blocks may be made into one chip individually, or may be made into one chip so as to include part or all of them. Although LSI is used here, it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration. Furthermore, if an integration technology that replaces the LSI appears due to advances in semiconductor technology or another technology derived from it, that technology may naturally be used to integrate the functional blocks.

なお、本実施の形態の映像レコーダ20は、カメラ10A、10B、10Cから監視動画、距離標動画、及び、風景動画をそれぞれ受信したが、映像レコーダ20は、カメラ10A、10B、10Cから監視画像、距離標画像、及び、風景画像をそれぞれ受信してもよい。この構成によれば、動画から画像を抽出する処理が不要となる。 Note that the video recorder 20 of the present embodiment receives the monitoring video, the distance marker video, and the scenery video from the cameras 10A, 10B, and 10C, respectively, but the video recorder 20 receives the monitoring video from the cameras 10A, 10B, and 10C. , a range marker image, and a landscape image, respectively. This configuration eliminates the need for processing for extracting images from moving images.

以上、添付図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した実施の形態における各構成要素を任意に組み合わせてもよい。 Although the embodiments have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is obvious that a person skilled in the art can conceive of various modifications, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims. It is understood that it belongs to the technical scope of the present disclosure. Also, the components in the above-described embodiments may be combined arbitrarily without departing from the spirit of the invention.

本開示の技術は、鉄道を含む、交通インフラ全般の監視及び保守に有用である。 The technology of the present disclosure is useful for monitoring and maintaining transportation infrastructure in general, including railways.

1 車両
2 監視システム
3 GNSS衛星
4 無線基地局
5 時刻サーバ
10A、10B、10C カメラ
20 映像レコーダ
30 GNSS受信装置
40 RTK受信装置
100 監視装置
101 情報格納部
102 GNSS情報受信部
103 補正情報受信部
104 時計同期部
105 画像取得部
106 測位情報生成部
107 監視情報生成部
108 撮影位置特定部
109 UI処理部
201 GNSS情報
202 補正情報
203 監視画像
204 距離標画像
205 風景画像
206 測位情報
207 監視情報
400 保守用UI
401 監視画像領域
402 距離標画像領域
403 風景画像領域
404 情報領域
405 地図領域
406 前ボタン
407 次ボタン
408 要保守ボタン
409 メモボタン
410 ピン
1000 コンピュータ
1001 プロセッサ
1002 メモリ
1003 ストレージ
1004 入力装置
1005 出力装置
1006 通信装置
1007 GPU
1008 読取装置
1009 バス
1 Vehicle 2 Monitoring System 3 GNSS Satellite 4 Radio Base Station 5 Time Server 10A, 10B, 10C Camera 20 Video Recorder 30 GNSS Receiver 40 RTK Receiver 100 Monitoring Device 101 Information Storage Unit 102 GNSS Information Receiver 103 Correction Information Receiver 104 Clock synchronization unit 105 Image acquisition unit 106 Positioning information generation unit 107 Monitoring information generation unit 108 Shooting position identification unit 109 UI processing unit 201 GNSS information 202 Correction information 203 Monitoring image 204 Distance mark image 205 Scenery image 206 Positioning information 207 Monitoring information 400 Maintenance UI for
401 Surveillance image area 402 Range marker image area 403 Landscape image area 404 Information area 405 Map area 406 Previous button 407 Next button 408 Maintenance required button 409 Memo button 410 Pin 1000 Computer 1001 Processor 1002 Memory 1003 Storage 1004 Input device 1005 Output device 1006 Communication Device 1007 GPU
1008 reader 1009 bus

Claims (7)

車両の移動経路上の保守対象物を監視する監視装置であって、
前記保守対象物を撮影した第1画像と、前記第1画像の撮影時刻にて距離又は場所を示す物体を撮影した第2画像とを対応付けて情報格納部に格納させる制御部、を備え、
前記制御部は、前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、
前記測位情報は、前記測位の精度を示す測位精度を含み、
前記制御部は、
前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、
前記測位精度が前記閾値未満の場合、前記第2画像に基づいて前記第1画像の撮影位置を特定する、
監視装置。
A monitoring device for monitoring a maintenance object on a moving route of a vehicle,
a control unit for storing in an information storage unit a first image obtained by photographing the maintenance object and a second image obtained by photographing the object indicating the distance or location at the photographing time of the first image in association with each other;
The control unit associates, in addition to the first image and the second image, positioning information obtained by measuring the photographing position of the first image,
The positioning information includes positioning accuracy indicating the positioning accuracy,
The control unit
If the positioning accuracy is equal to or greater than a predetermined threshold, specifying the shooting position of the first image based on the positioning information;
If the positioning accuracy is less than the threshold, specifying the shooting position of the first image based on the second image;
surveillance equipment.
前記制御部は、
前記第1画像と、前記第2画像と、前記測位情報に加えて、前記第1画像の撮影時刻にて前記第1画像の撮影位置の周辺を撮影した風景画像を対応付け、
前記測位情報が前記閾値未満であり、かつ、前記第2画像に基づいて前記第1画像の撮影位置を特定できない場合、前記第1画像に対応付けられている前記風景画像を表示させる、
請求項1に記載の監視装置。
The control unit
In addition to the first image, the second image, and the positioning information, associating a scenery image captured around the shooting position of the first image at the shooting time of the first image,
displaying the scenery image associated with the first image when the positioning information is less than the threshold and the shooting position of the first image cannot be specified based on the second image;
A monitoring device according to claim 1 .
前記制御部は、前記測位情報が前記閾値未満であり、かつ、前記第2画像に基づいて前記第1画像の撮影位置を特定できない場合、前記第1画像に対応付けられている前記風景画像を表示させ、前記風景画像の撮影位置の入力を受け付ける、
請求項2に記載の監視装置。
When the positioning information is less than the threshold value and the photographing position of the first image cannot be specified based on the second image, the controller determines the scenic image associated with the first image. display and receive an input of the shooting position of the landscape image;
3. A monitoring device according to claim 2.
前記制御部は、前記第1画像の特定された撮影位置に対応する営業キロを算出する、
請求項1、2及び3の何れか1項に記載の監視装置。
The control unit calculates an operating kilometer corresponding to the specified shooting position of the first image.
4. A monitoring device according to any one of claims 1, 2 and 3.
車両の移動経路上の保守対象物を監視する監視システムであって、
前記保守対象物を撮影して第1画像を生成する第1のカメラと、
前記第1画像の撮影時刻にて距離又は場所を示す物体を撮影して第2画像を生成する第2のカメラと、
前記保守対象物を撮影した前記第1画像と、前記第1画像の撮影時刻にて距離又は場所を示す物体を撮影した第2画像とを対応付けて情報格納部に格納し、
前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、
前記測位情報は、前記測位の精度を示す測位精度を含み、
前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、
前記測位精度が前記閾値未満の場合、前記第2画像に基づいて前記第1画像の撮影位置を特定する監視装置と、を備える、
監視システム。
A monitoring system for monitoring a maintenance object on a moving route of a vehicle,
a first camera that captures the maintenance object to generate a first image;
a second camera that captures an object indicating the distance or location at the capture time of the first image to generate a second image;
storing in an information storage unit the first image obtained by photographing the maintenance object and a second image obtained by photographing the object indicating the distance or location at the photographing time of the first image in association with each other;
Associating the first image with positioning information obtained by positioning the shooting position of the first image in addition to the second image,
The positioning information includes positioning accuracy indicating the accuracy of the positioning,
If the positioning accuracy is equal to or greater than a predetermined threshold, specifying the shooting position of the first image based on the positioning information;
a monitoring device that specifies the shooting position of the first image based on the second image when the positioning accuracy is less than the threshold;
Monitoring system.
車両の移動経路上の保守対象物を監視する監視方法であって、
前記保守対象物を撮影した第1画像と、前記第1画像の撮影時刻にて距離又は場所を示す物体を撮影した第2画像とを対応付けて情報格納部に格納し、
前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、
前記測位情報は、前記測位の精度を示す測位精度を含み、
前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、
前記測位精度が前記閾値未満の場合、前記第2画像に基づいて前記第1画像の撮影位置を特定する、
監視方法。
A monitoring method for monitoring a maintenance target on a moving route of a vehicle,
storing in an information storage unit a first image obtained by photographing the maintenance object and a second image obtained by photographing the object indicating the distance or location at the photographing time of the first image in association with each other;
Associating the first image with positioning information obtained by positioning the shooting position of the first image in addition to the second image,
The positioning information includes positioning accuracy indicating the accuracy of the positioning,
If the positioning accuracy is equal to or greater than a predetermined threshold, specifying the shooting position of the first image based on the positioning information;
If the positioning accuracy is less than the threshold, specifying the shooting position of the first image based on the second image;
Monitoring method.
車両の移動経路上の保守対象物を監視するためのコンピュータプログラムであって、
前記保守対象物を撮影した第1画像と、前記第1画像の撮影時刻にて距離又は場所を示す物体を撮影した第2画像とを対応付けて情報格納部に格納させ、
前記第1画像と、前記第2画像に加えて、前記第1画像の撮影位置を測位した測位情報を対応付け、
前記測位情報は、前記測位の精度を示す測位精度を含み、
前記測位精度が所定の閾値以上の場合、前記測位情報に基づいて前記第1画像の撮影位置を特定し、
前記測位精度が前記閾値未満の場合、前記第2画像に基づいて前記第1画像の撮影位置を特定する、
ことをコンピュータに実行させる、
コンピュータプログラム。
A computer program for monitoring a maintenance object on a moving route of a vehicle,
storing in an information storage unit a first image obtained by photographing the maintenance object and a second image obtained by photographing the object indicating the distance or location at the photographing time of the first image in association with each other;
Associating the first image with positioning information obtained by positioning the shooting position of the first image in addition to the second image,
The positioning information includes positioning accuracy indicating the accuracy of the positioning,
If the positioning accuracy is equal to or greater than a predetermined threshold, specifying the shooting position of the first image based on the positioning information;
If the positioning accuracy is less than the threshold, specifying the shooting position of the first image based on the second image;
make the computer do
computer program.
JP2020175472A 2020-10-19 2020-10-19 MONITORING DEVICE, MONITORING SYSTEM, MONITORING METHOD, AND COMPUTER PROGRAM Active JP7117645B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020175472A JP7117645B2 (en) 2020-10-19 2020-10-19 MONITORING DEVICE, MONITORING SYSTEM, MONITORING METHOD, AND COMPUTER PROGRAM
JP2021198516A JP7417871B2 (en) 2020-10-19 2021-12-07 Monitoring device, monitoring system, monitoring method, and computer program
JP2023180978A JP2024001239A (en) 2020-10-19 2023-10-20 Monitoring device, monitoring system, monitoring method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020175472A JP7117645B2 (en) 2020-10-19 2020-10-19 MONITORING DEVICE, MONITORING SYSTEM, MONITORING METHOD, AND COMPUTER PROGRAM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021198516A Division JP7417871B2 (en) 2020-10-19 2021-12-07 Monitoring device, monitoring system, monitoring method, and computer program

Publications (2)

Publication Number Publication Date
JP2022066880A JP2022066880A (en) 2022-05-02
JP7117645B2 true JP7117645B2 (en) 2022-08-15

Family

ID=81389861

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020175472A Active JP7117645B2 (en) 2020-10-19 2020-10-19 MONITORING DEVICE, MONITORING SYSTEM, MONITORING METHOD, AND COMPUTER PROGRAM
JP2021198516A Active JP7417871B2 (en) 2020-10-19 2021-12-07 Monitoring device, monitoring system, monitoring method, and computer program
JP2023180978A Pending JP2024001239A (en) 2020-10-19 2023-10-20 Monitoring device, monitoring system, monitoring method, and computer program

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021198516A Active JP7417871B2 (en) 2020-10-19 2021-12-07 Monitoring device, monitoring system, monitoring method, and computer program
JP2023180978A Pending JP2024001239A (en) 2020-10-19 2023-10-20 Monitoring device, monitoring system, monitoring method, and computer program

Country Status (1)

Country Link
JP (3) JP7117645B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6821284B1 (en) 2020-03-24 2021-01-27 株式会社ファンクリエイト Road surface covering sheet and road surface covering sheet inspection method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6555255B2 (en) 2014-04-25 2019-08-07 ソニー株式会社 Information processing apparatus, information processing method, and computer program
JP6998710B2 (en) 2017-09-12 2022-01-18 西日本旅客鉄道株式会社 Inspection work support device, distance marker information management method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6821284B1 (en) 2020-03-24 2021-01-27 株式会社ファンクリエイト Road surface covering sheet and road surface covering sheet inspection method

Also Published As

Publication number Publication date
JP2024001239A (en) 2024-01-09
JP7417871B2 (en) 2024-01-19
JP2022066880A (en) 2022-05-02
JP2022067096A (en) 2022-05-02

Similar Documents

Publication Publication Date Title
CN108413975B (en) Map acquisition method and system, cloud processor and vehicle
CN106462729B (en) Vehicle image data management system and method
JP6494103B2 (en) Train position detection system using image processing and train position and environment change detection system using image processing
CN103150786B (en) Non-contact type unmanned vehicle driving state measuring system and measuring method
JP4752836B2 (en) Road environment information notification device and road environment information notification program
US20130102335A1 (en) Mobile device, information processing device, location information acquisition method, location information acquisition system, and program
US20130170701A1 (en) Computer-readable recording medium and road surface survey device
CN111024115A (en) Live-action navigation method, device, equipment, storage medium and vehicle-mounted multimedia system
US20200034637A1 (en) Real-Time Track Asset Recognition and Position Determination
JP2009083815A (en) Drive recorder device and accident analysis simulation device
CN203480561U (en) Driving state measurement system of non-contact unmanned vehicle
CN102244772A (en) Intelligent driving monitoring system
US20230257009A1 (en) Digital context-aware data collection
CN111829546A (en) AR navigation system and equipment, and clock correction method
CN105387854A (en) Navigation system with content delivery mechanism and method of operation thereof
WO2013098980A1 (en) Information processing system, information processing device, information processing program, information recording medium and method for processing information
JP2002357557A (en) Control system of road, surrounding facility, and the like
CN113269976A (en) Positioning method and device
CN111402702A (en) Map construction method, device and system
JP7117645B2 (en) MONITORING DEVICE, MONITORING SYSTEM, MONITORING METHOD, AND COMPUTER PROGRAM
CN112550377A (en) Rail transit emergency positioning method and system based on video identification and IMU (inertial measurement Unit) equipment
JP2019087969A (en) Travel field investigation support device
CN106162061A (en) A kind of vehicle mounted imaging apparatus and method
JP2021068994A (en) Search method of driving route
CN106840181B (en) System and method for determining vehicle position

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210108

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210108

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211207

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211207

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211215

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220623

R151 Written notification of patent or utility model registration

Ref document number: 7117645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151