JP7227879B2 - Surrounding Observation System, Surrounding Observation Program and Surrounding Observation Method - Google Patents
Surrounding Observation System, Surrounding Observation Program and Surrounding Observation Method Download PDFInfo
- Publication number
- JP7227879B2 JP7227879B2 JP2019159519A JP2019159519A JP7227879B2 JP 7227879 B2 JP7227879 B2 JP 7227879B2 JP 2019159519 A JP2019159519 A JP 2019159519A JP 2019159519 A JP2019159519 A JP 2019159519A JP 7227879 B2 JP7227879 B2 JP 7227879B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- observation
- unit
- peripheral
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60L—PROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
- B60L3/00—Electric devices on electrically-propelled vehicles for safety purposes; Monitoring operating variables, e.g. speed, deceleration or energy consumption
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61L—GUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
- B61L25/00—Recording or indicating positions or identities of vehicles or vehicle trains or setting of track apparatus
- B61L25/02—Indicating or recording positions or identities of vehicles or vehicle trains
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Description
本発明は、周辺観測システム、周辺観測プログラムおよび周辺観測方法に関する。 The present invention relates to a surroundings observation system, a surroundings observation program, and a surroundings observation method.
鉄道の技術分野では、安全性を高めるために、車両前方の障害物を発見する技術が知られている。例えば、特許文献1には、「車両に設けた近距離を撮影する近距離撮影部と、遠距離を撮影する遠距離撮影部、更に近距離内を照射するLIDARとを用いて障害物を検知する」旨の技術が開示される。 In the technical field of railways, there is known a technique for detecting obstacles in front of the vehicle in order to improve safety. For example, Patent Literature 1 discloses that "an obstacle is detected by using a short-distance photographing unit that photographs a short distance provided in a vehicle, a long-distance photographing unit that photographs a long distance, and a LIDAR that irradiates a short distance. A technique to the effect that "to do" is disclosed.
この種の障害物を検知する技術では、駅ホーム上で安全に待機する乗客や、軌道近くで安全に保守作業を行う保守員を障害物と区別することが技術的に困難であった。
そのため、障害物ではないものを誤検出するたびに、車両を緊急停止させるなど、鉄道運行に支障が生じる場合があった。
With this type of obstacle detection technology, it is technically difficult to distinguish passengers waiting safely on station platforms and maintenance personnel safely performing maintenance work near the tracks from obstacles.
Therefore, every time an object that is not an obstacle is erroneously detected, there are cases where the railway operation is hindered, such as an emergency stop of the vehicle.
この種の誤検知を防ぐ技術として、例えば、特許文献2には、「列車前方を事前に撮影したベースビデオ画像と、走行中の列車前方のリファレンス画像との相関に基づいて列車の車両位置を検出する。ベースビデオ画像には仮想建築限界枠が予め設定される。同じ車両位置で別日時に撮影されたベースビデオ画像とリファレンスビデオ画像との差異を仮想建築限界枠内に限って検出することにより、仮想建築限界枠内の障害物のみを検知する。」旨の技術が開示される。 As a technique for preventing this type of false detection, for example, Patent Document 2 discloses that "a vehicle position of a train is determined based on the correlation between a base video image taken in advance in front of the train and a reference image in front of the running train. A virtual construction gauge frame is set in advance for the base video image, and the difference between the base video image and the reference video image taken at the same vehicle position on different dates and times is detected only within the virtual construction gauge frame. detects only obstacles within the virtual building gauge frame.” is disclosed.
特許文献2のような列車の車両位置を検知するシステムでは、車両位置の検出精度をさらに高めることが望まれる。 In a system for detecting the vehicle position of a train as in Patent Document 2, it is desired to further improve the detection accuracy of the vehicle position.
そこで、本発明は、車両位置の検出精度を高める周辺観測の技術を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a surrounding observation technique that increases the accuracy of vehicle position detection.
上記課題を解決するために、代表的な本発明の周辺観測システムの一つは、周辺環境観測部、および位置推定部を備える。前記周辺環境観測部は、軌道を走行する車両の位置から周辺の物体群の位置を観測し、観測結果として出力する。前記位置推定部は、事前に前記物体群の位置を観測して作成された地図データを記憶し、前記観測結果における前記車両の位置を前記地図データの軌道上に限定した状態で、前記観測結果と前記地図データとの相関を算出し、前記相関に基づいて車両位置を推定する。 In order to solve the above problems, one typical peripheral observation system of the present invention comprises a peripheral environment observation section and a position estimation section. The surrounding environment observation unit observes the positions of surrounding objects from the position of the vehicle traveling on the track, and outputs the result as an observation result. The position estimating unit stores map data created by observing positions of the object group in advance, and stores the position of the vehicle in the observation result in a state where the position of the vehicle is limited to the trajectory of the map data. and the map data, and the vehicle position is estimated based on the correlation.
本発明により、車両位置の検出精度を高める周辺観測の技術が提供される。 The present invention provides a surrounding observation technique that enhances the detection accuracy of the vehicle position.
上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。 Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.
以下、実施の形態について図面を参照して説明する。 Embodiments will be described below with reference to the drawings.
《実施例1の構成》
図1は、実施例1の鉄道輸送システム100(周辺観測システム100Aを含む)の構成を示す図である。
<<Configuration of Embodiment 1>>
FIG. 1 is a diagram showing the configuration of a rail transportation system 100 (including a peripheral observation system 100A) of Example 1. As shown in FIG.
鉄道輸送システム100は、車両102、および周辺観測システム100Aを備える。
The rail transportation system 100 includes a
車両102は、軌道に沿って走行する旅客や貨物を輸送する車両である。車両102は、車両運転制御部105と車両駆動部106とから構成される。この車両102には、周辺観測システム100Aから障害物情報161が与えられる。
The
車両運転制御部105は、車両102の位置と速度を検知する機能を内部に有する。車両運転制御部105は、この位置および速度が、目標走行パターンに沿うように、駆動指令142を生成する。目標走行パターンは、予め分かっている車両102の加減速度と走行区間の制限速度に基づくパターンを基本とする。そのうえで、車両運転制御部105は、車両102の位置と、車両102の最大減速度とから、車両102の許容最高速度を算出し、基本の目標走行パターンに反映させる。このような車両運転制御部105としては、ATO装置(自動列車運転装置)が例として挙げられる。
The vehicle
車両駆動部106は、与えられる駆動指令142に基づき、車両102を駆動する。車両駆動部106の具体的装置の例としては、インバータ、モータ、摩擦ブレーキなどが挙げられる。
The
一方、周辺観測システム100Aは、周辺環境観測部107、自己位置推定システム101、および障害物検知システム103を備える。
On the other hand, the surroundings observation system 100A includes a surroundings
周辺環境観測部107は、車両102の前方に設置され、車両102の周辺にある物体の位置や形状、色や反射強度などを取得するセンサーである。例えば、周辺環境観測部107は、カメラ、LIDAR(Laser Imaging Detection and Ranging)、レーザレーダ、あるいはミリ波レーダーなどのセンサーである。
The surrounding
自己位置推定システム101は、周辺環境観測部107から周辺環境観測データ151を取得し、車両102の車両位置および姿勢を推定して位置・姿勢情報153を出力する。
Self-
障害物検知システム103は、検知範囲設定データベース108、監視エリア設定処理部109、検知対象情報データベース110、側方境界監視部111、前方境界監視部112、および障害物検知部113を備える。
The obstacle detection system 103 includes a detection range setting database 108 , a monitoring area
検知範囲設定データベース108には、車両102の位置・姿勢情報153に対応付けて、監視エリアの検知範囲154が記憶される。なお、検知範囲154には、軌道付近の建築限界をベースとした範囲データに加えて、駅ホーム付近や保守作業を行うエリアなどの検知しないエリアの情報も含まれる。
The detection range setting database 108 stores the
監視エリア設定処理部109は、位置・姿勢情報153を検知範囲設定データベース108に照会することにより、位置・姿勢情報153に対応する検知範囲154を取得する。監視エリア設定処理部109は、最新の検知範囲154に基づいて、監視エリアの側方境界155を逐次に決定し、側方境界監視部111に設定する。また、監視エリア設定処理部109は、最新の検知範囲154に基づいて、監視エリアの前方境界156を逐次に決定し、前方境界監視部112に設定する。
The monitoring area
検知対象情報データベース110は、車両位置や監視エリアに対応付けて、監視エリアで観測される背景としての検出点(障害物以外の検出対象)について、位置と反射率などの情報が記録される。側方境界監視部111および前方境界監視部112は、検知対象情報データベース110に車両位置や監視エリアを照会して、背景の検出点に関する情報157,158をそれぞれ取得する。
The detection target information database 110 records information such as positions and reflectances of detection points (detection targets other than obstacles) as backgrounds observed in the monitoring area in association with vehicle positions and monitoring areas. The side
側方境界監視部111および前方境界監視部112は、カメラ、LIDAR、レーザレーダ、あるいはミリ波レーダーなどのセンサーを用いて、監視エリアの側方境界および前方境界に設定した領域の障害物を検知する機能を持つ。ここで、側方境界監視部111および前方境界監視部112は、周辺環境観測部107のセンサーを共用してもよい。
The side
側方境界監視部111の監視結果159は、障害物検知部113に伝達される。また、前方境界監視部112の監視結果160は、障害物検知部113に伝達される。
A
障害物検知部113による障害物情報161は、周辺観測システム100Aの出力として、車両102に伝達される。
The
図2は、自己位置推定システム101の構成を示す図である。
FIG. 2 is a diagram showing the configuration of the self-
同図において、自己位置推定システム101は、観測データ選別処理部114、車両姿勢推定処理部115、周辺環境データ座標変換処理部116、周辺環境地図データベース117、3Dレール軌道データベース118、およびスキャンマッチング自己位置推定部119を備える。
In the figure, the self-
このような周辺観測システム100Aは、例えばハードウェアとしてCPU(Central Processing Unit)やメモリなどを備えた1つ以上のコンピュータシステムにより構成される。このハードウェアが周辺観測プログラムを実行することにより、周辺観測システム100Aの各種機能が実現する。このハードウェアの一部または全部については、専用の装置、汎用の機械学習マシン、DSP(Digital Signal Processor)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)、PLD(programmable logic device)などで代替してもよい。また、ハードウェアの一部または全部を外部のネットワーク上のサーバに集中または分散してクラウド配置することにより、複数の周辺観測システム100Aがネットワークを介して共同使用するようにしてもよい。 Such a peripheral observation system 100A is composed of one or more computer systems including, for example, CPUs (Central Processing Units) and memories as hardware. Various functions of the peripheral observation system 100A are realized by the hardware executing the peripheral observation program. For part or all of this hardware, a dedicated device, general-purpose machine learning machine, DSP (Digital Signal Processor), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit), PLD (Programmable Logic Device) etc. can be substituted. Also, by centralizing or distributing part or all of the hardware in a server on an external network and arranging it in the cloud, a plurality of peripheral observation systems 100A may be used in common via the network.
《周辺観測システム100Aの全体動作》
図3は、周辺観測システム100Aの全体動作を説明するフローチャートである。
同図に示すステップS201~205では、障害物検知システム103の計測周期ごとに、車両102に対する停止指示の可否が決定される。
<<Overall operation of peripheral observation system 100A>>
FIG. 3 is a flowchart for explaining the overall operation of the surroundings observation system 100A.
In steps S201 to S205 shown in the figure, whether or not to instruct the
以下、図3に示すステップ番号に沿って説明する。 Hereinafter, description will be made along the step numbers shown in FIG.
ステップS201: 障害物検知システム103内の監視エリア設定処理部109は、自己位置推定システム101で算出される位置・姿勢情報153を取得する。
Step S<b>201 : The monitoring
ステップS202: 監視エリア設定処理部109は、位置・姿勢情報153を検知範囲設定データベース108に照会することにより、障害物を監視する監視エリアの境界として側方境界155および前方境界156を求める。例えば、軌道の左右の建築限界などを障害物監視エリアの側方境界155として設定し、車両の停止可能距離を障害物監視エリアの前方境界156として設定する。
Step S202: The monitoring area
ここで、側方境界155および前方境界156を超えて侵入する障害物を境界上で逸早く検出するため、図4に示す側方境界155a,155bおよび前方境界156には、境界線を所定幅に拡幅した境界検出領域が設定される。この所定幅は、その境界を超えると予想される障害物の大きさと最大移動速度と、側方境界監視部111や前方境界監視部112(障害物検知センサー)のセンシング周期とを考慮し、障害物が境界内に入る際に少なくとも1回以上検出できる幅を確保するように設定される。
Here, in order to quickly detect an obstacle on the boundary beyond the
例えば、駅区間では、ホームで待つ乗客の大きさと最大移動速度を想定して所定幅は数cm~数十cm(さらに具体的には10cm)に狭く設定される。
また例えば、駅間の走行区間(特に踏み切り付近)では自動車等が横切る際の大きさと最大移動速度を想定して所定幅は広く(例えば1mに)設定される。このように、車両102の車両位置に応じて、境界検出領域の所定幅は逐次に変更される。
For example, in a station section, the predetermined width is narrowly set to several centimeters to several tens of centimeters (more specifically, 10 cm), assuming the size of passengers waiting on the platform and the maximum moving speed.
Further, for example, in the running section between stations (especially near railroad crossings), the predetermined width is set wide (for example, 1 m), assuming the size and maximum moving speed of a car or the like when it crosses. In this manner, the predetermined width of the boundary detection area is sequentially changed according to the vehicle position of the
ステップS203: 側方境界監視部111および前方境界監視部112は、側方境界155および前方境界156を超えて障害物が軌道に侵入したか否かを監視し、監視結果159,160を障害物検知部113に与える。
Step S203: The side
図4に示すように、左右の側方境界155a,155bの境界検出領域は、幅数十cm、奥行き百m超の長方形領域になり得る。その長方形領域を観測範囲に収めるため、側方境界監視部111の検出器201,202としては、車両102の前方左右の高い位置に前方下向きに設置した2台のマルチレイヤLIDARなどを使用する。なお、検出器201,201としては、ステレオカメラ、ミリ波レーダー、レーザー距離計を1つまたは複数使用してもよい。また、センサーを自動雲台に取り付けることにより、側方境界155の境界検出領域を走査してもよい。
As shown in FIG. 4, the boundary detection area of the left and
また例えば、前方境界監視部112の検出器203としては、前方境界156の境界検出領域が遠方になることを考慮して、画角の狭い単眼カメラや、暗視野用の赤外線カメラや、ステレオカメラ、ミリ波レーダー、マルチレイヤLIDAR、レーザー距離計などを使用する。
Further, for example, the
これら検出器201~203の検出結果は、検知対象情報データベース110に記録される背景の検出点(障害物以外の検出対象)と比較される。この比較により、以下の条件1~3のいずれかを満たすとき、境界検出領域に障害物が存在すると判断する。
The detection results of these
(条件1)境界検出領域の検出点が検出されない。 (Condition 1) A detection point in the boundary detection area is not detected.
(条件2)境界検出領域の検出点の位置が異なる。 (Condition 2) The positions of the detection points of the boundary detection areas are different.
(条件3)境界検出領域の検出点の反射強度が異なる。 (Condition 3) The reflection intensities of detection points in the boundary detection area are different.
ここで、車両の速度が速くなるにつれて輸送車両が停止するまでに必要な距離が延び、前方および側方の境界検出領域が遠方に拡大する。このとき、遠方の検出点(路面や設置物など)のレーザーの反射率が極端に小さくなる場合には、条件1によって障害物が侵入したと誤って判断される。このような誤判断を避けるため、車両の走行速度を抑えなくてはならない。 Here, as the speed of the vehicle increases, the distance required for the transport vehicle to stop increases, and the front and side boundary detection areas expand farther. At this time, if the reflectance of the laser at a distant detection point (road surface, installed object, etc.) is extremely low, it is erroneously determined that an obstacle has entered according to Condition 1. In order to avoid such misjudgment, the running speed of the vehicle must be suppressed.
そこで、走行速度を下げずに誤判断を避けるため、次の対処1~2を加える。 Therefore, the following countermeasures 1 and 2 are added in order to avoid erroneous judgments without lowering the running speed.
(対処1)境界検出領域にある、ある値以上の反射率をもつ既存物(レールや標識等)の位置のみを検出点とする。 (Countermeasure 1) Only the positions of existing objects (rails, signs, etc.) having a reflectance higher than a certain value in the boundary detection area are set as detection points.
(対処2)境界検出領域に、ある値以上の反射率をもつマーカーを検出点として予め設置しておく。 (Countermeasure 2) A marker having a reflectance of a certain value or more is set in advance as a detection point in the boundary detection area.
いずれの場合も、事前に検出対象の位置とその反射率を検知対象情報データベース110に記録し、現在の車両位置における境界検出領域に検出点の位置が含まれる場合のみ、その検出点を障害物侵入の判断に用いる。 In either case, the position of the detection target and its reflectance are recorded in the detection target information database 110 in advance, and only when the position of the detection point is included in the boundary detection area at the current vehicle position, the detection point is detected as an obstacle. Used to judge intrusion.
図5は、複数の直線で示したように、周辺環境観測部107や検出器201~203としてマルチレイヤLIDARを使用する場合を示す。複数レイヤにまたがる境界検出領域上の検出点を使用することで、境界が曲線となる場合にも障害物の侵入を判断することが可能になる。
FIG. 5 shows the use of multi-layer LIDAR as the surrounding
図5には、マルチレイヤLIDARから照射される各検出レイヤによる路面検出点を点線で示す。側方境界155a、155b上を通る検出レイヤは車両からの距離によって異なり、障害物の侵入を判断するには、それらの複数レイヤの検出点を監視する。
In FIG. 5, dotted lines indicate road surface detection points by each detection layer irradiated from the multi-layer LIDAR. The detection layers passing over the
このとき、LIDARの検出点が境界検出領域上にある場合でも、その検出点とLIDARを結ぶ直線(レーザーの光路)が境界検出領域外を通る場合には、障害物の侵入判断には使用しない。これは、境界検出領域外の物体による誤検知を防ぐためである。 At this time, even if the detection point of the LIDAR is in the boundary detection area, if the straight line connecting the detection point and the LIDAR (laser optical path) passes outside the boundary detection area, it is not used to determine whether an obstacle has entered. . This is to prevent erroneous detection due to an object outside the boundary detection area.
なお、検出器201~203として、種類が異なる複数のセンサーを使用することにより、障害物を検知する確率を高めて、障害物の検知率を上げてもよい。また、検知できた検出結果の論理積(AND)を用いることにより、誤検知率を下げてもよい。
A plurality of sensors of different types may be used as the
側方境界155および前方境界156を超えて障害物が軌道に侵入した場合、障害物検知部113は、ステップS204に動作を移行する。それ以外の場合、障害物検知部113は、ステップS205に動作を移行する。
When an obstacle enters the track beyond the
ステップS204: ステップS203において障害物が存在すると判定された場合、障害物検知部113は、車両102を停止させるために、障害物情報161を作成する。
Step S204: If it is determined in step S203 that an obstacle exists, the
ステップS205: 障害物検知部113は、障害物情報161を車両102に送信する。
Step S<b>205 : The
以上が、周辺観測システム100Aの全体動作の説明である。
次に、自己位置推定システム101の動作について詳しく説明する。
The above is the description of the overall operation of the surroundings observation system 100A.
Next, the operation of self-
《自己位置推定システム101の動作》
図6は、自己位置推定システム101の動作を説明するフローチャートである。
<<Operation of self-
FIG. 6 is a flowchart for explaining the operation of the self-
同図に示すステップS401~408は、車両102の車両位置を推定する動作であり、障害物検知システム103の計測周期ごとに繰り返し実行される。
Steps S401 to S408 shown in the figure are operations for estimating the vehicle position of the
ステップS401: 観測データ選別処理部114は、周辺環境観測部107で観測した周辺環境観測データ151を取得する。例えば、図7に示す車両102の周辺環境をマルチレイヤLIDARで観測すると、図8のような三次元の点群データとしてレール観測データ162a~fなどが取得される。
Step S<b>401 : The observation data
ステップS402: 観測データ選別処理部114は、取得した周辺環境観測データを、図9に示す軌道上のレール観測データ162a~fと、軌道以外の周辺観測データ163とに選別する。
Step S402: The observation data
このようなレール観測データ162a~fは、その形状や反射率のほか、レール検出データが1つの軌道面(平面または曲面)をなすことを利用して選別される。
Such
ステップS403: 車両姿勢推定処理部115は、周辺環境地図データベース117および3Dレール軌道データベース118の地図データにおいて、車両102の仮位置をレール軌道上に定める。この仮位置は、レール地上子と車両102との通信や、GPS情報や、車両102の速度累積値などに基づいて決定される。
Step S403: The vehicle attitude
ステップS404: 車両姿勢推定処理部115は、レール軌道上の仮位置を3Dレール軌道データベース118に照会することにより、仮位置におけるレール位置情報(レール表面を規定する3次元点群データ)を取得する。
Step S404: The vehicle attitude
車両姿勢推定処理部115は、図10に示すレール観測データ162から求めたレール表面がなす面Rと、3Dレール軌道データベース118から取得したレール位置情報とを幾何演算することにより、車両102の姿勢情報を推定する。
The vehicle attitude
ステップS405: 周辺環境観測部107の周辺環境観測データは、車両102に搭載されたセンサーにより観測されるため、車両102に固定された車両座標系ΣTにおける観測値となる。
Step S<b>405 : Surrounding environment observation data of the surrounding
一方、周辺環境地図データベース117および3Dレール軌道データベース118には、外部座標系ΣOにおける地図データおよび3Dレール軌道データが記録される。
On the other hand, the surrounding
周辺環境データ座標変換処理部116は、レール軌道上の車両102の仮位置と、ステップS404で推定した車両102の姿勢情報に基づいて、周辺環境観測データを、車両102に固定された車両座標系ΣTから外部座標系ΣOに座標変換し、座標変換後の周辺環境データとして出力する。
Surrounding environment data coordinate
ステップS406: スキャンマッチング自己位置推定部119は、座標変換後の周辺環境データと、周辺環境地図データベース117に記録された地図データとのスキャンマッチングを行う。このスキャンマッチングは、周辺環境データにおけるセンサー位置(車両位置)を地図データのレール軌道上に拘束した状態でスキャンを行う。この場合のスキャン範囲は、ステップS404の姿勢推定や、ステップS405の座標変換の妥当性が維持可能な幅とする。
このスキャン範囲において、周辺環境データと地図データとの残差(両データの間の差分絶対値を総和した値など)が最小残差となるスキャン位置を探索する。
Step S<b>406 : The scan matching self-
Within this scan range, a scan position is searched for where the residual between the surrounding environment data and the map data (such as the sum of the absolute differences between the two data) is the minimum residual.
ステップS407: スキャンマッチング自己位置推定部119は、スキャンマッチングにおいて求めた最小残差が許容値より小さいか否かを判定する。この許容値は、車両位置に必要な精度に基づいて適宜に設定される。
Step S407: The scan matching self-
ここで、最小残差が許容値を超える場合、スキャンマッチング自己位置推定部119は動作をステップS408に移行する。
Here, when the minimum residual exceeds the allowable value, the scan matching self-
また、最小残差が許容値以下に収まる場合、スキャンマッチング自己位置推定部119は動作をステップS409に移行する。
Also, when the minimum residual is within the allowable value, the scan matching self-
ステップS408: スキャンマッチング自己位置推定部119は、レール軌道に沿って仮位置を刻み距離だけ変位させる。この刻み距離は、ステップS406でスキャンした範囲を超える距離とする。また、仮位置の変位方向(刻み距離の正負)については、ステップS406のスキャンマッチング中の残差の変化傾向に基づいて、マッチングの残差が小さくなる方向に決定する。
Step S408: The scan matching self-
このように仮位置を変位した後に、スキャンマッチング自己位置推定部119は動作をステップS404に戻す。
After displacing the temporary position in this way, the scan matching self-
ステップS409: ステップS404~S408を繰り返すことにより、スキャンマッチングの最小残差は減少し、許容値以下となる。スキャンマッチング自己位置推定部119は、許容値以下の最小残差を得たレール軌道上のスキャン位置を、車両102の車両位置と推定する。
Step S409: By repeating steps S404 to S408, the minimum residual of scan matching is reduced to below the allowable value. The scan matching self-
《車両運転制御部105の動作》
次に、車両運転制御部105の動作を説明する。
<<Operation of Vehicle
Next, the operation of the vehicle driving
図11は、車両運転制御部105の動作を説明するフローチャートである。
同図に示す動作は一定周期ごとに繰り返し実行される。
ステップS500: 車両運転制御部105は、車両102の運行スケジュールなどに基づいて、車両102の在線位置を情報取得する。
FIG. 11 is a flowchart for explaining the operation of the vehicle
The operation shown in the figure is repeatedly executed at regular intervals.
Step S500: The vehicle
ステップS501: 車両運転制御部105は、車両102が駅に停車中か否かを判定する。当該判定は、車両102の在線位置と速度などからなされる。例えば、車両102が駅ホームの近くにあって、速度がゼロであれば駅に停車中と判定する。駅に停車中と判定された場合、車両運転制御部105は、ステップS502に動作を移行する。それ以外の場合、車両運転制御部105は、ステップS511に動作を移行する。
Step S501: The vehicle
ステップS502: 車両運転制御部105は、車両102の運行スケジュールに基づいて、車両102の発車予定時刻を情報取得する。
Step S<b>502 : The vehicle
ステップS503: 車両運転制御部105は、現在時刻が発車予定時刻に達したか否かを判定する。現在時刻が発車予定時刻に達していない場合、車両運転制御部105は、本処理フローを抜ける。現在時刻が発車予定時刻に達した場合、車両運転制御部105はステップS504に動作を進める。
Step S503: The vehicle
ステップS504: 車両運転制御部105は、車両102が発車準備を完了しているか否かを判定する。発車準備の例として、車両ドア閉状態の確認が挙げられる。未完了の場合は、本処理フローを抜ける。発車準備が完了している場合、車両運転制御部105は、ステップS505に動作を進める。
Step S504: The vehicle
ステップS505: 車両運転制御部105は、障害物検知システム103から障害物情報161を取得する。この場合、図12に示すように、自己位置推定システム101による高精度な車両位置に基づいて、障害物の監視エリア500は駅ホームの範囲を除くように設定される。なお、高精度な車両位置を使用することにより、駅ホームの白線内側やホーム扉の近く(車両102が近くを通過するために安全でない領域)を障害物の監視エリア500に含める高精度な設定も十分に可能になる。さらに、駅区間の高精度な車両位置に基づけば、隣接レール上の車両(駅の別ホームの車両)を障害物として検出しないように監視エリア500を狭めることも可能になる。
Step S<b>505 : The vehicle
ステップS506: 車両運転制御部105は、障害物情報161から障害物が存在するか否かを判断する。障害物が存在しない場合、車両運転制御部105はステップS507に動作を進める。障害物が存在する場合、車両運転制御部105は停止指令を生成ないし維持しつつ、本処理フローを抜ける。
Step S506: The vehicle
ステップS507: 車両運転制御部105は、駆動指令142を生成して、車両駆動部106に送信する。具体的にはここでは駅を発車するために力行指令が送信される。
Step S<b>507 : The vehicle
ステップS508: 車両運転制御部105は、車両102が発車したタイミングと、これから走行する駅間の予定走行時分とに基づいて、次駅の到着予定時刻を計算し、車両102の運行管理センター(運行管理システム)に送信する。
Step S508: The vehicle
次に、ステップS501で車両102が駅停車中でないと判断された場合の処理(ステップS511~ステップS515)を説明する。
Next, the processing (steps S511 to S515) when it is determined that the
ステップS311: 車両運転制御部105は、監視エリア内の障害物情報161を障害物検知システム103から取得する。図13に示すように、障害物の監視エリア600は、駅間を走行中のため広く設定される。ただし、駅間に保守作業中の区間が存在する場合、自己位置推定システム101による高精度な車両位置に基づいて、保守員が安全に作業可能な範囲については障害物の監視エリア600から除くように設定される。
Step S<b>311 : The vehicle
ステップS512: 車両運転制御部105は、監視エリア内の障害物情報161に基づいて、車両102の制動が必要か否かを判定する。障害物が存在せずに制動が不要であれば、車両運転制御部105はステップS513に動作を進める。障害物が存在して制動が必要であれば、車両運転制御部105はステップS514に動作を進める。
Step S512: The vehicle
ステップS513: 車両運転制御部105は、駆動指令142を生成して、車両駆動部106に送信する。具体的には、ここでは、車両102の速度が所定の目標速度となるように比例制御などの駆動指令が送信される。送信後、車両運転制御部105はステップS515に動作を進める。
Step S<b>513 : The vehicle
ステップS514: 車両運転制御部105は、障害物の検知に応じて、車両102の制動指令を車両駆動部106に送信する。具体的には、車両102を最大減速度で減速させ停止させるよう制動指令が生成される。制動指令の送信後、車両運転制御部105はステップS515に動作を進める。
Step S514: The vehicle
ステップS515: 車両運転制御部105は、その時点での位置と速度と運行状況から、車両102が次駅に到着する時刻を推定し、車両102の運行管理センター(運行管理システム)に送信する。
Step S515: The vehicle
以上が、車両運転制御部105の動作説明である。
The above is the description of the operation of the vehicle driving
《実施例1の効果など》
実施例1では、周辺環境観測部107の観測結果と、周辺環境地図データベース内の地図データとのマッチング(相関)を、軌道に沿った範囲でスキャンする。
<<Effects of Example 1, etc.>>
In the first embodiment, the range along the track is scanned for matching (correlation) between the observation result of the surrounding
通常、自動車のように特定の軌道に沿って走行しない車両の場合、図14および図15に示すように、複数方向に変位を繰り返しながら周辺環境データ168と地図データ166との相関をとり、その相関値が最も高い位置(図15)を車両位置として求める。この場合、スキャンの自由度が高いために、たまたまマッチング残差が極小となる位置を車両位置として誤判定しやすく、車両位置の検出精度を高めることが難しいという問題があった。 In the case of a vehicle such as an automobile that does not normally run along a specific track, as shown in FIGS. The position with the highest correlation value (FIG. 15) is obtained as the vehicle position. In this case, since the degree of freedom in scanning is high, a position where the matching residual happens to be minimal is likely to be erroneously determined as the vehicle position, and it is difficult to improve the detection accuracy of the vehicle position.
さらに、複数方向のスキャンが必要になるため、スキャンマッチングに必要な処理負荷が重く、処理に時間がかかるという問題もあった。 Furthermore, since scanning in multiple directions is required, there is also the problem that the processing load required for scan matching is heavy and the processing takes time.
しかしながら、実施例1における車両位置の推定処理では、図16に示すように軌道Lに拘束した状態で一次元にスキャンしながら、周辺環境データ168と地図データ166とのマッチング(相関)が最も高くなるスキャン位置(図17参照)を車両位置として推定する。したがって、スキャン範囲が軌道Lに限定されるため、軌道Lから外れた位置を車両位置として誤って判定することがなく、車両位置の検出精度を高めることが可能になる。
However, in the process of estimating the vehicle position in the first embodiment, the matching (correlation) between the surrounding
また、実施例1では、スキャン範囲が軌道Lにより限定されるため、スキャンマッチングの処理負荷が軽くなり、処理に係る時間を短縮することが可能になる。 Further, in the first embodiment, since the scan range is limited by the trajectory L, the processing load of scan matching is lightened, and the processing time can be shortened.
さらに、実施例1では、周辺環境観測部107による軌道の観測結果に基づいて、軌道に対する車両102の姿勢を求める。軌道を走行する車両102であっても、加減速やカーブ走行などの影響により、軌道に対する車両102の姿勢は時々刻々と変動する。実施例1では、このように変動する車両102の姿勢を情報取得することが可能になる。
Furthermore, in the first embodiment, the attitude of the
また、実施例1では、車両102の姿勢に基づいて周辺環境観測部107の観測結果を座標変換する。この座標変換により、車両102の姿勢に起因する周辺環境観測部107の観測結果の傾き変動が正しく校正される。そのため、座標変換後の観測結果と、地図データとの間でのマッチング精度が高くなり、車両位置の検出精度をさらに高めることが可能になる。
In addition, in the first embodiment, the observation result of the surrounding
さらに、実施例1では、車両位置の検出精度が高くなるため、障害物検知システム103の監視エリアを車両位置に応じて適切なタイミングで変更することが可能になる。したがって、監視すべき監視エリア内の障害物のみを確実に検知することが可能になる。また、監視すべきでない監視エリアの外に位置する対象物を障害物と誤検知することがなくなる。 Furthermore, in the first embodiment, the detection accuracy of the vehicle position is high, so it becomes possible to change the monitoring area of the obstacle detection system 103 at an appropriate timing according to the vehicle position. Therefore, it is possible to reliably detect only obstacles within the monitoring area to be monitored. Also, an object positioned outside the monitoring area that should not be monitored is not erroneously detected as an obstacle.
例えば、駅区間では、監視エリアを狭めることにより、駅ホーム(または駅ホームの白線外など)の安全な位置に待機する乗客を障害物と誤検知することがなくなる。 For example, in a station section, by narrowing the monitoring area, passengers waiting in a safe position on the station platform (or outside the white line of the station platform) will not be erroneously detected as an obstacle.
また例えば、保守作業区間では、監視エリアを狭めることにより、安全に作業する保守員を障害物と誤検知することがなくなる。 Further, for example, in a maintenance work section, by narrowing the monitoring area, it is possible to prevent a maintenance worker working safely from being erroneously detected as an obstacle.
また、実施例1では、監視エリアの境界(左右の側方境界、前方境界など)に、障害物を逸早く確実に検出するなどの目的から,所定幅の境界検出領域を設ける。実施例1では、車両位置の検出精度が高くなるため、この境界検出領域の所定幅を車両位置に応じて適切なタイミングで変更することが可能になる。 Further, in the first embodiment, a boundary detection area having a predetermined width is provided at the boundary of the monitoring area (left and right side boundaries, front boundary, etc.) for the purpose of quickly and reliably detecting obstacles. In the first embodiment, the detection accuracy of the vehicle position is high, so it becomes possible to change the predetermined width of the boundary detection area at an appropriate timing according to the vehicle position.
例えば、駅区間では、境界検出領域の所定幅を狭めることにより、線路上や駅ホームの白線内に侵入する乗客を集中的に検出することが可能になる。 For example, in a station section, by narrowing the predetermined width of the boundary detection area, it becomes possible to intensively detect passengers who enter the white line on the track or on the station platform.
また例えば、駅間の走行区間では、境界検出領域の所定幅を拡大することにより、線路上に侵入する比較的大きな移動体(自動車など)の速い動きを比較的広い視野で確実に検出することが可能になる。 Further, for example, in a running section between stations, by expanding the predetermined width of the boundary detection area, the fast movement of a relatively large moving object (such as an automobile) entering the railroad track can be reliably detected in a relatively wide field of view. becomes possible.
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 In addition, the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations.
また、実施例の構成の一部について、他の構成の追加・削除・置換をすることも可能である。 Moreover, it is also possible to add, delete, or replace a part of the configuration of the embodiment with another configuration.
例えば、実施例では、監視エリアの境界検出領域において障害物を集中的に検出する動作について説明しているが、本発明はこれに限定されない。例えば、監視エリア内の全域または部分域において障害物を検出してもよい。 For example, in the embodiment, the operation of intensively detecting obstacles in the boundary detection area of the monitored area has been described, but the present invention is not limited to this. For example, obstacles may be detected all or part of the monitored area.
100…鉄道輸送システム、100A…周辺観測システム、101…自己位置推定システム、102…車両、103…障害物検知システム、105…車両運転制御部、106…車両駆動部、107…周辺環境観測部、108…検知範囲設定データベース、109…監視エリア設定処理部、110…検知対象情報データベース、111…側方境界監視部、112…前方境界監視部、113…障害物検知部、114…観測データ選別処理部、115…車両姿勢推定処理部、116…周辺環境データ座標変換処理部、117…周辺環境地図データベース、118…3Dレール軌道データベース、119…スキャンマッチング自己位置推定部、142…駆動指令、151…周辺環境観測データ、153…位置・姿勢情報、154…検知範囲、155…側方境界、156…前方境界、159…監視結果、160…監視結果、161…障害物情報
DESCRIPTION OF SYMBOLS 100... Rail transportation system, 100A... Periphery observation system, 101... Self-position estimation system, 102... Vehicle, 103... Obstacle detection system, 105... Vehicle operation control part, 106... Vehicle drive part, 107... Surrounding environment observation part, 108...Detection range setting database, 109...Monitoring area setting processing unit, 110...Detection object information database, 111...Side boundary monitoring unit, 112...Front boundary monitoring unit, 113...Obstacle detection unit, 114...Observation data
Claims (9)
事前に前記物体群の位置を観測して作成された地図データを記憶し、前記観測結果における前記車両の位置を、前記地図データの軌道上に限定した状態で、前記観測結果と前記地図データとの相関を算出し、前記相関に基づいて車両位置を推定する位置推定部と
を備え、
前記周辺環境観測部は、前記軌道を観測し、
前記位置推定部は、前記軌道の前記観測結果に基づいて前記軌道に対する前記車両の姿勢を求める、
ことを特徴とする周辺観測システム。 a surrounding environment observation unit that observes the positions of surrounding objects from the position of the vehicle traveling on the track and outputs the observation results;
Map data created by observing the positions of the object group in advance is stored, and the observation results and the map data are combined in a state where the position of the vehicle in the observation results is limited to the trajectory of the map data. a position estimator that calculates the correlation of and estimates the vehicle position based on the correlation ,
The surrounding environment observation unit observes the trajectory,
The position estimation unit obtains the attitude of the vehicle with respect to the trajectory based on the observation result of the trajectory.
A peripheral observation system characterized by:
前記位置推定部は、前記車両の姿勢に基づいて前記周辺環境観測部の前記観測結果を座標変換し、座標変換後の前記観測結果と、前記地図データとの間で、前記物体群の前記相関を前記軌道に限定した位置でとり、前記相関に基づいて車両位置を推定する The position estimation unit performs coordinate transformation on the observation result of the surrounding environment observation unit based on the attitude of the vehicle, and calculates the correlation of the object group between the observation result after the coordinate transformation and the map data. at a position limited to the trajectory and estimate the vehicle position based on the correlation
ことを特徴とする周辺観測システム。 A peripheral observation system characterized by:
前記軌道に対して設定される監視エリアに存在する障害物を検知する障害物検知部と、 an obstacle detection unit that detects obstacles present in a monitoring area set for the trajectory;
前記位置推定部が推定する前記車両位置に基づいて、前記監視エリアを変更する境界設定部と a boundary setting unit that changes the monitoring area based on the vehicle position estimated by the position estimation unit;
を備えたことを特徴とする周辺観測システム。 A peripheral observation system comprising:
前記監視エリアは、前記監視エリアの境界において障害物を検知するための所定幅の境界検出領域を含み、 the monitoring area includes a boundary detection area with a predetermined width for detecting obstacles at the boundary of the monitoring area;
前記境界設定部は、前記位置推定部が推定する前記車両位置に基づいて、前記境界検出領域の前記所定幅を変更する The boundary setting section changes the predetermined width of the boundary detection area based on the vehicle position estimated by the position estimating section.
ことを特徴とする周辺観測システム。 A peripheral observation system characterized by:
前記監視エリアは、前記軌道の左右に設定される側方境界と、前記軌道の進行方向前方に設定される前方境界により規定される The monitoring area is defined by side boundaries set on the left and right of the track and front boundaries set on the front of the track in the traveling direction.
ことを特徴とする周辺観測システム。 A peripheral observation system characterized by:
前記境界設定部は、前記位置推定部が推定する前記車両位置と、駅区間との位置関係に基づいて、前記駅区間における前記監視エリアを変更する The boundary setting unit changes the monitoring area in the station section based on the positional relationship between the vehicle position estimated by the position estimation unit and the station section.
ことを特徴とする周辺観測システム。 A peripheral observation system characterized by:
前記境界設定部は、前記位置推定部が推定する前記車両位置と、前記軌道の保守作業区間との位置関係に基づいて、前記保守作業区間における前記監視エリアを変更する The boundary setting unit changes the monitoring area in the maintenance work section based on the positional relationship between the vehicle position estimated by the position estimation unit and the track maintenance work section.
ことを特徴とする周辺観測システム。 A peripheral observation system characterized by:
ことを特徴とする周辺観測プログラム。 A peripheral observation program characterized by:
事前に前記物体群の位置を観測して作成された地図データを記憶し、前記観測結果における前記車両の位置を、前記地図データの軌道上に限定した状態で、前記観測結果と前記地図データとの相関を算出し、前記相関に基づいて車両位置を推定する位置推定ステップと、 Map data created by observing the positions of the object group in advance is stored, and the observation results and the map data are combined in a state where the position of the vehicle in the observation results is limited to the trajectory of the map data. a position estimation step of calculating the correlation of and estimating the vehicle position based on the correlation;
前記軌道の前記観測結果に基づいて前記軌道に対する前記車両の姿勢を求める姿勢推定ステップと an attitude estimation step of obtaining an attitude of the vehicle with respect to the trajectory based on the observation result of the trajectory;
を備えた周辺観測方法。 Perimeter observation method with
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019159519A JP7227879B2 (en) | 2019-09-02 | 2019-09-02 | Surrounding Observation System, Surrounding Observation Program and Surrounding Observation Method |
PCT/JP2020/024144 WO2021044707A1 (en) | 2019-09-02 | 2020-06-19 | Surroundings observation system, surroundings observation program, and surroundings observation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019159519A JP7227879B2 (en) | 2019-09-02 | 2019-09-02 | Surrounding Observation System, Surrounding Observation Program and Surrounding Observation Method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021037811A JP2021037811A (en) | 2021-03-11 |
JP7227879B2 true JP7227879B2 (en) | 2023-02-22 |
Family
ID=74849151
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019159519A Active JP7227879B2 (en) | 2019-09-02 | 2019-09-02 | Surrounding Observation System, Surrounding Observation Program and Surrounding Observation Method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7227879B2 (en) |
WO (1) | WO2021044707A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102579743B1 (en) * | 2021-10-12 | 2023-09-19 | 한국해양과학기술원 | System and method for emergency braking of the towing carriage using laser scanner |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016109650A (en) | 2014-12-10 | 2016-06-20 | 株式会社デンソー | Position estimation system, position estimation method, and position estimation program |
JP2017001638A (en) | 2015-06-16 | 2017-01-05 | 西日本旅客鉄道株式会社 | Train position detection system using image processing, and train position and environmental change detection system using image processing |
WO2019003436A1 (en) | 2017-06-30 | 2019-01-03 | 川崎重工業株式会社 | Traveling-position identifying system, traveling-position identifying apparatus, and traveling-position identifying method for railroad car |
JP2019093840A (en) | 2017-11-21 | 2019-06-20 | 株式会社日立製作所 | Vehicle control system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4025007B2 (en) * | 2000-11-10 | 2007-12-19 | 東日本旅客鉄道株式会社 | Railroad crossing obstacle detection device |
JP4882428B2 (en) * | 2006-03-06 | 2012-02-22 | 株式会社豊田中央研究所 | Environment recognition device |
JP6411917B2 (en) * | 2015-02-27 | 2018-10-24 | 株式会社日立製作所 | Self-position estimation apparatus and moving body |
JP6524529B2 (en) * | 2015-10-27 | 2019-06-05 | 株式会社明電舎 | Building limit judging device |
-
2019
- 2019-09-02 JP JP2019159519A patent/JP7227879B2/en active Active
-
2020
- 2020-06-19 WO PCT/JP2020/024144 patent/WO2021044707A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016109650A (en) | 2014-12-10 | 2016-06-20 | 株式会社デンソー | Position estimation system, position estimation method, and position estimation program |
JP2017001638A (en) | 2015-06-16 | 2017-01-05 | 西日本旅客鉄道株式会社 | Train position detection system using image processing, and train position and environmental change detection system using image processing |
WO2019003436A1 (en) | 2017-06-30 | 2019-01-03 | 川崎重工業株式会社 | Traveling-position identifying system, traveling-position identifying apparatus, and traveling-position identifying method for railroad car |
JP2019093840A (en) | 2017-11-21 | 2019-06-20 | 株式会社日立製作所 | Vehicle control system |
Also Published As
Publication number | Publication date |
---|---|
WO2021044707A1 (en) | 2021-03-11 |
JP2021037811A (en) | 2021-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6930600B2 (en) | Vehicle position estimation device and vehicle control device | |
US10442465B2 (en) | Parking assistance device and vehicle provided with such a device | |
JP6447863B2 (en) | Moving body | |
US20170269613A1 (en) | Inspection system and method for performing inspections in a storage facility | |
US10239692B2 (en) | Article transport facility | |
CN107000745A (en) | The travel controlling system and travel control method of vehicle | |
JP7349318B2 (en) | Sensor performance evaluation system and method, and automatic driving system | |
US10388164B2 (en) | Method and system for detecting an unoccupied region within a parking facility | |
JP7256699B2 (en) | train control system | |
WO2021056499A1 (en) | Data processing method and device, and movable platform | |
CN110162066A (en) | Intelligent cruise vehicle control | |
CA3056979C (en) | Method and apparatus for optical distance measurements | |
JP7227879B2 (en) | Surrounding Observation System, Surrounding Observation Program and Surrounding Observation Method | |
KR20230031344A (en) | System and Method for Detecting Obstacles in Area Surrounding Vehicle | |
CN111487984B (en) | Equipment control method and device and electronic equipment | |
JP7181754B2 (en) | Obstacle detection system for track traveling vehicle and obstacle detection method | |
JP5968178B2 (en) | Image processing apparatus for remote control, remote control system, and image processing method for remote control | |
JP7217094B2 (en) | monitoring device | |
US10713503B2 (en) | Visual object detection system | |
AU2021289307B2 (en) | Obstacle detection system, obstacle detection method, and self-location estimation system | |
CN115334130A (en) | Intelligent network operation service platform and method | |
AU2021371394B2 (en) | Rail transportation system, method for controlling rail transportation system, and trackside facility shape measurement system | |
JP6680502B2 (en) | Moving body | |
CN115675492A (en) | Satellite data processing method, control device, computer program, and storage medium for expanding or refining measurement data | |
KR20220064112A (en) | Ship block transportation equipment using augmented reality image based on multi information and method for visualization using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7227879 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |