JP7209913B2 - Outlook Information Generating Device, Outlook Information Generating Method, and Outlook Information Generating Program - Google Patents

Outlook Information Generating Device, Outlook Information Generating Method, and Outlook Information Generating Program Download PDF

Info

Publication number
JP7209913B2
JP7209913B2 JP2022564913A JP2022564913A JP7209913B2 JP 7209913 B2 JP7209913 B2 JP 7209913B2 JP 2022564913 A JP2022564913 A JP 2022564913A JP 2022564913 A JP2022564913 A JP 2022564913A JP 7209913 B2 JP7209913 B2 JP 7209913B2
Authority
JP
Japan
Prior art keywords
information
determination
area
line
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022564913A
Other languages
Japanese (ja)
Other versions
JPWO2022113243A1 (en
Inventor
恵 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022113243A1 publication Critical patent/JPWO2022113243A1/ja
Application granted granted Critical
Publication of JP7209913B2 publication Critical patent/JP7209913B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning, or like safety means along the route or between vehicles or vehicle trains
    • B61L23/04Control, warning, or like safety means along the route or between vehicles or vehicle trains for monitoring the mechanical state of the route

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本開示は、移動路を移動する移動体からの対象設備の見通し状況を示す情報である見通し情報を生成する見通し情報生成装置、見通し情報生成方法、および見通し情報生成プログラムに関する。 The present disclosure relates to a line of sight information generation device, a line of sight information generation method, and a line of sight information generation program for generating line of sight information, which is information indicating the line of sight of a target facility from a moving body moving on a moving route.

従来、鉄道沿線に設置される鉄道設備である鉄道沿線設備として、列車の運行に支障を与える事態が発生したことを発光信号で現示する特殊信号発光機が知られている。特殊信号発光機には、非常停止ボタンが設けられており、かかる非常停止ボタンが押された場合などに、特殊信号発光機が発光信号を出力する。列車の乗務員は、特殊信号発光機の発光信号を確認すると列車の停止操作をする必要があるため、特殊信号発光機の一定距離以上手前の地点に列車が位置している状態で、特殊信号発光機の発光信号を列車の乗務員が確認できることが必要になる。 2. Description of the Related Art Conventionally, as railroad facilities installed along railroad lines, there are known special signal light emitters that indicate with a light-emitting signal that a situation that hinders train operation has occurred. The special signal light emitter is provided with an emergency stop button, and the special signal light emitter outputs a light emission signal when the emergency stop button is pushed. Since the train crew must stop the train after confirming the light emission signal of the special light emission machine, the special signal light emission It is necessary for the train crew to be able to confirm the light emitting signal of the aircraft.

鉄道沿線には、一般に、建設物、看板、架線柱などの鉄道沿線設備および樹木などが存在するが、樹木が成長したり、鉄道沿線設備が追加で設置されたりすると、特殊信号発光機の見通し状況が悪くなる場合がある。そのため、特殊信号発光機の一定距離以上手前の地点から特殊信号発光機の見通し状況の確認を事前に行う必要があるが、現状の見通し状況の確認は、定期点検などにおいて目視での視認性確認を複数人で行っており、多くの労力が必要となっている。 In general, there are buildings, signboards, overhead poles, and other facilities along railway lines, as well as trees. Things can get worse. Therefore, it is necessary to check the visibility of the special signal light in advance from a point more than a certain distance in front of the special signal light, but the current visibility is confirmed visually during regular inspections. is performed by multiple people, and a lot of labor is required.

そこで、特許文献1では、特殊信号発光機における発光を検出する特殊信号検出装置が提案されている。かかる特殊信号検出装置は、撮像部によって撮像された連続画像を画像領域ごとに分割し、分割した複数のフレームからなる部分画像から輝度の周波数に対する振幅データを抽出し、抽出した結果に基づき特殊信号発光機の発光信号の有無を検出する。 In view of this, Patent Literature 1 proposes a special signal detection device for detecting light emission from a special signal light emitter. Such a special signal detection device divides a continuous image captured by an imaging unit into image regions, extracts amplitude data for luminance frequencies from partial images composed of a plurality of divided frames, and generates a special signal based on the extracted result. Detects the presence or absence of the light emission signal of the light emitter.

特開2020-59340号公報Japanese Patent Application Laid-Open No. 2020-59340

しかしながら、上記特許文献1に記載の技術は、特殊信号発光機の発光信号を検出して列車の乗務員に報知する技術であり、移動路を移動する移動体であって対象設備の一定距離以上手前の地点からの対象設備の見通し状況を示す情報を提供するための技術ではない。上記特許文献1に記載の技術では、対象設備の一定距離以上手前の地点からの対象設備の見通しが悪い場合には、対象設備の一定距離以上手前の地点から対象設備を検出することができない可能性がある。 However, the technique described in Patent Document 1 is a technique for detecting a light emission signal of a special light emitting device and notifying the crew of the train. It is not a technology for providing information indicating the line-of-sight status of the target facility from the point of With the technology described in Patent Document 1, if the visibility of the target facility from a point a certain distance or more in front of the target facility is poor, it is possible that the target facility cannot be detected from a point a certain distance or more in front of the target facility. have a nature.

本開示は、上記に鑑みてなされたものであって、移動路を移動する移動体からの対象設備の見通し状況を精度よく提示することができる見通し情報生成装置を得ることを目的とする。 The present disclosure has been made in view of the above, and an object of the present disclosure is to obtain a visibility information generation device capable of accurately presenting visibility conditions of target facilities from a moving body moving on a travel route.

上述した課題を解決し、目的を達成するために、本開示の見通し情報生成装置は、データ取得部と、見通し情報生成部と、出力処理部とを備える。データ取得部は、移動体が移動する移動路の周辺領域の物体を3次元点群で表す3次元点群データを取得する。見通し情報生成部は、データ取得部によって取得された3次元点群データに基づいて、周辺領域にある対象設備から離れた視点位置からの対象設備の見通し状況を示す情報である見通し情報を生成する。出力処理部は、見通し情報生成部によって生成された見通し情報を出力する。 In order to solve the above-described problems and achieve the object, the outlook information generation device of the present disclosure includes a data acquisition section, a outlook information generation section, and an output processing section. The data acquisition unit acquires three-dimensional point cloud data representing objects in a peripheral area of a moving path along which the moving object moves, as a three-dimensional point cloud. The line-of-sight information generator generates line-of-sight information, which is information indicating the line-of-sight situation of the target facility from a viewpoint position away from the target facility in the surrounding area, based on the three-dimensional point cloud data acquired by the data acquisition section. . The output processing unit outputs the view information generated by the view information generation unit.

本開示によれば、移動路を移動する移動体からの対象設備の見通し状況を精度よく提示することができる、という効果を奏する。 Advantageous Effects of Invention According to the present disclosure, there is an effect that it is possible to accurately present the line-of-sight situation of the target facility from a moving body that moves along the movement route.

実施の形態1にかかる見通し情報生成装置を含む情報提供システムの構成の一例を示す図1 is a diagram showing an example of the configuration of an information providing system that includes the prospect information generating device according to the first embodiment; FIG. 実施の形態1にかかる見通し情報生成装置の構成の一例を示す図1 is a diagram showing an example of a configuration of a forecast information generating device according to a first embodiment; FIG. 実施の形態1にかかる3次元点群データの一例を示す図FIG. 4 is a diagram showing an example of three-dimensional point cloud data according to the first embodiment; 実施の形態1にかかる基準線データの一例を示す図FIG. 4 is a diagram showing an example of reference line data according to the first embodiment; 実施の形態1にかかる基準線データで示される基準線上の複数の基準点の一例を示す図FIG. 4 is a diagram showing an example of a plurality of reference points on the reference line indicated by the reference line data according to the first embodiment; FIG. 実施の形態1にかかる視点位置決定部による対象設備位置から指定距離手前の位置を決定する処理の一例を示す図FIG. 5 is a diagram showing an example of processing for determining a position a specified distance before the position of the target equipment by the viewpoint position determining unit according to the first embodiment; 実施の形態1にかかる視点位置決定部によって第1の直線の傾きが小さい場合に決定される視点位置の一例を示す図FIG. 5 is a diagram showing an example of a viewpoint position determined by the viewpoint position determining unit according to the first embodiment when the slope of the first straight line is small; 実施の形態1にかかる視点位置決定部によって第1の直線の傾きが大きい場合に決定される視点位置の一例を示す図FIG. 4 is a diagram showing an example of a viewpoint position determined by the viewpoint position determining unit according to the first embodiment when the slope of the first straight line is large; 実施の形態1にかかる視点位置決定部による対象設備位置から指定距離手前の位置を決定する処理の他の例を示す図FIG. 10 is a diagram showing another example of processing for determining a position a specified distance before the target equipment position by the viewpoint position determining unit according to the first embodiment; 実施の形態1にかかる視点位置決定部による視点位置決定方法の他の例を示す図FIG. 5 is a diagram showing another example of the viewpoint position determination method by the viewpoint position determination unit according to the first embodiment; 実施の形態1にかかる判定領域決定部によって決定される判定対象領域の一例を示す図FIG. 4 is a diagram showing an example of a determination target area determined by the determination area determination unit according to the first embodiment; 実施の形態1にかかる判定領域決定部による判定対象領域の決定方法の他の例を示す図FIG. 11 is a diagram showing another example of the determination method of the determination target area by the determination area determining unit according to the first embodiment; 実施の形態1にかかる3次元点群データで示される3次元点群と判定対象領域との関係の一例を示す図FIG. 4 is a diagram showing an example of the relationship between the three-dimensional point cloud represented by the three-dimensional point cloud data and the determination target region according to the first embodiment; 実施の形態1にかかる移動体の進行方向から見た判定対象領域の一例を示す図A diagram showing an example of a determination target area viewed from the moving direction of the moving object according to the first embodiment. 実施の形態1にかかる判定対象領域に存在する干渉物の一例を示す図A diagram showing an example of an interfering object existing in the determination target region according to the first embodiment. 実施の形態1にかかる対象領域画像生成部によって生成される判定対象領域の第1の2次元画像の一例を示す図FIG. 4 is a diagram showing an example of a first two-dimensional image of the determination target region generated by the target region image generation unit according to the first embodiment; 実施の形態1にかかる対象領域画像生成部によって生成される判定対象領域の第1の2次元画像の他の例を示す図FIG. 4 is a diagram showing another example of the first two-dimensional image of the determination target region generated by the target region image generation unit according to the first embodiment; 実施の形態1にかかる対象領域画像生成部によって生成される判定対象領域の第2の2次元画像の一例を示す図FIG. 4 is a diagram showing an example of a second two-dimensional image of the determination target region generated by the target region image generation unit according to the first embodiment; 実施の形態1にかかる対象領域画像生成部によって判定対象領域に含まれる3次元点が位置に応じて色分けされた判定対象領域の第1の2次元画像の一例を示す図FIG. 4 is a diagram showing an example of a first two-dimensional image of a determination target region in which three-dimensional points included in the determination target region are color-coded according to their positions by the target region image generation unit according to the first embodiment; 実施の形態1にかかる対象領域画像生成部によって判定対象領域に含まれる3次元点が位置に応じて色分けされた判定対象領域の第2の2次元画像の一例を示す図FIG. 10 is a diagram showing an example of a second two-dimensional image of a determination target region in which three-dimensional points included in the determination target region are color-coded according to their positions by the target region image generation unit according to the first embodiment; 実施の形態1にかかる干渉物画像生成部によって生成される干渉物画像の一例を示す図FIG. 4 is a diagram showing an example of an interfering object image generated by the interfering object image generating unit according to the first embodiment; 実施の形態1にかかる干渉物画像生成部によって生成される干渉物画像の他の例を示す図FIG. 5 is a diagram showing another example of an interfering object image generated by the interfering object image generation unit according to the first embodiment; 実施の形態1にかかる見通し情報の一例を示す図A diagram showing an example of outlook information according to the first embodiment 実施の形態1にかかる見通し情報生成装置の処理部による処理の一例を示すフローチャートFlowchart showing an example of processing by a processing unit of the outlook information generating device according to the first embodiment 実施の形態1にかかる見通し情報生成装置の処理部による視点位置決定処理の一例を示すフローチャート3 is a flowchart showing an example of viewpoint position determination processing by the processing unit of the outlook information generation device according to the first embodiment; 実施の形態1にかかる見通し情報生成装置の処理部による見通し情報生成処理の一例を示すフローチャートFlowchart showing an example of outlook information generation processing by the processing unit of the outlook information generation device according to the first embodiment 実施の形態1にかかる見通し情報生成装置のハードウェア構成の一例を示す図1 is a diagram showing an example of a hardware configuration of a forecast information generating device according to Embodiment 1; FIG.

以下に、実施の形態にかかる見通し情報生成装置、見通し情報生成方法、および見通し情報生成プログラムを図面に基づいて詳細に説明する。 The outlook information generation device, the outlook information generation method, and the outlook information generation program according to the embodiments will be described below in detail with reference to the drawings.

実施の形態1.
図1は、実施の形態1にかかる見通し情報生成装置を含む情報提供システムの構成の一例を示す図である。図1に示すように、実施の形態1にかかる情報提供システム100は、見通し情報生成装置1と、移動路3を移動する移動体4に配置され、移動路3の周辺領域を計測する3次元点群計測装置2とを備える。
Embodiment 1.
FIG. 1 is a diagram illustrating an example of a configuration of an information providing system including a forecast information generating device according to Embodiment 1. As illustrated in FIG. As shown in FIG. 1 , the information providing system 100 according to the first embodiment includes a perspective information generating device 1 and a three-dimensional system that is arranged in a moving object 4 that moves along a moving path 3 and that measures the peripheral area of the moving path 3 . and a point group measuring device 2 .

図1に示す例では、移動路3は、鉄道軌道であり、移動体4が鉄道軌道を走行する列車である。なお、移動路3は、道路などのように鉄道軌道以外の移動路であってもよく、移動体4は、道路を走行する自動車のように列車以外の移動体であってもよい。以下においては、3次元点群計測装置2が列車に配置される例を説明する。 In the example shown in FIG. 1, the moving route 3 is a railroad track, and the moving body 4 is a train running on the railroad track. The movement path 3 may be a movement path other than a railroad track, such as a road, and the moving body 4 may be a moving body other than a train, such as an automobile traveling on a road. An example in which the three-dimensional point group measuring device 2 is arranged on a train will be described below.

3次元点群計測装置2は、移動体4が移動路3を移動している状態で、移動路3の周辺領域を計測し、移動路3の周辺領域に存在する物体の3次元形状を3次元点群で表す3次元点群データを生成する。3次元点群計測装置2は、例えば、レーザスキャナまたは光切断センサを含む。レーザスキャナは、物体にレーザ光線を照射し、物体に照射したレーザ光線が返ってくるまでの時間を計測し、計測した時間を距離に換算することで物体の3次元形状を計測する。光切断センサは、光切断法によって物体の3次元形状を計測する。 The three-dimensional point cloud measuring device 2 measures the peripheral area of the moving path 3 while the moving object 4 is moving along the moving path 3, and measures the three-dimensional shape of the object existing in the peripheral area of the moving path 3. Generate three-dimensional point cloud data represented by a dimensional point cloud. The three-dimensional point group measuring device 2 includes, for example, a laser scanner or a light cutting sensor. A laser scanner irradiates an object with a laser beam, measures the time it takes for the laser beam irradiated to the object to return, and converts the measured time into a distance to measure the three-dimensional shape of the object. A light section sensor measures the three-dimensional shape of an object by a light section method.

3次元点群計測装置2によって生成された3次元点群データは、見通し情報生成装置1によって取得される。見通し情報生成装置1は、3次元点群計測装置2によって生成された3次元点群データを3次元点群計測装置2から無線通信または有線通信によって取得することができる。また、見通し情報生成装置1は、3次元点群計測装置2によって生成された3次元点群データが記録された記録媒体から、3次元点群計測装置2によって生成された3次元点群データを取得することもできる。 The three-dimensional point cloud data generated by the three-dimensional point cloud measuring device 2 is acquired by the line of sight information generating device 1 . The outlook information generation device 1 can acquire the 3D point cloud data generated by the 3D point cloud measurement device 2 from the 3D point cloud measurement device 2 by wireless or wired communication. In addition, the line-of-sight information generation device 1 extracts the 3D point cloud data generated by the 3D point cloud measurement device 2 from the recording medium on which the 3D point cloud data generated by the 3D point cloud measurement device 2 is recorded. can also be obtained.

見通し情報生成装置1は、3次元点群計測装置2から取得した3次元点群データに基づいて、移動路3の周辺領域にある対象設備から離れた視点位置からの対象設備の見通し状況を示す情報である見通し情報を生成し、生成した見通し情報を出力する。対象設備は、例えば、特殊信号発光機であるが、例えば、信号機または踏切などのように、特殊信号発光機以外の鉄道沿線設備であってもよい。 The line-of-sight information generation device 1 indicates the state of line-of-sight of the target facility from a viewpoint position away from the target facility in the peripheral area of the moving route 3 based on the three-dimensional point cloud data acquired from the three-dimensional point cloud measurement device 2. Prospect information, which is information, is generated, and the generated prospect information is output. The target facility is, for example, a special signal light emitter, but may be railway lineside facilities other than the special signal light emitter, such as a traffic signal or a railroad crossing.

見通し情報生成装置1によって生成される見通し情報は、例えば、3次元点群データで示される3次元点群を構成する複数の3次元点のうち、視点位置からの視界内の予め設定された領域にある3次元点に関する情報を含む。撮像装置によって撮像された画像では、光または天候に応じた画像の不鮮明さによって見通しの判断が難しい場合があるが、見通し情報生成装置1は、3次元計測によって得られる3次元点群データを用いることから、撮像装置によって撮像された画像を用いる場合に比べて、移動体4からの対象設備の見通し状況を精度よく提示することができる。 The outlook information generated by the outlook information generating device 1 is, for example, a preset area within the field of view from the viewpoint position among a plurality of three-dimensional points forming a three-dimensional point group indicated by the three-dimensional point cloud data. Contains information about 3D points in . In the image captured by the imaging device, it may be difficult to judge the visibility due to the blurring of the image depending on the light or weather, but the visibility information generation device 1 uses 3D point cloud data obtained by 3D measurement. Therefore, it is possible to accurately present the line-of-sight situation of the target equipment from the moving body 4 compared to the case of using the image captured by the imaging device.

以下、見通し情報生成装置1についてさらに具体的に説明する。図2は、実施の形態1にかかる見通し情報生成装置の構成の一例を示す図である。図2に示すように、見通し情報生成装置1は、通信部10と、記憶部11と、処理部12とを備える。 The outlook information generation device 1 will be described in more detail below. FIG. 2 is a diagram illustrating an example of a configuration of the outlook information generating device according to the first embodiment; As shown in FIG. 2 , the outlook information generation device 1 includes a communication section 10 , a storage section 11 and a processing section 12 .

通信部10は、不図示のネットワークに通信可能に接続され、不図示のネットワークを介して3次元点群計測装置2などの外部装置との間で情報の送受信を行う。不図示のネットワークは、例えば、インターネットなどのWAN(Wide Area Network)またはLAN(Local Area Network)である。 The communication unit 10 is communicably connected to a network (not shown), and transmits and receives information to and from an external device such as the three-dimensional point group measuring device 2 via the network (not shown). The network not shown is, for example, a WAN (Wide Area Network) such as the Internet or a LAN (Local Area Network).

記憶部11は、3次元点群計測装置2から送信され通信部10で受信される3次元点群データ20と、移動路3に沿った基準線に関するデータである基準線データ21とを記憶する。なお、基準線データ21は、処理部12による3次元点群データ20の解析によって生成されて記憶部11に記憶されてもよく、外部装置から送信され通信部10で受信されて処理部12によって記憶部11に記憶されてもよい。処理部12は、例えば、3次元点群データ20で示される3次元点群から移動路3を検出し、検出した移動路3に沿った線を基準線とすることができる。 The storage unit 11 stores three-dimensional point cloud data 20 transmitted from the three-dimensional point cloud measuring device 2 and received by the communication unit 10, and reference line data 21 that is data relating to the reference line along the movement path 3. . Note that the reference line data 21 may be generated by the processing unit 12 analyzing the three-dimensional point cloud data 20 and stored in the storage unit 11, or may be transmitted from an external device, received by the communication unit 10, and processed by the processing unit 12. It may be stored in the storage unit 11 . The processing unit 12 can, for example, detect the moving path 3 from the three-dimensional point cloud represented by the three-dimensional point cloud data 20 and use the detected line along the moving path 3 as the reference line.

図3は、実施の形態1にかかる3次元点群データの一例を示す図である。図3に示すように、3次元点群データ20は、複数の3次元点のデータを含む。3次元点のデータには、3次元直交座標系における3次元点の座標を示すデータが含まれる。図3に示す3次元点群データ20には、座標「X1,Y1,Z1」のデータ、座標「X2,Y2,Z2」のデータ、および座標「X3,Y3,Z3」のデータなどが各々3次元点のデータとして含まれる。 3 is a diagram illustrating an example of three-dimensional point cloud data according to the first embodiment; FIG. As shown in FIG. 3, the 3D point cloud data 20 includes data of a plurality of 3D points. The 3D point data includes data indicating the coordinates of the 3D point in a 3D Cartesian coordinate system. The three-dimensional point cloud data 20 shown in FIG. Included as dimension point data.

図4は、実施の形態1にかかる基準線データの一例を示す図である。図4に示すように、基準線データ21は、複数の基準点のデータを含む。基準点は基準線上の3次元点である。基準点のデータには、基準点の座標、ロール値、および並び順を示すデータが含まれる。 4 is a diagram illustrating an example of reference line data according to the first embodiment; FIG. As shown in FIG. 4, the reference line data 21 includes data of a plurality of reference points. A reference point is a three-dimensional point on the reference line. The reference point data includes data indicating the coordinates of the reference point, the roll value, and the arrangement order.

基準点の座標は、3次元直交座標系における基準点の座標である。ロール値は、移動路3の傾きを示すデータである。かかるロール値は、移動路3のうち移動体4が基準点上にある場合の移動体4の傾きを示すデータとも言える。並び順は、移動体4の移動方向を示す値であり、並び順が小さな基準点から並び順が大きな基準点へ向かう方向が移動体4の移動方向である。 The coordinates of the reference point are the coordinates of the reference point in the three-dimensional orthogonal coordinate system. The roll value is data indicating the inclination of the moving path 3 . Such a roll value can also be said to be data indicating the inclination of the moving body 4 when the moving body 4 is on the reference point on the moving path 3 . The alignment order is a value indicating the moving direction of the moving body 4, and the moving direction of the moving body 4 is the direction from the reference point with the lower alignment order to the reference point with the higher alignment order.

図4に示す基準線データ21には、座標「BX1,BY1,BZ1」、ロール値「R1」、および並び順「1」のデータ、座標「BX2,BY2,BZ2」、ロール値「R2」、および並び順「2」のデータ、および座標「BX3,BY3,BZ3」、ロール値「R3」、および並び順「3」のデータなどが各々基準点のデータとして含まれる。 The reference line data 21 shown in FIG. 4 includes the coordinates "BX1, BY1, BZ1", the roll value "R1", the data with the order of "1", the coordinates "BX2, BY2, BZ2", the roll value "R2", and the data with the order of "2", the coordinates "BX3, BY3, BZ3", the roll value "R3", the data with the order of "3", and the like are included as reference point data.

図2に示す処理部12は、データ取得部30と、見通し情報生成部31と、出力処理部32とを備える。データ取得部30は、3次元点群計測装置2から送信され通信部10で受信された3次元点群データ20を通信部10から取得し、取得した3次元点群データ20を記憶部11に記憶させる。データ取得部30は、見通し情報生成タイミングになると、3次元点群データ20および基準線データ21を記憶部11から取得し、取得した3次元点群データ20および基準線データ21を見通し情報生成部31に通知する。 The processing unit 12 shown in FIG. 2 includes a data acquisition unit 30 , a prospect information generation unit 31 and an output processing unit 32 . The data acquisition unit 30 acquires the three-dimensional point cloud data 20 transmitted from the three-dimensional point cloud measurement device 2 and received by the communication unit 10 from the communication unit 10, and stores the acquired three-dimensional point cloud data 20 in the storage unit 11. Memorize. The data acquisition unit 30 acquires the three-dimensional point cloud data 20 and the reference line data 21 from the storage unit 11 at the timing of generating the view information, and transmits the acquired three-dimensional point cloud data 20 and the reference line data 21 to the view information generation unit. Notify 31.

見通し情報生成部31は、データ取得部30によって取得された3次元点群データ20に基づいて、移動路3の周辺領域にある対象設備から離れた視点位置からの対象設備の見通し状況を示す情報である見通し情報を生成する。かかる見通し情報生成部31は、視点位置決定部40と、判定領域決定部41と、生成処理部42とを備える。 Based on the three-dimensional point cloud data 20 acquired by the data acquisition unit 30, the line-of-sight information generation unit 31 generates information indicating the line-of-sight situation of the target facility from a viewpoint position away from the target facility in the peripheral area of the moving route 3. to generate the line of sight information. The line-of-sight information generation unit 31 includes a viewpoint position determination unit 40 , a determination area determination unit 41 , and a generation processing unit 42 .

視点位置決定部40は、対象設備からの距離と移動路3の傾きとに基づいて、視点位置を決定する。例えば、視点位置決定部40は、基準線データ21で示される基準線に沿った対象設備からの距離に基づいて、視点位置を決定する。視点位置は、例えば、移動体4を運転する運転手の標準的な目の位置である。 The viewpoint position determination unit 40 determines the viewpoint position based on the distance from the target facility and the inclination of the moving path 3 . For example, the viewpoint position determination unit 40 determines the viewpoint position based on the distance from the target equipment along the reference line indicated by the reference line data 21 . The viewpoint position is, for example, the standard eye position of the driver who drives the mobile object 4 .

図5は、実施の形態1にかかる基準線データで示される基準線上の複数の基準点の一例を示す図である。図5に示すように、基準線データ21で示される基準線Lr上の複数の基準点は、移動体4の移動路3である一対のレール間の中央に配列される。 FIG. 5 is a diagram illustrating an example of a plurality of reference points on a reference line indicated by reference line data according to the first embodiment; As shown in FIG. 5 , a plurality of reference points on the reference line Lr indicated by the reference line data 21 are arranged in the center between the pair of rails that are the moving path 3 of the moving body 4 .

図6は、実施の形態1にかかる視点位置決定部による対象設備位置から指定距離手前の位置を決定する処理の一例を示す図である。図6では、「TP」は、対象設備の位置であり、以下において、対象設備位置TPと記載する。対象設備位置TPは、3次元直交座標系における座標「TX,TY,TZ」で表される。 6 is a diagram illustrating an example of processing for determining a position a specified distance before a target facility position by a viewpoint position determination unit according to the first embodiment; FIG. In FIG. 6, "TP" is the position of the target facility, and is hereinafter referred to as the target facility position TP. The target equipment position TP is represented by coordinates "TX, TY, TZ" in a three-dimensional orthogonal coordinate system.

視点位置決定部40は、対象設備位置TPに対応する基準線Lr上の位置BTを算出する第1の算出処理と、基準線Lr上の距離で、位置BTから後述する指定距離Dtだけ離れた基準線Lr上の位置BEを算出する第2の算出処理と、後述する視点位置EPを算出する第3の算出処理を行う。 The viewpoint position determination unit 40 performs a first calculation process for calculating a position BT on the reference line Lr corresponding to the target equipment position TP, and a distance on the reference line Lr that is a designated distance Dt described later from the position BT. A second calculation process for calculating a position BE on the reference line Lr and a third calculation process for calculating a viewpoint position EP, which will be described later, are performed.

まず、第1の算出処理について説明する。視点位置決定部40は、対象設備位置TPに最も近い基準点と次に近い基準点とを選択基準点として選択する。そして、視点位置決定部40は、2つの選択基準点を結ぶ直線と直交する平面であって対象設備位置TPを含む平面と、2つの選択基準点を結ぶ直線との交点を、位置BTとして算出する。 First, the first calculation process will be described. The viewpoint position determination unit 40 selects the reference point closest to the target equipment position TP and the reference point next closest to the target facility position TP as selection reference points. Then, the viewpoint position determination unit 40 calculates the intersection of the straight line connecting the two selection reference points and the plane perpendicular to the straight line connecting the two selection reference points and including the target facility position TP as the position BT. do.

図6に示す例では、対象設備位置TPから最も近い基準点は、基準点P23であり、対象設備位置TPから次に近い基準点は、基準点P24である。視点位置決定部40は、基準点P23と基準点P24とを結ぶ直線と直交する平面であって対象設備位置TPを含む平面と、基準点P23と基準点P24とを結ぶ直線との交点を、位置BTとして算出する。 In the example shown in FIG. 6, the reference point closest to the target equipment position TP is the reference point P23, and the next closest reference point from the target equipment position TP is the reference point P24. The viewpoint position determination unit 40 determines the intersection of a plane that is orthogonal to the straight line connecting the reference points P23 and P24 and that includes the target facility position TP and the straight line that connects the reference points P23 and P24. Calculate as position BT.

次に、第2の算出処理について説明する。視点位置決定部40は、位置BTから並び順が小さくなる順に基準点を通る直線の長さが指定距離Dtになる基準線Lr上の点を算出し、算出した点の位置を位置BEとして決定する。これにより、位置BTから指定距離Dtだけ手前の位置が位置BEとして決定される。 Next, the second calculation process will be explained. The viewpoint position determining unit 40 calculates the points on the reference line Lr where the length of the straight line passing through the reference points becomes the specified distance Dt in ascending order from the position BT, and determines the position of the calculated point as the position BE. do. As a result, a position a specified distance Dt before the position BT is determined as the position BE.

図6に示す例では、視点位置決定部40は、位置BTと基準点P23との距離d1を算出する。視点位置決定部40は、基準点P23と基準点P22との距離d2を算出し、算出した距離d2と距離d1とを加算して積算距離Dを算出する。視点位置決定部40は、基準点P22と基準点P21との距離d3を算出し、算出した距離d3を積算距離Dに積算して新たな積算距離Dを算出する。視点位置決定部40は、同様の処理を繰り返し行う。 In the example shown in FIG. 6, the viewpoint position determination unit 40 calculates the distance d1 between the position BT and the reference point P23. The viewpoint position determining unit 40 calculates the distance d2 between the reference point P23 and the reference point P22, and calculates the integrated distance D by adding the calculated distance d2 and the distance d1. The viewpoint position determining unit 40 calculates a distance d3 between the reference point P22 and the reference point P21, and calculates a new integrated distance D by adding the calculated distance d3 to the integrated distance D. The viewpoint position determination unit 40 repeats similar processing.

視点位置決定部40は、積算すると積算距離Dが指定距離Dt以上になる2つの基準点を判定し、判定した2つの基準点のうち並び順が大きい方の基準点までの積算距離Dと指定距離Dtとの差Δdを算出する。視点位置決定部40は、判定した2つの基準点間を結ぶ直線上の位置であって、並び順が大きい方の基準点からの距離が差Δdである位置を位置BEとして決定する。 The viewpoint position determining unit 40 determines two reference points whose integrated distance D is equal to or greater than the specified distance Dt, and designates the integrated distance D to the reference point having the higher alignment order among the determined two reference points. A difference Δd from the distance Dt is calculated. The viewpoint position determining unit 40 determines, as the position BE, a position on the straight line connecting the determined two reference points and having a difference Δd from the reference point having the higher alignment order.

図6に示す例では、距離d1から距離d19まで積算すると積算距離Dが指定距離Dt以上になるため、視点位置決定部40は、2つの基準点P5,P6間を結ぶ直線上の位置であって、並び順が大きい方の基準点P6からの距離が差Δdである位置を位置BEとして決定する。なお、指定距離Dtは、記憶部11に予め記憶されるが、通信部10で受信され通信部10からデータ取得部30によって取得されて記憶部11に記憶されてもよい。 In the example shown in FIG. 6, when the distance d1 to the distance d19 is integrated, the integrated distance D is equal to or greater than the specified distance Dt. Then, the position BE is determined as the position where the distance from the reference point P6 having the higher order is the difference Δd. Although the specified distance Dt is stored in advance in the storage unit 11 , it may be received by the communication unit 10 , acquired by the data acquisition unit 30 from the communication unit 10 , and stored in the storage unit 11 .

次に、第3の算出処理について説明する。視点位置決定部40は、位置BEに最も近い基準点と次に近い基準点とを選択する。次に、視点位置決定部40は、選択した2つの基準点のロール値から位置BEのロール値を決定する。基準点のロール値は、上述した基準線データ21に含まれるデータである。 Next, the third calculation process will be explained. The viewpoint position determining unit 40 selects the closest reference point and the next closest reference point to the position BE. Next, the viewpoint position determination unit 40 determines the roll value of the position BE from the roll values of the two selected reference points. The roll value of the reference point is data included in the reference line data 21 described above.

視点位置決定部40は、例えば、2つの基準点のうち並び順が大きい基準点のロール値を位置BEのロール値として決定する。また、視点位置決定部40は、2つの基準点のうち並び順が小さい基準点のロール値を位置BEのロール値として決定することもできる。また、視点位置決定部40は、2つの基準点のロール値の平均値を位置BEのロール値として決定することもできる。 The viewpoint position determining unit 40 determines, for example, the roll value of the reference point having the higher alignment order among the two reference points as the roll value of the position BE. The viewpoint position determination unit 40 can also determine the roll value of the reference point having the lowest alignment order among the two reference points as the roll value of the position BE. The viewpoint position determining unit 40 can also determine the average value of the roll values of the two reference points as the roll value of the position BE.

次に、視点位置決定部40は、選択した2つの基準点を結ぶ直線に直交する平面であって位置BEを含む平面を算出し、算出した平面上において位置BEを含み位置BEのロール値の傾きを持つ直線を第1の直線として算出する。そして、視点位置決定部40は、第1の直線上において位置BEから距離Lだけ離れた第1の位置を算出し、第1の直線と直交し且つ第1の位置を含む第2の直線上において距離Hだけ離れた第2の位置を算出する。視点位置決定部40は、算出した第2の位置を視点位置EPとして決定する。視点位置EPは、3次元直交座標系における座標「EX,EY,EZ」で表される。 Next, the viewpoint position determination unit 40 calculates a plane that is orthogonal to the straight line connecting the two selected reference points and includes the position BE, and calculates the roll value of the position BE that includes the position BE on the calculated plane. A straight line with an inclination is calculated as the first straight line. Then, the viewpoint position determining unit 40 calculates a first position that is a distance L from the position BE on the first straight line, and calculates a first position on a second straight line that is orthogonal to the first straight line and includes the first position. A second position separated by a distance H is calculated at . The viewpoint position determination unit 40 determines the calculated second position as the viewpoint position EP. The viewpoint position EP is represented by coordinates "EX, EY, EZ" in a three-dimensional orthogonal coordinate system.

図7は、実施の形態1にかかる視点位置決定部によって第1の直線の傾きが小さい場合に決定される視点位置の一例を示す図である。図8は、実施の形態1にかかる視点位置決定部によって第1の直線の傾きが大きい場合に決定される視点位置の一例を示す図である。 7 is a diagram illustrating an example of a viewpoint position determined by the viewpoint position determination unit according to the first embodiment when the slope of the first straight line is small; FIG. 8 is a diagram illustrating an example of a viewpoint position determined by the viewpoint position determining unit according to the first embodiment when the slope of the first straight line is large; FIG.

図7および図8に示す例では、視点位置決定部40は、位置BEを含み位置BEのロール値の傾きを持つ第1の直線SL1上において位置BEから距離Lだけ離れた第1の位置PB1を算出し、第1の直線SL1と直交し且つ第1の位置PB1を含む第2の直線SL2上において距離Hだけ離れた第2の位置PB2を算出する。第2の直線SL2は、第1の直線SL1と直交し且つ第1の位置PB1を含む平面上の直線である。 In the example shown in FIGS. 7 and 8, the viewpoint position determining unit 40 determines a first position PB1 that is a distance L away from the position BE on a first straight line SL1 that includes the position BE and has an inclination of the roll value of the position BE. is calculated, and a second position PB2 separated by a distance H on a second straight line SL2 orthogonal to the first straight line SL1 and including the first position PB1 is calculated. The second straight line SL2 is a straight line on a plane that is orthogonal to the first straight line SL1 and includes the first position PB1.

視点位置決定部40は、算出した第2の位置PB2を視点位置EPとして決定する。なお、距離Lおよび距離Hは、記憶部11に予め記憶されるが、通信部10で受信され通信部10からデータ取得部30によって取得されて記憶部11に記憶されてもよい。 The viewpoint position determination unit 40 determines the calculated second position PB2 as the viewpoint position EP. Although the distance L and the distance H are stored in advance in the storage unit 11 , they may be received by the communication unit 10 , acquired by the data acquisition unit 30 from the communication unit 10 , and stored in the storage unit 11 .

基準線データ21は、図4に示す例に限定されず、基準点のロール値を含まないデータであってもよい。移動体4が列車である場合、移動体4は、一対のレールを移動路3として一対のレール上を走行する。この場合、基準線データ21は、一対のレールに対応する一対の基準線Lrのデータであり、各基準線Lr上の複数の基準点の座標および並び順のデータを含む。 The reference line data 21 is not limited to the example shown in FIG. 4, and may be data that does not include the roll value of the reference point. When the moving body 4 is a train, the moving body 4 runs on a pair of rails with the pair of rails as the moving path 3 . In this case, the reference line data 21 is data of a pair of reference lines Lr corresponding to a pair of rails, and includes data of coordinates and arrangement order of a plurality of reference points on each reference line Lr.

視点位置決定部40は、一対の基準線Lrのうち一方の基準線Lr上の複数の基準点から位置BEを決定し、位置BEに最も近い基準点と次に近い基準点とを選択基準点として選択する。視点位置決定部40は、他方の基準線Lr上の隣接する異なる組み合わせの2つの基準点間を結ぶ複数の直線のうち、選択した2つの選択基準点を結ぶ直線に直交する直線と交差する直線の交差位置を位置OBPとして判定する。視点位置決定部40は、位置BEと位置OBPとを結ぶ直線を上述した第1の直線SL1として決定する。 A viewpoint position determining unit 40 determines a position BE from a plurality of reference points on one of the pair of reference lines Lr, and selects a reference point closest to the position BE and a reference point next closest to the position BE as reference points. Select as The viewpoint position determining unit 40 determines a straight line that intersects the straight line that is orthogonal to the straight line that connects two selected selected reference points from among a plurality of straight lines that connect two adjacent reference points in different combinations on the other reference line Lr. is determined as the position OBP. The viewpoint position determining unit 40 determines the straight line connecting the position BE and the position OBP as the above-described first straight line SL1.

図9は、実施の形態1にかかる視点位置決定部による対象設備位置から指定距離手前の位置を決定する処理の他の例を示す図である。図10は、実施の形態1にかかる視点位置決定部による視点位置決定方法の他の例を示す図である。 9 is a diagram illustrating another example of processing for determining a position a specified distance before the target equipment position by the viewpoint position determining unit according to the first embodiment; FIG. 10 is a diagram illustrating another example of the viewpoint position determination method by the viewpoint position determination unit according to the first embodiment; FIG.

図9に示す例では、視点位置決定部40は、位置BEに最も近い基準点P5と次に近い基準点P6とを選択する。視点位置決定部40は、2つの基準点P5,P6を結ぶ直線に直交する直線が、他方の基準線Lr上の隣接する2つの基準点P5’,P6’ 間を結ぶ直線と交差する位置を位置OBPとしてを判定する。視点位置決定部40は、位置BEと位置OBPとを結ぶ直線を上述した第1の直線SL1として決定する。 In the example shown in FIG. 9, the viewpoint position determining unit 40 selects the reference point P5 closest to the position BE and the reference point P6 next closest to the position BE. The viewpoint position determining unit 40 determines the position where a straight line perpendicular to the straight line connecting the two reference points P5 and P6 intersects the straight line connecting the two adjacent reference points P5' and P6' on the other reference line Lr. Determine as the position OBP. The viewpoint position determining unit 40 determines the straight line connecting the position BE and the position OBP as the above-described first straight line SL1.

そして、図10に示すように、視点位置決定部40は、第1の直線SL1上において位置BEから距離Lだけ離れた第1の位置PB1を算出し、第1の直線SL1と直交し且つ第1の位置PB1を含む第2の直線SL2上において距離Hだけ離れた第2の位置PB2を算出する。視点位置決定部40は、算出した第2の位置PB2を視点位置EPとして決定する。 Then, as shown in FIG. 10, the viewpoint position determination unit 40 calculates a first position PB1 that is separated from the position BE by a distance L on the first straight line SL1, and that is perpendicular to the first straight line SL1 and the first position PB1. A second position PB2 separated by a distance H on a second straight line SL2 containing one position PB1 is calculated. The viewpoint position determination unit 40 determines the calculated second position PB2 as the viewpoint position EP.

次に、図2に示す判定領域決定部41について説明する。判定領域決定部41は、対象設備位置TPと視点位置EPとを結ぶ直線の回りの予め設定された領域を判定対象領域に決定する。図11は、実施の形態1にかかる判定領域決定部によって決定される判定対象領域の一例を示す図である。 Next, the determination region determination unit 41 shown in FIG. 2 will be described. The determination area determination unit 41 determines a predetermined area around a straight line connecting the target equipment position TP and the viewpoint position EP as a determination target area. 11 is a diagram illustrating an example of a determination target area determined by a determination area determination unit according to the first embodiment; FIG.

図11に示すように、判定領域決定部41は、対象設備位置TPと視点位置EPとを結ぶ直線SL3の回りの予め設定された領域を判定対象領域ARに決定する。図11に示す判定対象領域ARは、対象設備位置TPと視点位置EPとを結ぶ直線SL3を中心線とする半径rの円柱状の領域である。 As shown in FIG. 11, the determination area determination unit 41 determines a predetermined area around a straight line SL3 connecting the target equipment position TP and the viewpoint position EP as the determination target area AR. The determination target area AR shown in FIG. 11 is a columnar area with a radius r centered on a straight line SL3 connecting the target equipment position TP and the viewpoint position EP.

判定領域決定部41によって決定される判定対象領域ARは、図11に示す例に限定されない。例えば、判定領域決定部41は、円柱状の領域に代えて、多角柱状の領域を判定対象領域ARとして決定することもでき、楕円柱状の領域を判定対象領域ARとして決定することもできる。 The determination target area AR determined by the determination area determination unit 41 is not limited to the example shown in FIG. For example, instead of the cylindrical area, the determination area determining unit 41 can determine a polygonal prismatic area as the determination target area AR, or can determine an elliptical cylindrical area as the determination target area AR.

図12は、実施の形態1にかかる判定領域決定部による判定対象領域の決定方法の他の例を示す図である。図12に示す例では、判定領域決定部41によって決定される判定対象領域ARは、対象設備位置TPと視点位置EPとを結ぶ直線SL3を中心線とする四角柱状の領域であり、第1の直線SL1と平行な2つの面AS1,AS2と、第2の直線SL2と平行な2つの面AS3,AS4とで囲まれる領域である。 12A and 12B are diagrams illustrating another example of the determination method of the determination target area by the determination area determining unit according to the first embodiment. FIG. In the example shown in FIG. 12, the determination target area AR determined by the determination area determination unit 41 is a quadrangular prism-shaped area whose center line is a straight line SL3 connecting the target equipment position TP and the viewpoint position EP. It is an area surrounded by two surfaces AS1 and AS2 parallel to the straight line SL1 and two surfaces AS3 and AS4 parallel to the second straight line SL2.

図13は、実施の形態1にかかる3次元点群データで示される3次元点群と判定対象領域との関係の一例を示す図であり、図14は、実施の形態1にかかる移動体の進行方向から見た判定対象領域の一例を示す図である。 FIG. 13 is a diagram showing an example of the relationship between the three-dimensional point cloud represented by the three-dimensional point cloud data according to the first embodiment and the determination target region, and FIG. It is a figure which shows an example of the determination object area|region seen from the advancing direction.

図13に示す例では、3次元点群と判定対象領域ARとを上方から見た様子を示している。また、図14に示す例では、判定対象領域ARを視点位置EP付近から見た様子を示しており、図14では、判定対象領域ARは、破線で囲まれる領域である。このように、見通し情報生成装置1では、判定対象領域ARとして、対象設備位置TPと視点位置EPとを結ぶ直線の回りの予め設定された領域が決定される。 In the example shown in FIG. 13, the three-dimensional point cloud and the determination target area AR are viewed from above. The example shown in FIG. 14 shows the determination target area AR viewed from the vicinity of the viewpoint position EP. In FIG. 14, the determination target area AR is an area surrounded by broken lines. In this manner, the outlook information generation device 1 determines a preset area around the straight line connecting the target facility position TP and the viewpoint position EP as the determination target area AR.

次に、図2に示す生成処理部42について説明する。生成処理部42は、データ取得部30によって取得された3次元点群データ20と判定領域決定部41によって決定された判定対象領域ARとに基づいて、見通し情報を生成する。見通し情報は、例えば、3次元点群データ20によって示される3次元点群を構成する複数の3次元点のうち判定対象領域ARに含まれる3次元点がある場合、判定対象領域ARに含まれる3次元点に応じた情報を含む。 Next, the generation processing unit 42 shown in FIG. 2 will be described. The generation processing unit 42 generates view information based on the three-dimensional point cloud data 20 acquired by the data acquisition unit 30 and the determination target area AR determined by the determination area determination unit 41 . For example, when there is a 3D point included in the determination target area AR among a plurality of 3D points forming the 3D point cloud indicated by the 3D point cloud data 20, the view information is included in the determination target area AR. Contains information corresponding to a 3D point.

生成処理部42は、図2に示すように、対象領域画像生成部50と、見通し判定部51と、干渉物画像生成部52とを備える。対象領域画像生成部50は、3次元点群データ20で示される3次元点群のうち判定対象領域ARに含まれる3次元点を基準面に投影して得られる判定対象領域ARの2次元画像を含む情報を見通し情報として生成する。 The generation processing unit 42 includes a target area image generation unit 50 , a line-of-sight determination unit 51 , and an interfering object image generation unit 52 , as shown in FIG. 2 . The target area image generating unit 50 generates a two-dimensional image of the determination target area AR obtained by projecting the three-dimensional points included in the determination target area AR among the three-dimensional point cloud represented by the three-dimensional point cloud data 20 onto the reference plane. Generates information containing as perspective information.

図15は、実施の形態1にかかる判定対象領域に存在する干渉物の一例を示す図である。図15に示す例では、判定対象領域AR内に干渉物I1と干渉物I2とが各々一部含まれる。干渉物I1は、架線柱であり、干渉物I2は、樹木である。したがって、図15に示す例では、判定対象領域AR内には、干渉物I1を表す3次元点群の一部と、干渉物I2を表す3次元点群の一部とが含まれる。 15 is a diagram illustrating an example of an interfering object existing in the determination target region according to the first embodiment; FIG. In the example shown in FIG. 15, each of the interfering object I1 and the interfering object I2 is partially included in the determination target area AR. The interfering object I1 is an overhead wire pole, and the interfering object I2 is a tree. Therefore, in the example shown in FIG. 15, the determination target area AR includes a part of the three-dimensional point group representing the interfering object I1 and a part of the three-dimensional point group representing the interfering object I2.

対象領域画像生成部50は、3次元点群データ20で示される3次元点群のうち判定対象領域ARに含まれる3次元点をPL1[mm]の大きさで図11に示す直線SL3に垂直な面に投影して判定対象領域ARの2次元画像を生成する。また、対象領域画像生成部50は、3次元点群データ20で示される3次元点群のうち判定対象領域ARに含まれる3次元点をPL1[mm]の大きさで水平面に投影して判定対象領域ARの2次元画像を生成する。PL1は、記憶部11に予め記憶されるが、通信部10で受信され通信部10からデータ取得部30によって取得されて記憶部11に記憶されてもよい。The target area image generator 50 converts the three-dimensional points included in the determination target area AR from the three-dimensional point cloud represented by the three-dimensional point cloud data 20 into a straight line SL3 shown in FIG. 11 with a size of PL1 [mm 2 ]. A two-dimensional image of the determination target area AR is generated by projecting onto a vertical plane. In addition, the target area image generation unit 50 projects the three-dimensional points included in the determination target area AR in the three-dimensional point cloud represented by the three-dimensional point cloud data 20 onto a horizontal plane with a size of PL1 [mm 2 ]. A two-dimensional image of the determination target area AR is generated. PL1 is preliminarily stored in the storage unit 11 , but may be received by the communication unit 10 , acquired by the data acquisition unit 30 from the communication unit 10 , and stored in the storage unit 11 .

図16は、実施の形態1にかかる対象領域画像生成部によって生成される判定対象領域の第1の2次元画像の一例を示す図である。図16に示す第1の2次元画像60は、判定対象領域ARに含まれる3次元点を図11に示す直線SL3に垂直な面に投影して得られる判定対象領域ARの2次元画像である。 16 is a diagram illustrating an example of a first two-dimensional image of the determination target region generated by the target region image generation unit according to the first embodiment; FIG. A first two-dimensional image 60 shown in FIG. 16 is a two-dimensional image of the determination target area AR obtained by projecting three-dimensional points included in the determination target area AR onto a plane perpendicular to the straight line SL3 shown in FIG. .

第1の2次元画像60には、判定対象領域ARに含まれ基準面に2次元点として投影された3次元点と、視点位置EPと、視点位置EPを中心とする半径r1の円形の枠線と、視点位置EPを中心とする半径r2の円形の枠線と、視点位置EPを中心とする半径rの円形の枠線とが含まれる。半径r1の円形の枠線は、判定対象領域ARの外縁を示す。半径r1は、半径rおよび半径r2よりも短く、半径r2は、半径rよりも短い。半径r1は、例えば、半径rの1/3の長さであり、半径r2は、例えば、半径rの2/3の長さである。 The first two-dimensional image 60 includes a three-dimensional point included in the determination target area AR and projected onto the reference plane as a two-dimensional point, the viewpoint position EP, and a circular frame with a radius r1 centered at the viewpoint position EP. A line, a circular frame line with a radius r2 centered at the viewpoint position EP, and a circular frame line with a radius r centered at the viewpoint position EP are included. A circular frame line with radius r1 indicates the outer edge of the determination target area AR. Radius r1 is shorter than radius r and radius r2, and radius r2 is shorter than radius r. The radius r1 is, for example, 1/3 the length of the radius r, and the radius r2 is, for example, 2/3 the length of the radius r.

第1の2次元画像60は、移動体4が指定距離Dtだけ手前に位置する状態で移動体4の乗務員が対象設備を見た場合に、対象設備の位置を中心としてどのくらい離れた位置に干渉物があるかを示す画像である。図16に示すように、第1の2次元画像60では、視点位置EPを中心とする半径rの円内に判定対象領域ARに含まれる3次元点が2次元点として配置されるため、第1の2次元画像60によって視点位置EPからの対象設備の見通し状況を精度よく表すことができる。 The first two-dimensional image 60 shows how far away from the target facility the position of the target facility interferes when the crew member of the mobile body 4 looks at the target facility while the mobile body 4 is positioned in front of the designated distance Dt. It is an image showing whether there is an object. As shown in FIG. 16, in the first two-dimensional image 60, the three-dimensional points included in the determination target area AR are arranged as two-dimensional points within a circle with a radius r centered at the viewpoint position EP. One two-dimensional image 60 can accurately represent the line-of-sight situation of the target facility from the viewpoint position EP.

上述した第1の2次元画像60は、判定対象領域ARが円柱状の領域である場合の例であるが、判定対象領域ARが四角柱状の領域である場合も、同様に対象領域画像生成部50によって第1の2次元画像60が生成される。図17は、実施の形態1にかかる対象領域画像生成部によって生成される判定対象領域の第1の2次元画像の他の例を示す図である。 The first two-dimensional image 60 described above is an example in which the determination target area AR is a cylindrical area. A first two-dimensional image 60 is generated by 50 . 17 is a diagram illustrating another example of the first two-dimensional image of the determination target region generated by the target region image generation unit according to the first embodiment; FIG.

図17に示す第1の2次元画像60には、四角柱状の領域である判定対象領域ARに含まれ基準面に2次元点として投影された3次元点と、視点位置EPと、視点位置EPを中心とする異なる大きさの四角形の枠線とが含まれる。図17に示す第1の2次元画像60では、運転手の両目の目線付近に判定対象領域ARの中央領域を設定することができるため、より現実に近い状況で見通し状況を精度よく表すことができる。 The first two-dimensional image 60 shown in FIG. 17 includes a three-dimensional point projected as a two-dimensional point on the reference plane, which is included in the determination target area AR which is a rectangular prism-shaped area, a viewpoint position EP, and a viewpoint position EP. It includes borders of rectangles of different sizes centered on . In the first two-dimensional image 60 shown in FIG. 17, the center region of the determination target region AR can be set near the line of sight of both eyes of the driver. can.

図18は、実施の形態1にかかる対象領域画像生成部によって生成される判定対象領域の第2の2次元画像の一例を示す図である。図18に示す第2の2次元画像61は、3次元点群データ20で示される3次元点群のうち判定対象領域ARに含まれる3次元点を水平面に投影して得られる2次元画像である。 18 is a diagram illustrating an example of a second two-dimensional image of the determination target region generated by the target region image generation unit according to the first embodiment; FIG. A second two-dimensional image 61 shown in FIG. 18 is a two-dimensional image obtained by projecting the three-dimensional points included in the determination target area AR out of the three-dimensional point cloud represented by the three-dimensional point cloud data 20 onto a horizontal plane. be.

第2の2次元画像61には、判定対象領域ARに含まれ基準面に2次元点として投影された3次元点と、長方形の枠と、視点位置EPと、対象設備位置TPと、視点位置EPと対象設備位置TPとの間の距離である指定距離Dtとが含まれる。第2の2次元画像61は、判定対象領域ARを上方から見た2次元画像であり、かかる第2の2次元画像61によって視点位置EPからどのくらいの距離に干渉物があるかを表すことができる。 The second two-dimensional image 61 includes three-dimensional points included in the determination target area AR and projected onto the reference plane as two-dimensional points, a rectangular frame, a viewpoint position EP, a target facility position TP, a viewpoint position A designated distance Dt, which is the distance between the EP and the target equipment position TP, is included. The second two-dimensional image 61 is a two-dimensional image of the determination target area AR viewed from above, and the second two-dimensional image 61 can represent how far away an interfering object is from the viewpoint position EP. can.

また、対象領域画像生成部50は、判定対象領域ARに含まれる3次元点を直線SL3からの距離に応じて色分けして基準面に投影して得られる2次元画像を第1の2次元画像60および第2の2次元画像61として生成することもできる。図19は、実施の形態1にかかる対象領域画像生成部によって判定対象領域に含まれる3次元点が位置に応じて色分けされた判定対象領域の第1の2次元画像の一例を示す図である。 In addition, the target area image generation unit 50 divides the three-dimensional points included in the determination target area AR into colors according to the distance from the straight line SL3, and converts the two-dimensional image obtained by projecting onto the reference plane into the first two-dimensional image. 60 and a second two-dimensional image 61 . 19 is a diagram illustrating an example of a first two-dimensional image of a determination target region in which three-dimensional points included in the determination target region are color-coded according to their positions by the target region image generation unit according to the first embodiment; FIG. .

図19に示す第1の2次元画像60には、図16に示す第1の2次元画像60と同様に、判定対象領域ARに含まれ基準面に2次元点として投影された3次元点と、視点位置EPと、半径r1の円と、半径r2の円と、半径rの円とが含まれる。また、図19に示す第1の2次元画像60では、判定対象領域ARに含まれる3次元点が視点位置EPを含む直線SL3からの距離に応じて色分けされている。図19では、3次元点の円内の塗り潰し状態の違いで色の違いが表されている。図19に示す例で、半径r1の円内の領域の3次元点と、半径r1の円外であって半径r2の円内の領域の3次元点と、半径r2の円外であって半径rの円内の領域の3次元点とがそれぞれ異なる色で表されている。 Similar to the first two-dimensional image 60 shown in FIG. 16, the first two-dimensional image 60 shown in FIG. , a viewpoint position EP, a circle of radius r1, a circle of radius r2, and a circle of radius r. Also, in the first two-dimensional image 60 shown in FIG. 19, the three-dimensional points included in the determination target area AR are color-coded according to the distance from the straight line SL3 including the viewpoint position EP. In FIG. 19, the difference in color is represented by the difference in the filling state within the circle of the three-dimensional point. In the example shown in FIG. 19, a three-dimensional point in the area inside the circle with radius r1, a three-dimensional point in the area outside the circle with radius r1 and inside the circle with radius r2, and a three-dimensional point outside the circle with radius r2 and with radius 3D points in the area within the circle of r are represented in different colors.

図20は、実施の形態1にかかる対象領域画像生成部によって判定対象領域に含まれる3次元点が位置に応じて色分けされた判定対象領域の第2の2次元画像の一例を示す図である。図20に示す第2の2次元画像61には、図18に示す第2の2次元画像61と同様に、判定対象領域ARに含まれ基準面に2次元点として投影された3次元点と、長方形の枠と、視点位置EPと、対象設備位置TPと、指定距離Dtとが含まれる。 20 is a diagram illustrating an example of a second two-dimensional image of a determination target region in which three-dimensional points included in the determination target region are color-coded according to their positions by the target region image generation unit according to the first embodiment; FIG. . As with the second two-dimensional image 61 shown in FIG. 18, the second two-dimensional image 61 shown in FIG. , a rectangular frame, a viewpoint position EP, a target equipment position TP, and a designated distance Dt.

図20に示す第2の2次元画像61では、図18に示す第2の2次元画像61と同様に、判定対象領域ARに含まれ基準面に2次元点として投影された3次元点が視点位置EPを含む直線SL3からの距離に応じて色分けされている。 In the second two-dimensional image 61 shown in FIG. 20, similarly to the second two-dimensional image 61 shown in FIG. They are color-coded according to the distance from the straight line SL3 including the position EP.

なお、図示しないが、判定対象領域ARが多角柱状の領域である場合も、同様に対象領域画像生成部50によって、判定対象領域ARに含まれ基準面に2次元点として投影された3次元点が直線SL3からの距離に応じて色分けされた判定対象領域ARの第1の2次元画像60および第2の2次元画像61が生成される。 Although not shown, even when the determination target area AR is a polygonal prismatic area, the target area image generation unit 50 similarly projects a three-dimensional point included in the determination target area AR onto the reference plane as a two-dimensional point. A first two-dimensional image 60 and a second two-dimensional image 61 of the determination target area AR, which are color-coded according to the distance from the straight line SL3, are generated.

次に、生成処理部42の見通し判定部51について説明する。見通し判定部51は、判定対象領域ARに含まれる3次元点の分布に基づいて、見通しの程度を判定する。見通しの程度は、視点位置EPからの対象設備がどの程度見通せるかを示す。見通し判定部51によって判定された見通しの程度を示す情報は、対象領域画像生成部50によって見通し情報に追加される。 Next, the line-of-sight determination unit 51 of the generation processing unit 42 will be described. The line-of-sight determination unit 51 determines the degree of line-of-sight based on the distribution of three-dimensional points included in the determination target area AR. The degree of line-of-sight indicates how much the target facility can be line-of-sight from the viewpoint position EP. Information indicating the degree of visibility determined by the visibility determination unit 51 is added to the visibility information by the target area image generation unit 50 .

見通し判定部51は、例えば、3次元点群データ20で示される3次元点群のうち判定対象領域ARに含まれる3次元点をPL2[mm]の大きさで水平面に投影して判定対象領域ARの2次元画像を生成する。PL2は、記憶部11に予め記憶されるが、通信部10で受信され通信部10からデータ取得部30によって取得されて記憶部11に記憶されてもよい。For example, the visibility determination unit 51 projects the three-dimensional points included in the determination target area AR in the three-dimensional point cloud represented by the three-dimensional point cloud data 20 onto a horizontal plane with a size of PL2 [mm 2 ] to determine the determination target. Generate a two-dimensional image of the area AR. PL2 is stored in advance in the storage unit 11 , but may be received by the communication unit 10 , acquired by the data acquisition unit 30 from the communication unit 10 , and stored in the storage unit 11 .

見通し判定部51は、判定対象領域ARの2次元画像に含まれる各3次元点の面積の合計値を合計面積として算出し、判定対象領域ARの面積に対する合計面積の比である面積比Srを算出する。見通し判定部51は、面積比Srの大きさに応じて、見通し状況を判定する。例えば、見通し判定部51は、0≦Sr<Sth1である場合、見通しが良好な状態であると判定し、Sth1≦Sr<Sth2である場合、一部干渉があるが見通せる状態であると判定し、Sth2≦Srである場合、見通しが不良である状態であると判定する。Sth1,Sth2は閾値である。 The visibility determination unit 51 calculates the total area of the three-dimensional points included in the two-dimensional image of the determination target area AR as the total area, and calculates the area ratio Sr, which is the ratio of the total area to the area of the determination target area AR. calculate. The visibility determination unit 51 determines the visibility condition according to the size of the area ratio Sr. For example, if 0≦Sr<Sth1, the visibility determining unit 51 determines that the visibility is good, and if Sth1≦Sr<Sth2, it determines that the visibility is good with partial interference. , Sth2≦Sr, it is determined that the visibility is poor. Sth1 and Sth2 are thresholds.

また、見通し判定部51は、対象設備位置TPと視点位置EPとを結ぶ直線SL3からの距離に応じて、重みづけして見通し状況を判定することもできる。例えば、直線SL3から半径r1までの距離にある領域を第1の領域とし、直線SL3から半径r2までの距離にある領域から第1の領域を除いた領域を第2の領域とし、直線SL3から半径rまでの距離にある領域から第1の領域および第2の領域を除いた領域を第3の領域とする。以下、説明の便宜上、第1の領域を第1の領域AR1と記載し、第2の領域を第2の領域AR2と記載し、第3の領域を第3の領域AR3と記載する。 Further, the line-of-sight determination unit 51 can also determine the line-of-sight situation by weighting according to the distance from a straight line SL3 connecting the target facility position TP and the viewpoint position EP. For example, the area at the distance from the straight line SL3 to the radius r1 is defined as the first area, the area at the distance from the straight line SL3 to the radius r2 except the first area is defined as the second area, and the area from the straight line SL3 to the radius r2 is defined as the second area. A third area is defined as an area within the radius r except for the first area and the second area. Hereinafter, for convenience of explanation, the first area will be referred to as the first area AR1, the second area will be referred to as the second area AR2, and the third area will be referred to as the third area AR3.

見通し判定部51は、判定対象領域ARの2次元画像のうち第1の領域AR1に含まれる3次元点の総面積に係数k1を乗算して第1の面積値を算出し、判定対象領域ARの2次元画像のうち第2の領域AR2に含まれる3次元点の総面積に係数k2を乗算して第2の面積値を算出する。また、見通し判定部51は、判定対象領域ARの2次元画像のうち第3の領域AR3に含まれる3次元点の総面積に係数k3を乗算して第3面積値を算出する。 The visibility determination unit 51 calculates a first area value by multiplying the total area of the three-dimensional points included in the first area AR1 in the two-dimensional image of the determination target area AR by the coefficient k1, and determines the determination target area AR. A second area value is calculated by multiplying the total area of the three-dimensional points included in the second area AR2 in the two-dimensional image of A by the coefficient k2. Further, the visibility determination unit 51 multiplies the total area of the three-dimensional points included in the third area AR3 in the two-dimensional image of the determination target area AR by the coefficient k3 to calculate the third area value.

見通し判定部51は、第1の面積値と第2の面積値と第3面積値とを合計して得られた値を上述した面積比Srと表すことができる。なお、係数k1,k2,k3は、k1>k2>k3の関係にあり、記憶部11に予め記憶されるが、通信部10で受信され通信部10からデータ取得部30によって取得されて記憶部11に記憶されてもよい。 The line-of-sight determination unit 51 can express the value obtained by summing the first area value, the second area value, and the third area value as the above-described area ratio Sr. Note that the coefficients k1, k2, and k3 have a relationship of k1>k2>k3, and are stored in the storage unit 11 in advance. 11 may be stored.

また、見通し判定部51は、例えば、第1の領域AR1に含まれる3次元点をPL2×k4[mm]の大きさで水平面に投影し、第2の領域AR2に含まれる3次元点をPL2×k5[mm]の大きさで水平面に投影し、第3の領域AR3に含まれる3次元点をPL2×k6[mm]の大きさで水平面に投影する。k4,k5,k6は、係数であり、k4>k5>k6の関係にある。Further, the line-of-sight determination unit 51 projects, for example, the three-dimensional points included in the first area AR1 onto a horizontal plane with a size of PL2×k4 [mm 2 ], and projects the three-dimensional points included in the second area AR2 as It is projected onto a horizontal plane with a size of PL2×k5 [mm 2 ], and the three-dimensional points included in the third area AR3 are projected onto a horizontal plane with a size of PL2×k6 [mm 2 ]. k4, k5 and k6 are coefficients and have a relationship of k4>k5>k6.

見通し判定部51は、判定対象領域ARに含まれる各3次元点の面積の合計値を合計面積として算出し、判定対象領域ARの面積に対する合計面積の比である面積比Srを算出する。そして、見通し判定部51は、上述した判定方法と同様の方法で、面積比Srの大きさに応じて、見通し状況を判定する。 The outlook determination unit 51 calculates the total area of the three-dimensional points included in the determination target area AR as the total area, and calculates the area ratio Sr, which is the ratio of the total area to the area of the determination target area AR. Then, the line-of-sight determination unit 51 determines the state of line-of-sight according to the size of the area ratio Sr by a method similar to the determination method described above.

このように、見通し判定部51は、直線SL3からの距離に近いほど大きな重み付けを行うことで、対象設備を見ている状態の乗務員の目線に近い干渉物を見通し状況がより悪くなる要素として判定することができるため、より精度よい判定を行うことができる。 In this way, the line-of-sight determination unit 51 assigns a greater weight to the closer the distance from the straight line SL3, thereby determining an obstacle that is close to the line of sight of the crew member looking at the target facility as an element that worsens the line-of-sight situation. Therefore, more accurate determination can be performed.

上述した例では、見通し判定部51は、水平面に投影した判定対象領域ARを3つの領域に分けて、見通し状況を判定するが、水平面に投影した判定対象領域ARを2つの領域または4つ以上の領域に分けて、見通し状況を判定することもできる。 In the example described above, the visibility determination unit 51 divides the determination target area AR projected onto the horizontal plane into three areas to determine the visibility situation. It is also possible to determine the line-of-sight situation by dividing the area into .

次に、生成処理部42の干渉物画像生成部52について説明する。干渉物画像生成部52は、3次元点群データ20で示される3次元点群のうち判定対象領域ARに含まれる3次元点を着色した状態で3次元点群の画像を干渉物画像として生成する。干渉物画像生成部52によって生成された干渉物画像は、対象領域画像生成部50によって見通し情報に追加される。 Next, the interfering object image generator 52 of the generation processor 42 will be described. The interfering object image generating unit 52 generates an image of the 3-dimensional point cloud as an interfering object image in a state where the 3-dimensional points included in the determination target area AR in the 3-dimensional point cloud represented by the 3-dimensional point cloud data 20 are colored. do. The interfering object image generated by the interfering object image generating unit 52 is added to the line of sight information by the target area image generating unit 50 .

干渉物画像生成部52による3次元点の着色方法は、対象領域画像生成部50による3次元点の着色方法と同様であり、干渉物画像生成部52は、判定対象領域ARに含まれる3次元点を直線SL3からの距離に応じて色分けを行う。 The method of coloring the three-dimensional points by the interfering object image generating unit 52 is the same as the method of coloring the three-dimensional points by the target area image generating unit 50. The points are color-coded according to the distance from the straight line SL3.

例えば、干渉物画像生成部52は、半径r1の円内の領域の3次元点と、半径r1の円外であって半径r2の円内の領域の3次元点と、半径r2の円外であって半径rの円内の領域の3次元点とにそれぞれ異なる色を着ける。 For example, the interfering object image generation unit 52 generates three-dimensional points in an area within a circle with radius r1, three-dimensional points in an area outside the circle with radius r1 and within the circle with radius r2, and outside the circle with radius r2. 3D points within a circle of radius r are given different colors.

図21は、実施の形態1にかかる干渉物画像生成部によって生成される干渉物画像の一例を示す図であり、図22は、実施の形態1にかかる干渉物画像生成部によって生成される干渉物画像の他の例を示す図である。図21および図22に示すように、干渉物画像生成部52は、干渉物に近い位置から干渉物の3次元点を含む3次元点群を見た画像を干渉物画像70,71として生成する。 21 is a diagram illustrating an example of an interfering object image generated by the interfering object image generating unit according to Embodiment 1, and FIG. 22 is a diagram illustrating an interference object image generated by the interfering object image generating unit according to Embodiment 1; FIG. 10 is a diagram showing another example of an object image; As shown in FIGS. 21 and 22, the interfering object image generating unit 52 generates as interfering object images 70 and 71 3D point cloud images including 3D points of the interfering object viewed from a position close to the interfering object. .

図21に示す干渉物画像70には、干渉物I1を表す3次元点群の画像が含まれており、干渉物I1を表す3次元点群を構成する複数の3次元点のうち判定対象領域ARに含まれる3次元点が着色されている。かかる干渉物画像70によって、干渉物I1がどのような状態で判定対象領域ARに干渉しているかを表すことができる。 An interfering object image 70 shown in FIG. 21 includes an image of a three-dimensional point group representing the interfering object I1. The 3D points included in the AR are colored. Such an interfering object image 70 can represent in what state the interfering object I1 interferes with the determination target area AR.

また、図22に示す干渉物画像71には、干渉物I2を表す3次元点群の画像が含まれており、干渉物I2を表す3次元点群を構成する複数の3次元点のうち判定対象領域ARに含まれる3次元点が着色されている。かかる干渉物画像71によって、干渉物I2がどのような状態で判定対象領域ARに干渉しているかを表すことができる。 The interfering object image 71 shown in FIG. 22 includes a three-dimensional point group image representing the interfering object I2. Three-dimensional points included in the target area AR are colored. Such an interfering object image 71 can represent in what state the interfering object I2 interferes with the determination target area AR.

図21および図22に示す例では、説明の便宜上、判定対象領域ARに含まれる3次元点を大きく表示しており、かかる3次元点が着色されている。図21および図22では、3次元点の円内の塗り潰し状態の違いで色の違いを表している。 In the examples shown in FIGS. 21 and 22, for convenience of explanation, the three-dimensional points included in the determination target area AR are displayed large, and these three-dimensional points are colored. In FIGS. 21 and 22, the difference in color is represented by the difference in the filling state within the circle of the three-dimensional points.

図2に示す出力処理部32は、見通し情報生成部31によって生成された見通し情報を出力する。出力処理部32は、例えば、見通し情報生成部31によって生成された見通し情報を不図示のネットワークを介して外部装置へ通信部10に送信させることで、見通し情報を出力する。また、出力処理部32は、例えば、見通し情報生成部31によって生成された見通し情報を表示装置5に表示させることで、見通し情報を出力することもできる。 The output processing unit 32 shown in FIG. 2 outputs the outlook information generated by the outlook information generation unit 31 . For example, the output processing unit 32 outputs the outlook information by causing the communication unit 10 to transmit the outlook information generated by the outlook information generation unit 31 to an external device via a network (not shown). The output processing unit 32 can also output the outlook information by displaying the outlook information generated by the outlook information generation unit 31 on the display device 5, for example.

見通し情報生成部31によって生成される見通し情報は、対象領域画像生成部50によって生成される第1の2次元画像60および第2の2次元画像61、見通し判定部51によって判定される見通し状況、および干渉物画像生成部52によって生成される干渉物画像70,71の少なくとも1つを含む。 The outlook information generated by the outlook information generation unit 31 includes the first two-dimensional image 60 and the second two-dimensional image 61 generated by the target area image generation unit 50, the outlook situation determined by the outlook determination unit 51, and at least one of the interfering object images 70 and 71 generated by the interfering object image generating unit 52 .

例えば、出力処理部32は、対象領域画像生成部50によって生成される第1の2次元画像60および第2の2次元画像61、見通し判定部51によって判定される見通し状況、および干渉物画像生成部52によって生成される干渉物画像70,71を含む見通し情報を出力することができる。 For example, the output processing unit 32 generates the first two-dimensional image 60 and the second two-dimensional image 61 generated by the target area image generation unit 50, the line-of-sight situation determined by the line-of-sight determination unit 51, and the interference object image generation. Line-of-sight information including interfering object images 70 and 71 generated by unit 52 can be output.

図23は、実施の形態1にかかる見通し情報の一例を示す図である。図23に示す見通し情報80は、第1の2次元画像60と、第2の2次元画像61と、干渉物画像70と、干渉物画像71と、確認ポイント82と、見通し状況の判定結果83とを含む。確認ポイント82は、指定距離Dtであり、視点位置EPと対象設備位置TPとの移動路3に沿った距離を示す。見通し状況の判定結果83は、見通し判定部51によって判定された見通しの程度を示す情報である。 23 is a diagram illustrating an example of outlook information according to the first embodiment; FIG. The line-of-sight information 80 shown in FIG. including. The confirmation point 82 is the specified distance Dt, and indicates the distance along the movement path 3 between the viewpoint position EP and the target equipment position TP. The visibility status determination result 83 is information indicating the degree of visibility determined by the visibility determination unit 51 .

見通し情報80には、干渉物画像70に対応付けられた位置に、干渉物I1の3次元点のうち判定対象領域ARに含まれる3次元点の位置を示す位置情報が配置される。同様に、見通し情報80には、干渉物画像71に対応付けられた位置に、干渉物I2の3次元点のうち判定対象領域ARに含まれる3次元点の位置を示す位置情報が配置される。かかる位置情報は、見通し情報生成部31によって検出される情報である。 The line-of-sight information 80 includes position information indicating the positions of three-dimensional points included in the determination target area AR among the three-dimensional points of the interfering object I1 at positions associated with the interfering object image 70 . Similarly, in the line-of-sight information 80, position information indicating the positions of the three-dimensional points included in the determination target area AR among the three-dimensional points of the interfering object I2 is arranged at the position associated with the interfering object image 71. . Such position information is information detected by the outlook information generator 31 .

このように、見通し情報80は、第1の2次元画像60と、第2の2次元画像61と、干渉物画像70と、干渉物画像71と、見通し状況の判定結果83とを含むことから、見通し情報80を確認する作業者は、見通し状況を精度よく把握することができる。 In this way, since the line-of-sight information 80 includes the first two-dimensional image 60, the second two-dimensional image 61, the interfering object image 70, the interfering object image 71, and the line-of-sight situation judgment result 83, , the operator who confirms the visibility information 80 can accurately grasp the visibility situation.

つづいて、フローチャートを用いて見通し情報生成装置1の処理部12による処理を説明する。図24は、実施の形態1にかかる見通し情報生成装置の処理部による処理の一例を示すフローチャートである。 Next, processing by the processing unit 12 of the outlook information generation device 1 will be described using a flowchart. 24 is a flowchart illustrating an example of processing by a processing unit of the outlook information generating device according to the first embodiment; FIG.

図24に示すように、見通し情報生成装置1の処理部12は、記憶部11または通信部10から3次元点群データ20を取得する(ステップS10)。次に、処理部12は、視点位置EPを決定する視点位置決定処理を行う(ステップS11)。かかるステップS11の処理は、図25に示すステップS20~S22の処理であり、後で詳述する。 As shown in FIG. 24, the processing unit 12 of the outlook information generating device 1 acquires the three-dimensional point cloud data 20 from the storage unit 11 or the communication unit 10 (step S10). Next, the processing unit 12 performs viewpoint position determination processing for determining the viewpoint position EP (step S11). The processing of step S11 is the processing of steps S20 to S22 shown in FIG. 25, and will be described in detail later.

次に、処理部12は、ステップS11で決定された視点位置EPに基づいて、判定対象領域を決定する(ステップS12)。そして、処理部12は、ステップS10で取得した3次元点群データ20とステップS12で決定した判定対象領域とに基づいて、見通し情報80を生成する見通し情報生成処理を行う(ステップS13)。ステップS13の処理は、図26に示すステップS30~S34の処理であり、後で詳述する。次に、処理部12は、ステップS13で生成した見通し情報を出力して(ステップS14)、図24に示す処理を終了する。 Next, the processing unit 12 determines a determination target area based on the viewpoint position EP determined in step S11 (step S12). Then, the processing unit 12 performs outlook information generation processing for generating the outlook information 80 based on the three-dimensional point cloud data 20 acquired in step S10 and the determination target area determined in step S12 (step S13). The process of step S13 is the process of steps S30 to S34 shown in FIG. 26, and will be described in detail later. Next, the processing unit 12 outputs the outlook information generated in step S13 (step S14), and ends the processing shown in FIG.

図25は、実施の形態1にかかる見通し情報生成装置の処理部による視点位置決定処理の一例を示すフローチャートである。図25に示すように、処理部12は、対象設備位置TPに対応する基準線Lr上の位置BTを算出する(ステップS20)。 25 is a flowchart illustrating an example of viewpoint position determination processing by the processing unit of the outlook information generating apparatus according to the first embodiment; FIG. As shown in FIG. 25, the processing unit 12 calculates the position BT on the reference line Lr corresponding to the target equipment position TP (step S20).

次に、処理部12は、基準線Lr上で位置BTから指定距離Dtだけ離れた基準線Lr上の位置BEを算出し(ステップS21)、算出した位置BEに基づいて、視点位置EPを算出して(ステップS22)、図25に示す処理を終了する。 Next, the processing unit 12 calculates a position BE on the reference line Lr separated from the position BT by the designated distance Dt on the reference line Lr (step S21), and calculates the viewpoint position EP based on the calculated position BE. Then (step S22), the process shown in FIG. 25 is terminated.

図26は、実施の形態1にかかる見通し情報生成装置の処理部による見通し情報生成処理の一例を示すフローチャートである。図26に示すように、処理部12は、判定対象領域ARに含まれる3次元点を基準面に投影する(ステップS30)。そして、処理部12は、基準面上に投影された各3次元点を直線SL3からの距離に応じて色分けして、判定対象領域ARの2次元画像を生成する(ステップS31)。 26 is a flowchart illustrating an example of outlook information generation processing by the processing unit of the outlook information generation apparatus according to the first embodiment; FIG. As shown in FIG. 26, the processing unit 12 projects the three-dimensional points included in the determination target area AR onto the reference plane (step S30). Then, the processing unit 12 generates a two-dimensional image of the determination target area AR by color-coding each three-dimensional point projected onto the reference plane according to the distance from the straight line SL3 (step S31).

次に、処理部12は、判定対象領域ARに含まれる3次元点の分布に基づいて、見通しの程度を判定する(ステップS32)。また、処理部12は、判定対象領域ARに含まれる3次元点を着色した状態で3次元点群の画像を干渉物画像70,71として生成する(ステップS33)。そして、処理部12は、見通し情報80を出力して(ステップS34)、図26の処理を終了する。 Next, the processing unit 12 determines the degree of visibility based on the distribution of three-dimensional points included in the determination target area AR (step S32). In addition, the processing unit 12 generates three-dimensional point group images as interfering object images 70 and 71 with the three-dimensional points included in the determination target area AR colored (step S33). Then, the processing unit 12 outputs the outlook information 80 (step S34), and terminates the processing of FIG.

図27は、実施の形態1にかかる見通し情報生成装置のハードウェア構成の一例を示す図である。図27に示すように、見通し情報生成装置1は、プロセッサ101と、メモリ102と、通信装置103とを備えるコンピュータを含む。 27 is a diagram depicting an example of a hardware configuration of the outlook information generating device according to Embodiment 1; FIG. As shown in FIG. 27 , the outlook information generation device 1 includes a computer having a processor 101 , a memory 102 and a communication device 103 .

プロセッサ101、メモリ102、および通信装置103は、例えば、バス104によって互いに情報の送受信が可能である。記憶部11は、メモリ102によって実現される。通信部10は、通信装置103で実現される。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、データ取得部30、見通し情報生成部31、および出力処理部32などの機能を実行する。プロセッサ101は、例えば、処理回路の一例であり、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、およびシステムLSI(Large Scale Integration)のうち一つ以上を含む。 Processor 101 , memory 102 , and communication device 103 can send and receive information from each other, eg, via bus 104 . Storage unit 11 is realized by memory 102 . The communication unit 10 is implemented by the communication device 103 . The processor 101 reads and executes programs stored in the memory 102 to perform functions such as the data acquisition unit 30 , the outlook information generation unit 31 , the output processing unit 32 , and the like. The processor 101 is an example of a processing circuit, for example, and includes one or more of a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a system LSI (Large Scale Integration).

メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、およびEEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)のうち一つ以上を含む。また、メモリ102は、コンピュータが読み取り可能なプログラムが記録された記録媒体を含む。かかる記録媒体は、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルメモリ、光ディスク、コンパクトディスク、およびDVD(Digital Versatile Disc)のうち一つ以上を含む。なお、見通し情報生成装置1は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field Programmable Gate Array)などの集積回路を含んでいてもよい。 The memory 102 includes one or more of RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), and EEPROM (Registered Trademark) (Electrically Erasable Programmable Read Only Memory). include. The memory 102 also includes a recording medium in which a computer-readable program is recorded. Such recording media include one or more of nonvolatile or volatile semiconductor memories, magnetic disks, flexible memories, optical disks, compact disks, and DVDs (Digital Versatile Disks). Note that the outlook information generation device 1 may include integrated circuits such as ASIC (Application Specific Integrated Circuit) and FPGA (Field Programmable Gate Array).

以上のように、実施の形態1にかかる見通し情報生成装置1は、データ取得部30と、見通し情報生成部31と、出力処理部32とを備える。データ取得部30は、移動体4が移動する移動路3の周辺領域の物体を3次元点群で表す3次元点群データ20を取得する。見通し情報生成部31は、データ取得部30によって取得された3次元点群データ20に基づいて、周辺領域にある対象設備から離れた視点位置EPからの対象設備の見通し状況を示す情報である見通し情報80を生成する。出力処理部32は、見通し情報生成部31によって生成された見通し情報80を出力する。これにより、見通し情報生成装置1は、移動路3を移動する移動体4からの対象設備の見通し状況を精度よく提示することができる。 As described above, the prospect information generation device 1 according to the first embodiment includes the data acquisition unit 30 , the prospect information generation unit 31 and the output processing unit 32 . The data acquisition unit 30 acquires the three-dimensional point cloud data 20 representing objects in the peripheral area of the moving path 3 along which the moving object 4 moves, as a three-dimensional point cloud. Based on the three-dimensional point cloud data 20 acquired by the data acquisition unit 30, the line-of-sight information generation unit 31 generates line-of-sight information, which is information indicating the line-of-sight situation of the target facility from a viewpoint position EP away from the target facility in the surrounding area. Generate information 80 . The output processing unit 32 outputs the outlook information 80 generated by the outlook information generation unit 31 . As a result, the line-of-sight information generation device 1 can accurately present the state of line-of-sight of the target facility from the moving object 4 moving on the movement path 3 .

また、データ取得部30は、移動路3に沿った基準線Lrのデータである基準線データ21を取得する。見通し情報生成部31は、基準線データ21で示される基準線Lrに沿った対象設備からの距離に基づいて、視点位置EPを決定する視点位置決定部40を備える。これにより、見通し情報生成装置1は、例えば、対象設備から指定距離Dtだけ離れた位置を視点位置EPとして自動的に設定することができ、対象設備から一定距離手前の地点から対象設備の見通し状況を精度よく提示することができる。 The data acquisition unit 30 also acquires reference line data 21 that is data of the reference line Lr along the moving path 3 . The line-of-sight information generation unit 31 includes a viewpoint position determination unit 40 that determines the viewpoint position EP based on the distance from the target facility along the reference line Lr indicated by the reference line data 21 . As a result, the line-of-sight information generation device 1 can automatically set, for example, a position that is a specified distance Dt away from the target facility as the viewpoint position EP, and the line-of-sight situation of the target facility can be determined from a point that is a certain distance in front of the target facility. can be presented with high accuracy.

また、基準線データ21は、移動路3の傾きを示すデータまたは移動路3の傾きを算出するためのデータを含む。視点位置決定部40は、対象設備からの距離と移動路3の傾きとに基づいて、視点位置EPを決定する。これにより、見通し情報生成装置1は、例えば、移動体4の乗務員からの視点で、対象設備の見通し状況を精度よく提示することができる。 The reference line data 21 also includes data indicating the inclination of the moving path 3 or data for calculating the inclination of the moving path 3 . The viewpoint position determination unit 40 determines the viewpoint position EP based on the distance from the target facility and the inclination of the moving path 3 . As a result, the visibility information generation device 1 can accurately present the visibility situation of the target facility from the viewpoint of the crew member of the mobile object 4, for example.

また、見通し情報生成部31は、判定領域決定部41と、生成処理部42とを備える。判定領域決定部41は、対象設備位置TPと視点位置EPとを結ぶ直線SL3の回りの予め設定された領域を判定対象領域ARに決定する。生成処理部42は、3次元点群データ20と判定対象領域ARとに基づいて、見通し情報80を生成する。これにより、見通し情報生成装置1は、例えば、対象設備位置TPと視点位置EPとを結ぶ直線SL3の回りの予め設定された領域での対象設備の見通し状況を精度よく提示することができる。 In addition, the outlook information generation unit 31 includes a determination region determination unit 41 and a generation processing unit 42 . The determination area determination unit 41 determines a predetermined area around a straight line SL3 connecting the target equipment position TP and the viewpoint position EP as the determination target area AR. The generation processing unit 42 generates view information 80 based on the three-dimensional point cloud data 20 and the determination target area AR. As a result, the line-of-sight information generation device 1 can, for example, accurately present the line-of-sight situation of the target facility in a preset area around the straight line SL3 connecting the target facility position TP and the viewpoint position EP.

また、生成処理部42は、対象領域画像生成部50を備える。対象領域画像生成部50は、3次元点群データ20で示される3次元点群を構成する複数の3次元点のうち判定対象領域ARに含まれる3次元点を基準面に投影して得られる判定対象領域ARの2次元画像を含む情報を生成する。これにより、見通し情報生成装置1は、対象設備の見通し状況を2次元画像で提示することができる。 The generation processing unit 42 also includes a target area image generation unit 50 . The target area image generation unit 50 projects the 3D points included in the determination target area AR among the plurality of 3D points forming the 3D point group indicated by the 3D point cloud data 20 onto the reference plane. Information including a two-dimensional image of the determination target area AR is generated. As a result, the visibility information generation device 1 can present the visibility situation of the target facility in a two-dimensional image.

また、基準面は、直線SL3に垂直な面を含む。これにより、見通し情報生成装置1は、視点位置EPからの対象設備の見通し状況を2次元画像で提示することができる。 Also, the reference plane includes a plane perpendicular to the straight line SL3. As a result, the outlook information generation device 1 can present the outlook status of the target facility from the viewpoint position EP as a two-dimensional image.

また、基準面は、水平面を含む。これにより、見通し情報生成装置1は、判定対象領域ARの存在する3次元の視点位置EPからの距離を把握可能な2次元画像を提示することができる。 Also, the reference plane includes a horizontal plane. As a result, the outlook information generation device 1 can present a two-dimensional image that allows the user to grasp the distance from the three-dimensional viewpoint position EP in which the determination target area AR exists.

また、対象領域画像生成部50は、判定対象領域ARに含まれる3次元点を直線SL3からの距離に応じて色分けした2次元画像を判定対象領域ARの2次元画像として生成する。これにより、見通し情報生成装置1は、2次元画像に含まれる3次元点の色によって視点位置EPからの対象設備の見通し状況を把握可能な2次元画像を提示することができる。 In addition, the target area image generating unit 50 generates a two-dimensional image of the determination target area AR by color-coding the three-dimensional points included in the determination target area AR according to the distance from the straight line SL3. As a result, the outlook information generation device 1 can present a two-dimensional image that allows the visibility of the target facility from the viewpoint position EP to be grasped by the colors of the three-dimensional points included in the two-dimensional image.

また、生成処理部42は、見通し判定部51を備える。見通し判定部51は、判定対象領域ARに含まれる3次元点の分布に基づいて、見通しの程度を判定する。見通し情報80は、見通し判定部51によって判定された見通しの程度を示す情報をさらに含む。これにより、見通し情報生成装置1は、見通しの程度を示す情報を提示することができる。 The generation processing unit 42 also includes a line-of-sight determination unit 51 . The line-of-sight determination unit 51 determines the degree of line-of-sight based on the distribution of three-dimensional points included in the determination target area AR. The visibility information 80 further includes information indicating the degree of visibility determined by the visibility determination unit 51 . Thereby, the outlook information generation device 1 can present information indicating the degree of visibility.

また、生成処理部42は、干渉物画像生成部52を備える。干渉物画像生成部52は、判定対象領域ARに含まれる3次元点を着色した状態で3次元点群の画像を干渉物画像70,71として生成する。見通し情報80は、干渉物画像生成部52によって生成された干渉物画像70,71をさらに含む。これにより、見通し情報生成装置1は、判定対象領域ARに含まれる3次元点を着色した状態で3次元点群の画像である干渉物画像70,71を提示することができる。 The generation processing unit 42 also includes an interfering object image generation unit 52 . The interfering object image generation unit 52 generates three-dimensional point cloud images as interfering object images 70 and 71 in a state where the three-dimensional points included in the determination target area AR are colored. The line-of-sight information 80 further includes interfering object images 70 and 71 generated by the interfering object image generating section 52 . As a result, the outlook information generation device 1 can present the interfering object images 70 and 71, which are three-dimensional point cloud images, with the three-dimensional points included in the determination target area AR colored.

また、判定領域決定部41は、直線SL3を中心線とする円柱状の領域を判定対象領域ARとして決定する。これにより、見通し情報生成装置1は、判定対象領域ARを容易且つ簡易に設定することができる。 Further, the determination area determination unit 41 determines a cylindrical area having the straight line SL3 as the center line as the determination target area AR. Thereby, the outlook information generating device 1 can easily and simply set the determination target area AR.

また、判定領域決定部41は、直線SL3を中心線とする四角柱状の領域を判定対象領域ARとして決定する。これにより、見通し情報生成装置1は、運転手の両目の目線付近に判定対象領域ARの中央領域を設定することができるため、より現実に近い状況で見通し状況を精度よく表すことができる。 Further, the determination area determination unit 41 determines a quadrangular prism-shaped area having the straight line SL3 as the center line as the determination target area AR. As a result, the outlook information generation device 1 can set the center area of the determination target area AR near the line of sight of both eyes of the driver, so that the visibility situation can be accurately expressed in a more realistic situation.

以上の実施の形態に示した構成は、一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。 The configuration shown in the above embodiment is an example, and can be combined with another known technique, and part of the configuration can be omitted or changed without departing from the scope of the invention. It is possible.

1 見通し情報生成装置、2 3次元点群計測装置、3 移動路、4 移動体、5 表示装置、10 通信部、11 記憶部、12 処理部、20 3次元点群データ、21 基準線データ、30 データ取得部、31 見通し情報生成部、32 出力処理部、40 視点位置決定部、41 判定領域決定部、42 生成処理部、50 対象領域画像生成部、51 見通し判定部、52 干渉物画像生成部、60 第1の2次元画像、61 第2の2次元画像、70,71 干渉物画像、80 見通し情報、82 確認ポイント、83 見通しの状況の判定結果、100 情報提供システム、101 プロセッサ、102 メモリ、103 通信装置、104 バス、AR 判定対象領域、AR1 第1の領域、AR2 第2の領域、AR3 第3の領域、AS1,AS2,AS3,AS4 面、BT 位置、D 積算距離、Dt 指定距離、EP 視点位置、H 距離、I1,I2 干渉物、L 距離、Lr 基準線、P5,P5’,P6,P6’,P21,P22,P23,P24 基準点、PB1 第1の位置、PB2 第2の位置、SL1 第1の直線、SL2 第2の直線、Sr 面積比、TP 対象設備位置、d1,d2,d3,d19 距離、k1,k2,k3,k4,k5,k6 係数、r,r1,r2 半径。 1 outlook information generating device, 2 three-dimensional point cloud measuring device, 3 movement path, 4 moving object, 5 display device, 10 communication unit, 11 storage unit, 12 processing unit, 20 three-dimensional point cloud data, 21 reference line data, 30 data acquisition unit 31 view information generation unit 32 output processing unit 40 viewpoint position determination unit 41 determination region determination unit 42 generation processing unit 50 target region image generation unit 51 visibility determination unit 52 interference object image generation Part 60 First two-dimensional image 61 Second two-dimensional image 70,71 Interfering object image 80 View information 82 Confirmation point 83 Determination result of view situation 100 Information providing system 101 Processor 102 Memory, 103 communication device, 104 bus, AR determination target area, AR1 first area, AR2 second area, AR3 third area, AS1, AS2, AS3, AS4 surface, BT position, D integrated distance, Dt designation Distance, EP Viewpoint position, H Distance, I1, I2 Interfering object, L Distance, Lr Reference line, P5, P5', P6, P6', P21, P22, P23, P24 Reference point, PB1 First position, PB2 Second Position of 2, SL1 First straight line, SL2 Second straight line, Sr Area ratio, TP Target facility position, d1, d2, d3, d19 Distance, k1, k2, k3, k4, k5, k6 Coefficients, r, r1 , r2 Radius.

Claims (14)

移動体が移動する移動路の周辺領域の物体を3次元点群で表す3次元点群データを取得するデータ取得部と、
前記データ取得部によって取得された前記3次元点群データに基づいて、前記周辺領域にある対象設備から離れた視点位置からの前記対象設備の見通し状況を示す情報である見通し情報を生成する見通し情報生成部と、
前記見通し情報生成部によって生成された前記見通し情報を出力する出力処理部と、を備える
ことを特徴とする見通し情報生成装置。
a data acquisition unit that acquires three-dimensional point cloud data representing objects in a peripheral area of a moving path along which the moving object moves, in a three-dimensional point cloud;
View information for generating view information, which is information indicating a view situation of the target equipment from a viewpoint position away from the target equipment in the peripheral area, based on the three-dimensional point cloud data obtained by the data obtaining unit. a generator;
and an output processing unit that outputs the outlook information generated by the outlook information generation unit.
前記データ取得部は、
前記移動路に沿った基準線のデータである基準線データを取得し、
前記見通し情報生成部は、
前記基準線データで示される前記基準線に沿った前記対象設備からの距離に基づいて、前記視点位置を決定する視点位置決定部を備える
ことを特徴とする請求項1に記載の見通し情報生成装置。
The data acquisition unit
Acquiring reference line data that is data of a reference line along the moving path;
The outlook information generation unit
The outlook information generation device according to claim 1, further comprising a viewpoint position determination unit that determines the viewpoint position based on a distance from the target facility along the reference line indicated by the reference line data. .
前記基準線データは、
前記移動路の傾きを示すデータまたは前記移動路の傾きを算出するためのデータを含み、
前記視点位置決定部は、
前記対象設備からの距離と前記移動路の傾きとに基づいて、前記視点位置を決定する
ことを特徴とする請求項2に記載の見通し情報生成装置。
The baseline data is
including data indicating the slope of the moving path or data for calculating the slope of the moving path;
The viewpoint position determining unit
The line-of-sight information generation device according to claim 2, wherein the viewpoint position is determined based on the distance from the target facility and the inclination of the moving path.
前記見通し情報生成部は、
前記対象設備の位置と前記視点位置とを結ぶ直線の回りの予め設定された領域を判定対象領域に決定する判定領域決定部と、
前記3次元点群データと前記判定対象領域とに基づいて、前記見通し情報を生成する生成処理部と、を備える
ことを特徴とする請求項1から3のいずれか1つに記載の見通し情報生成装置。
The outlook information generation unit
a determination area determination unit that determines a predetermined area around a straight line connecting the position of the target equipment and the viewpoint position as a determination target area;
The outlook information generator according to any one of claims 1 to 3, further comprising a generation processing unit that generates the outlook information based on the three-dimensional point cloud data and the determination target area. Device.
前記生成処理部は、
前記3次元点群データで示される前記3次元点群を構成する複数の3次元点のうち前記判定対象領域に含まれる3次元点を基準面に投影して得られる前記判定対象領域の2次元画像を含む情報を生成する対象領域画像生成部を備える
ことを特徴とする請求項4に記載の見通し情報生成装置。
The generation processing unit
two-dimensional determination target region obtained by projecting, onto a reference plane, three-dimensional points included in the determination target region among a plurality of three-dimensional points forming the three-dimensional point cloud represented by the three-dimensional point cloud data; The outlook information generation device according to claim 4, further comprising a target area image generation unit that generates information including an image.
前記基準面は、
前記直線に垂直な面を含む
ことを特徴とする請求項5に記載の見通し情報生成装置。
The reference surface is
The outlook information generation device according to claim 5, comprising a plane perpendicular to the straight line.
前記基準面は、
水平面を含む
ことを特徴とする請求項5または6に記載の見通し情報生成装置。
The reference surface is
The line-of-sight information generation device according to claim 5 or 6, comprising a horizontal plane.
前記生成処理部は、
前記判定対象領域に含まれる3次元点を前記直線からの距離に応じて色分けした2次元画像を前記判定対象領域の2次元画像として生成する
ことを特徴とする請求項4から7のいずれか1つに記載の見通し情報生成装置。
The generation processing unit
8. A two-dimensional image obtained by color-coding three-dimensional points included in the determination target area according to distances from the straight line is generated as the two-dimensional image of the determination target area. The visibility information generating device according to 1.
前記生成処理部は、
前記判定対象領域に含まれる3次元点の分布に基づいて、前記視点位置からの前記対象設備の見通しの程度を判定する見通し判定部を備え、
前記見通し情報は、
前記見通し判定部によって判定された前記見通しの程度を示す情報をさらに含む
ことを特徴とする請求項4から8のいずれか1つに記載の見通し情報生成装置。
The generation processing unit
a line-of-sight determination unit that determines the degree of line-of-sight of the target facility from the viewpoint position based on the distribution of three-dimensional points included in the determination target area;
The outlook information includes:
The visibility information generation device according to any one of claims 4 to 8, further comprising information indicating the degree of visibility determined by the visibility determination unit.
前記生成処理部は、
前記判定対象領域に含まれる3次元点を着色した状態で前記3次元点群の画像を干渉物画像として生成する干渉物画像生成部を備え、
前記見通し情報は、
前記干渉物画像生成部によって生成された前記干渉物画像をさらに含む
ことを特徴とする請求項4から9のいずれか1つに記載の見通し情報生成装置。
The generation processing unit
an interfering object image generation unit that generates an image of the three-dimensional point group as an interfering object image in a state where the three-dimensional points included in the determination target region are colored;
The outlook information includes:
The line-of-sight information generating device according to any one of claims 4 to 9, further comprising the interfering object image generated by the interfering object image generation unit.
前記判定領域決定部は、
前記直線を中心線とする円柱状の領域を前記判定対象領域として決定する
ことを特徴とする請求項4から10のいずれか1つに記載の見通し情報生成装置。
The determination region determination unit
The outlook information generating device according to any one of claims 4 to 10, wherein a cylindrical area having the straight line as a center line is determined as the determination target area.
前記判定領域決定部は、
前記直線を中心線とする四角柱状の領域を前記判定対象領域として決定する
ことを特徴とする請求項4から11のいずれか1つに記載の見通し情報生成装置。
The determination region determination unit
The outlook information generating apparatus according to any one of claims 4 to 11, wherein a quadrangular prism-shaped area having the straight line as a center line is determined as the determination target area.
コンピュータが実行する見通し情報生成方法であって、
移動体が移動する移動路の周辺領域の物体を3次元点群で表す3次元点群データを取得する第1のステップと、
前記第1のステップによって取得された前記3次元点群データに基づいて、前記周辺領域にある対象設備から離れた視点位置からの前記対象設備の見通し状況を示す情報である見通し情報を生成する第2のステップと、
前記第2のステップによって生成された前記見通し情報を出力する第3のステップと、を含む
ことを特徴とする見通し情報生成方法。
A computer-implemented method for generating perspective information, comprising:
a first step of acquiring three-dimensional point cloud data representing objects in a peripheral area of a moving path along which the moving object moves, in a three-dimensional point cloud;
generating line-of-sight information, which is information indicating a line-of-sight situation of the target facility from a viewpoint position away from the target facility in the peripheral area, based on the three-dimensional point cloud data acquired in the first step; 2 steps;
and a third step of outputting the outlook information generated by the second step.
移動体が移動する移動路の周辺領域の物体を3次元点群で表す3次元点群データを取得する第1のステップと、
前記第1のステップによって取得された前記3次元点群データに基づいて、前記周辺領域にある対象設備から離れた視点位置からの前記対象設備の見通し状況を示す情報である見通し情報を生成する第2のステップと、
前記第2のステップによって生成された前記見通し情報を出力する第3のステップと、をコンピュータに実行させる
ことを特徴とする見通し情報生成プログラム。
a first step of acquiring three-dimensional point cloud data representing objects in a peripheral area of a moving path along which the moving object moves, in a three-dimensional point cloud;
generating line-of-sight information, which is information indicating a line-of-sight situation of the target facility from a viewpoint position away from the target facility in the peripheral area, based on the three-dimensional point cloud data acquired in the first step; 2 steps;
and a third step of outputting the outlook information generated by the second step.
JP2022564913A 2020-11-26 2020-11-26 Outlook Information Generating Device, Outlook Information Generating Method, and Outlook Information Generating Program Active JP7209913B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/044080 WO2022113243A1 (en) 2020-11-26 2020-11-26 Visibility information generation device, visibility information generation method, and visibility information generation program

Publications (2)

Publication Number Publication Date
JPWO2022113243A1 JPWO2022113243A1 (en) 2022-06-02
JP7209913B2 true JP7209913B2 (en) 2023-01-20

Family

ID=81755378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022564913A Active JP7209913B2 (en) 2020-11-26 2020-11-26 Outlook Information Generating Device, Outlook Information Generating Method, and Outlook Information Generating Program

Country Status (2)

Country Link
JP (1) JP7209913B2 (en)
WO (1) WO2022113243A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010202017A (en) 2009-03-03 2010-09-16 Mitsubishi Electric Corp Data analysis device and method, and program
US20180297621A1 (en) 2017-04-14 2018-10-18 Bayer Cropscience Lp Vegetation detection and alert system for a railway vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010202017A (en) 2009-03-03 2010-09-16 Mitsubishi Electric Corp Data analysis device and method, and program
US20180297621A1 (en) 2017-04-14 2018-10-18 Bayer Cropscience Lp Vegetation detection and alert system for a railway vehicle

Also Published As

Publication number Publication date
WO2022113243A1 (en) 2022-06-02
JPWO2022113243A1 (en) 2022-06-02

Similar Documents

Publication Publication Date Title
US10501059B2 (en) Stereo camera device
JP6590653B2 (en) Point cloud data utilization system
JP5936792B2 (en) Building limit measurement drawing creation device, building limit measurement drawing data creation device, and building limit measurement drawing creation method
KR101602376B1 (en) A train faulty monitoring system
JP5991489B2 (en) Road deformation detection device, road deformation detection method and program
AU2011207109B2 (en) Optical overhead wire measurement
JP6268126B2 (en) Architectural limit point cloud determination system using laser point cloud, architectural limit point cloud determination method using laser point cloud, and building limit internal point cloud determination program using laser point cloud
CN104567758B (en) Stereo imaging system and its method
CN110471085A (en) A kind of rail detection system
JP6465421B1 (en) Structural deformation detector
CN108274463A (en) Train Ku Jian robots and Train Parts detection method
CN110956151A (en) Rail transit foreign matter intrusion detection method and system based on structured light
WO2015093434A1 (en) Vehicle-front-side power-pole-position checking device
CN102749336A (en) Structured light-based surface defect high-speed detection system and detection method thereof
KR101090082B1 (en) System and method for automatic measuring of the stair dimensions using a single camera and a laser
Vázquez et al. Non-contact sensor for monitoring catenary-pantograph interaction
JP6055697B2 (en) Overhead train line position measuring method and apparatus
KR102040025B1 (en) Method for measuring the shape of wheel for railway vehicles
JP7209913B2 (en) Outlook Information Generating Device, Outlook Information Generating Method, and Outlook Information Generating Program
JP2017144989A (en) Congestion degree notification system, method of detecting congestion degree, and program
JP5952759B2 (en) Overhead wire position measuring apparatus and method
JP6829747B2 (en) Building limit measuring device and building limit measuring method
WO2018051738A1 (en) Insulator detection device and insulator detection method
KR102198195B1 (en) Mapping Method Using MMS
JP6308681B2 (en) Crossover equipment monitoring device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221026

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230110

R150 Certificate of patent or registration of utility model

Ref document number: 7209913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150