JP2023141981A - Traffic facility visibility determination device and traffic facility visibility determination program - Google Patents

Traffic facility visibility determination device and traffic facility visibility determination program Download PDF

Info

Publication number
JP2023141981A
JP2023141981A JP2022048605A JP2022048605A JP2023141981A JP 2023141981 A JP2023141981 A JP 2023141981A JP 2022048605 A JP2022048605 A JP 2022048605A JP 2022048605 A JP2022048605 A JP 2022048605A JP 2023141981 A JP2023141981 A JP 2023141981A
Authority
JP
Japan
Prior art keywords
visibility
map information
vehicle
determination
determination target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022048605A
Other languages
Japanese (ja)
Inventor
宗彦 前田
Munehiko Maeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2022048605A priority Critical patent/JP2023141981A/en
Publication of JP2023141981A publication Critical patent/JP2023141981A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

To provide a traffic facility visibility determination device and a traffic facility visibility determination program with which it is possible to determine the visibility of a traffic facility that a vehicle drive should visually recognize while driving, by a simple process with good accuracy.SOLUTION: A traffic facility visibility determination device comprises a traffic facility information acquisition unit, a three-dimensional map information acquisition unit, and a visibility determination unit. The traffic facility information acquisition unit acquires the position information of a prescribed traffic facility. The three-dimensional map information acquisition unit acquires three-dimensional map information that indicates the shape and position information of an object existing in an area that includes the traffic facility and a first determination target section that is the travel section of a vehicle in which the visibility of the traffic facility is to be determined. The visibility determination unit determines, for each vehicle position that the vehicle in the first determination target section could take, whether or not there exists any object in the first determination target area that is identified on the basis of a straight line from the viewpoint position of the vehicle driver to the traffic facility, and determines that the vehicle position where it is determined that there exists any object is a position where the traffic facility visibility is low.SELECTED DRAWING: Figure 2

Description

本開示は、交通設備の視認性判定装置および交通設備の視認性判定プログラムに関する。 The present disclosure relates to a transportation equipment visibility determination device and a transportation equipment visibility determination program.

鉄道や道路などの交通機関には、車両の運転に関する指示を示す信号機や標識などの交通設備がある。これらは、交通の安全を確保するとともに交通の流れを円滑にするために必要な設備であるため、該当する指示を認識すべき区間である指示認識区間を走行する車両の運転手から視認可能になるように設置される。 Transportation facilities such as railways and roads have transportation equipment such as traffic lights and signs that provide instructions regarding vehicle operation. These are necessary equipment to ensure traffic safety and smooth traffic flow, so they are visible to drivers of vehicles traveling in the instruction recognition section, which is the section where the relevant instructions should be recognized. It will be set up so that

しかし、これらの交通設備の設置から長期間が経過すると、設備近傍の樹木が伸びたり、周囲に新たな建築物が建設されたりすることで、指示認識区間内であっても対応する交通設備を視認できない、または視認し難い位置が発生する場合がある。 However, after a long period of time has passed since the installation of these transportation facilities, trees near the facilities may grow or new buildings are constructed in the surrounding area, making it difficult to install corresponding transportation facilities even within the designated recognition section. There may be locations that are invisible or difficult to see.

このような位置の発生の有無を判定するため、車両に搭載したカメラ装置から進行方向を撮影した撮像情報を解析して信号機等の発光機の部分を検出し、発光面の角度の傾斜度合いに基づいて当該発光機の視認性を判定する技術がある。 In order to determine whether such a position occurs, we analyze the image information taken from the camera device mounted on the vehicle in the direction of travel, detect the part of the light-emitting device such as a traffic light, and determine the degree of inclination of the angle of the light-emitting surface. There is a technique for determining the visibility of the light emitting device based on the light emitting device.

特開2019-151181号公報Japanese Patent Application Publication No. 2019-151181

しかし、運転手が認識すべき交通設備には発光機を有さない設備、例えば道路標識等もあり、これらの交通設備の視認性を判定するには作業員が道路や線路を移動しながら目視で確認しなければならず、多大な労力および時間を要するという問題があった。 However, some transportation equipment that drivers should be aware of does not have a light emitting device, such as road signs, so in order to determine the visibility of these transportation equipment, workers must visually observe them while moving on roads or railroad tracks. There was a problem in that it required a great deal of effort and time.

本開示は上記事情に鑑みてなされたものであり、車両の運転手が運転中に視認すべき交通設備の視認性を簡易な処理で精度良く判定することが可能な、交通設備の視認性判定装置および交通設備の視認性判定プログラムの提供を目的とする。 The present disclosure has been made in view of the above circumstances, and provides a visibility determination method for transportation equipment that allows a driver of a vehicle to accurately determine the visibility of transportation equipment that should be visible while driving with simple processing. The purpose is to provide a visibility determination program for equipment and transportation equipment.

本開示に係る交通設備の視認性判定装置は、所定の交通設備の位置情報を取得する交通設備情報取得部と、前記交通設備および前記交通設備の視認性の判定対象とする車両の走行区間である第1判定対象区間を含むエリア内にある物体の形状情報および位置情報を示す3次元地図情報を取得する3次元地図情報取得部と、前記交通設備情報取得部で取得した前記交通設備の位置情報および前記3次元地図情報取得部で取得した3次元地図情報に基づいて、前記第1判定対象区間内の車両が取り得る車両位置ごとに、車両の運転手の視点の位置から前記交通設備までの直線に基づいて特定される第1判定対象エリア内にいずれかの物体があるか否かを判定し、いずれかの物体があると判定した車両位置を、前記交通設備の視認性が低い位置と判定する視認性判定部とを備える。 A transportation equipment visibility determination device according to the present disclosure includes a transportation equipment information acquisition unit that acquires position information of a predetermined transportation equipment, and a travel section of the transportation equipment and a vehicle whose visibility of the transportation equipment is to be determined. a three-dimensional map information acquisition unit that acquires three-dimensional map information indicating shape information and position information of objects in an area including a certain first determination target section; and a position of the transportation equipment acquired by the transportation equipment information acquisition unit. Based on the information and the three-dimensional map information acquired by the three-dimensional map information acquisition unit, for each possible vehicle position of the vehicle within the first determination target section, from the vehicle driver's viewpoint position to the traffic facility. It is determined whether any object is present in the first determination target area specified based on the straight line of and a visibility determination unit that determines.

また前記視認性判定部は、前記3次元地図情報取得部で取得した3次元地図情報から、車両の運転手の視点の高さから前記交通設備の高さまでの間の情報を取得し、取得した情報に基づいて地面に水平な2次元地図情報を生成する2次元地図情報生成部と、前記2次元地図情報生成部で生成した2次元地図情報に基づいて、前記第1判定対象区間内の車両が取り得る車両位置ごとに前記交通設備までの直線に基づいて特定される第2判定対象エリア内にいずれかの物体があるか否かを判定し、いずれかの物体があると判定した車両位置を前記交通設備の視認性が低い可能性がある位置と判定し、判定した位置に基づいて前記交通設備の視認性が低い可能性がある第2判定対象区間を特定する視認性予測部とをさらに備え、前記視認性判定部は、前記3次元地図情報取得部で取得した3次元地図情報に基づいて、前記第2判定対象区間内の車両が取り得る車両位置ごとに特定される第1判定対象エリア内にいずれかの物体があるか否かを判定し、いずれかの物体があると判定した車両位置を前記交通設備の視認性が低い位置と判定してもよい。 The visibility determination unit also acquires information from the height of the vehicle driver's viewpoint to the height of the transportation equipment from the three-dimensional map information acquired by the three-dimensional map information acquisition unit. a two-dimensional map information generation unit that generates two-dimensional map information horizontal to the ground based on the information; and a vehicle within the first determination target section based on the two-dimensional map information generated by the two-dimensional map information generation unit. Determines whether any object is present in a second determination target area specified based on the straight line to the transportation facility for each possible vehicle position, and determines the vehicle position where it is determined that any object is present. a visibility prediction unit that determines a position where the visibility of the transportation equipment may be low, and identifies a second determination target section where the visibility of the transportation equipment may be low based on the determined position. Furthermore, the visibility determination section makes a first determination specified for each possible vehicle position of the vehicle within the second determination target section based on the three-dimensional map information acquired by the three-dimensional map information acquisition section. It may be determined whether or not there is any object within the target area, and the vehicle position where it is determined that any object is present may be determined to be a position where the visibility of the transportation facility is low.

また本開示に係る交通設備の視認性判定プログラムは、コンピュータに、所定の交通設備の位置情報を取得する機能と、前記交通設備および前記交通設備の視認性の判定対象とする車両の走行区間である第1判定対象区間を含むエリア内にある物体の形状情報および位置情報を示す3次元地図情報を取得する機能と、取得した前記交通設備の位置情報および前記3次元地図情報に基づいて、前記第1判定対象区間内の車両が取り得る車両位置ごとに、車両の運転手の視点の位置から前記交通設備までの直線に基づいて特定される第1判定対象エリア内にいずれかの物体があるか否かを判定し、いずれかの物体があると判定した車両位置を、前記交通設備の視認性が低い位置と判定する機能とを実行させる。 Furthermore, the transportation equipment visibility determination program according to the present disclosure provides a computer with a function of acquiring position information of a predetermined transportation equipment, and a driving section of the transportation equipment and the vehicle whose visibility of the transportation equipment is to be determined. A function of acquiring three-dimensional map information indicating the shape information and position information of an object in an area including a certain first determination target section, and based on the acquired position information of the transportation equipment and the three-dimensional map information, For each possible vehicle position of the vehicle within the first determination target section, any object is located within the first determination target area specified based on the straight line from the vehicle driver's viewpoint position to the traffic facility. A function is executed to determine whether or not an object is present, and to determine a vehicle position where it is determined that any object is present as a position where visibility of the transportation equipment is low.

本開示の交通設備の視認性判定装置および交通設備の視認性判定プログラムによれば、車両の運転手が運転中に視認すべき交通設備の視認性を簡易な処理で精度良く判定することができる。 According to the transportation equipment visibility determination device and the transportation equipment visibility determination program of the present disclosure, it is possible to accurately determine the visibility of transportation equipment that a vehicle driver should see while driving with simple processing. .

第1および第2実施形態に係る交通設備の視認性判定装置に接続される装置を搭載した車両、および視認性判定装置が視認性判定対象とする区間を示した説明図である。FIG. 2 is an explanatory diagram showing a vehicle equipped with a device connected to the visibility determination device for transportation equipment according to the first and second embodiments, and a section whose visibility is determined by the visibility determination device. 第1および第2実施形態に係る交通設備の視認性判定装置を利用した視認性判定システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a visibility determination system using a visibility determination device for transportation equipment according to first and second embodiments. 第1実施形態に係る交通設備の視認性判定装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a visibility determination device for transportation equipment according to a first embodiment. 第1実施形態に係る交通設備の視認性判定装置の動作を示すフローチャートである。3 is a flowchart showing the operation of the visibility determination device for transportation equipment according to the first embodiment. 第1および第2実施形態に係る交通設備の視認性判定装置に接続される装置を搭載した車両が走行する際に通過する点を示す説明図である。FIG. 2 is an explanatory diagram showing points through which a vehicle equipped with a device connected to the visibility determination device for transportation equipment according to the first and second embodiments travels. 第1および第2実施形態に係る交通設備の視認性判定装置が第1判定対象区間内の位置ごとに特定する第1判定対象エリアを示す図である。FIG. 2 is a diagram illustrating a first determination target area that is identified for each position within a first determination target section by the transportation equipment visibility determination device according to the first and second embodiments. 第1実施形態に係る交通設備の視認性判定装置で表示された判定結果情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of determination result information displayed by the visibility determination device for transportation equipment according to the first embodiment. 第2実施形態に係る交通設備の視認性判定装置の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of a visibility determination device for transportation equipment according to a second embodiment. 第2実施形態に係る交通設備の視認性判定装置の動作を示すフローチャートである。It is a flowchart which shows operation of the visibility determination device of transportation facilities concerning a 2nd embodiment. 第2実施形態に係る交通設備の視認性判定装置の動作を示すフローチャートである。It is a flowchart which shows operation of the visibility determination device of transportation facilities concerning a 2nd embodiment. 第2実施形態に係る交通設備の視認性判定装置が第1判定対象区間内の位置ごとに特定する第2判定対象エリアを示す図である。It is a figure which shows the 2nd determination target area which the visibility determination apparatus of the traffic facility which concerns on 2nd Embodiment specifies for every position in the 1st determination target area. 第2実施形態に係る交通設備の視認性判定装置で表示された第2判定対象区間および判定結果情報の一例を示す図である。It is a figure which shows an example of the 2nd determination target area and determination result information displayed by the visibility determination apparatus of the transportation facility based on 2nd Embodiment.

以下に、第1および第2実施形態による交通設備の視認性判定装置を利用した視認性判定システムが、交通設備である信号機に対する所定の判定対象区間内からの視認性を判定する場合について説明する。 Below, a case will be described in which a visibility determination system using the visibility determination apparatus for transportation equipment according to the first and second embodiments determines the visibility of a traffic light, which is a traffic equipment, from within a predetermined determination target section. .

《第1実施形態》
〈第1実施形態による視認性判定システムの構成〉
第1実施形態による交通設備の視認性判定装置を利用した視認性判定システムの構成について、図1~3を参照して説明する。図1は、本実施形態による視認性判定システムが視認性判定対象とする信号機SI、および信号機SIの視認性を判定する第1判定対象区間D1を示す図である。信号機SIは、道路Rの所定位置に設置された交通設備である。第1判定対象区間D1は、道路R内の位置PSから信号機SIの手前且つ近傍にある停止線L上の位置PEまでの点線で示す走行区間である。
《First embodiment》
<Configuration of visibility determination system according to first embodiment>
The configuration of a visibility determination system using the transportation facility visibility determination device according to the first embodiment will be described with reference to FIGS. 1 to 3. FIG. 1 is a diagram showing a traffic light SI that is a visibility determination target of the visibility determination system according to the present embodiment, and a first determination target section D1 in which the visibility of the traffic light SI is determined. The traffic light SI is a traffic facility installed at a predetermined position on the road R. The first determination target section D1 is a travel section indicated by a dotted line from a position PS on the road R to a position PE on the stop line L before and in the vicinity of the traffic light SI.

図2は、視認性判定システム1Aの構成を示すブロック図である。視認性判定システム1Aは、道路Rを走行する車両Cに設置された測距センサ11、位置情報取得装置12、および記録装置13と、記録装置13に通信接続可能に構成された3次元(3D)地図情報生成装置20と、3D地図情報生成装置20に接続された視認性判定装置30Aとを備える。 FIG. 2 is a block diagram showing the configuration of the visibility determination system 1A. The visibility determination system 1A includes a distance measuring sensor 11, a position information acquisition device 12, and a recording device 13 installed on a vehicle C traveling on a road R, and a three-dimensional (3D) ) A map information generation device 20 and a visibility determination device 30A connected to the 3D map information generation device 20.

測距センサ11は、例えば360°回転式のLiDAR(Light Detection And Ranging)で構成され、レーザ発振器と検出器の回転軸が車両Cの進行方向に合うように車両Cの前方に設置され、車両C周辺の物体までの距離を計測する。 The distance measurement sensor 11 is composed of, for example, a 360° rotating LiDAR (Light Detection And Ranging), and is installed in front of the vehicle C so that the rotation axes of the laser oscillator and detector align with the traveling direction of the vehicle C. Measure the distance to objects around C.

位置情報取得装置12は例えば、全地球航法衛星システム(Global Navigation Satellite System: GNSS)用の複数の衛星からのGNSS信号を受信して位置情報を算出することによって、車両Cの位置情報を取得する。GNSSは、一例としてGPS(Global Positioning System)である。 The position information acquisition device 12 acquires the position information of the vehicle C by, for example, receiving GNSS signals from a plurality of satellites for the Global Navigation Satellite System (GNSS) and calculating the position information. . An example of GNSS is GPS (Global Positioning System).

記録装置13は、記録制御部131と、計測情報記録部132とを有する。記録制御部131は、車両Cが第1判定対象区間D1および信号機SIを含む区間内を走行する間、測距センサ11による計測情報と、位置情報取得装置12で取得された車両Cの位置情報とを同期をとって取得する。計測情報記録部132は、記録制御部131が取得した計測情報ごとに、対応する位置情報を計測位置情報として紐づけて計測情報記録部132に記録させる。 The recording device 13 includes a recording control section 131 and a measurement information recording section 132. The recording control unit 131 records the measurement information by the ranging sensor 11 and the position information of the vehicle C acquired by the position information acquisition device 12 while the vehicle C travels within the zone including the first determination target zone D1 and the traffic light SI. and get them in sync. The measurement information recording unit 132 causes the measurement information recording unit 132 to record the corresponding position information in association with each piece of measurement information acquired by the recording control unit 131 as measurement position information.

3D地図情報生成装置20は、記録装置13と有線または無線で通信接続され、第1CPU21と、3D地図情報記憶部22とを有する。第1CPU21は、計測情報取得部211と、3D地図情報生成部212とを有する。計測情報取得部211は、記録装置13の計測情報記録部132に記録された計測情報を取得する。3D地図情報生成部212は、計測情報取得部211が取得した情報に基づいて、モービルマッピングシステムの技術を用いて第1判定対象区間D1および信号機SIを含むエリアに関する点群データによる3D地図情報を生成する。3D地図情報記憶部22は、3D地図情報生成部212で生成した3D地図情報を記憶する。 The 3D map information generation device 20 is communicatively connected to the recording device 13 by wire or wirelessly, and includes a first CPU 21 and a 3D map information storage unit 22. The first CPU 21 includes a measurement information acquisition section 211 and a 3D map information generation section 212. The measurement information acquisition unit 211 acquires measurement information recorded in the measurement information recording unit 132 of the recording device 13. Based on the information acquired by the measurement information acquisition unit 211, the 3D map information generation unit 212 generates 3D map information based on point cloud data regarding the area including the first determination target section D1 and the traffic light SI using mobile mapping system technology. generate. The 3D map information storage section 22 stores 3D map information generated by the 3D map information generation section 212.

図3は、視認性判定装置30Aの構成を示すブロック図である。視認性判定装置30Aは、信号機情報記憶部31と、第2CPU32Aと、表示部33とを有する。信号機情報記憶部31は、信号機SIの位置情報を記憶する。 FIG. 3 is a block diagram showing the configuration of the visibility determination device 30A. The visibility determination device 30A includes a traffic light information storage section 31, a second CPU 32A, and a display section 33. The traffic light information storage unit 31 stores position information of the traffic light SI.

第2CPU32Aは、3D地図情報生成装置20と有線または無線で通信接続され、交通設備情報取得部としての信号機情報取得部321と、3D地図情報取得部322と、視認性判定部323と、判定結果情報生成部324とを有する。信号機情報取得部321は、信号機情報記憶部31に記憶された信号機SIの位置情報を取得する。3D地図情報取得部322は、3D地図情報生成装置20の3D地図情報記憶部22から第1判定対象区間D1を含むエリアの3D地図情報を取得する。 The second CPU 32A is connected to the 3D map information generation device 20 by wire or wirelessly, and includes a traffic light information acquisition unit 321 as a transportation equipment information acquisition unit, a 3D map information acquisition unit 322, a visibility determination unit 323, and a determination result. It has an information generation section 324. The traffic light information acquisition unit 321 acquires the position information of the traffic light SI stored in the traffic light information storage unit 31. The 3D map information acquisition unit 322 acquires 3D map information of the area including the first determination target section D1 from the 3D map information storage unit 22 of the 3D map information generation device 20.

視認性判定部323は、取得した信号機SIの位置情報および3D地図情報に基づいて、第1判定対象区間D1内の位置ごとに、車両の運転手の視点に対応する高さ位置から信号機SIまでの直線に基づく第1判定対象エリアを特定する。第1判定対象エリアの特定方法については、後述する。視認性判定部323は、各位置の第1判定対象エリア内にいずれかの物体があるか否かを判定し、該当する第1判定対象エリア内にいずれかの物体があると判定した車両位置を、信号機SIの視認性が低い位置と判定する。 The visibility determination unit 323 determines the distance from the height position corresponding to the viewpoint of the vehicle driver to the traffic light SI for each position within the first determination target section D1 based on the acquired position information of the traffic light SI and 3D map information. A first determination target area is specified based on the straight line. A method for identifying the first determination target area will be described later. The visibility determination unit 323 determines whether any object is present in the first determination target area at each position, and determines the vehicle position where it has been determined that any object is present in the corresponding first determination target area. is determined to be a position where the visibility of the traffic light SI is low.

判定結果情報生成部324は、視認性判定部323で判定された判定結果情報に関する表示情報を生成し、表示部33に表示させる。 The determination result information generation unit 324 generates display information regarding the determination result information determined by the visibility determination unit 323 and causes the display unit 33 to display the display information.

〈第1実施形態による視認性判定システムの動作〉
次に、本実施形態による視認性判定システム1Aが実行する処理について説明する。視認性判定システム1Aは、視認性判定処理を実行するにあたり、まず第1判定対象区間D1を含むエリアの3D地図情報を生成する。
<Operation of the visibility determination system according to the first embodiment>
Next, processing executed by the visibility determination system 1A according to this embodiment will be described. In executing the visibility determination process, the visibility determination system 1A first generates 3D map information of the area including the first determination target section D1.

視認性判定システム1Aが実行する、第1判定対象区間D1を含むエリアの3D地図情報の生成処理について説明する。まず、測距センサ11がレーザ発振器と検出器を回転させて車両C周辺の物体までの距離を計測するとともに、位置情報取得装置12が車両Cの位置情報を取得しながら、車両Cが第1判定対象区間D1および信号機SIを含む区間を走行して計測処理を実行する。計測処理において、測距センサ11におけるレーザ発振器と検出器の回転速度は例えば1秒あたり10回転程度であり、車両Cの走行速度は例えば時速60km程度である。 A process of generating 3D map information for an area including the first determination target section D1, which is executed by the visibility determination system 1A, will be described. First, the distance sensor 11 rotates a laser oscillator and a detector to measure the distance to objects around the vehicle C, and the position information acquisition device 12 acquires position information of the vehicle C. The measurement process is executed by driving through a section including the determination target section D1 and the traffic light SI. In the measurement process, the rotational speed of the laser oscillator and detector in the distance measurement sensor 11 is, for example, about 10 revolutions per second, and the traveling speed of the vehicle C is, for example, about 60 km/h.

記録装置13では、記録制御部131が、測距センサ11による計測情報と位置情報取得装置12取得された位置情報とを同期をとって取得する。計測情報記録部132は、記録制御部131が取得した計測情報ごとに、対応する位置情報を計測位置情報として紐づけて計測情報記録部132に記憶させる。 In the recording device 13, the recording control unit 131 synchronizes and acquires the measurement information by the ranging sensor 11 and the position information acquired by the position information acquisition device 12. The measurement information recording unit 132 associates the corresponding position information with each piece of measurement information acquired by the recording control unit 131 as measurement position information, and stores the associated position information in the measurement information recording unit 132.

次に、3D地図情報生成装置20の計測情報取得部211が、記録装置13の計測情報記録部132に記録された計測情報を取得する。そして、3D地図情報生成部212が、計測情報取得部211が取得した情報に基づいて第1判定対象区間D1および信号機SIを含むエリアに関する点群データによる3D地図情報を生成する。具体的には3D地図情報生成部212は、計測情報取得部211で取得した計測情報と、当該計測情報に紐づけられている計測位置情報とを同一の座標系で認識する。そして3D地図情報生成部212は、モービルマッピングシステムの技術を用いて、第1判定対象区間D1および信号機SIを含むエリア内にある物体の形状情報および位置情報を示す3D地図情報を生成する。3D地図情報生成部212は、生成した3D地図情報を、3D地図情報記憶部22に記憶させる。 Next, the measurement information acquisition unit 211 of the 3D map information generation device 20 acquires the measurement information recorded in the measurement information recording unit 132 of the recording device 13. Then, the 3D map information generation unit 212 generates 3D map information using point cloud data regarding the area including the first determination target section D1 and the traffic light SI based on the information acquired by the measurement information acquisition unit 211. Specifically, the 3D map information generation unit 212 recognizes the measurement information acquired by the measurement information acquisition unit 211 and the measurement position information linked to the measurement information in the same coordinate system. Then, the 3D map information generation unit 212 uses the technology of the mobile mapping system to generate 3D map information indicating the shape information and position information of objects in the area including the first determination target section D1 and the traffic light SI. The 3D map information generation unit 212 causes the 3D map information storage unit 22 to store the generated 3D map information.

次に、視認性判定装置30Aが、3D地図情報生成装置20で生成された3D地図情報を用いて信号機SIに対する第1判定対象区間D1からの視認性を判定する。図4は、視認性判定装置30Aが信号機SIに対する第1判定対象区間D1からの視認性を判定する際に実行する処理の流れを示すフローチャートである。 Next, the visibility determination device 30A uses the 3D map information generated by the 3D map information generation device 20 to determine the visibility of the traffic light SI from the first determination target section D1. FIG. 4 is a flowchart showing the flow of processing executed by the visibility determining device 30A when determining the visibility of the traffic light SI from the first determination target section D1.

まず信号機情報取得部321が信号機情報記憶部31から信号機SIの位置情報を取得し、3D地図情報取得部322が3D地図情報記憶部22から第1判定対象区間D1および信号機SIを含むエリアに関する3D地図情報を取得する(S1)。 First, the traffic light information acquisition unit 321 acquires the position information of the traffic light SI from the traffic light information storage unit 31, and the 3D map information acquisition unit 322 acquires the 3D map information regarding the area including the first determination target section D1 and the traffic light SI from the 3D map information storage unit 22. Map information is acquired (S1).

次に、視認性判定部323が、最初の判定対象位置として、図5に示す位置P1を特定する(S2)。位置P1は、第1判定対象区間D1の開始位置PSに車両Cがある場合の運転手の視点の位置である。次に、視認性判定部323は、位置P1に関する第1判定対象エリアPA1を特定する(S3)。第1判定対象エリアPA1は、図6に示すように、判定対象位置P1と、信号機SIの外枠である長方形の各頂点E1、E2、E3、およびE4それぞれまでの直線EL1、EL2、EL3、およびEL4とで形成される四角錐で示される空間エリアである。 Next, the visibility determination unit 323 specifies the position P1 shown in FIG. 5 as the first determination target position (S2). The position P1 is the position of the driver's viewpoint when the vehicle C is at the starting position PS of the first determination target section D1. Next, the visibility determination unit 323 identifies the first determination target area PA1 regarding the position P1 (S3). As shown in FIG. 6, the first determination area PA1 includes straight lines EL1, EL2, EL3 from the determination target position P1 to each of the vertices E1, E2, E3, and E4 of the rectangle that is the outer frame of the traffic light SI. This is a spatial area indicated by a square pyramid formed by EL4 and EL4.

視認性判定部323は、第1判定対象エリアPA1内にいずれかの物体に関する点群データがあるか否かを判定する。ここで、いずれかの物体に関する点群データがないと判定すると、視認性判定部323はこの第1判定対象エリアPA1内には障害物がないと判定する(S4の「NO」)。 The visibility determination unit 323 determines whether there is point cloud data regarding any object within the first determination target area PA1. Here, if it is determined that there is no point cloud data regarding any object, the visibility determination unit 323 determines that there is no obstacle within this first determination target area PA1 ("NO" in S4).

視認性判定部323は、第1判定対象エリアPA1内に障害物がないと判定すると、第1判定対象区間D1内のすべての位置に関する視認性判定処理が終了していないため(S5の「NO」)、ステップS2に戻る。以降、視認性判定部323は、位置PSから位置PEまでの第1判定対象区間D1内の所定距離間隔ごとの各車両位置における車両の運転手の視点の位置P2、P3・・・について、ステップS2~S5の処理を実行する。 When the visibility determination unit 323 determines that there is no obstacle in the first determination area PA1, the visibility determination process for all positions within the first determination target area D1 has not been completed ("NO" in S5). ”), the process returns to step S2. Thereafter, the visibility determination unit 323 performs steps P2, P3, etc. of the viewpoint of the vehicle driver at each vehicle position at predetermined distance intervals within the first determination target section D1 from position PS to position PE. Execute the processing in S2 to S5.

その際、ステップS4において、第1判定対象エリア内にいずれかの物体に関する点群データがあると判定すると、視認性判定部323は当該第1判定対象エリア内に障害物があると判定する(S4の「YES」)。視認性判定部323は、第1判定対象エリア内に障害物があると判定すると、対応する位置を、信号機SIの視認性が低い位置と判定する(S6)。 At this time, if it is determined in step S4 that there is point cloud data regarding any object within the first determination target area, the visibility determination unit 323 determines that there is an obstacle within the first determination target area ( S4 “YES”). When determining that there is an obstacle within the first determination target area, the visibility determination unit 323 determines the corresponding position as a position where the visibility of the traffic light SI is low (S6).

第1判定対象区間D1内のすべての位置に関する視認性判定処理が終了すると(S5の「YES」)、判定結果情報生成部324は、判定結果情報に基づいて信号機SIの視認性が低い位置を示した表示情報を生成し、表示部33に表示させる(S7)。表示された表示情報の一例を、図7に示す。 When the visibility determination process for all positions within the first determination target section D1 is completed (“YES” in S5), the determination result information generation unit 324 determines the position where the visibility of the traffic light SI is low based on the determination result information. The displayed display information is generated and displayed on the display unit 33 (S7). An example of displayed display information is shown in FIG.

図7の表示情報では、樹木Tにより信号機SIの視認性が低くなる位置として、道路R内の位置P10から位置P15までの間が示されている。 In the display information of FIG. 7, the area from position P10 to position P15 on the road R is shown as a position where the visibility of the traffic light SI is low due to the tree T.

以上の第1実施形態によれば、視認性判定装置は、視認性判定処理の対象区間を含むエリア内の3D地図情報を用いて、判定対象区間内にある車両の運転手の視点から信号機までの直線で示されるエリア内にいずれかの物体があるか否かを判定する。このように判定処理を行うことにより、視認性判定装置は、運転手が運転中に視認すべき交通設備の視認性を簡易な処理で精度良く判定することができる。 According to the first embodiment described above, the visibility determination device uses 3D map information in the area including the target section of the visibility determination process, from the viewpoint of the driver of the vehicle in the determination target section to the traffic light. Determine whether there is any object within the area indicated by the straight line. By performing the determination process in this manner, the visibility determination device can accurately determine the visibility of the traffic equipment that the driver should visually recognize while driving with a simple process.

《第2実施形態》
〈第2実施形態による視認性判定システムの構成〉
第2実施形態による視認性判定システム1Bの構成は、図2に示す視認性判定装置30Aに替えて視認性判定装置30Bを備える他は、第1実施形態で説明した視認性判定システム1Aの構成と同様であるため、同一機能を有する部分の詳細な説明は省略する。
《Second embodiment》
<Configuration of visibility determination system according to second embodiment>
The configuration of the visibility determination system 1B according to the second embodiment is the same as that of the visibility determination system 1A described in the first embodiment, except that the visibility determination system 1B includes a visibility determination device 30B in place of the visibility determination device 30A shown in FIG. Since this is similar to the above, a detailed explanation of parts having the same functions will be omitted.

本実施形態における視認性判定装置30Bの構成は、図8に示すように、第2CPU32Bが2次元(2D)地図情報生成部325および視認性予測部326を有する他は、第1実施形態で説明した視認性判定装置30Aの構成と同様であるため、同一機能を有する部分の詳細な説明は省略する。 The configuration of the visibility determination device 30B in this embodiment is described in the first embodiment, except that the second CPU 32B includes a two-dimensional (2D) map information generation section 325 and a visibility prediction section 326, as shown in FIG. Since the configuration is the same as that of the visibility determination device 30A described above, a detailed explanation of parts having the same functions will be omitted.

2D地図情報生成部325は、3D地図情報取得部322で取得した3D地図情報から、車両の運転手の視点の高さから信号機SIの上部の高さまでの間の情報を取得し、取得した情報に基づいて地面に水平な2D地図情報を生成する。 The 2D map information generation unit 325 acquires information from the height of the vehicle driver's viewpoint to the height of the top of the traffic light SI from the 3D map information acquired by the 3D map information acquisition unit 322, and generates the acquired information. 2D map information horizontal to the ground is generated based on the .

視認性予測部326は、2D地図情報生成部325で生成した2D地図情報に基づいて、第1判定対象区間D1内の車両が取り得る車両位置ごとに信号機SIまでの直線に基づいて特定される第2判定対象エリア内にいずれかの物体があるか否かを判定する。視認性予測部326は、第2判定対象エリア内にいずれかの物体があると判定した車両位置を、信号機SIの視認性が低い可能性がある位置と判定する。視認性予測部326は、所定距離内にある、信号機SIの視認性が低い可能性がある位置をクラスタリングし、クラスタリングした位置を含む第1判定対象区間D1内の最小区間を第2判定対象区間D2として特定する。 Based on the 2D map information generated by the 2D map information generation unit 325, the visibility prediction unit 326 identifies each possible vehicle position of the vehicle in the first determination target section D1 based on the straight line to the traffic light SI. It is determined whether any object is present within the second determination target area. The visibility prediction unit 326 determines the vehicle position where it has been determined that any object is present in the second determination target area as a position where the visibility of the traffic signal SI may be low. The visibility prediction unit 326 clusters positions within a predetermined distance where the visibility of the traffic light SI may be low, and sets the minimum section within the first determination target section D1 that includes the clustered position as a second determination target section. Identify as D2.

視認性判定部323は、視認性予測部326で判定された第2判定対象区間D2内の位置ごとに、車両の運転手の視点に対応する高さ位置から信号機SIまでの直線に基づいて特定される第1判定対象エリア内にいずれかの物体があるか否かを判定する。視認性判定部323は、第1判定対象エリア内にいずれかの物体があると判定した位置を、信号機SIの視認性が低い位置と判定する。 The visibility determination unit 323 identifies each position within the second determination target section D2 determined by the visibility prediction unit 326 based on the straight line from the height position corresponding to the viewpoint of the vehicle driver to the traffic light SI. It is determined whether there is any object within the first determination target area. The visibility determining unit 323 determines a position where it is determined that any object is present in the first determination target area as a position where the visibility of the traffic light SI is low.

〈第2実施形態による視認性判定システムの動作〉
次に、本実施形態による視認性判定システム1Bにより実行される処理について、図9Aおよび図9Bのフローチャートを参照して説明する。
<Operation of visibility determination system according to second embodiment>
Next, the processing executed by the visibility determination system 1B according to this embodiment will be described with reference to the flowcharts of FIGS. 9A and 9B.

まず、第2CPU32Bの信号機情報取得部321が信号機情報記憶部31から信号機SIの位置情報を取得し、3D地図情報取得部322が3D地図情報記憶部22から第1判定対象区間D1を含むエリアに関する3D地図情報を取得する(S11)。これらの情報を取得すると、第2CPU32Bは、視認性予測処理を開始する。 First, the traffic light information acquisition unit 321 of the second CPU 32B acquires the position information of the traffic light SI from the traffic light information storage unit 31, and the 3D map information acquisition unit 322 acquires information regarding the area including the first determination target section D1 from the 3D map information storage unit 22. 3D map information is acquired (S11). Upon acquiring this information, the second CPU 32B starts visibility prediction processing.

視認性予測処理が開始すると、まず2D地図情報生成部325が、3D地図情報取得部322で取得した3D地図情報から、車両の運転手の視点の高さから信号機SIの上部の高さまでの間の情報を取得する。2D地図情報生成部325は、取得した情報に基づいて地面に水平な2D地図情報を生成する(S12)。 When the visibility prediction process starts, the 2D map information generation unit 325 first calculates the distance from the height of the vehicle driver's viewpoint to the height of the top of the traffic light SI from the 3D map information acquired by the 3D map information acquisition unit 322. Get information about. The 2D map information generation unit 325 generates 2D map information horizontal to the ground based on the acquired information (S12).

次に、視認性予測部326が、2D地図情報生成部325で生成した2D地図情報に基づいて、最初の判定対象位置として、図5に示す位置P1を特定する(S13)。次に視認性予測部326は、位置P1に関する第2判定対象エリアPA2を特定する(S14)。第2判定対象エリアPA2は、図10に示すように、判定対象位置P1と、2D地図情報内における信号機SIの左端E5までの直線EL5および右端E6までの直線EL6とで形成される三角形で示されるエリアである。 Next, the visibility prediction unit 326 specifies the position P1 shown in FIG. 5 as the first determination target position based on the 2D map information generated by the 2D map information generation unit 325 (S13). Next, the visibility prediction unit 326 specifies a second determination target area PA2 regarding the position P1 (S14). As shown in FIG. 10, the second determination area PA2 is represented by a triangle formed by the determination target position P1, a straight line EL5 to the left end E5 of the traffic light SI in the 2D map information, and a straight line EL6 to the right end E6 of the traffic light SI. It is an area where you can

視認性予測部326は、第2判定対象エリアPA2内にいずれかの物体に関する点群データがあるか否かを判定する。ここで、いずれかの物体に関する点群データがないと判定すると、視認性予測部326はこの第2判定対象エリアPA2内には障害物がないと判定する(S15の「NO」)。 The visibility prediction unit 326 determines whether there is point cloud data regarding any object within the second determination target area PA2. Here, if it is determined that there is no point cloud data regarding any object, the visibility prediction unit 326 determines that there is no obstacle within this second determination target area PA2 ("NO" in S15).

視認性予測部326は、第2判定対象エリアPA2内に障害物がないと判定すると、第1判定対象区間D1内のすべての位置に関する視認性予測処理が終了していないため(S16の「NO」)、ステップS13に戻る。以降、視認性予測部326は、位置PSから位置PEまでの第1判定対象区間D1内の所定距離間隔ごとの各位置における車両の運転手の視点の位置P2、P3・・・について、ステップS13~S16の処理を実行する。 When the visibility prediction unit 326 determines that there is no obstacle in the second determination target area PA2, the visibility prediction process for all positions in the first determination target area D1 has not been completed ("NO" in S16). ”), the process returns to step S13. Thereafter, the visibility prediction unit 326 calculates the positions P2, P3, etc. of the viewpoint of the vehicle driver at each predetermined distance interval within the first determination target section D1 from the position PS to the position PE in step S13. - Execute the processing of S16.

その際、ステップS15において、第2判定対象エリア内にいずれかの物体に関する点群データがあると判定すると、視認性予測部326は当該第2判定対象エリア内に障害物があると判定する(S15の「YES」)。視認性予測部326は、第2判定対象エリア内に障害物があると判定すると、対応する位置を、信号機SIの視認性が低い可能性がある位置と予測する(S17)。 At this time, if it is determined in step S15 that there is point cloud data regarding any object within the second determination target area, the visibility prediction unit 326 determines that there is an obstacle within the second determination target area ( S15 “YES”). When determining that there is an obstacle within the second determination target area, the visibility prediction unit 326 predicts the corresponding position as a position where the visibility of the traffic light SI may be low (S17).

第1判定対象区間D1内のすべての位置に関する視認性予測処理が終了すると(S16の「YES」)、視認性予測部326は、2D地図情報内で所定距離内にある、信号機SIの視認性が低い可能性がある位置をクラスタリングする。そして視認性予測部326は、クラスタリングした位置を含む第1判定対象区間D1内の最小区間を、信号機SIの視認性が低い可能性がある第2判定対象区間D2として特定する(S18)。視認性予測部326が特定した第2判定対象区間D2の例を、図11に示す。 When the visibility prediction process for all positions within the first determination target section D1 is completed (“YES” in S16), the visibility prediction unit 326 calculates the visibility of traffic lights SI within a predetermined distance within the 2D map information. Clustering locations that are likely to have low values. The visibility prediction unit 326 then identifies the minimum section within the first determination target section D1 that includes the clustered position as the second determination target section D2 in which the visibility of the traffic light SI may be low (S18). FIG. 11 shows an example of the second determination target section D2 specified by the visibility prediction unit 326.

上述したステップS13~S17の処理は2D地図情報を用いて実行するため、第1実施形態において説明した3D地図情報を用いて実行するステップS2~S6の処理よりも、大幅に少ない処理負荷で実行することができる。 Since the processes in steps S13 to S17 described above are executed using 2D map information, they are executed with significantly less processing load than the processes in steps S2 to S6 that are executed using 3D map information described in the first embodiment. can do.

その後、視認性判定部323が、第2判定対象区間D2内の所定距離間隔ごとの各位置について、第1実施形態で説明したステップS2~S6と同様の処理を実行して視認性判定処理を行う(S19~S23)。そして、第2判定対象区間D2内のすべての位置に関する視認性判定処理が終了すると(S22の「YES」)、判定結果情報生成部324は、判定結果情報に基づいて信号機SIの視認性が低い位置を示した表示情報を生成し、表示部33に表示させる(S24)。図11では、樹木Tにより信号機SIの視認性が低くなる位置として、第2判定対象区間D2内の位置P10から位置P15までの間が示されている。 Thereafter, the visibility determination unit 323 executes the same processes as steps S2 to S6 described in the first embodiment for each position at predetermined distance intervals within the second determination target section D2 to perform visibility determination processing. (S19 to S23). Then, when the visibility determination process regarding all positions within the second determination target section D2 is completed ("YES" in S22), the determination result information generation unit 324 determines that the visibility of the traffic light SI is low based on the determination result information. Display information indicating the position is generated and displayed on the display unit 33 (S24). In FIG. 11, the area from position P10 to position P15 within the second determination target section D2 is shown as a position where the visibility of the traffic light SI is reduced due to the tree T.

以上の第2実施形態によれば、視認性判定装置は、視認性判定処理の第1判定対象区間を含むエリア内の2D地図情報を用いて信号機の視認性が低い可能性がある第2判定対象区間を特定する。そして視認性判定装置は、特定した第2判定対象区間に関し、3D地図情報を用いて詳細に視認性判定処理を行う。このように判定処理を行うことにより、視認性判定装置は少ない処理負荷で、運転手が運転中に視認すべき交通設備の視認性を簡易な処理で精度良く判定することができる。 According to the above-described second embodiment, the visibility determination device makes the second determination that the visibility of the traffic light may be low using the 2D map information in the area including the first determination target section of the visibility determination process. Identify the target section. The visibility determination device then performs a detailed visibility determination process using the 3D map information regarding the specified second determination target section. By performing the determination processing in this manner, the visibility determination device can accurately determine the visibility of the transportation equipment that the driver should visually check while driving, with a small processing load, through simple processing.

上述した実施形態では、交通設備が信号機の場合について説明したが、これには限定されず、道路標識等でもよい。 In the above-described embodiment, a case has been described in which the traffic equipment is a traffic light, but the present invention is not limited to this, and may be a road sign or the like.

また、上述した実施形態では、車両Cが道路を走行する車両であり、車両Cに設置した位置情報取得装置12がGPS等を用いて車両Cの位置情報を取得する場合について説明したが、これには限定されない。例えば、車両が鉄道車両の場合は、車両の車軸の回転数に基づいてロータリエンコーダが線路上のキロ程としての位置を算出することで、車両の位置情報を取得してもよい。 Furthermore, in the embodiment described above, a case has been described in which the vehicle C is a vehicle running on a road and the position information acquisition device 12 installed in the vehicle C acquires the position information of the vehicle C using GPS or the like. is not limited to. For example, if the vehicle is a railway vehicle, the position information of the vehicle may be acquired by a rotary encoder calculating the position in kilometers on the track based on the rotation speed of the axle of the vehicle.

また、上述した実施形態では、車両Cに設置した測距センサ11および位置情報取得装置12で取得した情報に基づいて3D地図情報生成装置20が3D地図情報を生成する場合について説明した。しかしこれには限定されず、ドローン等の飛行する移動体に測距センサおよび位置情報取得装置を設置し、これらで取得した情報に基づいて3D地図情報生成装置20が3D地図情報を生成してもよい。また、複数の車両または飛行体に設置された測距センサおよび位置情報取得装置で取得された情報を統合して、3D地図情報生成装置20が3D地図情報を生成してもよい。このように様々な移動体に設置した装置で取得した情報を用いることで、精度の高い3D地図情報を生成することができる。 Furthermore, in the embodiment described above, a case has been described in which the 3D map information generation device 20 generates 3D map information based on information acquired by the ranging sensor 11 and the position information acquisition device 12 installed in the vehicle C. However, the present invention is not limited to this, and the 3D map information generation device 20 can generate 3D map information based on the information acquired by installing a ranging sensor and a position information acquisition device on a flying moving object such as a drone. Good too. Further, the 3D map information generation device 20 may generate 3D map information by integrating information acquired by distance measurement sensors and position information acquisition devices installed on a plurality of vehicles or aircraft. By using information acquired by devices installed in various moving bodies in this way, highly accurate 3D map information can be generated.

上述した視認性判定装置の機能構成をプログラム化してコンピュータに組み込むことにより、当該コンピュータを視認性判定装置として機能させる視認性判定プログラムを構築することも可能である。 By programming the functional configuration of the visibility determining device described above and incorporating it into a computer, it is also possible to construct a visibility determining program that causes the computer to function as a visibility determining device.

いくつかの実施形態を説明したが、上記開示内容に基づいて実施形態の修正または変形をすることが可能である。上記実施形態のすべての構成要素、及び請求の範囲に記載されたすべての特徴は、それらが互いに矛盾しない限り、個々に抜き出して組み合わせてもよい。 Although several embodiments have been described, it is possible to modify or transform the embodiments based on the above disclosure. All components of the embodiments described above and all features recited in the claims may be extracted individually and combined insofar as they are not inconsistent with each other.

本開示は、例えば持続可能な開発目標(SDGs)の目標11「包摂的で安全かつ強靭(レジリエント)で持続可能な都市及び人間居住を実現する」に貢献することができる。 The present disclosure can contribute, for example, to Goal 11 of the Sustainable Development Goals (SDGs), "Achieving inclusive, safe, resilient and sustainable cities and human settlements."

1A、1B 視認性判定システム
11 測距センサ
12 位置情報取得装置
13 記録装置
20 3D地図情報生成装置
21 第1CPU
22 3D地図情報記憶部
30A、30B 視認性判定装置
31 信号機情報記憶部
32A、32B 第2CPU
33 表示部
131 記録制御部
132 計測情報記録部
211 計測情報取得部
212 3D地図情報生成部
321 信号機情報取得部
322 3D地図情報取得部
323 視認性判定部
324 判定結果情報生成部
325 2D地図情報生成部
326 視認性予測部
1A, 1B Visibility determination system 11 Distance sensor 12 Position information acquisition device 13 Recording device 20 3D map information generation device 21 1st CPU
22 3D map information storage unit 30A, 30B visibility determination device 31 Traffic light information storage unit 32A, 32B 2nd CPU
33 Display unit 131 Recording control unit 132 Measurement information recording unit 211 Measurement information acquisition unit 212 3D map information generation unit 321 Traffic light information acquisition unit 322 3D map information acquisition unit 323 Visibility determination unit 324 Judgment result information generation unit 325 2D map information generation Section 326 Visibility prediction section

Claims (3)

所定の交通設備の位置情報を取得する交通設備情報取得部と、
前記交通設備および前記交通設備の視認性の判定対象とする車両の走行区間である第1判定対象区間を含むエリア内にある物体の形状情報および位置情報を示す3次元地図情報を取得する3次元地図情報取得部と、
前記交通設備情報取得部で取得した前記交通設備の位置情報および前記3次元地図情報取得部で取得した3次元地図情報に基づいて、前記第1判定対象区間内の車両が取り得る車両位置ごとに、車両の運転手の視点の位置から前記交通設備までの直線に基づいて特定される第1判定対象エリア内にいずれかの物体があるか否かを判定し、いずれかの物体があると判定した車両位置を、前記交通設備の視認性が低い位置と判定する視認性判定部と、を備えた交通設備の視認性判定装置。
a transportation facility information acquisition unit that acquires location information of predetermined transportation facilities;
3D for acquiring three-dimensional map information indicating shape information and position information of objects in an area including the transportation equipment and a first determination target section that is a travel section of a vehicle whose visibility of the transportation equipment is to be determined; A map information acquisition unit,
Based on the position information of the transportation equipment acquired by the transportation equipment information acquisition unit and the three-dimensional map information acquired by the three-dimensional map information acquisition unit, for each possible vehicle position of the vehicle within the first determination target section , determining whether any object is present within a first determination target area specified based on a straight line from the position of the vehicle driver's viewpoint to the transportation equipment, and determining that any object is present; A visibility determination device for transportation equipment, comprising: a visibility determination unit that determines a vehicle position where the visibility of the transportation equipment is low.
前記3次元地図情報取得部で取得した3次元地図情報から、車両の運転手の視点の高さから前記交通設備の高さまでの間の情報を取得し、取得した情報に基づいて地面に水平な2次元地図情報を生成する2次元地図情報生成部と、
前記2次元地図情報生成部で生成した2次元地図情報に基づいて、前記第1判定対象区間内の車両が取り得る車両位置ごとに前記交通設備までの直線に基づいて特定される第2判定対象エリア内にいずれかの物体があるか否かを判定し、いずれかの物体があると判定した車両位置を前記交通設備の視認性が低い可能性がある位置と判定し、判定した位置に基づいて前記交通設備の視認性が低い可能性がある第2判定対象区間を特定する視認性予測部とをさらに備え、
前記視認性判定部は、前記3次元地図情報取得部で取得した3次元地図情報に基づいて、前記第2判定対象区間内の車両が取り得る車両位置ごとに特定される第1判定対象エリア内にいずれかの物体があるか否かを判定し、いずれかの物体があると判定した車両位置を前記交通設備の視認性が低い位置と判定する、請求項1に記載の交通設備の視認性判定装置。
From the 3D map information acquired by the 3D map information acquisition unit, information from the height of the vehicle driver's viewpoint to the height of the transportation equipment is acquired, and based on the acquired information, a two-dimensional map information generation unit that generates two-dimensional map information;
A second determination target that is specified based on the straight line to the transportation facility for each possible vehicle position of a vehicle within the first determination target section based on the two-dimensional map information generated by the two-dimensional map information generation unit. Determine whether or not there is any object in the area, determine the vehicle position where it is determined that any object is present as a position where visibility of the traffic facility may be low, and based on the determined position further comprising a visibility prediction unit that identifies a second determination target section in which the visibility of the transportation facility is likely to be low;
The visibility determination unit is configured to determine the visibility within the first determination target area, which is specified for each possible vehicle position of the vehicle within the second determination target section, based on the three-dimensional map information acquired by the three-dimensional map information acquisition unit. The visibility of the transportation facility according to claim 1, wherein the vehicle position where it is determined that there is any object is determined to be a position where the visibility of the transportation facility is low. Judgment device.
コンピュータに、
所定の交通設備の位置情報を取得する機能と、
前記交通設備および前記交通設備の視認性の判定対象とする車両の走行区間である第1判定対象区間を含むエリア内にある物体の形状情報および位置情報を示す3次元地図情報を取得する機能と、
取得した前記交通設備の位置情報および前記3次元地図情報に基づいて、前記第1判定対象区間内の車両が取り得る車両位置ごとに、車両の運転手の視点の位置から前記交通設備までの直線に基づいて特定される第1判定対象エリア内にいずれかの物体があるか否かを判定し、いずれかの物体があると判定した車両位置を、前記交通設備の視認性が低い位置と判定する機能と、を実行させる視認性判定プログラム。
to the computer,
A function to obtain location information of predetermined transportation facilities,
a function of acquiring three-dimensional map information indicating shape information and position information of objects in an area including the transportation equipment and a first determination target section, which is a travel section of a vehicle whose visibility of the transportation equipment is to be determined; ,
Based on the acquired positional information of the transportation equipment and the three-dimensional map information, a straight line from the viewpoint of the vehicle driver to the transportation equipment is determined for each possible vehicle position of the vehicle within the first determination target section. It is determined whether any object is present in the first determination target area specified based on the above, and the vehicle position where it is determined that any object is present is determined to be a position where the visibility of the transportation facility is low. function, and a visibility determination program that executes the function.
JP2022048605A 2022-03-24 2022-03-24 Traffic facility visibility determination device and traffic facility visibility determination program Pending JP2023141981A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022048605A JP2023141981A (en) 2022-03-24 2022-03-24 Traffic facility visibility determination device and traffic facility visibility determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022048605A JP2023141981A (en) 2022-03-24 2022-03-24 Traffic facility visibility determination device and traffic facility visibility determination program

Publications (1)

Publication Number Publication Date
JP2023141981A true JP2023141981A (en) 2023-10-05

Family

ID=88205181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022048605A Pending JP2023141981A (en) 2022-03-24 2022-03-24 Traffic facility visibility determination device and traffic facility visibility determination program

Country Status (1)

Country Link
JP (1) JP2023141981A (en)

Similar Documents

Publication Publication Date Title
US11959771B2 (en) Creation and use of enhanced maps
JP7302934B2 (en) System and method for anonymizing navigation information
US11829138B1 (en) Change detection using curve alignment
JP7432285B2 (en) Lane mapping and navigation
US11340355B2 (en) Validation of global navigation satellite system location data with other sensor data
EP3673407B1 (en) Automatic occlusion detection in road network data
US10671084B1 (en) Using obstacle clearance to measure precise lateral gap
CN110832348B (en) Point cloud data enrichment for high definition maps of autonomous vehicles
US11598876B2 (en) Segmenting ground points from non-ground points to assist with localization of autonomous vehicles
JP6301828B2 (en) Apparatus for measuring the speed and position of a vehicle moving along a guiding track, and corresponding method and computer program product
CN102208035B (en) Image processing system and position measuring system
US11782129B2 (en) Automatic detection of overhead obstructions
CN108885106A (en) It is controlled using the vehicle part of map
US20220383545A1 (en) Crowd-sourced 3d points and point cloud alignment
JP2019525148A (en) Crowdsourcing and distribution of sparse maps and lane measurements for autonomous vehicle navigation
GB2596940A (en) Systems and methods for vehicle navigation
JP2023509468A (en) Systems and methods for vehicle navigation
CN112074885A (en) Lane sign positioning
US8150568B1 (en) Rail synthetic vision system
CN111402387B (en) Removing short-time points from a point cloud for navigating a high-definition map of an autonomous vehicle
CN103109160A (en) Method and device for determining the position of a vehicle on a carriageway and motor vehicle having such a device
US20210003683A1 (en) Interactive sensor calibration for autonomous vehicles
US9400183B1 (en) Method and apparatus to transition between levels using warp zones
JP2023153955A (en) Map making device, method for control, program, and storage medium
CN114930123A (en) System and method for detecting traffic lights