JP2019105789A - Road structure data generator, road structure database - Google Patents
Road structure data generator, road structure database Download PDFInfo
- Publication number
- JP2019105789A JP2019105789A JP2017239423A JP2017239423A JP2019105789A JP 2019105789 A JP2019105789 A JP 2019105789A JP 2017239423 A JP2017239423 A JP 2017239423A JP 2017239423 A JP2017239423 A JP 2017239423A JP 2019105789 A JP2019105789 A JP 2019105789A
- Authority
- JP
- Japan
- Prior art keywords
- information
- road
- vehicle
- lane
- road structure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Instructional Devices (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車両が出入する可能性のある路側領域の情報を生成する道路構造データ生成装置、及び、周辺の道路ネットワークとの接続関係を表現する処理を実行するときに用いられる道路構造データベースに関する。 The present invention relates to a road structure data generation device that generates information on a roadside area in which a vehicle may enter or leave, and a road structure database used when executing processing representing a connection with a road network in the vicinity. .
近年、運転支援装置として、プローブデータを活用して道路情報を作成するシステムが提案されている。 In recent years, a system that creates road information using probe data has been proposed as a driving support device.
特許文献1には、車載センサの情報を集めてレーンレベルの道路ネットワークを自動生成することが記載されている。特許文献1では、ノードとリンクで構成される従来のナビ地図とは違い、レーン単位でその中心線を検出し、交差点ではレーン毎の接続関係を自動生成する。自動運転システムはこれらの情報を手掛かりに目的地までの自車経路を設計する。 Patent Document 1 describes that information of onboard sensors is collected to automatically generate a lane level road network. In Patent Document 1, unlike the conventional navigation map composed of nodes and links, the center line is detected in units of lanes, and a connection relationship for each lane is automatically generated at an intersection. The autonomous driving system designs a vehicle route to a destination based on such information.
特許文献2には、新規道路の判定を目的として、既存の地図情報に存在しない車両軌跡を抽出することで新規道路を検出することが記載されている。 Patent Document 2 describes that a new road is detected by extracting a vehicle trajectory that does not exist in existing map information for the purpose of determining a new road.
非特許文献1では、人間らしい経路計画を立てるため、ポテンシャルマップの考え方を利用することが記載されている。すなわち、非特許文献1には、地図情報や先行車軌跡などに基づいて生成される顕在リスクポテンシャルと、経験的に獲得した交通参加者に対する潜在リスクポテンシャルを統合して、自車周辺のポテンシャルマップを生成し、それに基づいて最適な経路を生成することが記載されている。 In Non-Patent Document 1, it is described to use the concept of a potential map in order to make a route plan that is human-like. That is, Non-Patent Document 1 integrates an actualized risk potential generated based on map information, a preceding vehicle trajectory, etc. and a potential risk potential for a traffic participant who has acquired empirically, and a potential map around the vehicle. It is described to generate and based on that, to generate an optimal path.
しかしながら、主として、一般道では道路脇に店舗や駐車場等(以下、施設という)が数多く存在し、車両が、当該施設を目的地とする場合が多い。 However, there are many stores, parking lots and the like (hereinafter referred to as facilities) on the side of the road mainly on ordinary roads, and vehicles often use the facilities as a destination.
道路脇の施設は、周辺道路と繋がる出入口(誘導路を含む)を備えている。場合によっては、出入口は、複数存在する。車両は出入口の付近で減速・停車したり、右左折したりする。 The facilities beside the road are provided with an entrance (including a taxiway) connecting to the surrounding road. In some cases, a plurality of gateways exist. The vehicle decelerates and stops near the entrance, or turns to the left or right.
例えば、特許文献2では、GPS(Global Positioning System)の測位結果を手掛かりとしているため、路側の出入口付近の車両位置変化を的確に抽出して、その位置をデータベース化するには、情報量及び制御機能が不足している。 For example, in patent document 2, since the positioning result of GPS (Global Positioning System) is used as a clue, to extract the vehicle position change in the vicinity of the entrance on the roadside precisely and make the position a database, the amount of information and control There is a lack of features.
本発明は、道路脇の施設まで含めた道路ネットワークを生成することができ、ナビゲーションや自動運転を含む運転支援を、高精度、かつ、効率的に実現することができる道路構造データ生成装置を得ることが目的である。 The present invention is capable of generating a road network including facilities to the side of a road, and obtaining a road structure data generating device capable of realizing driving assistance including navigation and automatic driving with high accuracy and efficiency. Is the purpose.
また、上記目的に加え、運転支援装置に用いられることで、先行車や対向車が次の瞬間にどのように動くかを精度よく予測することができる道路構造データベースを得ることが目的である。 In addition to the above object, it is an object of the present invention to obtain a road structure database which can accurately predict how a preceding vehicle or an oncoming vehicle moves at the next moment by being used in a driving assistance device.
本発明の道路構造データ生成装置は、車両に搭載された車載センサから、当該車両の運転に関わる運転情報を取得する取得手段と、前記取得手段で取得した運転情報、及び予め既知の道路構造情報に基づいて、道路構造を認識するための基盤となる基盤情報を生成する基盤情報生成手段と、前記基盤情報生成手段で生成した基盤情報に基づき、車両の走行時の軌跡情報を解析する解析手段と、前記解析手段で解析した軌跡情報を、走行路のレーン単位で分類する分類手段と、車両の走行軌跡の統計処理により、道路の境界の端点、道路分岐点、施設への出入口の基点を含む注目点を抽出する抽出手段と、前記分類手段で分類された軌跡情報に基づいて、前記注目点と接続可能なレーンを選定して、選定したレーンと前記注目点を結ぶ走行経路を生成する道路接続情報生成手段と、を有している。 The road structure data generation device according to the present invention includes an acquisition unit for acquiring operation information related to the operation of the vehicle from an on-board sensor mounted on the vehicle, operation information acquired by the acquisition unit, and road structure information known in advance. On the basis of the basic information generation means for generating basic information to be a basis for recognizing the road structure, and analysis means for analyzing trajectory information at the time of traveling of the vehicle on the basis of the basic information generated by the basic information generation means. And classification means for classifying locus information analyzed by the analysis means in lane units of the traveling path, and statistical processing of the traveling locus of the vehicle, the end point of the road boundary, the road bifurcation point, and the starting point of the entrance to the facility A lane connectable to the attention point is selected based on extraction means for extracting the attention point to be included and trajectory information classified by the classification means, and a travel route connecting the selected lane and the attention point It has produced a road connection information generating means for, the.
本発明によれば、取得手段が車両に搭載された車載センサから、当該車両の運転に関わる運転情報を取得する。基盤情報生成手段では、取得手段で取得した運転情報、及び予め既知の道路構造情報に基づいて、道路構造を認識するための基盤となる基盤情報を生成する。 According to the present invention, the acquisition means acquires driving information related to the driving of the vehicle from the on-board sensor mounted on the vehicle. The base information generation means generates base information to be a base for recognizing the road structure based on the driving information acquired by the acquisition means and the road structure information known in advance.
この基盤情報に基づき、車両の走行時の軌跡情報を解析し、かつ、解析した軌跡情報を、走行路のレーン単位で分類する(解析手段、分類手段)。 Based on the base information, trajectory information during traveling of the vehicle is analyzed, and the analyzed trajectory information is classified in lane units of the traveling path (analysis means, classification means).
一方、抽出手段では、車両の走行軌跡の統計処理により、道路の境界の端点、道路分岐点、施設への出入口の基点を含む注目点を抽出する。 On the other hand, the extraction means extracts an attention point including the end point of the road boundary, the road bifurcation point, and the entrance point of the entrance to the facility by the statistical processing of the traveling locus of the vehicle.
道路接続情報生成手段では、前記分類手段で分類された軌跡情報に基づいて、前記注目点と接続可能なレーンを選定して、選定したレーンと注目点を結ぶ走行経路を生成する。 The road connection information generation means selects a lane connectable to the attention point based on the trajectory information classified by the classification means, and generates a travel route connecting the selected lane and the attention point.
これにより、道路脇の施設まで含めた道路ネットワークを生成することができ、ナビゲーションや自動運転を含む運転支援を、高精度、かつ、効率的に実現することができる。 As a result, it is possible to generate a road network including facilities to the side of the road, and drive assistance including navigation and automatic driving can be realized with high accuracy and efficiency.
本発明において、前記解析手段で解析した軌跡情報の各々について、走行路のレーン変更、障害物回避行動の少なくとも1つを含む例外走行があったか否かを判別する例外走行判別手段とをさらに有し、例外走行と判別された走行軌跡は、前記分類手段による分類対象から除外する、ことを特徴としている。 In the present invention, the vehicle further includes an exceptional running judging means for judging whether or not there is an exceptional running including at least one of lane change of the running road and obstacle avoidance behavior for each of the locus information analyzed by the analyzing means. The traveling locus determined to be exceptional traveling is excluded from the objects to be classified by the classification means.
軌跡情報の各々について、走行路のレーン変更、障害物回避行動の少なくとも1つを含む例外走行があったか否かを判別し、例外走行と判別された走行軌跡は、分類対象から除外する。これにより、より精度の高い道路構造データを生成することができる。 It is determined whether or not there is exceptional traveling including at least one of lane change of the traveling road and obstacle avoidance behavior for each of the trajectory information, and the traveling trajectory determined as exceptional traveling is excluded from the classification targets. Thereby, more accurate road structure data can be generated.
本発明において、前記基盤情報生成手段で生成する基盤情報が、前記運転情報及び前記道路構造情報に基づいて、車両の走行情報、自車位置情報、走行路の道路情報、及び走行路の周辺情報を含む、ことを特徴としている。 In the present invention, the base information generated by the base information generation means is based on the driving information and the road structure information, the traveling information of the vehicle, the vehicle position information, the road information of the traveling road, and the peripheral information of the traveling road. It is characterized by including.
基盤情報として、運転情報及び前記道路構造情報に基づいて、車両の走行情報、自車位置情報、走行路の道路情報、及び走行路の周辺情報を生成することで、より精細な運転支援が可能となる。 More detailed driving assistance is possible by generating, based on the driving information and the road structure information, the driving information of the vehicle, the position information of the vehicle, the road information of the traveling road, and the peripheral information of the traveling road as the base information. It becomes.
本発明において、前記注目点が前記道路との出入口となり、かつ、車両が走行可能な領域を持つ施設であり、前記施設内における、車両が走行可能な経路網、駐車スペース、走行可能範囲の境界、ランドマークを含む施設内の空間情報を生成する空間情報生成手段をさらに有することを特徴としている。 In the present invention, the attention point is a facility having an area where the vehicle can travel and which is an entrance to the road, and in the facility, a route network through which the vehicle can travel, a parking space, and a boundary of a travelable range. And space information generating means for generating space information in the facility including the landmark.
道路とは異なる施設内の走行空間においての運転支援が可能となる。 Driving support can be performed in a traveling space in a facility different from the road.
本発明において、前記空間情報生成手段が、前記施設に関する車両の走行案内情報、並びに、データ配信される市街地地図及び航空写真を含む公開情報の少なくとも1つの情報を取得することで、前記空間情報生成手段で生成した施設内の空間情報を検証、更新、修正を含む編集を行う編集手段をさらに有している。 In the present invention, the space information generation unit generates the space information by acquiring traveling guide information of a vehicle related to the facility and at least one piece of public information including a city map and an aerial photograph to which data is distributed. The information processing system further includes editing means for performing editing including verification, updating, and correction of the space information in the facility generated by the means.
施設内の駐車スペース等、頻繁に変化する空間情報を、逐次編集することで、施設内でも最適な運転支援が可能となる。 By sequentially editing space information that changes frequently, such as a parking space in the facility, optimal driving support can be performed in the facility.
例えば、施設内の空間情報を検証、更新、修正を含む編集を行う場合に、施設の情報を取得する必要がある。この施設の情報の取得という観点では、Open Sreet Map等のオープンな地図データが利用可能である。また、施設が屋外駐車場であれば、航空写真を画像処理して駐車位置や走行経路、出入口の情報を取得することができる。すなわち、施設から配信され走行案内情報だけでなく、公開情報から施設の情報を作成することが可能である。 For example, when performing editing including verification, update, and correction of spatial information in a facility, it is necessary to acquire facility information. From the viewpoint of acquiring information of this facility, open map data such as Open Sreet Map can be used. In addition, if the facility is an outdoor parking lot, it is possible to image-process an aerial photograph and acquire information on a parking position, a travel route, and a doorway. That is, it is possible to create facility information from public information as well as travel guidance information distributed from the facility.
本発明において、走行路に沿って設置された監視カメラを含むインフラセンサから移動物情報を検出する移動物情報検出手段をさらに有し、前記移動物情報検出手段で検出された移動物情報を、前記インフラセンサが設置された領域の走行路を通過する前記基盤情報に付加することを特徴としている。 In the present invention, the apparatus further includes moving object information detection means for detecting moving object information from an infrastructure sensor including a surveillance camera installed along the traveling path, and the moving object information detected by the moving object information detection means It is characterized in that it is added to the base information passing through the traveling path of the area where the infrastructure sensor is installed.
インフラセンサの活用により、道路構造データベースを作成する要素となる情報量を各段に増やすことができる。 By utilizing the infrastructure sensor, it is possible to increase the amount of information, which is an element for creating a road structure database, to each level.
本発明の道路構造データベースは、運転支援装置が、道路を走行する車両の軌跡情報と、当該道路の境界の端点、道路分岐点、施設への出入口の基点を含む注目点との接続関係の案内を実行するときに用いられ、注目点と前記軌跡情報とを接続可能なレーンを選定して、選定したレーンと前記注目点を結ぶ走行経路を含む道路構造データが記憶されたことを特徴としている。 In the road structure database according to the present invention, the driving support device guides the connection relationship between the locus information of the vehicle traveling on the road and the attention point including the end point of the road boundary, the road bifurcation point, and the entrance point to the facility. And selecting a lane to which the point of interest and the locus information can be connected, and storing road structure data including a travel route connecting the selected lane and the point of attention .
本発明によれば、注目点と前記軌跡情報とを接続可能なレーンを選定して、選定したレーンと前記注目点を結ぶ走行経路を含む道路構造データを道路構造データベースとして記憶し、運転支援装置に活用することで、先行車や対向車が次の瞬間にどのように動くかを精度よく予測することができる。 According to the present invention, the lanes to which the point of interest and the locus information can be connected are selected, and the road structure data including the travel route connecting the selected lane and the point of interest is stored as a road structure database. By using it, it is possible to accurately predict how the preceding vehicle or oncoming vehicle will move at the next moment.
以上説明した如く本発明では、道路脇の施設まで含めた道路ネットワークを生成することができ、ナビゲーションや自動運転を含む運転支援を、高精度、かつ、効率的に実現することができる。 As described above, according to the present invention, it is possible to create a road network including facilities to the side of the road, and drive assistance including navigation and automatic driving can be realized with high accuracy and efficiency.
また、上記効果に加え、運転支援装置に用いられることで、先行車や対向車が次の瞬間にどのように動くかを精度よく予測することができる。 Further, in addition to the above effects, by being used for the driving support device, it is possible to accurately predict how the preceding vehicle and the oncoming vehicle move at the next moment.
本発明では、レーンレベル(車線単位)の道路ネットワーク地図に、路側の施設(店舗や駐車場等)、すなわち、車両が出入りできる道路以外の路側領域への接続情報を自動的に追加生成するためのデータベースを自動生成するものである。 In the present invention, connection information to a roadside facility (store, parking lot, etc.), that is, roadside area other than a road where a vehicle can enter and exit is automatically added to a road network map at lane level (lane unit). Automatically generate a database of
以下の第1の実施の形態及び第2の実施の形態において、本発明を詳細に説明するが、第1の実施の形態及び第2の実施の形態では、同一の道路を走行した複数の車両から走行時に収集・検出したデータを大量に収集し、統計処理によって、道路ネットワークと路側領域の接続情報(路側領域へ出入りする場所とレーンへの接続関係)を自動生成するものである。 The present invention will be described in detail in the following first and second embodiments, but in the first and second embodiments, a plurality of vehicles traveling on the same road A large amount of data collected / detected at the time of traveling is collected, and statistical processing is performed to automatically generate connection information of road network and roadside area (connection relation to a roadside area and a connection to a lane).
なお、第1の実施の形態及び第2の実施の形態では、車両側のデータ処理と、後述する基盤情報生成部14及び路側領域情報生成部16としての機能を有するセンターサーバー側のデータ処理とを明確には区別しない。車両側/センターサーバー側のデータ処理の振り分けは車載された計算機の能力とセンターサーバーとの通信の制約によって様々なパターンが考えられるが、その機能配置がシステム全体の処理内容を大きく左右するものではないからである。 In the first embodiment and the second embodiment, data processing on the vehicle side and data processing on the center server side having functions as a base information generating unit 14 and a roadside area information generating unit 16 described later It does not distinguish clearly. The distribution of data processing on the vehicle side / center server side can be considered various patterns by the capacity of the on-board computer and the restriction of communication with the center server, but its functional layout greatly affects the processing content of the whole system. It is because there is not.
「第1の実施の形態」
図1は、第1の実施の形態に係る道路構造データ生成装置10の概略構成図である。
"First embodiment"
FIG. 1 is a schematic configuration diagram of a road structure data generation device 10 according to the first embodiment.
図1に示される如く、道路構造データ生成装置10は、車載センサ群12、基盤情報生成部14、及び路側領域情報生成部16を備えている。また、情報を記憶する記憶媒体として、基盤情報生成部14及び路側領域情報生成部16には、道路構造データベースである道路構造記憶部18が接続されている。 As shown in FIG. 1, the road structure data generation device 10 includes an on-vehicle sensor group 12, a base information generation unit 14, and a roadside area information generation unit 16. Further, as a storage medium for storing information, a road structure storage unit 18 which is a road structure database is connected to the base information generation unit 14 and the roadside area information generation unit 16.
(車載センサ群12)
第1の実施の形態において利用する車載センサ群12には、環境認識センサ24、車両運動センサ26、測位センサ30が含まれる。
(On-board sensor group 12)
The in-vehicle sensor group 12 used in the first embodiment includes an environment recognition sensor 24, a vehicle motion sensor 26, and a positioning sensor 30.
環境認識センサ24は、カメラやレーザレーダを想定し、自車周辺に存在している物体を画像データとして取得したり、距離情報を得たりする。 The environment recognition sensor 24 assumes a camera or a laser radar, and acquires an object existing around the vehicle as image data or obtains distance information.
この環境認識センサ24により取得した画像データや距離情報を処理することで、走行しているレーンや道路境界、先行車や対向車等の自車周辺に存在する移動物を検出する。 By processing the image data and distance information acquired by the environment recognition sensor 24, a moving object existing in the vicinity of the vehicle such as a traveling lane or road boundary or a leading vehicle or an oncoming vehicle is detected.
観測範囲は、環境認識センサ24の仕様に依存するが、ここでは自車がこれから進んでいく前方領域を監視することを想定する。 The observation range depends on the specification of the environment recognition sensor 24. Here, it is assumed that the host vehicle monitors a forward area ahead.
車両運動センサ26は、ジャイロや車輪速センサなどで構成され、車両の速度やヨーレイトを所定の周期で計測する。 The vehicle motion sensor 26 is configured of a gyro, a wheel speed sensor, and the like, and measures the speed and the yaw rate of the vehicle at a predetermined cycle.
測位センサ30は、主にGPS(Global Positioning System)を想定し、自車の絶対位置や移動方向・速度を計測する。 The positioning sensor 30 mainly assumes GPS (Global Positioning System), and measures the absolute position, the moving direction, and the speed of the vehicle.
(基盤情報生成部14)
基盤情報生成部14は、車載センサ群12の各センサから受け取る検出(計測)情報に基づいて、道路構造データベースの生成に必要となる道路情報や軌跡情報等の基盤情報を生成する。
(Basic information generation unit 14)
Based on the detection (measurement) information received from each sensor of the on-vehicle sensor group 12, the base information generation unit 14 generates base information such as road information and trajectory information required to generate a road structure database.
なお、第1の実施の形態では、図2に示すように、各種データは、複数の車両15のそれぞれに搭載されている車載センサ群12(図1参照)から、センターサーバーCS(第1の実施の形態では、基盤情報生成部14、及び路側領域情報生成部16を含むシステム)へ送信されることを想定する。 In the first embodiment, as shown in FIG. 2, the various data are obtained from the in-vehicle sensor group 12 (see FIG. 1) mounted on each of the plurality of vehicles 15, the center server CS (first In the embodiment, it is assumed that the information is transmitted to the system including the base information generation unit 14 and the roadside area information generation unit 16.
図1に示すように、基盤情報生成部14は、道路情報抽出部32、走行情報抽出部34、周辺情報抽出部36、及び自車位置推定部38を有している。 As shown in FIG. 1, the base information generation unit 14 includes a road information extraction unit 32, a travel information extraction unit 34, a surrounding information extraction unit 36, and a vehicle position estimation unit 38.
道路情報抽出部32は、環境認識センサ24の観測情報を利用して、物理的な道路境界の存在を検出する。検出対象はガードレールや縁石などである。 The road information extraction unit 32 detects the presence of a physical road boundary using the observation information of the environment recognition sensor 24. The detection target is a guardrail or a curb.
道路情報抽出部32では、ガードレールや縁石など、車両の通過を妨げる障害物がない領域をすべて検出してもよいし、車両が通行可能な長さ以上の間隔を持つ領域のみを抽出してもよい。道路境界の例を図3に示す。 The road information extraction unit 32 may detect all areas where there are no obstacles such as guardrails or curbs that prevent the passage of the vehicle, or even if only areas having intervals greater than the length that the vehicle can pass are extracted. Good. An example of a road boundary is shown in FIG.
図3(A)に示す道路構造画像50は、直線道路52の一方の端部に設けられた縁石54に沿ってガードレール56が敷設されており、ガードレール56が途切れた位置が十字路58となっている。 In the road structure image 50 shown in FIG. 3A, the guardrail 56 is laid along the curb 54 provided at one end of the straight road 52, and the position where the guardrail 56 is interrupted is the cross road 58. There is.
また、図3(B)に示す道路構造画像60は、直線道路62に沿ってガードレールは存在せず、T字路64が存在する。なお、自車位置を推定に用いる特徴として、図3(B)に示される如く、レーンマーク66や停止線68などの路面ペイントを抽出するようにしてもよい。 Further, in the road structure image 60 shown in FIG. 3B, there is no guardrail along the straight road 62, and a T-shaped road 64 exists. As a feature used to estimate the vehicle position, road surface paint such as the lane mark 66 and the stop line 68 may be extracted as shown in FIG. 3 (B).
図1に示される如く、走行情報抽出部34は、右折及び左折を含む自車の走行軌跡を検出する。また、走行情報抽出部34は、速度情報に基づいて停止した場所や減速した場所を抽出する。 As shown in FIG. 1, the traveling information extraction unit 34 detects the traveling locus of the vehicle including the right turn and the left turn. In addition, the traveling information extraction unit 34 extracts the stopped place and the decelerated place based on the speed information.
周辺情報抽出部36は、環境認識センサ24を用いて、先行車や対向車などの自車周辺に存在する移動物を検出し、自車位置を考慮しながら時間方向に追跡して軌跡を抽出する。 The peripheral information extraction unit 36 detects moving objects existing in the vicinity of the vehicle such as a preceding vehicle or an oncoming vehicle using the environment recognition sensor 24 and extracts a locus by tracking in the time direction while considering the vehicle position Do.
なお、周辺情報抽出部36は、路側領域からレーンに出る車両、出ようとして停車している車両(自車から見て車両側面が観測できる)も検出対象としている。 In addition, the peripheral information extraction unit 36 also detects vehicles that exit the lane from the roadside area and vehicles that are stopping to exit (the side of the vehicle can be observed when seen from the host vehicle).
図4は周辺情報画像70A、70B、70Cの一例であり、図4(A)及び(B)の周辺情報画像70A及び70Bは、車両72が、路地から主道路74に出ようとして、停車している状態を示しており、図4(C)の周辺情報画像70Cは、車両72が、主道路74から路地へ入ろうとしている状態を示す周辺情報画像である。 FIG. 4 shows an example of the peripheral information images 70A, 70B and 70C. In the peripheral information images 70A and 70B of FIGS. 4A and 4B, the vehicle 72 stops in an attempt to leave the alley onto the main road 74. The peripheral information image 70C of FIG. 4C is a peripheral information image showing a state where the vehicle 72 is about to enter the alley from the main road 74.
なお、図4では図示していないが、後述する自車位置推定部38で自車位置を推定するときに用いる特徴として、標識や信号、看板、円柱物体などのランドマークを検出することが好ましい。 Although not shown in FIG. 4, it is preferable to detect landmarks such as signs, signals, signs, and cylindrical objects as features used when the vehicle position estimation unit 38 described later estimates the vehicle position. .
自車位置推定部38は、GPSからの測位情報から地図データを引き、地図に登録されているランドマークと、周辺情報抽出部36や道路情報抽出部32で検出したランドマークを照合することで地図データ内での自車位置を推定する。この結果により、自車がどのレーンを走行しているか、今どの位置にいるかを知ることができる。 The vehicle position estimation unit 38 draws map data from positioning information from the GPS, and collates the landmarks registered in the map with the landmarks detected by the peripheral information extraction unit 36 and the road information extraction unit 32. Estimate the vehicle position in the map data. From this result, it can be known which lane the vehicle is traveling on and at which position it is.
図5に自車位置推定のイメージを示す。 FIG. 5 shows an image of vehicle position estimation.
図5に示される如く、自車76から見える、レーンマーク78、80、Uターン禁止標識82及び速度制限標識84の方向によって、自車76の位置が推定可能である。 As shown in FIG. 5, the position of the vehicle 76 can be estimated by the directions of the lane marks 78 and 80, the U-turn prohibition sign 82 and the speed limit sign 84 which are visible from the vehicle 76.
(路側領域情報生成部16)
図1に示される如く、路側領域情報生成部16では、車両単位で生成された基盤情報を集約し、レーンと路側領域との接続情報を生成する。
(Roadside area information generation unit 16)
As shown in FIG. 1, the roadside area information generation unit 16 aggregates base information generated in units of vehicles and generates connection information between lanes and the roadside area.
路側領域情報生成部16は、データ分類・統計処理部40及び道路接続情報生成部42を有している。 The roadside area information generation unit 16 includes a data classification / statistical processing unit 40 and a road connection information generation unit 42.
データ分類・統計処理部40は、基盤情報生成部14から基盤情報を受ける。 The data classification / statistics processing unit 40 receives the basic information from the basic information generation unit 14.
データ分類・統計処理部40では、基盤情報を予め設定された道路ブロックごとに分類する。道路ブロックは交差点から交差点までのリンク単位で分割してもよいし、リンクをさらに所定の基準で細分化しても構わない。 The data classification / statistics processing unit 40 classifies the foundation information for each road block set in advance. The road block may be divided in link units from the intersection to the intersection, or the links may be further subdivided on a predetermined basis.
また、データ分類・統計処理部40は、自車位置推定の結果により基盤情報をレーン単位に振り分ける。このとき、自車軌跡や自車位置推定の結果から、車両がレーンマークを跨いで走行したような走行データは、例外データとして除去することが望ましい。 Further, the data classification / statistics processing unit 40 distributes the base information into lane units according to the result of the vehicle position estimation. At this time, it is desirable to remove, as exceptional data, traveling data as if the vehicle traveled across the lane mark from the vehicle track and the result of the vehicle position estimation.
図6は、レーンマーク86によって区画された複数のレーン(車線88A、88B・・・)が存在する道路90において、車両92(実線参照)が走行方向左側の車線88Aを走行しているとき、前方に二輪車94の存在に気が付いて、レーンマーク86を跨いで走行しているときの軌跡(点線参照)を示す平面図である。 FIG. 6 shows a case where the vehicle 92 (refer to the solid line) travels on the lane 88A on the left side in the traveling direction on the road 90 where there are a plurality of lanes (lanes 88A, 88B,...) Partitioned by the lane mark 86. It is a top view which shows the locus | trajectory (refer dotted line) when noticing the presence of the two-wheeled vehicle 94 ahead, and drive | working over the lane mark 86. FIG.
このような車線変更の走行を行ったときの走行データは、例外データとして除去する。 The traveling data when such a lane change traveling is performed is removed as exceptional data.
また、データ分類・統計処理部40は、自車や周辺車両の軌跡を集約し、車両が出入りできる道路以外の路側領域へ退出する、或いは、路側領域から合流する軌跡の空間分布を生成する。 In addition, the data classification / statistics processing unit 40 integrates the trajectories of the own vehicle and the surrounding vehicles, and generates a spatial distribution of trajectories that exit to roadside areas other than roads where vehicles can enter or exit, or merge from roadside areas.
例えば、二次元占有グリッドマップの形式で、軌跡の分布を確率やヒストグラムの形式で表現し、多くの軌跡が重なる領域を抽出できるようにする。確率値やヒストグラムの度数に対してしきい値を設け、所定のしきい値を上回る領域を信頼度の高い領域として抽出してもよい。さらに、物理的な道路境界の検出結果を重ね合わせ、軌跡の情報と矛盾しないかどうかを検証する(信頼度判定)。 For example, in the form of a two-dimensional occupancy grid map, the distribution of trajectories is expressed in the form of a probability or a histogram so that regions where many trajectories overlap can be extracted. A threshold may be provided for the probability value and the frequency of the histogram, and a region exceeding a predetermined threshold may be extracted as a region with high reliability. Furthermore, the detection results of the physical road boundary are superimposed, and it is verified whether or not the information is consistent with the information of the trajectory (reliability determination).
図7は、経路と速度の分布を可視化した一例である。 FIG. 7 is an example of visualization of the distribution of paths and velocities.
図7(A)は2本の道路R1、R2が交差する交差点X(点線枠内)及びその周辺に存在する路側領域96の平面図である。この図7(A)の交差点Xの平面図の上に、経路と速度の分布を可視化して表示したのが図7(B)である。なお、路側領域96の先には、施設98(駐車場等、車両が進入可能な領域)が存在するが、第1の実施の形態では、施設98内までは運転支援対象としていない。 FIG. 7A is a plan view of an intersection X (within a dotted line frame) at which two roads R1 and R2 intersect and a roadside area 96 present in the vicinity thereof. It is FIG. 7 (B) which visualized and displayed distribution of a path | route and speed on the top view of the intersection X of this FIG. 7 (A). Although a facility 98 (a parking lot, an area to which a vehicle can enter) exists beyond the roadside area 96, in the first embodiment, the driving support is not performed up to the facility 98.
図7(B)では、交差点Xの画像上に濃度の異なる帯状の線Lが経路を表現し、当該線Lの濃度差が速度を表現している。濃度が濃いほど速度が多いことを示す。 In FIG. 7B, strip-like lines L having different densities represent paths on the image of the intersection X, and the density difference of the lines L represents velocity. The higher the concentration, the higher the speed.
図7(B)によれば、車両が出入りできる道路R1、R2以外の路側領域96へ退出する、或いは、路側領域96から道路R1、R2に合流する軌跡の空間分布が可視化できる。なお、可視化する場合には、濃度による識別に限らず、色別にしてもよい。 According to FIG. 7B, it is possible to visualize the spatial distribution of trajectories that exit to the roadside area 96 other than the roads R1 and R2 where the vehicle can enter and exit, or merge from the roadside area 96 to the roads R1 and R2. In addition, when visualizing, not only identification by density, but different colors may be used.
図7では、交差点Xを示したが、交差点X以外で車両の右折、左折、及び停止が発生する可能性のある場所をデータベースとして蓄えるようにしてもよい。 Although the intersection X is shown in FIG. 7, locations where the vehicle may turn right, turn left, and stop outside the intersection X may be stored as a database.
図1に示される如く、道路接続情報生成部42では、路側領域への出入り口(位置)、各レーンとの接続情報を生成する。出入り口の位置や、レーンからの分岐点を決める際には、車両の速度分布を利用する。 As shown in FIG. 1, the road connection information generation unit 42 generates connection information with the entrance / exit (position) to the roadside area and each lane. When determining the position of the entrance and exit point and the branch point from the lane, the speed distribution of the vehicle is used.
車両は、出入り口やレーン分岐点付近では、安全確認のため、減速または停止するケースが多い。このようなケースを軌跡分布に速度分布を重ねることで、統計処理の結果から、これらのポイントを決定することができる。 Vehicles are often decelerated or stopped near the entrance and exit or lane junction for safety confirmation. These points can be determined from the result of statistical processing by superimposing the velocity distribution on the trajectory distribution in such a case.
また、接続情報に関しては、例えば中央分離帯のない単路で一般的には出入り口は、共に対向する2つのレーンへの接続が必要である。中央分離帯があれば、路側領域に近いレーンからのみの進入となる。また、複数車線の道路であれば両方向の最近接レーンから進入するような接続情報が必要である(図8参照)。 Also, with regard to connection information, for example, a single path without a central separation band and generally an entrance and exit requires connection to two opposite lanes. If there is a median, it will only enter from lanes near the roadside area. In addition, in the case of a road with multiple lanes, connection information is required such that the vehicle approaches from the nearest lane in both directions (see FIG. 8).
図8(A)は、片側一車線の道路における、合流経路100及び分岐経路102を示す平面図である。 FIG. 8A is a plan view showing the merging path 100 and the branch path 102 in a road with one lane on one side.
図8(B)は、片側二車線の道路における、合流経路100及び分岐経路102を示す平面図である。 FIG. 8 (B) is a plan view showing the merging path 100 and the branch path 102 in a road with two lanes on one side.
図8(C)は、中央分離帯104が存在する片側二車線の道路における、合流経路100及び分岐経路102を示す平面図である。 FIG. 8C is a plan view showing the merging path 100 and the branching path 102 in a road with two lanes on one side where the central separation band 104 exists.
合流経路100及び分岐経路102の状況は、図8(A)から図8(C)に示される如く、車線数や道路構造に依存するが、軌跡情報を集約することにより、接続関係を自然に抽出することができる。 Although the conditions of the merging route 100 and the branching route 102 depend on the number of lanes and the road structure as shown in FIG. 8A to FIG. 8C, the connection relationship is naturally made by collecting the trajectory information. It can be extracted.
最終的にはレーン毎の分岐位置と路側領域の出入り口のポイント、及びそれらを結ぶ経路により接続情報を規定する。図8に示される如く、合流経路100及び分岐経路102は、スプライン等の曲線で滑らかに繋いでもよいし、単に接続方向を示すだけの表現としてもよい。路側領域の出入り口からレーンへの合流も収集した軌跡分布に基づいて設定する。 Finally, connection information is defined by the branch position for each lane, the point at the entrance of the roadside area, and the route connecting them. As shown in FIG. 8, the merging path 100 and the branching path 102 may be smoothly connected by curves such as splines, or may be expressed merely as indicating connection directions. The merging from the entrance of the roadside area to the lane is also set based on the collected trajectory distribution.
図1に示される如く、道路接続情報生成部42は、路側情報追加・更新部44を介して道路構造記憶部18に接続されている。 As shown in FIG. 1, the road connection information generation unit 42 is connected to the road structure storage unit 18 via the roadside information addition / update unit 44.
路側情報追加・更新部44は、生成した接続情報(分岐位置、出入口、及び経路情報)を道路構造記憶部18に追加する。既に、生成された情報があり、それと重なる場合には、新しい方に更新したり、古い情報と統計的に合成することによって更新することができる。 The roadside information addition / update unit 44 adds the generated connection information (branch position, entrance and exit, and route information) to the road structure storage unit 18. If there is already generated information, and it overlaps with it, it can be updated by updating to the newer one or by statistically combining with the old information.
道路構造記憶部18は、生成した接続情報(分岐位置、出入り口、経路情報)を道路構造記憶部18に追加する。すなわち、道路構造記憶部18には、既に生成された情報があり、道路構造記憶部18では、情報が重なる場合には新しい情報に更新したり、古い情報と新しい情報とを統計的に合成することによって更新することができる。 The road structure storage unit 18 adds the generated connection information (branch position, entrance and exit, route information) to the road structure storage unit 18. That is, the road structure storage unit 18 has already generated information, and the road structure storage unit 18 updates new information if the information overlaps, or statistically combines old information and new information. It can be updated by
以下に、第1の実施の形態の作用を、図9のフローチャートに従い説明する。 The operation of the first embodiment will be described below with reference to the flowchart of FIG.
ステップ150では、車載センサ群12で検出したデータを取得し、次いで、ステップ152へ移行して車載センサ群12で検出したデータ(センサデータ)に基づいて、基盤情報を生成する。 In step 150, the data detected by the in-vehicle sensor group 12 is acquired, and then, the process proceeds to step 152, and the base information is generated based on the data (sensor data) detected by the in-vehicle sensor group 12.
次のステップ153では、生成した基盤情報をセンターサーバーCSへ送信し、集約して、ステップ154へ移行する。 In the next step 153, the generated infrastructure information is transmitted to the center server CS, aggregated, and the process proceeds to step 154.
ステップ154では、集約した走行データを分類する。分類項目としては、車載センサ群12の各センサ別、車種別、道路別、レーン単位等が挙げられる。 At step 154, the aggregated traveling data is classified. As classification items, each sensor of the on-vehicle sensor group 12, vehicle type, road type, lane unit, etc. may be mentioned.
次のステップ156では、統計処理により収集した情報の信頼度を判定し、ステップ158へ移行する。 In the next step 156, the reliability of the collected information is determined by statistical processing, and the process proceeds to step 158.
ステップ158では、ステップ156での判定の結果、信頼度がしきい値以上か否かを判断する。 In step 158, as a result of the determination in step 156, it is determined whether the reliability is equal to or more than a threshold.
このステップ158で信頼度がしきい値未満(信頼度<しきい値)と判定された場合は、集約したデータ量が不足していると判断し、ステップ153へ移行する。 If it is determined in step 158 that the reliability is less than the threshold (reliability <threshold), it is determined that the aggregated data amount is insufficient, and the process proceeds to step 153.
また、ステップ158で信頼度がしきい値以上(信頼度≧しきい値)と判定された場合は、集約したデータ量が十分であると判断し、ステップ160へ移行する。 If it is determined in step 158 that the reliability is equal to or higher than the threshold (reliability し き い 値 threshold), it is determined that the aggregated data amount is sufficient, and the process proceeds to step 160.
ステップ160では、道路と路側領域との接続情報を生成し、次いで、ステップ162へ移行して、路側領域内の空間情報を自動生成する。すなわち、路側領域内に存在するランドマークの空間配置や車両の停車位置等を生成する。 In step 160, connection information between the road and the roadside area is generated, and then the process proceeds to step 162 to automatically generate space information in the roadside area. That is, the space arrangement of the landmarks present in the roadside area, the stop position of the vehicle, and the like are generated.
次のステップ164では、道路接続や領域内空間情報の変化を判定し、ステップ166へ移行する。 In the next step 164, changes in road connection and in-area space information are determined, and the process proceeds to step 166.
ステップ166では、ステップ164での判定の結果、道路接続や領域内空間情報に変化があったか否かを判断する。 In step 166, as a result of the determination in step 164, it is determined whether there is a change in road connection or in-area space information.
このステップ166で変化なしと判定された場合は、既に記憶している道路構造を更新する必要がないと判断し、ステップ153へ移行する。 If it is determined in step 166 that there is no change, it is determined that the road structure already stored need not be updated, and the process proceeds to step 153.
また、ステップ166で変化ありと判定された場合は、既に記憶している道路構造を更新する必要があると判断し、ステップ168へ移行する。 When it is determined in step 166 that there is a change, it is determined that the road structure already stored needs to be updated, and the process proceeds to step 168.
ステップ168では、変化点を含む情報を道路構造記憶部18に保存して、このルーチンは終了する。 In step 168, the information including the change point is stored in the road structure storage unit 18, and the routine ends.
第1の実施の形態によれば、レーンレベルの道路ネットワーク情報に加え、車両が出入する可能性のある路側領域の情報を自動生成することができる。 According to the first embodiment, it is possible to automatically generate information on the roadside area where vehicles may enter and leave, in addition to lane network information on the lane level.
また、交差点以外で車両の右折、左折及び停止が発生する可能性のある場所をデータベースとして蓄えることができる。 In addition, it is possible to store as a database the places where there is a possibility that the right turn, left turn and stop of the vehicle occur other than the intersection.
また、道路を走った大量の車両データをレーン単位で集約・分析することで運転挙動を網羅的に抽出することができ、当該レーンから進入可能なエリアとの接続情報、適切な進入・退出経路を抽出することができる。 In addition, driving behavior can be comprehensively extracted by aggregating and analyzing a large amount of vehicle data that has run on the road in lane units, connection information with an area accessible from the lane, and an appropriate entry / exit route Can be extracted.
さらに、道路構造データベースは、道路を走行する車両に搭載された車載センサ群12で検出した情報を集約して、計算機上の自動処理によって生成されるため、オペレータによるデータ処理を抑え、低コストでシステムを実現することができる。 Furthermore, since the road structure database is generated by aggregating information detected by the on-vehicle sensor group 12 mounted on a vehicle traveling on a road and generated by automatic processing on a computer, data processing by the operator can be suppressed and cost can be reduced. The system can be realized.
「第2の実施の形態」
以下に、本発明の第2の実施の形態について説明する。第2の実施の形態において、第1の実施の形態と同一構成については、同一の符号を付してその構成の説明を省略する。
"Second embodiment"
The second embodiment of the present invention will be described below. The same reference numerals as in the first embodiment denote the same parts in the second embodiment, and a description thereof will be omitted.
前述した第1の実施の形態に対して、第2の実施の形態の特徴は、以下の特徴が挙げられる。 The features of the second embodiment are as follows, with respect to the first embodiment described above.
(特徴a) 監視カメラなど道路近傍に設置されたインフラセンサの情報を利用する点
(特徴b) 取得可能な外部の地図データベース情報を合成する点
(特徴c) 路側領域との接続情報だけでなく、路側領域内の空間情報まで生成する点
図10は、本発明の第2の実施の形態に係る運転行動データ生成装置10Aの概略構成図である。
(Feature a) Point of using information of infrastructure sensor installed near the road such as surveillance camera (Feature b) Point of combining available external map database information (Feature c) Not only connection information with roadside area The point at which space information in the roadside area is generated FIG. 10 is a schematic configuration diagram of a driving behavior data generation device 10A according to the second embodiment of the present invention.
図10に示される如く、道路構造データ生成装置10Aは、車載センサ群12、基盤情報生成部14、及び路側領域情報生成部16Aを備えている。また、第2の実施の形態では、インフラセンサ106が利用される。 As shown in FIG. 10, the road structure data generation device 10A includes an onboard sensor group 12, a base information generation unit 14, and a roadside area information generation unit 16A. In the second embodiment, the infrastructure sensor 106 is used.
なお、第2の実施の形態では、図11に示すように、各種データは、複数の車両15のそれぞれに搭載されている車載センサ群12(図10参照)、及びインフラセンサ106から、センターサーバーCS(第2の実施の形態では、基盤情報生成部14、及び路側領域情報生成部16Aを含むシステム)へ送信されることを想定する。 In the second embodiment, as shown in FIG. 11, the various data are obtained from the in-vehicle sensor group 12 (see FIG. 10) mounted on each of the plurality of vehicles 15 and the infrastructure sensor 106 as a center server. It is assumed that it is transmitted to CS (in the second embodiment, a system including the base information generating unit 14 and the roadside area information generating unit 16A).
第2の実施の形態において利用する車載センサ群12には、環境認識センサ24、車両運動センサ26、測位センサ30が含まれる。 The on-vehicle sensor group 12 used in the second embodiment includes an environment recognition sensor 24, a vehicle motion sensor 26, and a positioning sensor 30.
基盤情報生成部14は、道路情報抽出部32、走行情報抽出部34、周辺情報抽出部36、及び自車位置推定部38を有している。 The base information generation unit 14 includes a road information extraction unit 32, a travel information extraction unit 34, a surrounding information extraction unit 36, and a vehicle position estimation unit 38.
また、路側領域情報生成部16Aは、データ分類・統計処理部40、道路接続情報生成部42、地図情報取得部108、及び領域内空間情報生成部110を有している。 In addition, the roadside area information generation unit 16A includes a data classification / statistical processing unit 40, a road connection information generation unit 42, a map information acquisition unit 108, and an in-area space information generation unit 110.
さらに、情報を記憶する記憶媒体として、基盤情報生成部14及び路側領域情報生成部16には道路構造記憶部18が接続され、路側領域情報生成部16には外部地図記憶部112が接続されている。 Furthermore, as a storage medium for storing information, the road structure storage unit 18 is connected to the base information generation unit 14 and the roadside area information generation unit 16, and the external map storage unit 112 is connected to the roadside area information generation unit 16. There is.
(インフラセンサ106の利用)
ここで、前述の第1の実施の形態では、車両に搭載された車載センサ群12の情報を収集する構成であった。これに対して、第2の実施の形態では、車載センサ群12とは別の情報源として、インフラセンサ106を活用することが1つの特徴である。
(Use of infrastructure sensor 106)
Here, in the first embodiment described above, the information of the on-vehicle sensor group 12 mounted on the vehicle is collected. On the other hand, in the second embodiment, it is one feature to utilize the infrastructure sensor 106 as an information source different from the in-vehicle sensor group 12.
インフラセンサ106としては、図12(A)〜図12(D)に示される如く、それぞれの用途に応じたカメラ106A、106B、106C、106Dが適用可能である。 As the infrastructure sensor 106, as shown in FIG. 12A to FIG. 12D, cameras 106A, 106B, 106C, and 106D corresponding to respective applications are applicable.
すなわち、交差点を中心とした道路周辺には、監視用のカメラ106A、106B(図12(A)及び図12(B)参照)が設置されていることが多い。また、道路脇の店舗や建物には防犯等の目的で監視用のカメラ106C(図12(C)参照)等が設置されていることが多い。さらに、道路脇の駐車場には、駐車車両を監視するカメラ106D(図12(D)参照)等が設置されていることが多い。 That is, cameras 106A and 106B for monitoring (see FIG. 12A and FIG. 12B) are often installed around a road centering on an intersection. In addition, a camera 106C (see FIG. 12C) or the like for monitoring is often installed in a store or a building beside the road for the purpose of crime prevention and the like. Furthermore, in the parking lot beside the road, a camera 106D (see FIG. 12D) for monitoring a parked vehicle and the like are often installed.
IoT(Internet of Things)の普及が進む中、将来的に、カメラ106A、106B、106C、106Dを代表とするインフラセンサ106による検出(測定)データが利用できる可能性は十分ある。道路状況を観測する上で、固定されたインフラセンサ106の情報は非常に有用である。 With the spread of the Internet of Things (IoT), there is a high possibility that detection (measurement) data by the infrastructure sensor 106 represented by the cameras 106A, 106B, 106C, 106D will be available in the future. The information of the fixed infrastructure sensor 106 is very useful in observing road conditions.
図10に示される如く、インフラセンサ106は、移動物情報抽出部111に接続されており、当該インフラセンサ60で撮像された画像データは、インフラセンサ106の位置・姿勢情報と共に移動物情報抽出部111に送られる。 As shown in FIG. 10, the infrastructure sensor 106 is connected to the moving object information extraction unit 111, and the image data captured by the infrastructure sensor 60 is the moving object information extraction unit together with the position / attitude information of the infrastructure sensor 106. It is sent to 111.
インフラセンサ106として適用したカメラ106A、106B、106C、106D(図12参照)は、基本的に固定されており、絶対的な位置は変化しないため、設置時に一度だけ位置情報を設定すればよい。なお、カメラ106A、106B、106C、106Dの姿勢(撮像光軸)が、パン・チルト・ズーム等で光軸方向を制御できる場合には、撮像時の光軸方向情報を含むパラメータを画像に関連付けることが好ましい。 The cameras 106A, 106B, 106C, and 106D (see FIG. 12) applied as the infrastructure sensor 106 are basically fixed, and the absolute position does not change, so the position information may be set only once at the time of installation. When the orientation (imaging optical axis) of the cameras 106A, 106B, 106C, and 106D can control the optical axis direction by pan, tilt, zoom, etc., parameters including optical axis direction information at the time of imaging are associated with the image. Is preferred.
移動物情報抽出部111では、以下の手順(1)及び(2)により、例えば、カメラ106A、106B、106C、106Dで撮像した画像から移動する車両を抽出し、その位置を時間方向に追跡して走行軌跡を検出する。 The moving object information extraction unit 111 extracts a moving vehicle from, for example, images captured by the cameras 106A, 106B, 106C, and 106D according to the following procedures (1) and (2), and tracks the position in the time direction. To detect the traveling track.
(手順1) 最初に、背景差分や時間差分を利用して画像中で移動物領域の候補を検出する。候補領域を含む形で画面内に探索領域を設定し、パターン認識処理を利用して車両を検出する。 (Procedure 1) First, candidates for moving object regions are detected in an image using background difference and time difference. A search area is set in the screen so as to include candidate areas, and a vehicle is detected using pattern recognition processing.
(手順2) カメラ106A、106B、106C、106Dの設置高さや視線方向は既知であることを前提とし、三角測量の原理等の手段(図13参照)を用いて、レーンレベルの車両位置を推定する。 (Procedure 2) Assuming that the installation height and the line of sight direction of the cameras 106A, 106B, 106C, 106D are known, vehicle position at the lane level is estimated using means such as the principle of triangulation (see FIG. 13) Do.
図13に示される如く、車両Vが路面上に位置し、当該車両Vから路面に沿って距離dだけ離れた位置の直上に、カメラ106A、106B、106C、106Dの何れか(例えば、カメラ106A)が設置されている。カメラ106Aは、路面から高さhの位置に設置されているものとする。 As shown in FIG. 13, the vehicle V is located on the road surface, and any one of the cameras 106A, 106B, 106C, 106D (for example, the camera 106A) immediately above the position separated from the vehicle V by the distance d. ) Is installed. It is assumed that the camera 106A is installed at a height h from the road surface.
このカメラ106Aにより車両Vを撮像するときの方向が、カメラ106Aの垂線を基準として角度θであることで、車両Vの位置を特定することができる。 The position of the vehicle V can be specified because the direction when the vehicle V is imaged by the camera 106A is the angle θ with respect to the perpendicular line of the camera 106A.
なお、カメラ106Aに十分な解像度があれば路面のレーンマークも検出できるため、走行レーンを確定することもできる。 In addition, if the camera 106A has sufficient resolution, lane marks on the road surface can also be detected, so the traveling lane can also be determined.
図10に示される如く、移動物情報抽出部111は、路側領域情報生成部16Aに接続されている。 As shown in FIG. 10, the moving object information extraction unit 111 is connected to the roadside area information generation unit 16A.
移動物情報抽出部111では、以上の手順で検出した移動物の軌跡情報を路側領域情報生成部16Aに送信し、車載センサ群12からの情報と統合して利用する。 The moving object information extraction unit 111 transmits the trajectory information of the moving object detected in the above-described procedure to the roadside area information generation unit 16A, and integrates the information from the in-vehicle sensor group 12 for use.
インフラセンサ106の情報を、車載センサ群12の情報に対して適切な重みを設定してマージ(統合)することも有効である。重みは撮像対象の位置に応じて変更するようにしてもよい。インフラセンサ106の情報の統合により生成情報の精度や信頼性を向上したり、変化点をいち早く検出したりすることができる。 It is also effective to merge (integrate) the information of the infrastructure sensor 106 by setting an appropriate weight with respect to the information of the in-vehicle sensor group 12. The weight may be changed according to the position of the imaging target. By integrating the information of the infrastructure sensor 106, the accuracy and reliability of the generated information can be improved, and the change point can be detected quickly.
(外部地図情報の利用)
大型店舗や公共施設などの場合、一般地図データの中に駐車場への出入り口が記述されていることがある。
(Use of external map information)
In the case of a large store or public facility, the entrance to the parking lot may be described in the general map data.
また、駐車スペースの配置など、駐車場内の情報が通信により提供されている場合もある。 In addition, information in the parking lot, such as the arrangement of the parking space, may be provided by communication.
将来的には駐車場入り口でゲートを通過する際に駐車場内の地図や空きスペースなどの情報が無線通信で車両側に提供されるサービスなどが考えられる。このような公開情報(外部地図や航空写真)が入手できれば、情報を加工・統合して領域内空間情報の不足を補ったり、生成した構造を検証したりすることができる。 In the future, when passing through the gate at the entrance of the parking lot, a service may be considered in which information such as a map in the parking lot and an empty space is provided to the vehicle by wireless communication. If such public information (external map or aerial photograph) can be obtained, it is possible to process and integrate the information to compensate for the lack of in-area spatial information or to verify the generated structure.
すなわち、Open Street Map等のオープンな地図データや、施設が屋外駐車場であれば航空写真を画像処理して駐車位置や走行経路、出入口の情報を取得することができる。すなわち、施設から配信される走行案内情報だけでなく、公開情報から施設の情報を作成することが可能である。 That is, open map data such as Open Street Map, and if the facility is an outdoor parking lot, aerial images can be image-processed to obtain information on parking positions, travel routes, and entrances and exits. That is, it is possible to create facility information from public information as well as travel guidance information distributed from the facility.
そこで、第2の実施の形態では、路側領域情報生成部16Aに地図情報取得部108を追加し、外部地図記憶部112から提供される情報を統合するためのデータ変換を行うようにした。 Therefore, in the second embodiment, the map information acquisition unit 108 is added to the roadside area information generation unit 16A, and data conversion for integrating the information provided from the external map storage unit 112 is performed.
例えば、路側領域の出入り口の位置、領域内の走行可能な経路、駐車スペース、特徴的な構造物(コンクリート柱や路面ペイント、案内や規制などの看板・標識、人工的なマーカなど)の配置などの情報を読み込み、所望の形式に変換して、道路接続情報生成部42及び領域内空間情報生成部110に送出する。 For example, the position of the entrance of the roadside area, the travelable route in the area, the parking space, the arrangement of characteristic structures (concrete pillars, road surface paint, signs / signs such as guidance and regulation, artificial markers, etc.) The above information is read, converted into a desired format, and sent to the road connection information generation unit 42 and the in-area space information generation unit 110.
(路側の領域内空間情報生成)
領域内空間情報生成部110では、道路接続情報生成部42における道路ネットワークと路側領域の出入り口の接続に加え、路側領域内を経路案内するために必要となる空間情報を自動生成する。
(Regional space information generation on the roadside)
In addition to the connection between the road network in the road connection information generation unit 42 and the entrance of the roadside area, the in-area space information generation unit 110 automatically generates space information required for route guidance in the roadside area.
技術的にはSLAM(Simultaneous Localization and Mapping)と呼ばれる手法をベースとして利用する。 Technically, it uses the method called SLAM (Simultaneous Localization and Mapping) as a base.
屋外などで、GPS測位が可能ならば絶対位置情報も付与する。 If GPS positioning is possible outdoors or the like, absolute position information is also added.
例えば、特許文献1では、レーンマークを抽出するために路面画像を生成しているが、路側領域の走路には適切なマークがあるとは限らない。 For example, in patent document 1, although a road surface image is produced | generated in order to extract a lane mark, the runway of a road side area | region does not necessarily have a suitable mark.
例えば、車載センサ群12としてカメラを利用した場合、V−SLAM(Visual SLAM)と呼ばれる手法では、画像から顕著な特徴点を抜き出し、移動前後で同一の特徴点を探索・照合して、三角測量の原理で特徴点の3次元位置を推定することができる。 For example, when a camera is used as the in-vehicle sensor group 12, in a method called V-SLAM (Visual SLAM), salient feature points are extracted from the image, the same feature points are searched and collated before and after movement, and triangulation is performed. The three-dimensional position of the feature point can be estimated by the principle of
多くの特徴点の三次元位置を記憶しておけば、それらと現在の観測結果を照合することで、異なる時刻においても自車の位置を推定することができる。 If the three-dimensional positions of many feature points are stored, the position of the vehicle can be estimated even at different times by collating them with the current observation results.
しかしながら、多くの特徴点を記憶しておくには多くのメモリを必要とする。また、特徴点の抽出は照明変化の影響を受けるため、時間や天候に対するロバスト性が課題である。 However, storing many feature points requires a large amount of memory. In addition, since extraction of feature points is affected by changes in lighting, robustness against time and weather is a problem.
そこで、特徴点は最小限に、空間的・時間的に安定したものだけに留める。代わりに、前述した「外部地図情報の利用」においても説明したように、特徴的な構造物を抽出し、その空間配置をデータベース化する。 Therefore, the feature points should be minimized and only spatially and temporally stable. Instead, characteristic structures are extracted and their spatial arrangement is made into a database as described in the above-mentioned "Utilization of external map information".
例えば、領域内の走行可能な走路の境界線、駐車スペースや一旦停止などの路面ペイント、コンクリート柱やポール、案内や規制などの看板・標識、人工的なマーカなどである。 For example, boundary lines of runways in the area, road surface paint such as parking space and temporary stop, concrete pillars and poles, signboards and signs such as guidance and regulation, artificial markers, and the like.
これらの物体はパターン認識などの画像処理技術を利用してカメラ画像から自動で抽出することができる。複数の車両から集められた情報を近傍領域で照合し、統計処理により観測の信頼度を算出する。所定の信頼度を満足する対象物の三次元位置を空間情報として登録する。 These objects can be automatically extracted from camera images using image processing techniques such as pattern recognition. Information collected from multiple vehicles is collated in the vicinity area, and statistical processing is used to calculate the reliability of observation. The three-dimensional position of the object satisfying the predetermined reliability is registered as spatial information.
第2の実施の形態によれば、前述の第1の実施の形態における図7で示した最終的に生成される道路構造データベース(図7(B)参照)において、路側領域48と道路ネットワーク47の接続関係路線49を、より詳細に生成することができる。 According to the second embodiment, the roadside area 48 and the road network 47 in the finally generated road structure database (see FIG. 7B) shown in FIG. 7 in the first embodiment described above. Can be generated in more detail.
最終的に生成される道路構造データベースの例を図14に示す。 An example of the road structure database finally generated is shown in FIG.
図14(A)は、一般的な道路地図46であり、図14(B)は、道路構造データ生成装置10において、当該道路地図46の中から、特定の領域に特化して生成した詳細地図46Aである。 FIG. 14 (A) is a general road map 46, and FIG. 14 (B) is a detailed map generated specifically for a specific area from the road map 46 in the road structure data generation device 10. It is 46A.
レーンレベルの道路ネットワーク47(図14(B)の点線で表示)に追加する形で、路側領域48が設定され、路側領域48と道路ネットワーク47の接続関係路線49(図14(B)の実線で表示)が追記されている。また、路側領域48内ではランドマーク48A、停車位置48B、及び走行可能経路48Cが自動生成される。 The roadside area 48 is set in addition to the lane level road network 47 (indicated by the dotted line in FIG. 14B), and the solid line of the connection relationship line 49 of the roadside area 48 and the road network 47 (FIG. 14B). ) Is added. Further, in the roadside area 48, a landmark 48A, a stop position 48B, and a travelable route 48C are automatically generated.
以下に、第2の実施の形態の作用を、図15のフローチャートに従い説明する。なお、前述の第1の実施の形態における所定手順(図9参照)と同一の処理ステップについては、符号の末尾に「A」を付す。 The operation of the second embodiment will be described below with reference to the flowchart of FIG. Note that “A” is added to the end of the reference numerals for the same processing steps as the predetermined procedure (see FIG. 9) in the first embodiment described above.
ステップ150Aでは、車載センサ群12で検出したデータを取得し、次いで、ステップ152Aへ移行して車載センサ群12で検出したデータ(センサデータ)に基づいて、基盤情報を生成する。 In step 150A, the data detected by the in-vehicle sensor group 12 is acquired, and then, the process proceeds to step 152A, and the base information is generated based on the data (sensor data) detected by the in-vehicle sensor group 12.
次のステップ153Aでは、生成した基盤情報をセンターサーバーCSへ送信し、集約して、ステップ154Aへ移行する。 In the next step 153A, the generated base information is transmitted to the center server CS, aggregated, and the process proceeds to step 154A.
ステップ154Aでは、集約した走行データを分類する。分類項目としては、車載センサ群12の各センサ別、車種別、道路別、レーン単位等が挙げられる。 At step 154A, the aggregated traveling data is classified. As classification items, each sensor of the on-vehicle sensor group 12, vehicle type, road type, lane unit, etc. may be mentioned.
ここで、第2の実施の形態では、分類する基盤情報として、インフラセンサ106で検出したデータを付加する。 Here, in the second embodiment, data detected by the infrastructure sensor 106 is added as the base information to be classified.
すなわち、ステップ170では、インフラセンサ106で検出したデータを取得し、次いで、ステップ172へ移行して移動物の軌跡を含む基盤情報を生成する。 That is, in step 170, data detected by the infrastructure sensor 106 is acquired, and then, the process proceeds to step 172 to generate base information including the trajectory of a moving object.
次のステップ174では、生成した基盤情報をセンターサーバーCSへ送信し、集約して、ステップ154Aへ移行する。 In the next step 174, the generated infrastructure information is sent to the center server CS, aggregated, and the process moves to step 154A.
これにより、センターサーバーCSには、車載センサ群12で検出したデータに基づく基盤情報と、インフラセンサ106で検出したデータに基づく基盤情報とが集約されることになる。 As a result, in the center server CS, the base information based on the data detected by the in-vehicle sensor group 12 and the base information based on the data detected by the infrastructure sensor 106 are aggregated.
次のステップ156Aでは、統計処理により収集した情報の信頼度を判定し、ステップ158Aへ移行する。 In the next step 156A, the reliability of the information collected by statistical processing is determined, and the process proceeds to step 158A.
ステップ158Aでは、ステップ156Aでの判定の結果、信頼度がしきい値以上か否かを判断する。 In step 158A, as a result of the determination in step 156A, it is determined whether the reliability is equal to or greater than a threshold.
このステップ158Aで信頼度がしきい値未満(信頼度<しきい値)と判定された場合は、集約したデータ量が不足していると判断し、ステップ153Aへ移行する。 If it is determined in step 158A that the reliability is less than the threshold (reliability <threshold), it is determined that the aggregated data amount is insufficient, and the process proceeds to step 153A.
また、ステップ158Aで信頼度がしきい値以上(信頼度≧しきい値)と判定された場合は、集約したデータ量が十分であると判断し、ステップ160Aへ移行する。 If it is determined in step 158A that the reliability is equal to or higher than the threshold (reliability し き い 値 threshold), it is determined that the aggregated data amount is sufficient, and the process proceeds to step 160A.
ここで、第2の実施の形態では、道路と路側領域との接続情報を生成する場合に、既存の地図データから得た関連情報を付加する。地図データから得た関連情報には、道路接続情報及び駐車位置情報が含まれる。 Here, in the second embodiment, when connection information between a road and a roadside area is generated, related information obtained from existing map data is added. The related information obtained from the map data includes road connection information and parking position information.
すなわち、ステップ176では、既存の地図データから関連情報を取得し、ステップ160Aへ移行する。 That is, in step 176, the related information is acquired from the existing map data, and the process proceeds to step 160A.
ステップ160Aでは、道路と路側領域との接続情報を生成する。このとき、第2の実施の形態では、道路に関する基盤情報に加え、既存の地図データから道路接続情報や、駐車位置情報等を取得しているため、道路と路側領域との接続情報を生成する精度を高めることができる。 In step 160A, connection information between the road and the roadside area is generated. At this time, in the second embodiment, since road connection information, parking position information, and the like are acquired from existing map data in addition to basic information on roads, connection information between a road and a roadside area is generated. Accuracy can be improved.
次のステップ162Aでは、路側領域内の空間情報を自動生成する。すなわち、路側領域内に存在するランドマークの空間配置や車両の停車位置等を生成する。 In the next step 162A, spatial information in the roadside area is automatically generated. That is, the space arrangement of the landmarks present in the roadside area, the stop position of the vehicle, and the like are generated.
次のステップ164Aでは、道路接続や領域内空間情報の変化を判定し、ステップ166Aへ移行する。 In the next step 164A, a change in road connection and space information in the area is determined, and the process proceeds to step 166A.
ステップ166Aでは、ステップ164Aでの判定の結果、道路接続や領域内空間情報に変化があったか否かを判断する。 In step 166A, as a result of the determination in step 164A, it is determined whether there is a change in road connection or in-area space information.
このステップ166Aで変化なしと判定された場合は、既に記憶している道路構造を更新する必要がないと判断し、ステップ153Aへ移行する。 If it is determined in step 166A that there is no change, it is determined that the road structure already stored need not be updated, and the process proceeds to step 153A.
また、ステップ166Aで変化ありと判定された場合は、既に記憶している道路構造を更新する必要があると判断し、ステップ168Aへ移行する。 If it is determined in step 166A that there is a change, it is determined that the road structure that has already been stored needs to be updated, and the process proceeds to step 168A.
ステップ168Aでは、変化点を含む情報を道路構造記憶部18に保存して、このルーチンは終了する。 In step 168A, the information including the change point is stored in the road structure storage unit 18, and the routine ends.
第2の実施の形態によれば、道路構造データベースは道路を走行する車両に搭載された車載センサ群12や、図12に示すカメラ106A〜106D等のインフラセンサ106の情報を集約して、計算機上の自動処理によって生成される。オペレータによるデータ処理を抑え、低コストでシステムを実現することができる。 According to the second embodiment, the road structure database collects information of the in-vehicle sensor group 12 mounted on the vehicle traveling on the road, and the infrastructure sensors 106 such as the cameras 106A to 106D shown in FIG. Generated by automatic processing above. The data processing by the operator can be suppressed and the system can be realized at low cost.
なお、第1の実施の形態及び第2の実施の形態において、道路接続や領域内空間情報に変化があった場合に道路構造記憶部18に保存するようにしたが(図9のステップ166→168、及び図15のステップ166A→168Aの処理)、道路構造記憶部18のデータが古い場合(前回の更新からある程度の時間が経過した場合)や、時間経過に関わらず信頼度が所定以上高くなったと判断された場合は、道路接続や領域内空間情報に変化がなくても更新するようにしてもよい。さらに、変化があった場合と併用して、定期的に更新するようにしてもよいし、手動指示操作で更新を行ってもよい。 In the first embodiment and the second embodiment, when there is a change in road connection or space information in the area, it is stored in the road structure storage unit 18 (step 166 of FIG. 9 → 168 and the process of step 166A → 168A in FIG. 15), the data in the road structure storage unit 18 is old (when a certain amount of time has elapsed since the previous update), and the reliability is higher than a predetermined level regardless of time If it is determined that the road connection has not been made, the road connection and the space information in the area may be updated without any change. Furthermore, in combination with a case where there is a change, updating may be performed periodically, or may be performed by manual instruction operation.
10 道路構造データ生成装置
12 車載センサ群
14 基盤情報生成部
16 路側領域情報生成部
18 道路構造記憶部
24 環境認識センサ
26 車両運動センサ
30 測位センサ
32 道路情報抽出部
34 走行情報抽出部
36 周辺情報抽出部
38 自車位置推定部
40 データ分類・統計処理部
42 道路接続情報生成部
44 路側情報追加・更新部
46 道路地図
46A 詳細地図
48A ランドマーク
48B 停車位置
48C 走行可能経路
50 道路構造画像
52 直線道路
54 縁石
56 ガードレール
60 道路構造画像
62 直線道路
64 T字路
66 レーンマーク
68 停止線
70A、70B、70C 周辺情報画像
72 車両
74 主道路
76 自車
78、80 レーンマーク
82 Uターン禁止標識
84 速度制限標識
86 レーンマーク
88A、88B 車線
90 道路
92 車両
94 二輪車
96 路側領域
98 施設
100 合流経路
102 分岐経路
104 中央分離帯
R1、R2 道路
X 交差点
(第2の実施の形態)
10A 道路構造データ生成装置
16A 路側領域情報生成部
106 インフラセンサ
106A、106B、106C、106D カメラ
108 地図情報取得部
110 領域内空間情報生成部
111 移動物情報抽出部
112 外部地図記憶部
DESCRIPTION OF SYMBOLS 10 Road structure data generation apparatus 12 Vehicle-mounted sensor group 14 Foundation information generation part 16 Roadside area information generation part 18 Road structure storage part 24 Environment recognition sensor 26 Vehicle motion sensor 30 Positioning sensor 32 Road information extraction part 34 Driving information extraction part 36 Surrounding information Extraction unit 38 Vehicle position estimation unit 40 Data classification / statistical processing unit 42 Road connection information generation unit 44 Roadside information addition / update unit 46 Road map 46A Detailed map 48A Landmark 48B Stop position 48C Travelable route 50 Road structure image 52 Straight line Road 54 curb 56 guardrail 60 road structure image 62 straight road 64 T-junction 66 lane mark 68 stop line 70A, 70B, 70C peripheral information image 72 vehicle 74 main road 76 own car 78, 80 lane mark 82 U turn prohibited sign 84 speed Limit sign 86 lanemer 88A, 88B Lane 90 Road 92 Vehicle 94 Two-wheeled vehicle 96 Two-way area 98 Facility 100 Merged route 102 Branched route 104 Central division R1, R2 Road X intersection (Second embodiment)
10A Road Structure Data Generation Device 16A Roadside Area Information Generation Unit 106 Infrastructure Sensors 106A, 106B, 106C, 106D Cameras 108 Map Information Acquisition Unit 110 Space Information Generation Unit in Region 111 Moving Object Information Extraction Unit 112 External Map Storage Unit
Claims (7)
前記取得手段で取得した運転情報、及び予め既知の道路構造情報に基づいて、道路構造を認識するための基盤となる基盤情報を生成する基盤情報生成手段と、
前記基盤情報生成手段で生成した基盤情報に基づき、車両の走行時の軌跡情報を解析する解析手段と、
前記解析手段で解析した軌跡情報を、走行路のレーン単位で分類する分類手段と、
車両の走行軌跡の統計処理により、道路の境界の端点、道路分岐点、施設への出入口の基点を含む注目点を抽出する抽出手段と、
前記分類手段で分類された軌跡情報に基づいて、前記注目点と接続可能なレーンを選定して、選定したレーンと前記注目点を結ぶ走行経路を生成する道路接続情報生成手段と、
を有する道路構造データ生成装置。 Acquisition means for acquiring driving information related to driving of the vehicle from an on-board sensor mounted on the vehicle;
Basic information generation means for generating basic information to be a basis for recognizing a road structure based on driving information acquired by the acquisition means and road structure information known in advance;
An analysis unit that analyzes trajectory information when the vehicle is traveling based on the base information generated by the base information generation unit;
Classification means for classifying track information analyzed by the analysis means in lane units of a traveling path;
Extracting means for extracting an attention point including an end point of a road boundary, a road bifurcation point, and a starting point of an entrance to a facility by statistical processing of a traveling track of a vehicle;
Road connection information generation means for selecting a lane connectable to the attention point based on the trajectory information classified by the classification means, and generating a travel route connecting the selected lane and the attention point;
Road structure data generator having:
例外走行と判別された走行軌跡は、前記分類手段による分類対象から除外する、
ことを特徴とする請求項1記載の道路構造データ生成装置。 The vehicle further includes exceptional running determination means for determining whether or not there is an exceptional running including at least one of lane change of the running path and obstacle avoidance behavior for each of the trajectory information analyzed by the analyzing means.
The travel locus determined to be exceptional travel is excluded from the classification targets by the classification unit,
The road structure data generation device according to claim 1, characterized in that:
前記運転情報及び前記道路構造情報に基づいて、車両の走行情報、自車位置情報、走行路の道路情報、及び走行路の周辺情報を含む、
ことを特徴とする請求項1又は請求項2記載の道路構造データ生成装置。 The basic information generated by the basic information generation means is
Based on the driving information and the road structure information, the information includes traveling information of the vehicle, position information of the vehicle, road information of the traveling path, and peripheral information of the traveling path.
The road structure data generation device according to claim 1 or 2, characterized in that:
前記施設に関する車両の走行案内情報、並びに、データ配信される市街地地図及び航空写真を含む公開情報の少なくとも1つの情報を取得することで、前記空間情報生成手段で生成した施設内の空間情報を検証、更新、修正を含む編集を行う編集手段をさらに有する請求項4記載の道路構造データ生成装置。 The space information generation means
The space information in the facility generated by the space information generation means is verified by acquiring traveling guide information of a vehicle related to the facility, and at least one of public information including a city map and an aerial photograph to which data are distributed 5. The road structure data generating device according to claim 4, further comprising an editing unit that performs editing including update, correction.
前記移動物情報検出手段で検出された移動物情報を、前記インフラセンサが設置された領域の走行路を通過する前記基盤情報に付加することを特徴とする請求項1〜請求項5の何れか1項記載の道路構造データ生成装置。 And moving object information detection means for detecting moving object information from an infrastructure sensor including a surveillance camera installed along the traveling path,
6. The moving object information detected by the moving object information detection means is added to the base information passing through a traveling path of the area where the infrastructure sensor is installed. Road structure data generation device according to item 1.
注目点と前記軌跡情報とを接続可能なレーンを選定して、選定したレーンと前記注目点を結ぶ走行経路を含む道路構造データが記憶されたことを特徴とする道路構造データベース。 The driving support device is used when performing guidance of a connection relationship between trajectory information of a vehicle traveling on a road, and an attention point including an end point of a boundary of the road, a road branch point, and a base point of an entrance to a facility.
A road structure database storing road structure data including a travel route connecting the selected lane and the attention point by selecting a lane to which the attention point and the locus information can be connected.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017239423A JP6984379B2 (en) | 2017-12-14 | 2017-12-14 | Road structure data generator |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017239423A JP6984379B2 (en) | 2017-12-14 | 2017-12-14 | Road structure data generator |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019105789A true JP2019105789A (en) | 2019-06-27 |
JP6984379B2 JP6984379B2 (en) | 2021-12-17 |
Family
ID=67062346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017239423A Active JP6984379B2 (en) | 2017-12-14 | 2017-12-14 | Road structure data generator |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6984379B2 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112216135A (en) * | 2020-12-09 | 2021-01-12 | 交通运输部公路科学研究所 | Automatic driving feasible region control method and system based on roadside fusion perception |
CN113192353A (en) * | 2020-01-29 | 2021-07-30 | 丰田自动车株式会社 | Map generation data collection device, map generation data collection method, and vehicle |
CN113470348A (en) * | 2021-06-07 | 2021-10-01 | 北京三快在线科技有限公司 | Method, apparatus, medium, and device for constructing intersection road surface of road |
CN113532417A (en) * | 2021-06-11 | 2021-10-22 | 上海追势科技有限公司 | High-precision map acquisition method for parking lot |
WO2022044486A1 (en) * | 2020-08-28 | 2022-03-03 | 株式会社アイシン | Driving assistance device and computer program |
US11393169B2 (en) | 2020-03-05 | 2022-07-19 | Topcon Corporation | Photogrammetry of building using machine learning based inference |
JP7138290B1 (en) * | 2022-02-03 | 2022-09-16 | ダイナミックマップ基盤株式会社 | Information processing method, program and information processing device |
US11488390B2 (en) | 2020-02-06 | 2022-11-01 | Toyota Jidosha Kabushiki Kaisha | Map generation device, recording medium and map generation method |
CN115366887A (en) * | 2022-08-25 | 2022-11-22 | 武汉大学 | Crossing classification and vehicle driving method and device adaptive to automatic driving |
WO2023190081A1 (en) * | 2022-04-01 | 2023-10-05 | 京セラ株式会社 | Information processing device, roadside unit, and information processing method |
CN117058887A (en) * | 2023-10-12 | 2023-11-14 | 深圳市中智车联科技有限责任公司 | Urban traffic data acquisition method, device, equipment and medium |
WO2024009456A1 (en) * | 2022-07-07 | 2024-01-11 | 日本電信電話株式会社 | Parking area extraction device, parking area extraction method, and parking area extraction program |
WO2024157435A1 (en) * | 2023-01-27 | 2024-08-02 | 日立Astemo株式会社 | Map provision device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060155464A1 (en) * | 2004-11-30 | 2006-07-13 | Circumnav Networks, Inc. | Methods and systems for deducing road geometry and connectivity |
JP2006250875A (en) * | 2005-03-14 | 2006-09-21 | Alpine Electronics Inc | Navigation device and method for correcting position of mobile body |
US8731832B1 (en) * | 2013-03-12 | 2014-05-20 | United Parcel Service Of America, Inc. | Concepts for defining travel paths in parking areas |
US20140372022A1 (en) * | 2009-10-29 | 2014-12-18 | Tomtom North America, Inc. | Method of analyzing points of interest with probe data |
JP2015004814A (en) * | 2013-06-20 | 2015-01-08 | 株式会社豊田中央研究所 | Lane map generation device and program |
JP2017090121A (en) * | 2015-11-05 | 2017-05-25 | 株式会社豊田中央研究所 | Center processor, map creation system, and program |
-
2017
- 2017-12-14 JP JP2017239423A patent/JP6984379B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060155464A1 (en) * | 2004-11-30 | 2006-07-13 | Circumnav Networks, Inc. | Methods and systems for deducing road geometry and connectivity |
JP2006250875A (en) * | 2005-03-14 | 2006-09-21 | Alpine Electronics Inc | Navigation device and method for correcting position of mobile body |
US20140372022A1 (en) * | 2009-10-29 | 2014-12-18 | Tomtom North America, Inc. | Method of analyzing points of interest with probe data |
US8731832B1 (en) * | 2013-03-12 | 2014-05-20 | United Parcel Service Of America, Inc. | Concepts for defining travel paths in parking areas |
JP2015004814A (en) * | 2013-06-20 | 2015-01-08 | 株式会社豊田中央研究所 | Lane map generation device and program |
JP2017090121A (en) * | 2015-11-05 | 2017-05-25 | 株式会社豊田中央研究所 | Center processor, map creation system, and program |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113192353A (en) * | 2020-01-29 | 2021-07-30 | 丰田自动车株式会社 | Map generation data collection device, map generation data collection method, and vehicle |
JP2021117908A (en) * | 2020-01-29 | 2021-08-10 | トヨタ自動車株式会社 | Data-for-map-generation collection device, data-for-map-generation collection method, and vehicle |
JP7136138B2 (en) | 2020-01-29 | 2022-09-13 | トヨタ自動車株式会社 | Map generation data collection device, map generation data collection method, and vehicle |
US11488390B2 (en) | 2020-02-06 | 2022-11-01 | Toyota Jidosha Kabushiki Kaisha | Map generation device, recording medium and map generation method |
US11880943B2 (en) | 2020-03-05 | 2024-01-23 | Topcon Corporation | Photogrammetry of building using machine learning based inference |
US11393169B2 (en) | 2020-03-05 | 2022-07-19 | Topcon Corporation | Photogrammetry of building using machine learning based inference |
JP2022039518A (en) * | 2020-08-28 | 2022-03-10 | 株式会社アイシン | Driving assist device and computer program |
WO2022044486A1 (en) * | 2020-08-28 | 2022-03-03 | 株式会社アイシン | Driving assistance device and computer program |
JP7443992B2 (en) | 2020-08-28 | 2024-03-06 | 株式会社アイシン | Driving support equipment and computer programs |
CN112216135A (en) * | 2020-12-09 | 2021-01-12 | 交通运输部公路科学研究所 | Automatic driving feasible region control method and system based on roadside fusion perception |
CN113470348B (en) * | 2021-06-07 | 2022-07-05 | 北京三快在线科技有限公司 | Method, apparatus, medium, and device for constructing intersection road surface of road |
CN113470348A (en) * | 2021-06-07 | 2021-10-01 | 北京三快在线科技有限公司 | Method, apparatus, medium, and device for constructing intersection road surface of road |
CN113532417A (en) * | 2021-06-11 | 2021-10-22 | 上海追势科技有限公司 | High-precision map acquisition method for parking lot |
JP7138290B1 (en) * | 2022-02-03 | 2022-09-16 | ダイナミックマップ基盤株式会社 | Information processing method, program and information processing device |
WO2023148865A1 (en) * | 2022-02-03 | 2023-08-10 | ダイナミックマップ基盤株式会社 | Information processing method, program, and information processing device |
WO2023190081A1 (en) * | 2022-04-01 | 2023-10-05 | 京セラ株式会社 | Information processing device, roadside unit, and information processing method |
WO2024009456A1 (en) * | 2022-07-07 | 2024-01-11 | 日本電信電話株式会社 | Parking area extraction device, parking area extraction method, and parking area extraction program |
CN115366887A (en) * | 2022-08-25 | 2022-11-22 | 武汉大学 | Crossing classification and vehicle driving method and device adaptive to automatic driving |
CN115366887B (en) * | 2022-08-25 | 2024-05-28 | 武汉大学 | Intersection classification and vehicle driving method and device suitable for automatic driving |
WO2024157435A1 (en) * | 2023-01-27 | 2024-08-02 | 日立Astemo株式会社 | Map provision device |
CN117058887A (en) * | 2023-10-12 | 2023-11-14 | 深圳市中智车联科技有限责任公司 | Urban traffic data acquisition method, device, equipment and medium |
CN117058887B (en) * | 2023-10-12 | 2023-12-22 | 深圳市中智车联科技有限责任公司 | Urban traffic data acquisition method, device, equipment and medium |
Also Published As
Publication number | Publication date |
---|---|
JP6984379B2 (en) | 2021-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6984379B2 (en) | Road structure data generator | |
US12030502B2 (en) | Road vector fields | |
US11940290B2 (en) | Virtual stop line mapping and navigation | |
US11148664B2 (en) | Navigation in vehicle crossing scenarios | |
EP3865822B1 (en) | Systems and methods for autonomous vehicle navigation | |
US11454973B2 (en) | Mapped driving paths for autonomous vehicle | |
US20220383744A1 (en) | Traffic light relevancy | |
US12106574B2 (en) | Image segmentation | |
US20220383545A1 (en) | Crowd-sourced 3d points and point cloud alignment | |
RU2654502C2 (en) | System and method for remote vehicle monitoring | |
WO2020174279A2 (en) | Systems and methods for vehicle navigation | |
US20230195122A1 (en) | Systems and methods for map-based real-world modeling | |
JP2023508769A (en) | Systems and methods for optimizing map tile requests for navigation | |
US20230136710A1 (en) | Systems and methods for harvesting images for vehicle navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211026 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6984379 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |