JP6912251B2 - Lane information generator, lane information generation method, and lane information generation program - Google Patents

Lane information generator, lane information generation method, and lane information generation program Download PDF

Info

Publication number
JP6912251B2
JP6912251B2 JP2017070799A JP2017070799A JP6912251B2 JP 6912251 B2 JP6912251 B2 JP 6912251B2 JP 2017070799 A JP2017070799 A JP 2017070799A JP 2017070799 A JP2017070799 A JP 2017070799A JP 6912251 B2 JP6912251 B2 JP 6912251B2
Authority
JP
Japan
Prior art keywords
lane
line segment
line
information
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017070799A
Other languages
Japanese (ja)
Other versions
JP2018173762A (en
Inventor
淳一 竹田
淳一 竹田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Increment P Corp
Original Assignee
Pioneer Corp
Increment P Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp, Increment P Corp filed Critical Pioneer Corp
Priority to JP2017070799A priority Critical patent/JP6912251B2/en
Publication of JP2018173762A publication Critical patent/JP2018173762A/en
Application granted granted Critical
Publication of JP6912251B2 publication Critical patent/JP6912251B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本願は、車線情報生成装置及び車線情報生成方法並びに車線情報生成用プログラムの技術分野に属する。より詳細には、道路に含まれる車線(いわゆるレーン)を示す車線情報を生成する車線情報生成装置及び車線情報生成方法並びに当該車線情報生成装置用のプログラムの技術分野に属する。 The present application belongs to the technical fields of a lane information generator, a lane information generation method, and a lane information generation program. More specifically, it belongs to the technical field of a lane information generation device and a lane information generation method for generating lane information indicating a lane (so-called lane) included in a road, and a program for the lane information generation device.

近年、車両の移動を案内するナビゲーション装置について、いわゆる自動運転に関する研究が盛んに行われている。一方、従来のナビゲーション装置では、例えば目的地までの最短ルートを探索するためには、リンクデータ及びノードデータからなる道路データが使用されていた。そして、このような道路データを自動的に作成するための従来技術の一例としては、下記特許文献1に記載された技術がある。 In recent years, research on so-called automatic driving has been actively conducted on navigation devices that guide the movement of vehicles. On the other hand, in the conventional navigation device, for example, in order to search for the shortest route to the destination, road data including link data and node data has been used. An example of a conventional technique for automatically creating such road data is the technique described in Patent Document 1 below.

この特許文献1に記載されている技術では、航空機から地面を撮影した航空写真に相当する画像データから道路に該当する道路エリアを抽出し、その抽出結果に基づいて、道路間の接続状態等を示す道路リンク(「道路ネットワーク」とも称される)のデータを生成して上記道路データとする構成とされている。また特許文献1に記載されている技術では、上記航空写真に相当する画像データ以外の補助データとして、各道路の幅員(道路幅)や車線数(レーン数)を予め取得/記録することで、上記道路エリアの確定や、上記画像データからの車線境界線の抽出に用いる構成とされている。 In the technique described in Patent Document 1, a road area corresponding to a road is extracted from image data corresponding to an aerial photograph of the ground taken from an aircraft, and based on the extraction result, a connection state between roads and the like are determined. The data of the indicated road link (also referred to as "road network") is generated and used as the above road data. Further, in the technique described in Patent Document 1, the width (road width) and the number of lanes (number of lanes) of each road are acquired / recorded in advance as auxiliary data other than the image data corresponding to the aerial photograph. It is configured to be used for determining the road area and extracting the lane boundary line from the image data.

特開2008−170611号公報Japanese Unexamined Patent Publication No. 2008-170611

しかしながら、上記特許文献1には、道路間の接続態様等を示す道路リンクのデータを生成することは記載されているが、各道路に含まれる車線間の接続態様等を示す車線ネットワークのデータを生成する構成についての開示も示唆も見当たらない。これに対し、上記自動運転の実現のためには、道路ではなく、それに含まれる車線ごとに上記車線ネットワークのデータを用いることが求められている。 However, although the above-mentioned Patent Document 1 describes that the data of the road link indicating the connection mode between roads is generated, the data of the lane network showing the connection mode between lanes included in each road is used. There is no disclosure or suggestion of the configuration to be generated. On the other hand, in order to realize the automatic driving, it is required to use the data of the lane network for each lane included in the road, not for the road.

そこで本願は、上記の要請に鑑みて為されたもので、その課題の一例は、道路に含まれる車線間の接続態様等を示す車線ネットワークデータを自動的に生成することが可能な新規な車線情報生成装置及び車線情報生成方法並びに当該車線情報生成装置用のプログラムを提供することにある。 Therefore, the present application has been made in view of the above request, and one example of the problem is a new lane capable of automatically generating lane network data indicating a connection mode between lanes included in a road. An object of the present invention is to provide an information generation device, a lane information generation method, and a program for the lane information generation device.

上記の課題を解決するために、請求項1に記載の発明は、道路を撮像した実画像に映った線分を示す線分情報を、当該実画像に対応する実画像情報から抽出する抽出手段と、前記抽出された線分情報に基づいて、前記道路に交差する方向に並んだ前記線分同士の当該交差する方向の間隔と、前記道路に含まれる車線としての幅員と、を比較する比較手段と、前記比較手段による比較結果に基づいて、前記車線を示す車線情報を生成する生成手段であって、i)前記比較手段における比較結果に基づき、前記間隔が前記幅員よりも長い前記線分の当該間隔を当該幅員に基づいて分割する分割手段と、ii)前記分割された間隔における分割点を通り且つ前記道路が延びる方向の仮想線分を示す仮想線分情報を生成する仮想線分情報生成手段と、を備える生成手段と、を備え、前記間隔が前記幅員よりも長い前記線分がある場合に、前記生成手段は、前記生成された仮想線分情報に基づいて、前記幅員に基づく分割を行わない場合の前記比較結果である第1比較結果と、分割後の前記仮想線分に対応する前記線分と当該仮想線分との間隔と前記幅員との比較結果である第2比較結果と、に基づいて前記車線情報を生成するように構成される。 In order to solve the above problem, the invention according to claim 1 is an extraction means for extracting line segment information indicating a line segment reflected in a real image obtained by capturing a road from the real image information corresponding to the real image. And, based on the extracted line segment information, a comparison comparing the distance between the line segments arranged in the direction intersecting the road in the intersecting direction and the width as a lane included in the road. A generation means for generating lane information indicating the lane based on the means and the comparison result by the comparison means , i) the line segment having the interval longer than the width based on the comparison result in the comparison means. And ii) virtual line segment information that generates virtual line segment information indicating a virtual line segment in a direction that passes through a division point in the divided interval and extends the road. When there is a line segment having a generation means and a generation means including the generation means and the interval is longer than the width, the generation means is based on the width based on the generated virtual line segment information. The first comparison result, which is the comparison result when the division is not performed, and the second comparison result, which is the comparison result between the line segment corresponding to the virtual line segment after the division, the interval between the virtual line segments, and the width. results, configured so that to generate the lane information on the basis of.

上記の課題を解決するために、請求項に記載の発明は、道路に含まれる車線を示す車線情報を生成する車線情報生成装置において実行される車線情報生成方法であって、前記道路を撮像した実画像に映った線分を示す線分情報を、当該実画像に対応する実画像情報から抽出する抽出工程と、前記抽出された線分情報に基づいて、前記道路に交差する方向に並んだ前記線分同士の当該交差する方向の間隔と、前記車線としての幅員と、を比較する比較工程と、前記比較工程における比較結果に基づいて前記車線情報を生成する生成工程であって、i)前記比較工程における比較結果に基づき、前記間隔が前記幅員よりも長い前記線分の当該間隔を当該幅員に基づいて分割する分割工程と、ii)前記分割された間隔における分割点を通り且つ前記道路が延びる方向の仮想線分を示す仮想線分情報を生成する仮想線分情報生成工程と、を含む生成工程と、を含み、前記間隔が前記幅員よりも長い前記線分がある場合に、前記生成工程においては、前記生成された仮想線分情報に基づいて、前記幅員に基づく分割を行わない場合の前記比較結果である第1比較結果と、分割後の前記仮想線分に対応する前記線分と当該仮想線分との間隔と前記幅員との比較結果である第2比較結果と、に基づいて前記車線情報を生成するように構成される。 In order to solve the above problem, the invention according to claim 6 is a lane information generation method executed in a lane information generation device that generates lane information indicating a lane included in a road, and images the road. Based on the extraction step of extracting the line segment information indicating the line segment reflected in the actual image from the actual image information corresponding to the actual image and the extracted line segment information, the line segments are arranged in the direction intersecting the road. However, there are a comparison step of comparing the distance between the line segments in the intersecting direction and the width of the lane, and a generation step of generating the lane information based on the comparison result in the comparison step. ) Based on the comparison result in the comparison step, the division step of dividing the interval of the line segment having the interval longer than the width based on the width, and ii) passing through the division point in the divided interval and said. seen containing a virtual line segment information generating step of generating a virtual line segment information indicating a virtual line in the direction of the road extends, a generation step including, a, if the interval is long the line than the width In the generation step, the first comparison result, which is the comparison result when the division based on the width is not performed, and the virtual line segment after the division correspond to the generated virtual line segment information. The lane information is generated based on the second comparison result, which is the comparison result between the line segment and the virtual line segment, and the width.

上記の課題を解決するために、請求項に記載の発明は、道路に含まれる車線を示す車線情報を生成する車線情報生成装置に含まれるコンピュータを、前記道路を撮像した実画像に映った線分を示す線分情報を、当該実画像に対応する実画像情報から抽出する抽出手段、前記抽出された線分情報に基づいて、前記道路に交差する方向に並んだ前記線分同士の当該交差する方向の間隔と、前記車線としての幅員と、を比較する比較手段、及び、前記比較手段として機能する前記コンピュータによる比較結果に基づいて前記車線情報を生成する生成手段であって、i)前記比較手段における比較結果に基づき、前記間隔が前記幅員よりも長い前記線分の当該間隔を当該幅員に基づいて分割する分割手段と、ii)前記分割された間隔における分割点を通り且つ前記道路が延びる方向の仮想線分を示す仮想線分情報を生成する仮想線分情報生成手段と、を備える生成手段と、として機能させ、前記間隔が前記幅員よりも長い前記線分がある場合に、前記生成手段として機能させる前記コンピュータを、前記生成された仮想線分情報に基づいて、前記幅員に基づく分割を行わない場合の前記比較結果である第1比較結果と、分割後の前記仮想線分に対応する前記線分と当該仮想線分との間隔と前記幅員との比較結果である第2比較結果と、に基づいて前記車線情報を生成するように機能させる。 In order to solve the above problem, the invention according to claim 7 shows a computer included in a lane information generator that generates lane information indicating a lane included in a road on an actual image of the road. An extraction means for extracting line segment information indicating a line segment from the real image information corresponding to the real image, the line segments of the line segments arranged in a direction intersecting the road based on the extracted line segment information. A comparison means for comparing the distance between the intersecting directions and the width as the lane, and a generation means for generating the lane information based on the comparison result by the computer functioning as the comparison means , i). Based on the comparison result in the comparison means, a dividing means for dividing the interval of the line segment having the interval longer than the width based on the width, and ii) passing through the dividing point in the divided interval and the road. When there is a line segment whose interval is longer than the width , it functions as a generation means including a virtual line segment information generation means for generating virtual line segment information indicating a virtual line segment in a direction in which The first comparison result, which is the comparison result when the computer functioning as the generation means is not divided based on the width based on the generated virtual line segment information, and the virtual line segment after the division. The lane information is generated based on the second comparison result, which is the comparison result between the distance between the line segment and the virtual line segment corresponding to the above and the width .

実施形態に係る車線情報生成装置の概要構成を示すブロック図である。It is a block diagram which shows the outline structure of the lane information generation apparatus which concerns on embodiment. 実施例に係る車線ネットワーク生成装置の概要構成を示すブロック図である。It is a block diagram which shows the outline structure of the lane network generation apparatus which concerns on Example. 実施例に係る車線ネットワーク生成処理を示すフローチャートである。It is a flowchart which shows the lane network generation processing which concerns on Example. 実施例に係るオルソ画像データ等を例示する図であり、(a)は当該オルソ画像データを例示する図であり、(b)は路面エリアについての当該オルソ画像データを例示する図であり、(c)は実施例に係る骨格ラインのデータを例示する図であり、(d)は実施例に係る道路標示の位置データを例示する図である。It is a figure exemplifying the ortho image data and the like which concerns on Example, (a) is a figure which exemplifies the ortho image data, (b) is a figure which exemplifies the ortho image data about a road surface area, ( c) is a diagram exemplifying the data of the skeleton line according to the embodiment, and (d) is a diagram exemplifying the position data of the road marking according to the embodiment. 実施例に係るオルソ画像データと道路リンクとの関係等を例示する図であり、(a)は当該関係を例示する図であり、(b)は実施例に係る骨格ラインのデータを例示する図である。It is a figure which illustrates the relationship between the ortho image data and a road link which concerns on Example, (a) is a figure which illustrates the relationship, and (b) is a figure which illustrates the data of the skeleton line which concerns on Example. Is. 実施例に係る上下線確率を説明するための図であり、(a)は一条道路の場合の上下線確率を説明するための図であり、(b)は二条道路の場合の上下線確率を説明するための図である。It is a figure for demonstrating the vertical line probability which concerns on Example, (a) is a figure for explaining the vertical line probability in the case of a one-row road, and (b) is a figure for explaining the vertical line probability in the case of a two-row road. It is a figure for demonstrating. 実施例に係る長線等を例示する図であり、(a)は実施例に係る骨格ラインのデータを例示する図であり、(b)実施例に係る外側線を例示する図であり、(c)は実施例に係る長線を例示する図であり、(d)は実施例に係る短線を例示する図であり、(e)は実施例に係る垂直線を例示する図である。It is a figure which illustrates the long line and the like which concerns on Example, (a) is a figure which illustrates the data of the skeleton line which concerns on Example, (b) is the figure which illustrates the outside line which concerns on Example, (c). ) Is a diagram illustrating a long line according to an embodiment, (d) is a diagram illustrating a short line according to an embodiment, and (e) is a diagram illustrating a vertical line according to an embodiment. 実施例に係る長線等の状況を例示する図である。It is a figure which illustrates the situation of the long line and the like which concerns on Example. 実施例に係る長線等の詳細を例示する図であり、(a)は当該詳細を例示する図であり、(b)は対応する地点のオルソ画像データを例示する図である。It is a figure which illustrates the detail of the long line and the like which concerns on Example, (a) is a figure which illustrates the detail, and (b) is a figure which illustrates the ortho-image data of a corresponding point. 実施例に係る横断歩道のデータ等を例示する図であり、(a)は実施例に係る短線を例示する図であり、(b)は実施例に係る横断歩道のデータを例示する図である。It is a figure which illustrates the data of the pedestrian crossing which concerns on Example, (a) is a figure which illustrates short line which concerns on Example, (b) is the figure which illustrates the data of the pedestrian crossing which concerns on Example. .. 実施例に係る車線ネットワーク等を例示する図であり、(a)は実施例に係る骨格ラインのデータを例示する図であり、(b)は対応する車線ネットワークを例示する図である。It is a figure which illustrates the lane network and the like which concerns on Example, (a) is figure which illustrates the data of the skeleton line which concerns on Example, and (b) is figure which illustrates the corresponding lane network. 実施例に係る垂直ネットワーク等を示す図であり、(a)は対応する骨格ラインのデータを例示する図であり、(b)は実施例に係る垂直ネットワークを例示する図であり、(c)乃至(e)は実施例に係る垂直ネットワークの生成を説明する図である。It is a figure which shows the vertical network and the like which concerns on Example, (a) is a figure which illustrates the data of the corresponding skeleton line, (b) is a figure which illustrates the vertical network which concerns on Example, (c). To (e) are diagrams for explaining the generation of the vertical network according to the embodiment. 実施例に係るラインスコアの算出等を例示する図であり、(a)は対応する垂直ネットワークを例示する図であり、(b)乃至(f)は当該ラインスコアの算出を例示する図である。It is a figure which exemplifies the calculation of the line score which concerns on Example, (a) is a figure which exemplifies the corresponding vertical network, and (b) to (f) are figure which exemplify the calculation of the line score. .. 実施例に係る幅員スコアを説明する図であり、(a)は法定の幅員を示す図であり、(b)は当該幅員スコアの具体例を示す図である。It is a figure explaining the width score which concerns on Example, (a) is a figure which shows the statutory width, (b) is a figure which shows the specific example of the width score. 実施例に係るラインスコア等を示す図であり、(a)は対応する垂直ネットワーク等を例示する図であり、(b)は当該ラインスコアの具体例を示す図である。It is a figure which shows the line score and the like which concerns on Example, (a) is a figure which illustrates the corresponding vertical network and the like, (b) is a figure which shows the specific example of the line score. 実施例に係る垂直ネットワークスコア等を示す図であり、(a)は対応する垂直ネットワーク等を例示する図であり、(b)は当該垂直ネットワークスコアの具体例を示す図である。It is a figure which shows the vertical network score and the like which concerns on Example, (a) is a figure which illustrates the corresponding vertical network and the like, (b) is a figure which shows the specific example of the vertical network score. 実施例に係るレーンラインの算出等を示す図であり、(a)は対応する垂直ネットワーク等を例示する図であり、(b)及び(c)は当該レーンラインの算出を例示する図であり、(d)は算出後の当該レーンラインを例示する図である。It is a figure which shows the calculation of the lane line which concerns on Example, (a) is a figure which illustrates the corresponding vertical network, etc., and (b) and (c) are figure which exemplify the calculation of the said lane line. , (D) are diagrams illustrating the calculated lane line. 実施例に係るレーンスコアを例示する図であり、(a)は当該レーンスコアの第1例を示す図であり、(b)は当該レーンスコアの第2例を示す図であり、It is a figure which illustrates the lane score which concerns on Example, (a) is a figure which shows the 1st example of the said lane score, (b) is a figure which shows the 2nd example of the said lane score. 実施例に係る車線境界線の欠損等がある場合の車線ネットワークの生成を説明する図(I)であり、(a)は車線境界線の欠損等を例示するオルソ画像データの図であり、(b)は当該欠損等がある場合のラインの状況を例示する図であり、(c)は当該欠損等がある場合の実施例に係る垂直ネットワークの状況を例示する図であり、(d)は当該欠損等がある場合の実施例に係る幅員スコアを例示する図である。FIG. 3I is a diagram (I) for explaining the generation of a lane network when there is a lane boundary line defect or the like according to the embodiment, and FIG. b) is a diagram illustrating the state of the line when the defect or the like is present, (c) is a diagram illustrating the state of the vertical network according to the embodiment when the defect or the like is present, and (d) is a diagram illustrating the situation of the vertical network when the defect or the like is present. It is a figure which illustrates the width score which concerns on Example when there is such a defect. 実施例に係る車線境界線の欠損等がある場合の車線ネットワークの生成を説明する図(II)であり、(a)は欠損等がある場合のグループ化を例示する図であり、(b)は当該欠損等がある場合の実施例に係るレーンラインの状況を例示する図(I)であり、(c)は当該欠損等がある場合の実施例に係る仮ラインの状況を例示する図であり、(d)は当該欠損等がある場合の実施例に係るレーンラインの状況を例示する図(II)である。FIG. 2 is a diagram (II) for explaining the generation of a lane network when there is a lane boundary line defect or the like according to the embodiment, and FIG. Is a diagram (I) illustrating the situation of the lane line according to the embodiment when there is the defect or the like, and (c) is a diagram illustrating the situation of the provisional line according to the example when there is the defect or the like. Yes, (d) is a diagram (II) illustrating the situation of the lane line according to the embodiment when there is such a defect or the like. 実施例に係る車線境界線の欠損等がある場合のレーンスコア等を例示する図であり、(a)は当該例示する図(I)であり、(b)は当該例示する図(II)である。It is a figure which exemplifies the lane score etc. when there is a lane boundary line defect, etc. which concerns on Example, (a) is the example figure (I), (b) is the example figure (II). be. 実施例に係る車線境界線の欠損等がある場合の車線ネットワークを例示する図であり、(a)は当該車線ネットワークの第1例を例示する図であり、(b)は当該車線ネットワークの第2例を例示する図である。It is a figure which illustrates the lane network when there is a loss of the lane boundary line which concerns on Example, (a) is a figure which illustrates the 1st example of the said lane network, (b) is the figure of the said lane network. It is a figure which exemplifies two examples. 実施例に係る交差点内の車線ネットワークを例示する図である。It is a figure which illustrates the lane network in the intersection which concerns on Example.

次に、本願を実施するための形態について、図1を用いて説明する。なお図1は、実施形態に係る車線情報生成装置の概要構成を示すブロック図である。 Next, a mode for carrying out the present application will be described with reference to FIG. Note that FIG. 1 is a block diagram showing an outline configuration of the lane information generator according to the embodiment.

図1に示すように、実施形態に係る車線情報生成装置Sは、抽出手段1と、比較手段2と、生成手段3と、を備えて構成されている。 As shown in FIG. 1, the lane information generation device S according to the embodiment includes an extraction means 1, a comparison means 2, and a generation means 3.

この構成において抽出手段1は、道路を撮像した実画像に映った線分を示す線分情報を、当該実画像に対応する実画像情報から抽出する。 In this configuration, the extraction means 1 extracts line segment information indicating a line segment reflected in a real image obtained by capturing a road from the real image information corresponding to the real image.

そして比較手段2は、抽出手段1により抽出された線分情報に基づいて、上記道路に交差する方向に並んだ線分同士の当該交差する方向の間隔と、前記道路に含まれる車線としての幅員と、を比較する。 Then, the comparison means 2 has the distance between the line segments arranged in the direction of intersecting the road and the width of the lane included in the road based on the line segment information extracted by the extraction means 1. And compare.

これにより生成手段3は、比較手段2による比較結果に基づいて、車線を示す車線情報を生成する。 As a result, the generation means 3 generates lane information indicating a lane based on the comparison result by the comparison means 2.

以上説明したように、実施形態に係る車線情報生成装置Sの動作によれば、車線を含む道路を撮像した実画像に対応する実画像情報から、当該実画像に映った線分を示す線分情報を抽出する。そして、道路に交差する方向に並んだ線分同士の当該交差方向の間隔と、車線としての幅員と、を線分情報に基づいて比較し、その比較結果に基づいて車線情報を生成する。よって、実画像に映った線分同士の道路に交差する方向の間隔と幅員との比較に基づいて車線情報を生成するので、道路に含まれる車線を示す車線情報を、実画像情報に基づいて自動的且つ正確に生成することができる。 As described above, according to the operation of the lane information generation device S according to the embodiment, a line segment indicating a line segment reflected in the actual image is obtained from the actual image information corresponding to the actual image of the road including the lane. Extract information. Then, the distance between the line segments arranged in the direction of intersecting the road and the width as a lane are compared based on the line segment information, and the lane information is generated based on the comparison result. Therefore, since lane information is generated based on the comparison between the width and the distance between the line segments shown in the actual image in the direction of intersection with the road, the lane information indicating the lane included in the road is obtained based on the actual image information. It can be generated automatically and accurately.

次に、上述した実施形態に対応する具体的な実施例について、図2乃至図23を用いて説明する。なお以下に説明する実施例は、道路に含まれる車線ごとの接続状態等を示す車線(レーン)ネットワーク情報の自動生成に本願を適用した場合の実施例である。 Next, specific examples corresponding to the above-described embodiments will be described with reference to FIGS. 2 to 23. The embodiment described below is an example when the present application is applied to the automatic generation of lane network information indicating the connection state and the like for each lane included in the road.

また、図2は実施例に係る車線ネットワーク生成装置の概要構成を示すブロック図であり、図3は実施例に係る車線ネットワーク生成処理を示すフローチャートであり、図4は実施例に係るオルソ画像データ等を例示する図であり、図5は実施例に係るオルソ画像データと道路リンクとの関係等を例示する図である。また、図6は実施例に係る上下線確率を説明するための図であり、図7は実施例に係る長線等を例示する図であり、図8は実施例に係る長線等の状況を例示する図であり、図9は実施例に係る長線等の詳細を例示する図であり、図10は実施例に係る横断歩道のデータ等を例示する図である。更に、図11は実施例に係る車線ネットワーク等を例示する図であり、図12は実施例に係る垂直ネットワーク等を示す図であり、図13は実施例に係るラインスコアの算出等を例示する図であり、図14は実施例に係る幅員スコアを説明する図である。更にまた、図15は実施例に係るラインスコア等を示す図であり、図16は実施例に係る垂直ネットワークスコア等を示す図であり、図17は実施例に係るレーンラインの算出等を示す図であり、図18は実施例に係るレーンスコアを例示する図であり、図19は実施例に係る車線境界線の欠損等がある場合の車線ネットワークの生成を説明する図(I)である。また、図20は実施例に係る車線境界線の欠損等がある場合の車線ネットワークの生成を説明する図(II)であり、図21は実施例に係る車線境界線の欠損等がある場合のレーンスコア等を例示する図であり、図22は実施例に係る車線境界線の欠損等がある場合の車線ネットワークを例示する図であり、図23は実施例に係る交差点内の車線ネットワークを例示する図である。このとき図2では、図1に示した実施形態に係る車線情報生成装置Sにおける各構成部材に対応する実施例の構成部材それぞれについて、当該車線情報生成装置Sにおける各構成部材と同一の部材番号を用いている。 Further, FIG. 2 is a block diagram showing an outline configuration of a lane network generation device according to an embodiment, FIG. 3 is a flowchart showing a lane network generation process according to the embodiment, and FIG. 4 is an orthoimage data according to the embodiment. Etc., and FIG. 5 is a diagram illustrating the relationship between the ortho image data and the road link according to the embodiment. Further, FIG. 6 is a diagram for explaining the vertical line probability according to the embodiment, FIG. 7 is a diagram illustrating a long line or the like according to the embodiment, and FIG. 8 is a diagram illustrating a situation such as a long line or the like according to the embodiment. FIG. 9 is a diagram illustrating details of a long line or the like according to the embodiment, and FIG. 10 is a diagram illustrating data or the like of a pedestrian crossing according to the embodiment. Further, FIG. 11 is a diagram illustrating a lane network or the like according to the embodiment, FIG. 12 is a diagram showing a vertical network or the like according to the embodiment, and FIG. 13 is a diagram illustrating calculation of a line score or the like according to the embodiment. FIG. 14 is a diagram illustrating a width score according to an embodiment. Furthermore, FIG. 15 is a diagram showing a line score and the like according to the embodiment, FIG. 16 is a diagram showing a vertical network score and the like according to the embodiment, and FIG. 17 shows a calculation of a lane line and the like according to the embodiment. FIG. 18 is a diagram illustrating a lane score according to an embodiment, and FIG. 19 is a diagram (I) illustrating generation of a lane network when there is a lane boundary line defect or the like according to the embodiment. .. Further, FIG. 20 is a diagram (II) for explaining the generation of the lane network when there is a lane boundary line defect or the like according to the embodiment, and FIG. 21 is a diagram (II) when there is a lane boundary line defect or the like according to the embodiment. FIG. 22 is a diagram illustrating a lane score and the like, FIG. 22 is a diagram illustrating a lane network when there is a lane boundary line defect or the like according to the embodiment, and FIG. 23 is a diagram illustrating a lane network in an intersection according to the embodiment. It is a figure to do. At this time, in FIG. 2, for each of the constituent members of the embodiment corresponding to each constituent member in the lane information generating device S according to the embodiment shown in FIG. 1, the member number is the same as that of each constituent member in the lane information generating device S. Is used.

図2に示すように、実施例に係る車線ネットワーク生成装置SVは、CPU、RAM(Random Access Memory)及びROM(Read Only Memory)等からなる処理部10と、外部の例えばインターネット等のネットワーク等との間のデータの授受を制御するインターフェース11と、キーボード及びマウス等からなる操作部12と、液晶ディスプレイ等からなるディスプレイ13と、HDD(Hard Disc Drive)又はSSD(Solid State Drive)等からなる記録部14と、を備えて構成されている。また処理部10は、実施形態に係る抽出手段1の一例としての抽出部1と、実施形態に係る比較手段2の一例としての検出部2と、実施形態に係る生成手段3の一例としての生成部3と、を備えて構成されている。このとき、上記抽出部1、検出部2及び生成部3のそれぞれは、処理部10を構成するCPU等のハードウェアロジック回路により実現されてもよいし、後述する実施例に係る車線ネットワーク生成処理に対応するプログラムを当該CPU等が読み出して実行することにより、ソフトウェア的に実現されるものであってもよい。また図2に破線で示すように、抽出部1、検出部2及び生成部3により、実施形態に係る車線情報生成装置Sの一例を構成している。また、抽出部1が本願に係る「道路標示抽出手段」の一例に相当し、検出部2が本願に係る「長さ検出手段」の一例に相当し、生成部3が、本願に係る「分割手段」の一例、「仮想線分情報生成手段」の一例、「接続情報生成手段」の一例にそれぞれ相当する。 As shown in FIG. 2, the lane network generator SV according to the embodiment includes a processing unit 10 including a CPU, a RAM (Random Access Memory), a ROM (Read Only Memory), and an external network such as the Internet. An interface 11 for controlling the transfer of data between the two, an operation unit 12 including a keyboard and a mouse, a display 13 including a liquid crystal display, and a recording including an HDD (Hard Disc Drive) or an SSD (Solid State Drive). It is configured to include a part 14. Further, the processing unit 10 generates an extraction unit 1 as an example of the extraction means 1 according to the embodiment, a detection unit 2 as an example of the comparison means 2 according to the embodiment, and a generation unit 3 as an example of the generation means 3 according to the embodiment. It is configured to include a part 3. At this time, each of the extraction unit 1, the detection unit 2, and the generation unit 3 may be realized by a hardware logic circuit such as a CPU constituting the processing unit 10, or the lane network generation processing according to the embodiment described later. It may be realized by software by reading and executing the program corresponding to the above by the CPU or the like. Further, as shown by a broken line in FIG. 2, the extraction unit 1, the detection unit 2, and the generation unit 3 constitute an example of the lane information generation device S according to the embodiment. Further, the extraction unit 1 corresponds to an example of the "road marking extraction means" according to the present application, the detection unit 2 corresponds to an example of the "length detection means" according to the present application, and the generation unit 3 corresponds to the "division" according to the present application. It corresponds to an example of "means", an example of "virtual line segment information generating means", and an example of "connection information generating means", respectively.

以上の構成において、実施例に係る車線ネットワーク生成処理の対象となる航空写真のデータは、航空機により撮影された航空写真のデータから生成されたオルソ画像データとして、例えば記録部14に予め記録されているか、又は、インターフェース11を介して外部から取得される。一方操作部12は、当該操作部12において車線ネットワーク生成装置SVに対する指示操作が行われると、当該指示操作に対応する操作信号を生成して処理部10に出力する。これらにより処理部10は、抽出部1、検出部2及び生成部3により、ディスプレイ13上に必要な情報を表示しつつ、上記オルソ画像データを用いて実施例に係る車線ネットワーク生成処理を行う。ここで実施例に係る車線ネットワークとは、従来からの道路リンクにより示される道路に含まれる車線の状況を当該車線ごとに示すネットワークである。この場合の「車線の状況」とは、例えば、一つの道路にいくつ(何本)の車線が含まれているか、や、一つの道路における車線数の変更の状況、或いは、他の道路の車線とどのように接続されているか、等の状況をいう。そして実施例に係る車線ネットワークは、現在研究が進められている自動運転への活用等を目標の一つとしたものである。 In the above configuration, the aerial photograph data to be subjected to the lane network generation processing according to the embodiment is pre-recorded in, for example, the recording unit 14 as orthoimage data generated from the aerial photograph data taken by the aircraft. Or it is obtained from the outside via the interface 11. On the other hand, when the operation unit 12 performs an instruction operation on the lane network generation device SV, the operation unit 12 generates an operation signal corresponding to the instruction operation and outputs the operation signal to the processing unit 10. As a result, the processing unit 10 performs the lane network generation processing according to the embodiment using the ortho-image data while displaying the necessary information on the display 13 by the extraction unit 1, the detection unit 2, and the generation unit 3. Here, the lane network according to the embodiment is a network that shows the status of the lanes included in the road indicated by the conventional road link for each lane. The "lane status" in this case is, for example, how many (how many) lanes are included in one road, the status of change in the number of lanes on one road, or the lanes of other roads. It refers to the situation such as how it is connected. One of the goals of the lane network according to the embodiment is to utilize it for autonomous driving, which is currently being researched.

次に、実施例に係る車線ネットワーク生成処理について、具体的に図2乃至図23を用いて説明する。 Next, the lane network generation process according to the embodiment will be specifically described with reference to FIGS. 2 to 23.

実施例に係る車線ネットワーク生成処理は、例えば操作部12における開始操作により開始される。そして図3に対応するフローチャートを示すように、実施例に係る車線ネットワーク生成処理が開始されると、当該車線ネットワーク生成処理の対象となる上記オルソ画像データが、例えば記録部14から、又はインターフェース11を介して取得される(ステップS1)。このとき当該オルソ画像データは、例えば図4(a)に例示するような航空写真の画像データであり、交差点CRで交差する道路Rの画像と共に、道路を跨ぐ歩道橋のような構造物BRが映っている。また、当該道路R上に存在する乗用車CやバスBのほか、分離帯P等も映っている。このようなオルソ画像データが入力されると、次に処理部10の抽出部1は、例えばセグメンテーション処理やマスク処理により、道路R及び交差点CRに相当する路面エリアを当該オルソ画像データから抽出する(ステップS2)。このステップS2の結果としては、例えば図4(b)に示すような路面エリアのみがオルソ画像データから抽出される。次に抽出部1は、路面エリアのみとなったオルソ画像データから、道路R及び交差点CRの表面に描かれている道路標示を抽出する(ステップS3)。ステップS3で抽出される道路標示(いわゆる路面ペイント)とは、通常は各車線の中央に白色等のペイントを用いて描かれている標示であり、進行方向を示す矢印標示や、行先標示、横断歩道標示、又は「バス優先」といった文字標示等が含まれる。この場合の道路標示のデータは、例えば図4(d)に白点で示す当該道路標示の位置データに加えて、向きのデータ、スケールのデータ、及び類似値のデータ等を含んでいる。 The lane network generation process according to the embodiment is started by, for example, a start operation in the operation unit 12. Then, as shown in the flowchart corresponding to FIG. 3, when the lane network generation process according to the embodiment is started, the orthoimage data to be the target of the lane network generation process is, for example, from the recording unit 14 or the interface 11. (Step S1). At this time, the ortho image data is, for example, aerial photograph image data as illustrated in FIG. 4A, and the image of the road R intersecting at the intersection CR and the structure BR such as a pedestrian bridge straddling the road are shown. ing. In addition to the passenger car C and bus B existing on the road R, the median strip P and the like are also shown. When such ortho-image data is input, the extraction unit 1 of the processing unit 10 then extracts the road surface area corresponding to the road R and the intersection CR from the ortho-image data by, for example, segmentation processing or mask processing ( Step S2). As a result of this step S2, for example, only the road surface area as shown in FIG. 4B is extracted from the ortho image data. Next, the extraction unit 1 extracts road markings drawn on the surfaces of the road R and the intersection CR from the ortho image data of only the road surface area (step S3). The road markings (so-called road surface paints) extracted in step S3 are usually drawn in the center of each lane using paint such as white, and are arrow markings indicating the direction of travel, destination markings, and pedestrian crossings. Includes sidewalk markings or text markings such as "bus priority". The road marking data in this case includes, for example, orientation data, scale data, similar value data, and the like, in addition to the position data of the road marking shown by white dots in FIG. 4 (d).

次に抽出部1は、いわゆるポリライン化等の処理により、路面エリアのみのオルソ画像データから道路R等を構成する線分からなる骨格ラインを抽出する(ステップS4)。ステップS4の処理は、路面エリアのみのオルソ画像データを細線化又は細分化する処理である。このステップS4の結果としては、例えば図4(b)に示す路面エリアのみのオルソ画像データに対応した図4(c)に示すような骨格ラインのデータが生成される。この骨格ラインのデータはいわゆるベクトルデータである。 Next, the extraction unit 1 extracts a skeleton line composed of line segments constituting the road R or the like from the ortho image data of only the road surface area by a process such as so-called polyline formation (step S4). The process of step S4 is a process of thinning or subdividing the ortho image data of only the road surface area. As a result of this step S4, for example, skeleton line data as shown in FIG. 4 (c) corresponding to the ortho image data of only the road surface area shown in FIG. 4 (b) is generated. The data of this skeleton line is so-called vector data.

次に抽出部1は、図5に例示するように、オルソ画像データに映っている道路Rに対応する道路リンクRLのデータ(図5(a)参照)と、ステップS4で抽出した骨格ラインに含まれる各ライン(線分。図5(b)参照。)と、を比較し、骨格ラインにおいて道路リンクRLの周辺且つそのリンク方向に平行なライン及び垂直なラインをそれぞれ抽出し、その比較対象となった道路リンクRLのデータに紐付ける(ステップS5)。このとき図5(b)に例示する場合は、例えば交差点手前の横断歩道を示す道路標示は道路リンクRLに平行な線分からなっており、道路リンクRLに垂直なラインとしては例えば一時停止線に相当するラインが挙げられる。次に抽出部1は、上り線及び下り線の道路リンクRLと各ラインを紐付ける(ステップS6)。このとき抽出部1は、相対距離に起因したいずれかの道路リンクへの振り分けの困難性を考慮して、全てのラインについて、道路リンクRLとの関係における上下線確率(上り線に対応するラインである確率又は下り線に対応するラインである確率)を算出する(ステップS6)。 Next, as illustrated in FIG. 5, the extraction unit 1 uses the road link RL data (see FIG. 5A) corresponding to the road R reflected in the ortho image data and the skeleton line extracted in step S4. Each included line (line segment; see FIG. 5B) is compared, and a line around the road link RL and a line parallel to the link direction and a line perpendicular to the link direction are extracted from the skeleton line, and the comparison target is obtained. It is linked to the data of the road link RL that has become (step S5). At this time, in the case of the example shown in FIG. 5B, for example, the road marking indicating the pedestrian crossing in front of the intersection is composed of a line segment parallel to the road link RL, and the line perpendicular to the road link RL is, for example, a stop line. Corresponding lines can be mentioned. Next, the extraction unit 1 associates each line with the road link RL of the up line and the down line (step S6). At this time, the extraction unit 1 considers the difficulty of allocating to any road link due to the relative distance, and for all the lines, the vertical line probability (the line corresponding to the up line) in relation to the road link RL. (Probability of being a line corresponding to the down line or the probability of being a line corresponding to the down line) is calculated (step S6).

ここで上記上下線確率とは、例えば図6(a)に示す一条道路(即ち原則として上り線と下り線からなる、一本の道路リンクRLに対応する道路)の場合は、道路ラインRLから遠ざかる位置にあるラインほど、上り線又は下り線である確率が高くなるが、道路リンクRLに相当する道路Rの中央部にいくほど、そのラインが上り線内に存在する確率と下り線内に存在する確率とは等しくなる(図6(a)参照)。一方、例えば図6(b)に示す二条道路(即ち原則として複数の車線にそれぞれ対応し且つ相互にリンク方向が反対である二本の道路リンクRLに対応する道路)の場合は、二本の道路ラインRLの外側は上り線又は下り線である確率が百パーセントとなるが、二本の道路ラインRLの間の領域では距離に応じて上り線である確率又は下り線である確率が異なってくる(図6(b)参照)。 Here, the above-mentioned vertical line probability is, for example, in the case of a single road shown in FIG. 6A (that is, a road consisting of an up line and a down line, which corresponds to one road link RL), from the road line RL. The farther the line is, the higher the probability that it is an up line or a down line, but as it goes to the center of the road R corresponding to the road link RL, the probability that the line exists in the up line and the down line It is equal to the probability of existence (see FIG. 6 (a)). On the other hand, for example, in the case of the two-row road shown in FIG. 6 (b) (that is, the road corresponding to two road links RL corresponding to each of a plurality of lanes and having opposite link directions in principle), two roads are used. The outside of the road line RL has a 100% probability of being an up line or a down line, but in the area between the two road lines RL, the probability of being an up line or a down line differs depending on the distance. Come (see FIG. 6 (b)).

次に抽出部1は、操作部12における設定操作等に基づいて、骨格ライン化された道路R(図4(c)、図5(b)又は図7(a)参照)のうち、実施例に係る車線ネットワーク生成処理の対象となる区間を一又は複数設定する(ステップS7)。次に抽出部1は、操作部12における操作に基づいて、設定した(ステップS7参照)区画のうちいずれか一の区画が選択されたか否かを判定する(ステップS8)。ステップS8の判定において、例えば交差点CR内以外の全ての区画についての車線ネットワーク生成処理が終了している等の理由によりいずれの区画も選択されない場合(ステップS8:NO)、処理部10は後述するステップS15に移行して交差点CR内の車線ネットワーク生成処理を行う。一方ステップS8の判定において、いずれか一の区画が選択された場合(ステップS8:YES)、次に抽出部1は、ステップS8で選択された区画に含まれている各ラインについて、それぞれの実際の長さに基づいた区分を行う。ここで、骨格ラインに含まれているラインの実際の(現実の)長さの検出は、例えばオルソ画像データの細線化(上記ステップS4参照)の後にベクトルデータ化することにより可能となる。またこれ以外の方法として、元のオルソ画像データ(航空写真)のスケール(縮尺)及び画像内のピクセル(画素)からメートルに変換してもよいし、当該変換をすることなくピクセル空間での距離を算出する方法でも可能である。但しこの場合も、単純にピクセル距離ではなく、サブピクセルで処理して精度を向上させる必要があると考えられる。より具体的に抽出部1は、図7(a)に示す骨格ラインとして抽出された各ラインを、各道路Rの外側線(道路以外の領域との境界線)を示す外側線OL(図7(b)参照)と、道路に平行且つ実測8.5メートル以上の長さを有する長線LL(図7(c)参照)と、道路に平行且つ実測8.5メートル未満の長さを有する短線SL(図7(d)参照)と、道路に垂直な垂直線VL(図7(e)参照)と、に区分する。このとき、長線LLと短線SLとを分けるための閾値である「8.5メートル」とは、道路構造令における高速道路の車線境界線(破線)の長さが8メートルとされていることから、それよりも少し長い閾値を設けたものである。そして、これら外側線OL、長線LL、短線SL及び垂直線VLを骨格ライン化されたデータ上で見ると、例えば交差点CRだと当該長線LL等が図8に例示するように分布していることになる。そして当該交差点CR部分を拡大し、オルソ画像データとしての実際の航空写真(図9(b)参照)と比較すると、図9(a)に例示するように、構造物BRに相当するライン50、車線境界線に相当するライン51、画像データ上の雑音に相当するライン52、上記分離帯Pに相当するライン53、一時停止線に相当するライン54、自転車横断帯に相当するライン55、バス等によるノイズに相当するライン56、道路標示に相当するライン57、車線境界線に相当するライン58及び横断歩道に相当するライン59等が含まれていることが判る。 Next, the extraction unit 1 is an embodiment of the skeleton-lined road R (see FIGS. 4 (c), 5 (b), or 7 (a)) based on the setting operation in the operation unit 12. One or a plurality of sections to be targeted for the lane network generation process according to the above are set (step S7). Next, the extraction unit 1 determines whether or not any one of the set sections (see step S7) has been selected based on the operation in the operation unit 12 (step S8). In the determination of step S8, when none of the sections is selected because, for example, the lane network generation process for all sections other than the intersection CR has been completed (step S8: NO), the processing unit 10 will be described later. The process proceeds to step S15 to generate a lane network in the intersection CR. On the other hand, when any one of the sections is selected in the determination in step S8 (step S8: YES), the extraction unit 1 then sets the actual lines included in the sections selected in step S8. The division is based on the length of. Here, the actual (real) length of the line included in the skeleton line can be detected, for example, by thinning the orthoimage data (see step S4 above) and then converting it into vector data. Alternatively, the scale of the original orthoimage data (aerial photograph) and the pixels in the image may be converted to meters, or the distance in pixel space without such conversion. It is also possible to calculate. However, in this case as well, it is considered necessary to improve the accuracy by processing with sub-pixels instead of simply pixel distance. More specifically, the extraction unit 1 uses each line extracted as the skeleton line shown in FIG. 7A as an outer line OL (FIG. 7) indicating an outer line of each road R (a boundary line with an area other than the road). (B)), a long line LL parallel to the road and having a length of 8.5 meters or more (see FIG. 7 (c)), and a short line parallel to the road and having a length of less than 8.5 meters actually measured. It is divided into SL (see FIG. 7 (d)) and vertical line VL (see FIG. 7 (e)) perpendicular to the road. At this time, the threshold value "8.5 meters" for separating the long line LL and the short line SL is because the length of the lane boundary line (broken line) of the expressway in the Road Structure Ordinance is 8 meters. , A slightly longer threshold is provided. Looking at these outer line OL, long line LL, short line SL, and vertical line VL on the skeleton lined data, for example, in the case of intersection CR, the long line LL and the like are distributed as illustrated in FIG. become. Then, when the intersection CR portion is enlarged and compared with an actual aerial photograph as orthoimage data (see FIG. 9B), as illustrated in FIG. 9A, the line 50 corresponding to the structure BR, Line 51 corresponding to the lane boundary line, line 52 corresponding to noise on the image data, line 53 corresponding to the median strip P, line 54 corresponding to the pause line, line 55 corresponding to the bicycle crossing zone, bus, etc. It can be seen that the line 56 corresponding to the noise caused by the noise, the line 57 corresponding to the road marking, the line 58 corresponding to the lane boundary line, the line 59 corresponding to the pedestrian crossing, and the like are included.

次に抽出部1は、骨格ラインに上記ステップS9で区分した短線SLとして含まれている各ライン(図10(a)参照)から、平行且つ予め設定された密度以上の密度で等間隔で並んでいる短線SLを、横断歩道を示すライン59として検出する(ステップS10)。これは、横断歩道を示すライン59は、実施例に係る車線ネットワークには含まれないからである。 Next, the extraction unit 1 is arranged in parallel and at equal intervals at a density equal to or higher than the preset density from each line (see FIG. 10A) included in the skeleton line as the short line SL divided in step S9. The short line SL is detected as a line 59 indicating a pedestrian crossing (step S10). This is because the line 59 indicating the pedestrian crossing is not included in the lane network according to the embodiment.

以上のステップS10までの処理を前提として、以下に説明する処理が処理部10の検出部2等において順次実行されることにより、実施例に係る車線ネットワーク生成処理が行われる。そして当該車線ネットワーク生成処理の結果としては、例えば図11(a)に示す骨格ラインに含まれる各ラインのデータから、図11(b)に例示するような車線ネットワークLNWが生成される(ステップS11乃至ステップS15)。なお以下の説明では、上記ステップS7において設定された車線ネットワーク生成処理の対象となる区間が図9(a)に示す破線楕円で囲まれた領域内の、図12(a)に示す破線長方形で示された区間であるとする。 Assuming the above processes up to step S10, the processes described below are sequentially executed by the detection unit 2 and the like of the processing unit 10, so that the lane network generation processing according to the embodiment is performed. Then, as a result of the lane network generation process, for example, a lane network LNW as illustrated in FIG. 11B is generated from the data of each line included in the skeleton line shown in FIG. 11A (step S11). To step S15). In the following description, the section to be subjected to the lane network generation process set in step S7 is a dashed line rectangle shown in FIG. 12 (a) within the area surrounded by the broken line ellipse shown in FIG. 9 (a). Suppose it is the indicated section.

上述したステップS1乃至ステップS10が終了したら、次に処理部10の検出部2は、図12(a)において破線長方形で示されている区間に相当するベクトルデータVD(骨格ラインのデータ)を対象として、実施例に係る垂直ネットワークを用いた車線ネットワークの生成を行う(ステップS11)。このとき検出部2及び生成部3は、上記垂直線VL及び横断歩道を構成する短線SL(図10(b)参照)は、処理の対象外とする。 After the steps S1 to S10 described above are completed, the detection unit 2 of the processing unit 10 then targets the vector data VD (skeleton line data) corresponding to the section indicated by the broken line rectangle in FIG. 12A. As a result, a lane network is generated using the vertical network according to the embodiment (step S11). At this time, the detection unit 2 and the generation unit 3 exclude the vertical line VL and the short line SL (see FIG. 10B) constituting the pedestrian crossing from the processing.

ここで実施例に係る垂直ネットワークNとは、図12(b)に例示するように、相隣接する二つのライン(骨格ラインのデータとしてのライン)L同士を結ぶ線分であって、その両端に、各ラインL上にあるノードNDを有する線分である。 Here, the vertical network N according to the embodiment is a line segment connecting two adjacent lines (lines as data of skeleton lines) L to each other, as illustrated in FIG. 12 (b), and both ends thereof. Is a line segment having a node ND on each line L.

ステップS11として先ず初めに検出部2は、例えば図12(c)に示すように、対象となる区間内にある複数のラインLA等の中から一つの対象ラインLXを選び、並行している道路リンクRLのリンク方向に垂直な方向に対象ラインLXを移動させたとき(図12(c)ハッチング部分参照)に接触する他のラインLA、ラインLC、ラインLD及びラインLEそれぞれとの対象ラインLXと間に垂直ネットワークNを設定する。このとき検出部2は、図12(d)又は図12(e)に例示するように、相隣接する二つのラインLA及びラインLBを道路リンクRLの方向へ平行投影したときに交差する領域(図12(d)及び図12(e)におけるハッチング部分参照)の中心位置と各ラインLA及びラインLBとの交点をノードNDの位置として、垂直ネットワークNを設定する。なお検出部2は、対象ラインLXから見て他のラインLCにより遮蔽されているラインLF(図12(c)参照)については、ベクトルデータVDとしてのノイズであるとして、垂直ネットワークNの設定の対象外とする。そして、図12(a)に破線長方形で示す対象区間に含まれる各ラインLA乃至ラインLLについてそれぞれ垂直ネットワークNを設定すると、図13(a)に例示する垂直ネットワークN1乃至垂直ネットワークN13が設定される。 As step S11, first of all, as shown in FIG. 12 (c), the detection unit 2 selects one target line LX from a plurality of line LAs and the like in the target section, and the parallel roads. The target line LX with each of the other line LA, line LC, line LD, and line LE that come into contact when the target line LX is moved in the direction perpendicular to the link direction of the link RL (see the hatched portion in FIG. 12C). A vertical network N is set between and. At this time, as illustrated in FIG. 12 (d) or FIG. 12 (e), the detection unit 2 intersects when two adjacent lines LA and LB are projected in parallel in the direction of the road link RL. The vertical network N is set with the intersection of the center position of FIG. 12 (d) and the hatched portion in FIG. 12 (e) and each line LA and line LB as the position of the node ND. Note that the detection unit 2 sets the vertical network N on the line LF (see FIG. 12C) that is shielded by the other line LC when viewed from the target line LX, assuming that it is noise as vector data VD. Exclude the target. Then, when the vertical network N is set for each line LA to LL included in the target section shown by the broken line rectangle in FIG. 12 (a), the vertical network N1 to the vertical network N13 illustrated in FIG. 13 (a) are set. NS.

次に検出部2は、相隣接するラインL自体の実際の長さから、各ラインLが車線境界線に対応している状態(即ち車線境界線らしさ)を示すパラメータの一つである「ラインスコア」を、ラインLごとに算出する。より具体的に検出部2は、各ラインLについて、垂直ネットワークNにノードNDを介して接続する二つのラインLにおいて、±0.5メートルの範囲でそれぞれの長さが近い値である場合、それぞれのラインLのラインスコアを1点加算する。この長さによる各ラインLのラインスコアについては、同じ長さのラインLが相隣接しているほど(即ち、当該二つのラインLにおける車線境界線らしさが高いほど)高いスコアとなる。例えば図13(b)に示すラインLAとラインLBとに着目した場合、実際の長さが順に1.5メートルと1.0メートルであったとすると、これらラインLAとラインLBについて、それぞれラインスコアが1点加算される。また同様に、図13(c)に示すラインLBとラインLCとに着目した場合、実際の長さが順に1.0メートルと0.8メートルであったとすると、これらラインLBとラインLCについても、それぞれラインスコアが1点加算される。これらの結果、ラインLAについてはラインスコアが1点加算され、ラインLBについてはラインスコアが合計2点加算され、ラインLCについてはラインスコアが1点加算される。なお、各ラインLそれぞれの長さによるラインスコアの値を、以下適宜「条件1」と称する。 Next, the detection unit 2 is one of the parameters indicating a state in which each line L corresponds to a lane boundary line (that is, lane boundary line-likeness) from the actual length of the adjacent lines L itself. "Score" is calculated for each line L. More specifically, for each line L, when the lengths of the two lines L connected to the vertical network N via the node ND are close to each other within a range of ± 0.5 meters, the detection unit 2 has a value close to each other. Add 1 point to the line score of each line L. Regarding the line score of each line L according to this length, the higher the line L of the same length is adjacent to each other (that is, the higher the lane boundary line-likeness of the two lines L is), the higher the score. For example, when focusing on the line LA and the line LB shown in FIG. 13 (b), assuming that the actual lengths are 1.5 meters and 1.0 meters in order, the line scores for these line LA and line LB are respectively. Is added by 1 point. Similarly, when focusing on the line LB and the line LC shown in FIG. 13 (c), assuming that the actual lengths are 1.0 meter and 0.8 meter in order, the line LB and the line LC also have the same length. , Each line score is added by 1 point. As a result, one point is added to the line score for the line LA, two points are added to the line score for the line LB, and one point is added to the line score for the line LC. The value of the line score according to the length of each line L is appropriately referred to as "condition 1" below.

次に検出部2は、相隣接するラインLの間隔(幅員)からも、各ラインLの車線境界線らしさを算出する。より具体的に検出部2は、図14(a)に示す道路構造令第5条第4項に規定されている車線の幅員に基づいて定義された図14(b)に示す幅員クラスWを用いて、各ラインLの車線境界線らしさを算出する。なお図14(b)に例示する場合は、±10パーセントの余裕を持たせて各幅員クラスWの定義が規定されている。また図14にそれぞれ記載されているデータは、例えば記録部14に予め記録されているものを用いればよい。そして検出部2は、複数の垂直ネットワークNに接続しているラインLのそれぞれについて、幅員クラスW0と幅員クラスW9に該当するもの以外の垂直ネットワークNの数を「n」とし、同じ幅員クラスに属する垂直ネットワークNの最大数をm(m>1)としたとき、「m/n」の値をラインスコアに加算する。この幅員スコアWによる各ラインLのラインスコアについては、同じ幅員クラスに属するラインLが相隣接しているほど(即ち、当該二つのラインLにおける車線境界線らしさが高いほど)高いスコアとなる。例えば図13(d)に示すラインLXに着目した場合、ラインLAに対する幅員スコアWとラインLBに対する幅員スコアWとが異なっており、有効な垂直ネットワークNが二つであるので、幅員クラスWによるラインスコアは0/2=0.0が加算される。また、例えば図13(e)に示すラインLXに着目した場合、ラインLAに対する幅員スコアWとラインLBに対する幅員スコアWとが同じであり、有効な垂直ネットワークNが二つであるので、幅員クラスWによるラインスコアは2/2=1.0が加算される。更に、例えば図13(f)に示すラインLXに着目した場合、三種類の幅員スコアWが対応するが、幅員スコアW2の垂直ネットワークNが三つで数が最も多く、有効な垂直ネットワークNが(幅員スコアW0の垂直ネットワークNを除いた)四つであるので、幅員クラスWによるラインスコアは3/4=0.75が加算される。なお、各ラインLそれぞれの幅員クラスWによるラインスコアの値を、以下適宜「条件2」と称する。 Next, the detection unit 2 calculates the lane boundary line-likeness of each line L from the interval (width) of the adjacent lines L. More specifically, the detection unit 2 determines the width class W shown in FIG. 14 (b) defined based on the lane width defined in Article 5, Paragraph 4 of the Road Structure Ordinance shown in FIG. 14 (a). It is used to calculate the lane boundary-likeness of each line L. In the case shown in FIG. 14B, the definition of each width class W is defined with a margin of ± 10%. Further, as the data shown in FIG. 14, for example, the data previously recorded in the recording unit 14 may be used. Then, the detection unit 2 sets the number of vertical networks N other than those corresponding to the width class W0 and the width class W9 to "n" for each of the lines L connected to the plurality of vertical networks N, and sets the same width class. When the maximum number of vertical networks N to which they belong is m (m> 1), the value of "m / n" is added to the line score. Regarding the line score of each line L based on the width score W, the higher the line L belonging to the same width class is adjacent to each other (that is, the higher the lane boundary line between the two lines L is). For example, when focusing on the line LX shown in FIG. 13 (d), the width score W for the line LA and the width score W for the line LB are different, and since there are two valid vertical networks N, the width class W is used. 0/2 = 0.0 is added to the line score. Further, for example, when focusing on the line LX shown in FIG. 13 (e), the width score W for the line LA and the width score W for the line LB are the same, and there are two valid vertical networks N, so that the width class 2/2 = 1.0 is added to the line score by W. Further, for example, when focusing on the line LX shown in FIG. 13 (f), three types of width scores W correspond to each other, but the vertical network N of the width score W2 is three and the number is the largest, and the effective vertical network N is Since there are four (excluding the vertical network N of the width score W0), 3/4 = 0.75 is added to the line score by the width class W. The value of the line score according to the width class W of each line L is appropriately referred to as "condition 2" below.

そして検出部2は、上記条件1及び上記条件2によるラインスコアをラインLごとに加算し、ラインスコアを集計する。このとき、図13(a)及び図15(a)に例示する各ラインLA乃至ラインLLの場合、それぞれの集計結果は図15(b)に示すものとなる。 Then, the detection unit 2 adds the line scores under the above condition 1 and the above condition 2 for each line L, and totals the line scores. At this time, in the case of each line LA to LL illustrated in FIGS. 13 (a) and 15 (a), the aggregation result of each is shown in FIG. 15 (b).

次に検出部2は、各ラインL間の幅員について、当該幅員らしさをしめすパラメータである垂直ネットワークスコアを各垂直ネットワークNについて算出する。より具体的に当該垂直ネットワークスコアは、図14(b)に示す幅員スコアと上記集計された(図15(b)参照)ラインスコアを加算して垂直ネットワークNごとに垂直ネットワークスコアを算出する。このとき、当該垂直ネットワークスコアが負数となる垂直ネットワークN(図16に例示する場合は、垂直ネットワークN1、垂直ネットワークN6及び垂直ネットワークN7)は、以後の車線ネットワーク生成処理には用いられない。これにより、真に車線に対応している垂直ネットワークNのみを車線ネットワーク生成処理の対象とすることができる。より具体的に例えば、図16(a)に例示するラインLA乃至ラインLL及び垂直ネットワークN1乃至垂直ネットワークN13において、ラインLDとラインLEを接続する垂直ネットワークN3に着目すると、幅員クラスW1でありラインLDのラインスコアが「2」でラインLEのラインスコアが「3」であるので、当該垂直ネットワークN3の垂直ネットワークスコアは「7」となる。以下同様にして、各垂直ネットワークNについて算出された垂直ネットワークスコアが図16(b)に例示されている。 Next, the detection unit 2 calculates the vertical network score, which is a parameter indicating the width, for each vertical network N, for the width between the lines L. More specifically, the vertical network score is calculated by adding the width score shown in FIG. 14 (b) and the aggregated line score (see FIG. 15 (b)) for each vertical network N. At this time, the vertical network N (vertical network N1, vertical network N6, and vertical network N7 in the example of FIG. 16) in which the vertical network score is a negative number is not used in the subsequent lane network generation processing. As a result, only the vertical network N that truly corresponds to the lane can be targeted for the lane network generation process. More specifically, for example, in the lines LA to LL and the vertical networks N1 to N13 illustrated in FIG. 16A, focusing on the vertical network N3 connecting the line LD and the line LE, the width class W1 and the line Since the line score of the LD is "2" and the line score of the line LE is "3", the vertical network score of the vertical network N3 is "7". In the same manner below, the vertical network score calculated for each vertical network N is illustrated in FIG. 16 (b).

次に処理部10の生成部3は、これまで検討してきた垂直ネットワークNにおいて互いに接続されている垂直ネットワークNを一つのグループとしてグループ化する。即ち図17(a)に例示するグループG1乃至グループG3を形成する。これら各グループにおいては、それぞれの両端の垂直ネットワークN2、垂直ネットワークN5、垂直ネットワークN10、垂直ネットワークN11及び垂直ネットワークN13が、道路における外側線OLに対応するラインLA、ラインLB、ラインLC及びラインLLにそれぞれ接続しており、更に垂直ネットワークスコアが負数であった垂直ネットワークN7を経由して垂直ネットワークN8がラインLBに接続している。そして各グループG1乃至グループG3にそれぞれ含まれている各垂直ネットワークNは図17(a)に例示するように道路を横断しており、当該各垂直ネットワークNの数は、車線数そのものとなる。 Next, the generation unit 3 of the processing unit 10 groups the vertical networks N connected to each other in the vertical network N examined so far as one group. That is, the groups G1 to G3 illustrated in FIG. 17A are formed. In each of these groups, the vertical networks N2, vertical network N5, vertical network N10, vertical network N11 and vertical network N13 at both ends correspond to the outer line OL on the road, line LA, line LB, line LC and line LL. The vertical network N8 is connected to the line LB via the vertical network N7, which has a negative vertical network score. Each vertical network N included in each group G1 to G3 crosses the road as illustrated in FIG. 17A, and the number of each vertical network N is the number of lanes itself.

次に生成部3は、上記各グループG1乃至グループG3に含まれる垂直ネットワークNを用いて、各グループG1乃至グループG3を接続する車線に相当するレーンラインを算出する。より具体的に生成部3は、図17(b)及び図17(c)に例示するように、対象となる垂直ネットワークNXを一つ定め、その中心から隣接するグループGに含まれる全ての垂直ネットワークNへの方向を算出し、平行する道路リンクRLのリンク方向に最も近い当該方向を、その垂直ネットワークNXを始点とするレーンラインLL(即ち一本の車線)とする。なお図17(b)及び図17(c)に例示する場合は、破線で示されている方向はレーンラインとしては採用されない。 Next, the generation unit 3 calculates a lane line corresponding to a lane connecting each group G1 to G3 by using the vertical network N included in each group G1 to G3. More specifically, as illustrated in FIGS. 17 (b) and 17 (c), the generation unit 3 defines one target vertical network NX, and all the verticals included in the group G adjacent to the center of the vertical network NX. The direction to the network N is calculated, and the direction closest to the link direction of the parallel road link RL is defined as the lane line LL (that is, one lane) starting from the vertical network NX. In the case of FIGS. 17 (b) and 17 (c), the direction indicated by the broken line is not adopted as the lane line.

以上の図12乃至図17を用いて説明した一連の処理により、実施例に係るレーンラインLLA乃至レーンラインLLGが図17(d)に例示するように算出され、これらにより、実施例に係る車線ネットワークが生成される(ステップS11)。 By a series of processes described with reference to FIGS. 12 to 17 above, the lane line LLA to the lane line LLG according to the embodiment are calculated as illustrated in FIG. 17 (d), and the lane according to the embodiment is calculated by these. A network is generated (step S11).

次に生成部3は、各ラインL及び各垂直ネットワークNについて、上記車線境界線らしさ及び上記幅員らしさの総合評価に当たるレーンスコアを算出する。より具体的に図18(a)に例示する場合において、各レーンラインLLA乃至レーンラインLLGのそれぞれにつき、接続する垂直ネットワークNの垂直ネットワークスコアの合計値を「S」とし、各車線に含まれるレーンラインLLの数を「LL」とし、各車線に含まれる垂直ネットワークNの数を「LN」とし、各車線に含まれる同一の幅員クラスの最大数を「W」とし、上記レーンスコアを(S/LL)×(W/LN)として算出する。例えば、図18(a)に例示するレーンラインLLA乃至レーンラインLLCからなる車線のレーンスコアは、
{(4+7+6+6)/3}×(4/4)=7.6
となり、図18(a)に例示するレーンラインLLD及びレーンラインLLEからなる車線のレーンスコアは、
{(7+7+7)/2}×(3/3)=10.5
となり、図18(a)に例示するレーンラインLLF及びレーンラインLLGからなる車線のレーンスコアは、
{(5+5+5)/2}×(3/3)=7.5
となる。なお生成部3は、図18(b)に示すように、上記ステップS3で抽出していた道路標示の位置RPに基づき、道路標示の中心付近を通る車線ほど正しいであろうとの仮定のもと、道路標示スコアを算出してこれを上記レーンスコアに加算してもよい。即ち、道路標示の検出位置を中心とした半径50センチメートル程度の円を道路標示円として仮定し、道路標示円とレーンラインLLとが交差又は接触している場合には、レーンラインLLと道路標示円の中心との最短距離が短いほど、道路標示スコアを高くしてレーンスコアに加算するのが好ましい。
Next, the generation unit 3 calculates a lane score for each line L and each vertical network N, which corresponds to a comprehensive evaluation of the lane boundary line-likeness and the width-likeness. More specifically, in the case of being illustrated in FIG. 18A, the total value of the vertical network scores of the connecting vertical networks N is set to "S" for each of the lane lines LLA to the lane line LLG, and is included in each lane. The number of lane lines LL is "LL", the number of vertical networks N included in each lane is "LN", the maximum number of the same width class included in each lane is "W", and the above lane score is ( Calculated as S / LL) × (W / LN). For example, the lane score of the lane including the lane line LLC to the lane line LLC illustrated in FIG. 18A is
{(4 + 7 + 6 + 6) / 3} x (4/4) = 7.6
The lane score of the lane including the lane line LLD and the lane line LLE illustrated in FIG. 18A is
{(7 + 7 + 7) / 2} x (3/3) = 10.5
The lane score of the lane including the lane line LLF and the lane line LLG illustrated in FIG. 18A is
{(5 + 5 + 5) / 2} x (3/3) = 7.5
Will be. As shown in FIG. 18B, the generation unit 3 is based on the position RP of the road marking extracted in step S3, and is based on the assumption that the lane passing near the center of the road marking is more correct. , The road marking score may be calculated and added to the above lane score. That is, assuming a circle with a radius of about 50 cm centered on the detection position of the road marking as the road marking circle, when the road marking circle and the lane line LL intersect or are in contact with each other, the lane line LL and the road The shorter the shortest distance from the center of the marking circle, the higher the road marking score, and it is preferable to add it to the lane score.

次に生成部3は、ステップS11までで生成されたレーンラインLLをそれぞれに含む車線について、元のオルソ画像データの段階で車線境界線が擦れる又は消失している等の理由により、例えば、その車線が含まれている道路の幅より狭く、且つ幅員クラスW7以上(例えば二車線分)の広い幅員があるか否かを判定する(ステップS12)。 Next, the generation unit 3 describes, for example, the lane including the lane line LL generated up to step S11 because the lane boundary line is rubbed or disappears at the stage of the original ortho image data. It is determined whether or not there is a width narrower than the width of the road including the lane and a width class W7 or more (for example, for two lanes) (step S12).

ステップS12の判定において、当該広い幅員がない場合(ステップS12:NO)、生成部3は後述するステップS13に移行する。一方ステップS12の判定において、上記のような広い幅員があった場合(ステップS12:YES)、生成部3は次に、当該幅員に対応した仮想のライン(線分)を骨格ラインのベクトルデータVDに追加し、当該追加後のベクトルデータVDを用いて、上記ステップS11と同様の車線ネットワーク生成処理(第2パターンの車線ネットワーク生成処理)を行う(ステップS14)。 In the determination of step S12, if there is no such wide width (step S12: NO), the generation unit 3 shifts to step S13 described later. On the other hand, in the determination of step S12, when there is a wide width as described above (step S12: YES), the generation unit 3 next sets a virtual line (line segment) corresponding to the width as the vector data VD of the skeleton line. And using the vector data VD after the addition, the same lane network generation process (second pattern lane network generation process) as in step S11 is performed (step S14).

ここで、上述したような車線境界線の擦れ等が生じている場合、例えば図19(a)に破線楕円で例示するように、対応するオルソ画像データにも対応するラインが表れないことになる。そしてこのようなオルソ画像データから抽出部1により上記ラインLを抽出すると、その結果としては図19(b)に例示するようなラインLA乃至ラインLIが抽出される。そしてこれらに対してステップS11と同様の垂直ネットワークNの設定を生成部3により行うと、結果としては図19(c)に例示する垂直ネットワークN1乃至垂直ネットワークN14が設定される。このとき、これら垂直ネットワークN1乃至垂直ネットワークN14についての幅員クラス及び幅員スコアは、それぞれ図19(d)に示すようになる(図14も合わせて参照)。次に、図19(c)に例示する各ラインL及び各垂直ネットワークNに対してステップS11と同様のグループ化を生成部3により行うと、結果として図20(a)に示すグループG1乃至グループG4が形成される。そして、当該グループ化の結果に対してステップS11と同様のレーンラインLLの算出を行うと、結果としては図20(b)に例示するレーンラインLLA乃至レーンラインLLGが算出される。 Here, when the lane boundary line is rubbed as described above, the corresponding line does not appear in the corresponding ortho image data as illustrated by the broken line ellipse in FIG. 19 (a), for example. .. Then, when the line L is extracted from such ortho-image data by the extraction unit 1, as a result, the lines LA to LI as illustrated in FIG. 19B are extracted. Then, when the generation unit 3 sets the vertical network N in the same manner as in step S11, the vertical network N1 to the vertical network N14 illustrated in FIG. 19C are set as a result. At this time, the width class and the width score for these vertical networks N1 to N14 are shown in FIG. 19 (d), respectively (see also FIG. 14). Next, when the generation unit 3 performs the same grouping as in step S11 for each line L and each vertical network N illustrated in FIG. 19 (c), as a result, the groups G1 to groups shown in FIG. 20 (a) are grouped. G4 is formed. Then, when the lane line LL is calculated in the same manner as in step S11 for the result of the grouping, the lane line LLA to the lane line LLG illustrated in FIG. 20B are calculated as a result.

そこで上記ステップS14では、図20(a)の状態で幅員が広い垂直ネットワークN2、垂直ネットワークN3及び垂直ネットワークN5のそれぞれを、仮に長さ方向に二等分し、元の垂直ネットワークN2を垂直ネットワークN2−1と垂直ネットワークN2−2に分け、元の垂直ネットワークN3を垂直ネットワークN3−1と垂直ネットワークN3−2に分け、更に元の垂直ネットワークN5を垂直ネットワークN5−1と垂直ネットワークN5−2に分ける(図14(b)における「組み換え」欄参照)。そして図20(c)に例示するように、垂直ネットワークN2、垂直ネットワークN3及び垂直ネットワークN5それぞれの二等分点を通る仮ラインLB’、仮ラインLC’及び仮ラインLD’を設定し、それらを含む各ラインL及び各垂直ネットワークNを用いて改めてレーンラインLLを算出する。この場合は、図20(d)に例示するレーンラインLLA乃至レーンラインLLIが改めて算出される。そして、これに基づいてステップS11と同様のレーンスコアまでを算出すると、その結果は図21に例示するものとなる(ステップS14)。 Therefore, in step S14, each of the wide vertical network N2, vertical network N3, and vertical network N5 is tentatively divided into two equal parts in the length direction in the state of FIG. 20A, and the original vertical network N2 is divided into vertical networks. Divide N2-1 and vertical network N2-2, divide the original vertical network N3 into vertical network N3-1 and vertical network N3-2, and further divide the original vertical network N5 into vertical network N5-1 and vertical network N5-2. (See the "recombinant" column in FIG. 14 (b)). Then, as illustrated in FIG. 20 (c), a temporary line LB', a temporary line LC', and a temporary line LD' passing through the bisectors of the vertical network N2, the vertical network N3, and the vertical network N5 are set, and they are set. The lane line LL is calculated again using each line L including and each vertical network N. In this case, the lane line LLA to the lane line LLI illustrated in FIG. 20 (d) are calculated again. Then, when the lane score similar to that in step S11 is calculated based on this, the result is illustrated in FIG. 21 (step S14).

次に生成部3は、上記ステップS12の判定まで、又は上記ステップS14までに生成された車線ネットワークについて、最終的な評価を行い、実施例に係る車線ネットワークとしてインターフェース11を介して外部に出力するか、又は記録部14に記録する(ステップS13)。このステップS13として具体的に生成部3は、上記ステップS12の判定において上記広い幅員がない場合(ステップS12:NO)、上記ステップS11までの処理により生成された車線ネットワークをその区間の車線ネットワークとして出力等し、その後、次の区間についての車線ネットワークの生成を行うべく、上記ステップS8に戻る。一方ステップS14を経た場合に生成部3は、ステップS14で生成された上記レーンスコアを比較し、図22(a)に示すように、その値が高い方(図22(a)に例示する場合は、図20(d)に対応する車線ネットワーク)を出力等し、その後、次の区間についての車線ネットワークの生成を行うべく、上記ステップS8に戻る。なお、上記ステップS13の判定に、使用者による目視判定を併用してもよい。 Next, the generation unit 3 makes a final evaluation of the lane network generated up to the determination in step S12 or up to step S14, and outputs the lane network according to the embodiment to the outside via the interface 11. Or, it is recorded in the recording unit 14 (step S13). Specifically, as step S13, when the determination in step S12 does not have the wide width (step S12: NO), the generation unit 3 uses the lane network generated by the processes up to step S11 as the lane network in that section. After the output and the like, the process returns to step S8 in order to generate a lane network for the next section. On the other hand, when step S14 is passed, the generation unit 3 compares the lane scores generated in step S14, and as shown in FIG. 22 (a), the higher value is (exemplified in FIG. 22 (a)). Outputs the lane network corresponding to FIG. 20 (d), and then returns to step S8 to generate the lane network for the next section. The determination in step S13 may be combined with a visual determination by the user.

なお上述した実施例においては、広い幅員があった場合は、仮ラインLA’等を生成してこれを補間し、当該補間の有無に応じて算出されたレーンラインLLA等についてのレーンスコアを比較して最終的な車線ネットワークを出力した。しかしながらこれ以外に、例えば図22(b)に例示するように、広い幅員がある状態で上記仮ラインLA’等を生成することなく算出したレーンラインLLA等について、並行する道路リンクRLのリンク方向との角度α1乃至角度α4を算出し、これらの合計値を、仮ラインLA’等による補間の有無により比較し、当該角度の合計値が小さい方(即ち、道路リンクRLのリンク方向との角度差が小さい方)を車線ネットワークとして出力等するように構成してもよい。 In the above-described embodiment, when there is a wide width, a temporary line LA'etc. is generated and interpolated, and the lane scores for the lane line LLA etc. calculated according to the presence or absence of the interpolation are compared. And output the final lane network. However, in addition to this, as illustrated in FIG. 22B, for example, with respect to the lane line LLA and the like calculated without generating the temporary line LA'and the like in a state where there is a wide width, the link direction of the parallel road link RL. The angles α1 to α4 with and from are calculated, and the total values thereof are compared depending on the presence or absence of interpolation by the temporary line LA'etc., and the smaller total value of the angles (that is, the angle with the link direction of the road link RL). The one with the smaller difference) may be configured to be output as a lane network.

次に、上記ステップS8の判定においていずれの区画も選択されない場合(ステップS8:NO)、処理部10は複数の道路Rが交差する交差点CR内における車線ネットワークを生成する(ステップS15)。このステップS15については後ほど詳述する。その後処理部10は、例えば車線ネットワーク生成装置SVの電源がオフとされる等の理由により、実施例に係る車線ネットワーク生成処理を終了するか否かを判定する(ステップS16)。ステップS16の判定において当該車線ネットワーク生成処理を終了する場合(ステップS16:YES)、処理部10はそのまま当該車線ネットワーク生成処理を終了する。一方ステップS16の判定において当該車線ネットワーク生成処理を継続する場合(ステップS16:NO)、処理部10は上記ステップS1に戻って上述してきた一連の処理を繰り返す。 Next, when none of the sections is selected in the determination in step S8 (step S8: NO), the processing unit 10 generates a lane network in the intersection CR where a plurality of roads R intersect (step S15). This step S15 will be described in detail later. After that, the processing unit 10 determines whether or not to end the lane network generation process according to the embodiment for reasons such as turning off the power of the lane network generation device SV (step S16). When the lane network generation process is terminated in the determination in step S16 (step S16: YES), the processing unit 10 ends the lane network generation process as it is. On the other hand, when the lane network generation process is continued in the determination in step S16 (step S16: NO), the processing unit 10 returns to step S1 and repeats the series of processes described above.

次に、上記ステップS15における交差点内の車線ネットワーク生成処理について、具体的に説明する。当該車線ネットワーク生成処理としては、具体的には以下の四通りの方法が考えられる。 Next, the lane network generation process in the intersection in step S15 will be specifically described. Specifically, the following four methods can be considered as the lane network generation process.

(I)道路リンクRLにおける接続関係を参照する方法
即ち処理部10は、第1の方法として、図23に例示する交差点CRに接続される車線ネットワークのグループがグループG1乃至グループG4まであったとする。このとき、当該交差点CRに接続する道路についての道路リンクRLがある場合は、グループG同士の大まかな接続関係(各グループG間の繋がり)を決定する。より具体的に例えば、図23に例示するグループG1乃至グループG4が「交差点CRで十字路を構成している」と決定する。また例えば、グループG1に含まれるレーンラインLLとグループG2に含まれるレーンラインLLとが交差点CRで接続されており、それに対する立体交差又は地下道としてグループG3に含まれるレーンラインLLとグループG4に含まれるレーンラインLLとが接続されていると決定する。
(I) The method of referring to the connection relationship in the road link RL, that is, the processing unit 10, assumes that the group of the lane network connected to the intersection CR illustrated in FIG. 23 is group G1 to group G4 as the first method. .. At this time, if there is a road link RL for the road connecting to the intersection CR, a rough connection relationship between the groups G (connection between each group G) is determined. More specifically, for example, it is determined that the groups G1 to G4 illustrated in FIG. 23 "constitute a crossroad at the intersection CR". Further, for example, the lane line LL included in the group G1 and the lane line LL included in the group G2 are connected by an intersection CR, and the lane line LL included in the group G3 and the group G4 include the lane line LL included in the group G3 as a grade separation or an underpass. It is determined that the lane line LL is connected.

(II)レーンラインにおける上り/下りの属性を利用する方法
即ち処理部10は、図23に例示する場合における第2の方法として、交差点CRに接続する道路についての道路リンクRLがある場合は、当該道路リンクRLにおける二条道路(図6(b)参照)における上り属性及び下り属性をレーンラインLLに転写し、上り車線同士及び下り車線同士が接続可能であると決定する。なお第2の方法としては、道路リンクRLを利用する以外の方法でレーンラインLLの上り属性及び下り属性が設定されている場合は、それに基づいて、上り車線同士及び下り車線同士が接続可能であると決定してもよい。
(II) A method of utilizing the ascending / descending attribute in the lane line, that is, the processing unit 10 has a road link RL for a road connecting to the intersection CR as a second method in the case illustrated in FIG. 23. The ascending and descending attributes of the Nijo road (see FIG. 6B) in the road link RL are transferred to the lane line LL, and it is determined that the ascending lanes and the descending lanes can be connected to each other. As a second method, if the up attribute and down attribute of the lane line LL are set by a method other than using the road link RL, the up lanes and the down lanes can be connected to each other based on the set attributes. You may decide that there is.

(III)道路標示を利用する方法
即ち処理部10は、図23に例示する場合における第3の方法として、交差点CRに接続する道路についての道路リンクRLがある場合に、その道路リンクRLを参照して決定したグループG間の接続状態と、各レーンラインLLにおける上り属性又は下り属性と、道路標示としての方向標示(矢印マーク)で示される方向と、に基づいて、交差点CR内で接続可能なレーンラインLLを推測する。より具体的に例えば、図23に例示するグループG2の一番左の車線に直進・左折を示す矢印標示がある場合は、グループG2の一番左のレーンラインLLがグループG1とグループG3に接続すると決定する。この場合は、結果的に一つのグループGから複数のグループGへの接続についての決定ができることになる。
(III) A method using road markings, that is, the processing unit 10 refers to the road link RL when there is a road link RL for the road connecting to the intersection CR as a third method in the case illustrated in FIG. It is possible to connect within the intersection CR based on the connection state between the groups G determined in the above process, the ascending or descending attribute in each lane line LL, and the direction indicated by the direction marking (arrow mark) as a road marking. Guess the lane line LL. More specifically, for example, when the leftmost lane of the group G2 illustrated in FIG. 23 has an arrow sign indicating going straight or turning left, the leftmost lane line LL of the group G2 is connected to the group G1 and the group G3. Then decide. In this case, as a result, it is possible to make a decision regarding the connection from one group G to a plurality of group Gs.

(IV)プローブ情報の利用
即ち処理部10は、図23に例示する場合における第4の方法として、交差点CRを通過する車両等の軌跡をいわゆるプローブ情報の収集により決定し、その中から規則性を検出して(又は、各軌跡を代表する軌跡を求めて)、各グループGの接続関係の決定に用いる。この場合は、交差点CR内におけるより現実に近い車線(曲線の走行ライン)及びその形状を決定することができる。
(IV) Utilization of probe information, that is, the processing unit 10 determines the trajectory of a vehicle or the like passing through the intersection CR by collecting so-called probe information as a fourth method in the case illustrated in FIG. 23, and regularity is determined from the locus. (Or find a locus that represents each locus) and use it to determine the connection relationship of each group G. In this case, it is possible to determine a more realistic lane (curved running line) and its shape in the intersection CR.

以上それぞれ説明したように、実施例に係る車線ネットワーク生成処理によれば、車線を含む道路Rを撮像した実画像に対応するオルソ画像データから、当該実画像に映ったラインLを抽出し、道路Rに交差する方向に並んだラインL同士の当該交差方向の間隔と、車線としての法定幅員と、を比較し、その比較結果に基づいて車線ネットワークを生成する。よって、実画像に映ったラインL同士の道路に交差する方向の間隔と法定幅員との比較に基づいて車線ネットワークを生成するので、道路Rに含まれる車線を示す車線ネットワークを、実画像情報に基づいて自動的且つ正確に生成することができる。 As described above, according to the lane network generation process according to the embodiment, the line L reflected in the actual image is extracted from the ortho image data corresponding to the actual image of the road R including the lane, and the road The distance between the lines L arranged in the direction intersecting R and the legal width as a lane are compared, and a lane network is generated based on the comparison result. Therefore, since the lane network is generated based on the comparison between the distance between the lines L in the actual image in the direction of intersection with the road and the legal width, the lane network indicating the lane included in the road R is used as the actual image information. Based on this, it can be generated automatically and accurately.

また、上記間隔が法定幅員よりも長いラインLがある場合に、当該間隔を法定幅員に基づいて分割し、その分割点を通り且つ道路Rが延びる方向の仮ラインL’を生成し、その仮ラインL’に基づいて、仮ラインL’を生成した場合としない場合とを比較して車線ネットワークを生成する。よって、法定幅員に基づく分割を行った場合と行わなかった場合との各比較結果に基づいて車線ネットワークを生成するので、例えば道路上の車線境界線が擦れている場合でも、より正確に車線情報を生成することができる。 Further, when there is a line L whose interval is longer than the legal width, the interval is divided based on the legal width, and a temporary line L'in the direction passing through the division point and extending the road R is generated, and the provisional line L'is generated. Based on the line L', a lane network is generated by comparing the case where the temporary line L'is generated and the case where the temporary line L'is not generated. Therefore, since the lane network is generated based on the comparison result between the case where the division is performed based on the legal width and the case where the division is not performed, the lane information is more accurate even when the lane boundary line on the road is rubbed, for example. Can be generated.

更に、各ラインLの長さを検出し、ラインL同士を接続した垂直ネットワークNを生成し、検出された長さと、垂直ネットワークNと、各比較結果と、に基づいて車線ネットワークを生成するので、各ラインLの長さ及び垂直ネットワークNを考慮することで、更に正確に車線ネットワークを生成することができる。 Further, the length of each line L is detected, a vertical network N connecting the lines L is generated, and a lane network is generated based on the detected length, the vertical network N, and each comparison result. By considering the length of each line L and the vertical network N, the lane network can be generated more accurately.

更にまた、図22(b)に示す場合は、各レーンラインLLと道路リンクRLのリンク方向との比較に基づいて車線ネットワークを生成するので、各レーンラインLLにより示される車線の方向の各々と、車線が含まれる道路Rが延びる方向と、を考慮することで、更に正確に車線ネットワークを生成することができる。 Furthermore, in the case shown in FIG. 22B, since the lane network is generated based on the comparison between each lane line LL and the link direction of the road link RL, each of the lane directions indicated by each lane line LL is used. By considering the direction in which the road R including the lane extends, the lane network can be generated more accurately.

また、図18(b)に例示するように、車線の中心線上に描かれている道路標示を示すオルソ画像データに基づいて車線ネットワークを生成する場合は、道路に含まれる車線を示す車線ネットワークをより正確に生成することができる。 Further, as illustrated in FIG. 18B, when the lane network is generated based on the ortho image data indicating the road marking drawn on the center line of the lane, the lane network indicating the lane included in the road is used. It can be generated more accurately.

更に、使用者による選択結果に基づいて車線ネットワークを生成する場合は、使用者の意図に沿った車線ネットワークを生成することができる。 Further, when the lane network is generated based on the selection result by the user, the lane network can be generated according to the intention of the user.

なお、上述した実施例の他に実施例に係る車線ネットワーク生成処理に用い得る技術としては、例えば以下の技術が挙げられる。
・曲線補間や走行画像等に基づいて生成した仮想軌跡を利用して、交差点CR内や遮蔽部(高架下やトンネル等)内の車線ネットワークを生成することができる。
・いわゆるリアルタイム評価値変動法を用いることで、複数の車線ネットワークの中から実際の車線の状態に合っているものを残し、その道路に隣接する道路における車線ネットワークについて、当該残った車線ネットワークとの接続関係も考慮し評価値を変動させる。これにより、車線ネットワークの候補としての確度を向上させることができる。
・いわゆる機械学習法を導入する。即ち、複数の車線ネットワークの候補を入力し、使用者の目視による正しい車線ネットワークを決定して出力するか、又はその正しい編集を決定して出力するニューラルネットワーク学習を活用する。この場合、十分に学習されたならば、評価値による候補の優先順位ではなく、ニューラルネットワークの出力結果を最上位の結果としてもよい。
In addition to the above-described embodiment, examples of the technology that can be used for the lane network generation processing according to the embodiment include the following technologies.
-A lane network in an intersection CR or a shield (under an overpass, a tunnel, etc.) can be generated by using a virtual locus generated based on curve interpolation, a traveling image, or the like.
-By using the so-called real-time evaluation value fluctuation method, one of multiple lane networks that matches the actual lane condition is left, and the lane network on the road adjacent to that road is combined with the remaining lane network. The evaluation value is changed in consideration of the connection relationship. As a result, the accuracy as a candidate for the lane network can be improved.
・ Introduce so-called machine learning method. That is, neural network learning is utilized in which a plurality of lane network candidates are input, the correct lane network is determined and output visually by the user, or the correct editing is determined and output. In this case, if sufficiently learned, the output result of the neural network may be used as the highest result instead of the priority of the candidates based on the evaluation value.

更にまた、図3に示したフローチャートに相当するプログラムを、光ディスク又はハードディスク等の記録媒体に記録しておき、或いはインターネット等のネットワークを介して取得しておき、これを汎用のマイクロコンピュータ等に読み出して実行することにより、当該マイクロコンピュータ等を実施例に係る処理部10として機能させることも可能である。 Furthermore, a program corresponding to the flowchart shown in FIG. 3 is recorded on a recording medium such as an optical disk or a hard disk, or acquired via a network such as the Internet, and read out to a general-purpose microcomputer or the like. It is also possible to make the microcomputer or the like function as the processing unit 10 according to the embodiment.

1 抽出手段(抽出部)
2 比較手段(検出部)
3 生成手段(生成部)
10 処理部
S 車線情報生成装置
SV 車線ネットワーク生成装置
1 Extraction means (extraction unit)
2 Comparison means (detector)
3 Generation means (generation unit)
10 Processing unit S lane information generator SV lane network generator

Claims (7)

道路を撮像した実画像に映った線分を示す線分情報を、当該実画像に対応する実画像情報から抽出する抽出手段と、
前記抽出された線分情報に基づいて、前記道路に交差する方向に並んだ前記線分同士の当該交差する方向の間隔と、前記道路に含まれる車線としての幅員と、を比較する比較手段と、
前記比較手段による比較結果に基づいて、前記車線を示す車線情報を生成する生成手段であって、i)前記比較手段における比較結果に基づき、前記間隔が前記幅員よりも長い前記線分の当該間隔を当該幅員に基づいて分割する分割手段と、ii)前記分割された間隔における分割点を通り且つ前記道路が延びる方向の仮想線分を示す仮想線分情報を生成する仮想線分情報生成手段と、を備える生成手段と、
を備え
前記間隔が前記幅員よりも長い前記線分がある場合に、前記生成手段は、前記生成された仮想線分情報に基づいて、前記幅員に基づく分割を行わない場合の前記比較結果である第1比較結果と、分割後の前記仮想線分に対応する前記線分と当該仮想線分との間隔と前記幅員との比較結果である第2比較結果と、に基づいて前記車線情報を生成することを特徴とする車線情報生成装置。
An extraction means for extracting line segment information indicating a line segment reflected in a real image of a road from the real image information corresponding to the real image, and
Based on the extracted line segment information, a comparison means for comparing the distance between the line segments arranged in the direction intersecting the road in the intersecting direction and the width as a lane included in the road. ,
It is a generation means for generating lane information indicating the lane based on the comparison result by the comparison means , and i) the interval of the line segment whose interval is longer than the width based on the comparison result in the comparison means. And ii) a virtual line segment information generating means for generating virtual line segment information indicating a virtual line segment passing through a dividing point at the divided interval and indicating a direction in which the road extends. With a generation means ,
Equipped with a,
When there is the line segment whose interval is longer than the width, the generation means is the first comparison result when the division based on the width is not performed based on the generated virtual line segment information. comparison result and a second comparison result is a comparison result between said width spacing between the lines and the virtual line segment corresponding to the virtual line segment after the division, that generates the lane information on the basis of A lane information generator characterized by this.
請求項1に記載の車線情報生成装置において、
前記間隔を構成する前記線分の長さを、前記抽出された線分情報に基づいて検出する長さ検出手段と、
前記間隔を構成する前記線分同士を接続した接続線に対応した接続情報を、前記抽出された線分情報に基づいて生成する接続情報生成手段と、
を更に備え、
前記生成手段は、前記検出された長さを示す長さ情報と、前記生成された接続情報と、前記第1比較結果と、前記第2比較結果と、に基づいて前記車線情報を生成することを特徴とする車線情報生成装置。
In the lane information generator according to claim 1,
A length detecting means for detecting the length of the line segment constituting the interval based on the extracted line segment information, and
A connection information generating means that generates connection information corresponding to a connection line connecting the line segments constituting the interval based on the extracted line segment information.
Further prepare
The generation means generates the lane information based on the length information indicating the detected length, the generated connection information, the first comparison result, and the second comparison result. A lane information generator characterized by.
請求項に記載の車線情報生成装置において、
前記生成手段は、i)前記車線情報の候補として前記第1比較結果を用いて生成された第1候補車線情報により示される前記車線の方向、及びii)当該候補として前記第2比較結果を用いて生成された第2候補車線情報により示される前記車線の方向、の各々と、前記道路が延びる方向と、の比較に基づいて前記車線情報を生成することを特徴とする車線情報生成装置。
In the lane information generator according to claim 1,
The generation means uses i) the direction of the lane indicated by the first candidate lane information generated using the first comparison result as a candidate for the lane information, and ii) the second comparison result as the candidate. A lane information generation device, characterized in that the lane information is generated based on a comparison between each of the directions of the lane indicated by the second candidate lane information generated in the above and the direction in which the road extends.
請求項1から請求項3のいずれか一項に記載の車線情報生成装置において、
前記実画像に映った前記線分以外の道路標示であって前記車線の中心線上に描かれている道路標示を示す道路標示情報を前記実画像情報から抽出する道路標示抽出手段を更に含み、
前記生成手段は、前記抽出された道路標示情報に基づいて前記車線情報を生成することを特徴とする車線情報生成装置。
In the lane information generator according to any one of claims 1 to 3.
Further including a road marking extracting means for extracting road marking information other than the line segment reflected in the actual image and indicating the road marking drawn on the center line of the lane from the actual image information.
The generation means is a lane information generation device characterized in that the lane information is generated based on the extracted road marking information.
請求項1に記載の車線情報生成装置において、
前記生成手段は、
前記車線情報の候補として前記第1比較結果を用いて生成された第1候補車線情報と、当該候補として前記第2比較結果を用いて生成された第2候補車線情報と、をそれぞれ出力する出力手段と、
各前記出力された第1候補車線情報又は第2候補車線情報のいずれか一方の選択を受け付ける受付手段と、
を含み、
前記生成手段は、前記選択されたいずれか一方に基づいて前記車線情報を生成することを特徴とする車線情報生成装置。
In the lane information generator according to claim 1,
The generation means
Output that outputs the first candidate lane information generated by using the first comparison result as a candidate for the lane information and the second candidate lane information generated by using the second comparison result as the candidate. Means and
A reception means that accepts the selection of either the first candidate lane information or the second candidate lane information that has been output.
Including
The lane information generating device is characterized in that the generating means generates the lane information based on one of the selected lanes.
道路に含まれる車線を示す車線情報を生成する車線情報生成装置において実行される車線情報生成方法であって、
前記道路を撮像した実画像に映った線分を示す線分情報を、当該実画像に対応する実画像情報から抽出する抽出工程と、
前記抽出された線分情報に基づいて、前記道路に交差する方向に並んだ前記線分同士の当該交差する方向の間隔と、前記車線としての幅員と、を比較する比較工程と、
前記比較工程における比較結果に基づいて前記車線情報を生成する生成工程であって、i)前記比較工程における比較結果に基づき、前記間隔が前記幅員よりも長い前記線分の当該間隔を当該幅員に基づいて分割する分割工程と、ii)前記分割された間隔における分割点を通り且つ前記道路が延びる方向の仮想線分を示す仮想線分情報を生成する仮想線分情報生成工程と、を含む生成工程と、
を含み、
前記間隔が前記幅員よりも長い前記線分がある場合に、前記生成工程においては、前記生成された仮想線分情報に基づいて、前記幅員に基づく分割を行わない場合の前記比較結果である第1比較結果と、分割後の前記仮想線分に対応する前記線分と当該仮想線分との間隔と前記幅員との比較結果である第2比較結果と、に基づいて前記車線情報を生成することを特徴とする車線情報生成方法
It is a lane information generation method executed in a lane information generator that generates lane information indicating a lane included in a road.
An extraction step of extracting line segment information indicating a line segment reflected in a real image obtained by capturing the road from the real image information corresponding to the real image, and
Based on the extracted line segment information, a comparison step of comparing the distance between the line segments arranged in the direction intersecting the road and the width of the lane in the intersecting direction, and a comparison step.
In the generation step of generating the lane information based on the comparison result in the comparison step, i) the interval of the line segment whose interval is longer than the width is set to the width based on the comparison result in the comparison step. Generation including a division step of dividing based on ii) a virtual line segment information generation step of generating virtual line segment information indicating a virtual line segment in a direction in which the road extends through a division point at the divided interval. Process and
Including
This is the comparison result when there is a line segment whose interval is longer than the width, and the division based on the width is not performed based on the generated virtual line segment information in the generation step. The lane information is generated based on one comparison result and a second comparison result which is a comparison result between the line segment corresponding to the virtual line segment after division, the distance between the virtual line segment, and the width. A method for generating lane information, which is characterized by the fact that.
道路に含まれる車線を示す車線情報を生成する車線情報生成装置に含まれるコンピュータを、
前記道路を撮像した実画像に映った線分を示す線分情報を、当該実画像に対応する実画像情報から抽出する抽出手段
前記抽出された線分情報に基づいて、前記道路に交差する方向に並んだ前記線分同士の当該交差する方向の間隔と、前記車線としての幅員と、を比較する比較手段、及び、
前記比較手段として機能する前記コンピュータによる比較結果に基づいて前記車線情報を生成する生成手段であって、i)前記比較手段における比較結果に基づき、前記間隔が前記幅員よりも長い前記線分の当該間隔を当該幅員に基づいて分割する分割手段と、ii)前記分割された間隔における分割点を通り且つ前記道路が延びる方向の仮想線分を示す仮想線分情報を生成する仮想線分情報生成手段と、を備える生成手段と、
として機能させ、
前記間隔が前記幅員よりも長い前記線分がある場合に、前記生成手段として機能させる前記コンピュータを、前記生成された仮想線分情報に基づいて、前記幅員に基づく分割を行わない場合の前記比較結果である第1比較結果と、分割後の前記仮想線分に対応する前記線分と当該仮想線分との間隔と前記幅員との比較結果である第2比較結果と、に基づいて前記車線情報を生成するように機能させることを特徴とする車線情報生成用プログラム。
A computer included in the lane information generator that generates lane information indicating the lanes included in the road.
An extraction means for extracting line segment information indicating a line segment reflected in a real image obtained by capturing the road from the real image information corresponding to the real image.
Based on the extracted line segment information, a comparison means for comparing the distance between the line segments arranged in the direction intersecting the road and the width as the lane , and
A generation means for generating the lane information based on the comparison result by the computer functioning as the comparison means, i) the line segment having the interval longer than the width based on the comparison result in the comparison means. A dividing means that divides an interval based on the width, and an ii) a virtual line segment information generating means that generates virtual line segment information indicating a virtual line segment that passes through a dividing point at the divided interval and indicates a virtual line segment in a direction in which the road extends. And a generation means that includes
To function as
The comparison in the case where the computer functioning as the generation means is not divided based on the width based on the generated virtual line segment information when there is the line segment whose interval is longer than the width. The lane is based on the first comparison result, which is the result, and the second comparison result, which is the comparison result between the line segment corresponding to the virtual line segment after division, the distance between the virtual line segment, and the width. A lane information generation program characterized by having it function to generate information.
JP2017070799A 2017-03-31 2017-03-31 Lane information generator, lane information generation method, and lane information generation program Active JP6912251B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017070799A JP6912251B2 (en) 2017-03-31 2017-03-31 Lane information generator, lane information generation method, and lane information generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017070799A JP6912251B2 (en) 2017-03-31 2017-03-31 Lane information generator, lane information generation method, and lane information generation program

Publications (2)

Publication Number Publication Date
JP2018173762A JP2018173762A (en) 2018-11-08
JP6912251B2 true JP6912251B2 (en) 2021-08-04

Family

ID=64107424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017070799A Active JP6912251B2 (en) 2017-03-31 2017-03-31 Lane information generator, lane information generation method, and lane information generation program

Country Status (1)

Country Link
JP (1) JP6912251B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111771206B (en) * 2019-01-30 2024-05-14 百度时代网络技术(北京)有限公司 Map partitioning system for an autonomous vehicle
KR102446433B1 (en) * 2020-06-02 2022-09-23 네이버랩스 주식회사 Apparatus and method for classifying traffic lane
JP7287373B2 (en) * 2020-10-06 2023-06-06 トヨタ自動車株式会社 MAP GENERATION DEVICE, MAP GENERATION METHOD AND MAP GENERATION COMPUTER PROGRAM
JP2023132855A (en) * 2022-03-11 2023-09-22 日立Astemo株式会社 Map information processing device

Also Published As

Publication number Publication date
JP2018173762A (en) 2018-11-08

Similar Documents

Publication Publication Date Title
JP6912251B2 (en) Lane information generator, lane information generation method, and lane information generation program
JP6871784B2 (en) Lane information generator, lane information generation method, and lane information generation program
JP6871785B2 (en) Lane information generator, lane information generation method, and lane information generation program
JP6401140B2 (en) Joint probability modeling and estimation of the structure of intersections
US20170343374A1 (en) Vehicle navigation method and apparatus
CN109059944B (en) Motion planning method based on driving habit learning
KR20200101855A (en) Travelling track prediction method and device for vehicle
JP4569837B2 (en) Feature information collecting apparatus and feature information collecting method
JP4950858B2 (en) Image recognition apparatus and image recognition program
CN109947090A (en) Non- chocking limit for automatic driving vehicle planning
JP4446201B2 (en) Image recognition apparatus and image recognition method
JP2022535351A (en) System and method for vehicle navigation
RU2661963C1 (en) Device for calculating route of motion
JP2017223511A (en) Road structuring device, road structuring method and road structuring program
CN108519094A (en) Local paths planning method and cloud processing end
JP6988450B2 (en) Travel track data generation device in an intersection, travel track data generation program in an intersection, and storage medium
JP5141969B2 (en) Image recognition apparatus, image recognition program, and point information collection apparatus and navigation apparatus using the same
JP6177498B2 (en) Route guidance system
JP2019529945A (en) Road route analysis, measurement and automatic classification system and operation method thereof
JP7435483B2 (en) Map generation device, map generation method, and map generation computer program
JP5099460B2 (en) Feature information collecting apparatus and feature information collecting method
JP2014194698A (en) Road end detection system, method and program
JP4766992B2 (en) Road paint recognition system, road paint recognition method, and road paint database creation method
JP5679207B2 (en) Own vehicle position recognition system, own vehicle position recognition program, and own vehicle position recognition method
JP2009058430A (en) Navigation apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210708

R150 Certificate of patent or registration of utility model

Ref document number: 6912251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350