JP2018173762A - Traffic lane information generation device, traffic lane information generation method, and program for traffic lane information generation - Google Patents

Traffic lane information generation device, traffic lane information generation method, and program for traffic lane information generation Download PDF

Info

Publication number
JP2018173762A
JP2018173762A JP2017070799A JP2017070799A JP2018173762A JP 2018173762 A JP2018173762 A JP 2018173762A JP 2017070799 A JP2017070799 A JP 2017070799A JP 2017070799 A JP2017070799 A JP 2017070799A JP 2018173762 A JP2018173762 A JP 2018173762A
Authority
JP
Japan
Prior art keywords
lane
line
road
information
lane information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017070799A
Other languages
Japanese (ja)
Other versions
JP6912251B2 (en
Inventor
淳一 竹田
Junichi Takeda
淳一 竹田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Geotechnologies Inc
Original Assignee
Pioneer Electronic Corp
Increment P Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp, Increment P Corp filed Critical Pioneer Electronic Corp
Priority to JP2017070799A priority Critical patent/JP6912251B2/en
Publication of JP2018173762A publication Critical patent/JP2018173762A/en
Application granted granted Critical
Publication of JP6912251B2 publication Critical patent/JP6912251B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a new traffic lane information generation device that can automatically generate traffic lane network data indicating the connection mode between traffic lanes included in the roads.SOLUTION: A traffic lane information generation device comprises: an extraction part 1 that extracts lines captured in a real image obtained by picking up an image of the roads, from ortho image data corresponding to the real image; a comparison part 2 that compares the interval in a direction intersecting the roads between the lines arranged side by side in the intersecting direction with the width of traffic lanes included in the roads on the basis of the extracted lines; and a generation part 3 that generates traffic lane networks indicating the traffic lanes on the basis of a result of comparison performed by the comparison part 2.SELECTED DRAWING: Figure 2

Description

本願は、車線情報生成装置及び車線情報生成方法並びに車線情報生成用プログラムの技術分野に属する。より詳細には、道路に含まれる車線(いわゆるレーン)を示す車線情報を生成する車線情報生成装置及び車線情報生成方法並びに当該車線情報生成装置用のプログラムの技術分野に属する。   The present application belongs to a technical field of a lane information generation device, a lane information generation method, and a lane information generation program. More specifically, the present invention belongs to a technical field of a lane information generation device and a lane information generation method for generating lane information indicating a lane (so-called lane) included in a road, and a program for the lane information generation device.

近年、車両の移動を案内するナビゲーション装置について、いわゆる自動運転に関する研究が盛んに行われている。一方、従来のナビゲーション装置では、例えば目的地までの最短ルートを探索するためには、リンクデータ及びノードデータからなる道路データが使用されていた。そして、このような道路データを自動的に作成するための従来技術の一例としては、下記特許文献1に記載された技術がある。   In recent years, research on so-called automatic driving has been actively conducted on navigation devices that guide the movement of vehicles. On the other hand, in the conventional navigation device, for example, road data including link data and node data is used to search for the shortest route to the destination. As an example of the prior art for automatically creating such road data, there is a technique described in Patent Document 1 below.

この特許文献1に記載されている技術では、航空機から地面を撮影した航空写真に相当する画像データから道路に該当する道路エリアを抽出し、その抽出結果に基づいて、道路間の接続状態等を示す道路リンク(「道路ネットワーク」とも称される)のデータを生成して上記道路データとする構成とされている。また特許文献1に記載されている技術では、上記航空写真に相当する画像データ以外の補助データとして、各道路の幅員(道路幅)や車線数(レーン数)を予め取得/記録することで、上記道路エリアの確定や、上記画像データからの車線境界線の抽出に用いる構成とされている。   In the technique described in Patent Document 1, a road area corresponding to a road is extracted from image data corresponding to an aerial photograph obtained by photographing the ground from an aircraft, and the connection state between the roads is determined based on the extraction result. Data of a road link (also referred to as “road network”) is generated and used as the road data. In the technique described in Patent Document 1, the width (road width) and the number of lanes (lanes) of each road are acquired / recorded in advance as auxiliary data other than the image data corresponding to the aerial photograph. The road area is determined and the lane boundary line is extracted from the image data.

特開2008−170611号公報JP 2008-170611 A

しかしながら、上記特許文献1には、道路間の接続態様等を示す道路リンクのデータを生成することは記載されているが、各道路に含まれる車線間の接続態様等を示す車線ネットワークのデータを生成する構成についての開示も示唆も見当たらない。これに対し、上記自動運転の実現のためには、道路ではなく、それに含まれる車線ごとに上記車線ネットワークのデータを用いることが求められている。   However, in the above-mentioned Patent Document 1, although it is described that road link data indicating a connection mode between roads is generated, lane network data indicating a connection mode between lanes included in each road is described. There is no disclosure or suggestion about the configuration to be generated. On the other hand, in order to realize the automatic driving, it is required to use the data of the lane network for each lane included in the road instead of the road.

そこで本願は、上記の要請に鑑みて為されたもので、その課題の一例は、道路に含まれる車線間の接続態様等を示す車線ネットワークデータを自動的に生成することが可能な新規な車線情報生成装置及び車線情報生成方法並びに当該車線情報生成装置用のプログラムを提供することにある。   Therefore, the present application has been made in view of the above request, and an example of the problem is a new lane capable of automatically generating lane network data indicating a connection mode between lanes included in a road. An object is to provide an information generation device, a lane information generation method, and a program for the lane information generation device.

上記の課題を解決するために、請求項1に記載の発明は、道路を撮像した実画像に映った線分を示す線分情報を、当該実画像に対応する実画像情報から抽出する抽出手段と、前記抽出された線分情報に基づいて、前記道路に交差する方向に並んだ前記線分同士の当該交差する方向の間隔と、前記道路に含まれる車線としての幅員と、を比較する比較手段と、前記比較手段による比較結果に基づいて、前記車線を示す車線情報を生成する生成手段と、を備える。   In order to solve the above-described problem, the invention according to claim 1 is an extraction means for extracting line segment information indicating a line segment reflected in a real image obtained by imaging a road from real image information corresponding to the real image. And comparing the distance between the intersecting directions of the line segments arranged in the direction intersecting the road with the width as a lane included in the road based on the extracted line segment information Means and generating means for generating lane information indicating the lane based on a comparison result by the comparing means.

上記の課題を解決するために、請求項7に記載の発明は、道路に含まれる車線を示す車線情報を生成する車線情報生成装置において実行される車線情報生成方法であって、前記道路を撮像した実画像に映った線分を示す線分情報を、当該実画像に対応する実画像情報から抽出する抽出工程と、前記抽出された線分情報に基づいて、前記道路に交差する方向に並んだ前記線分同士の当該交差する方向の間隔と、前記車線としての幅員と、を比較する比較工程と、前記比較工程における比較結果に基づいて前記車線情報を生成する生成工程と、を含む。   In order to solve the above-described problem, the invention according to claim 7 is a lane information generation method executed in a lane information generation apparatus that generates lane information indicating a lane included in a road, and images the road. The line segment information indicating the line segment shown in the actual image is extracted from the real image information corresponding to the real image, and aligned in the direction intersecting the road based on the extracted line segment information. It includes a comparison step of comparing an interval between the line segments in the intersecting direction and a width as the lane, and a generation step of generating the lane information based on a comparison result in the comparison step.

上記の課題を解決するために、請求項8に記載の発明は、道路に含まれる車線を示す車線情報を生成する車線情報生成装置に含まれるコンピュータを、前記道路を撮像した実画像に映った線分を示す線分情報を、当該実画像に対応する実画像情報から抽出する抽出手段、前記抽出された線分情報に基づいて、前記道路に交差する方向に並んだ前記線分同士の当該交差する方向の間隔と、前記車線としての幅員と、を比較する比較手段、及び、前記比較手段として機能する前記コンピュータによる比較結果に基づいて前記車線情報を生成する生成手段、として機能させる。   In order to solve the above-described problem, the invention described in claim 8 shows a computer included in a lane information generation device that generates lane information indicating a lane included in a road reflected in an actual image obtained by imaging the road. Extraction means for extracting line segment information indicating a line segment from actual image information corresponding to the actual image, based on the extracted line segment information, the line segments arranged in a direction intersecting the road It is made to function as a comparison means for comparing the interval in the intersecting direction and the width as the lane, and a generation means for generating the lane information based on a comparison result by the computer functioning as the comparison means.

実施形態に係る車線情報生成装置の概要構成を示すブロック図である。It is a block diagram which shows schematic structure of the lane information generation apparatus which concerns on embodiment. 実施例に係る車線ネットワーク生成装置の概要構成を示すブロック図である。It is a block diagram which shows schematic structure of the lane network production | generation apparatus which concerns on an Example. 実施例に係る車線ネットワーク生成処理を示すフローチャートである。It is a flowchart which shows the lane network production | generation process which concerns on an Example. 実施例に係るオルソ画像データ等を例示する図であり、(a)は当該オルソ画像データを例示する図であり、(b)は路面エリアについての当該オルソ画像データを例示する図であり、(c)は実施例に係る骨格ラインのデータを例示する図であり、(d)は実施例に係る道路標示の位置データを例示する図である。It is a figure which illustrates the ortho image data etc. which concern on an Example, (a) is a figure which illustrates the said ortho image data, (b) is a figure which illustrates the said ortho image data about a road surface area, ( (c) is a figure which illustrates the data of the skeleton line which concerns on an Example, (d) is a figure which illustrates the position data of the road marking which concerns on an Example. 実施例に係るオルソ画像データと道路リンクとの関係等を例示する図であり、(a)は当該関係を例示する図であり、(b)は実施例に係る骨格ラインのデータを例示する図である。It is a figure which illustrates the relationship etc. of the ortho image data and road link which concern on an Example, (a) is a figure which illustrates the said relationship, (b) is a figure which illustrates the data of the skeleton line which concerns on an Example It is. 実施例に係る上下線確率を説明するための図であり、(a)は一条道路の場合の上下線確率を説明するための図であり、(b)は二条道路の場合の上下線確率を説明するための図である。It is a figure for demonstrating the up-and-down line probability which concerns on an Example, (a) is a figure for demonstrating the up-and-down line probability in the case of Ichijo road, (b) is the up-and-down line probability in the case of a Nijo road. It is a figure for demonstrating. 実施例に係る長線等を例示する図であり、(a)は実施例に係る骨格ラインのデータを例示する図であり、(b)実施例に係る外側線を例示する図であり、(c)は実施例に係る長線を例示する図であり、(d)は実施例に係る短線を例示する図であり、(e)は実施例に係る垂直線を例示する図である。It is a figure which illustrates the long line concerning an example, (a) is a figure which illustrates the data of the skeleton line concerning an example, (b) is a figure which illustrates the outside line concerning an example, (c ) Is a diagram illustrating a long line according to the embodiment, (d) is a diagram illustrating a short line according to the embodiment, and (e) is a diagram illustrating a vertical line according to the embodiment. 実施例に係る長線等の状況を例示する図である。It is a figure which illustrates situations, such as a long line concerning an example. 実施例に係る長線等の詳細を例示する図であり、(a)は当該詳細を例示する図であり、(b)は対応する地点のオルソ画像データを例示する図である。It is a figure which illustrates details, such as a long line concerning an example, (a) is a figure which illustrates the details, and (b) is a figure which illustrates ortho image data of a corresponding point. 実施例に係る横断歩道のデータ等を例示する図であり、(a)は実施例に係る短線を例示する図であり、(b)は実施例に係る横断歩道のデータを例示する図である。It is a figure which illustrates the data of the pedestrian crossing which concerns on an Example, (a) is a figure which illustrates the short line which concerns on an Example, (b) is a figure which illustrates the data of the pedestrian crossing which concerns on an Example. . 実施例に係る車線ネットワーク等を例示する図であり、(a)は実施例に係る骨格ラインのデータを例示する図であり、(b)は対応する車線ネットワークを例示する図である。It is a figure which illustrates the lane network etc. which concern on an Example, (a) is a figure which illustrates the data of the skeleton line which concerns on an Example, (b) is a figure which illustrates a corresponding lane network. 実施例に係る垂直ネットワーク等を示す図であり、(a)は対応する骨格ラインのデータを例示する図であり、(b)は実施例に係る垂直ネットワークを例示する図であり、(c)乃至(e)は実施例に係る垂直ネットワークの生成を説明する図である。It is a figure which shows the vertical network etc. which concern on an Example, (a) is a figure which illustrates the data of a corresponding skeleton line, (b) is a figure which illustrates the vertical network which concerns on an Example, (c) (E) to (e) are diagrams for explaining generation of a vertical network according to the embodiment. 実施例に係るラインスコアの算出等を例示する図であり、(a)は対応する垂直ネットワークを例示する図であり、(b)乃至(f)は当該ラインスコアの算出を例示する図である。It is a figure which illustrates calculation of the line score which concerns on an Example, (a) is a figure which illustrates a corresponding vertical network, (b) thru | or (f) is a figure which illustrates calculation of the said line score. . 実施例に係る幅員スコアを説明する図であり、(a)は法定の幅員を示す図であり、(b)は当該幅員スコアの具体例を示す図である。It is a figure explaining the width score which concerns on an Example, (a) is a figure which shows a legal width, (b) is a figure which shows the specific example of the said width score. 実施例に係るラインスコア等を示す図であり、(a)は対応する垂直ネットワーク等を例示する図であり、(b)は当該ラインスコアの具体例を示す図である。It is a figure which shows the line score etc. which concern on an Example, (a) is a figure which illustrates a corresponding vertical network etc., (b) is a figure which shows the specific example of the said line score. 実施例に係る垂直ネットワークスコア等を示す図であり、(a)は対応する垂直ネットワーク等を例示する図であり、(b)は当該垂直ネットワークスコアの具体例を示す図である。It is a figure which shows the vertical network score etc. which concern on an Example, (a) is a figure which illustrates a corresponding vertical network etc., (b) is a figure which shows the specific example of the said vertical network score. 実施例に係るレーンラインの算出等を示す図であり、(a)は対応する垂直ネットワーク等を例示する図であり、(b)及び(c)は当該レーンラインの算出を例示する図であり、(d)は算出後の当該レーンラインを例示する図である。It is a figure which shows calculation of the lane line which concerns on an Example, (a) is a figure which illustrates a corresponding vertical network etc., (b) And (c) is a figure which illustrates calculation of the said lane line. (D) is a figure which illustrates the said lane line after calculation. 実施例に係るレーンスコアを例示する図であり、(a)は当該レーンスコアの第1例を示す図であり、(b)は当該レーンスコアの第2例を示す図であり、It is a figure which illustrates the lane score which concerns on an Example, (a) is a figure which shows the 1st example of the said lane score, (b) is a figure which shows the 2nd example of the said lane score, 実施例に係る車線境界線の欠損等がある場合の車線ネットワークの生成を説明する図(I)であり、(a)は車線境界線の欠損等を例示するオルソ画像データの図であり、(b)は当該欠損等がある場合のラインの状況を例示する図であり、(c)は当該欠損等がある場合の実施例に係る垂直ネットワークの状況を例示する図であり、(d)は当該欠損等がある場合の実施例に係る幅員スコアを例示する図である。It is a figure (I) explaining generation | occurrence | production of a lane network when there exists a defect | deletion etc. of the lane boundary line concerning an Example, (a) is a figure of the ortho image data which illustrates the defect | deletion of a lane boundary line, b) is a diagram illustrating the situation of a line when there is the deficiency, etc., (c) is a diagram illustrating the situation of the vertical network according to the embodiment when there is the deficiency, etc., (d) It is a figure which illustrates the width score which concerns on the Example when there exists the said defect | deletion etc. 実施例に係る車線境界線の欠損等がある場合の車線ネットワークの生成を説明する図(II)であり、(a)は欠損等がある場合のグループ化を例示する図であり、(b)は当該欠損等がある場合の実施例に係るレーンラインの状況を例示する図(I)であり、(c)は当該欠損等がある場合の実施例に係る仮ラインの状況を例示する図であり、(d)は当該欠損等がある場合の実施例に係るレーンラインの状況を例示する図(II)である。It is a figure (II) explaining the production | generation of a lane network when there exists a defect | deletion etc. of the lane boundary line which concerns on an Example, (a) is a figure which illustrates grouping when there exists a defect | deletion, etc. (A) is a diagram illustrating the situation of the lane line according to the embodiment when there is such a deficiency, and (c) is a diagram illustrating the situation of the temporary line according to the embodiment when there is such a deficiency. Yes, (d) is a diagram (II) illustrating the state of the lane line according to the embodiment when there is such a deficiency or the like. 実施例に係る車線境界線の欠損等がある場合のレーンスコア等を例示する図であり、(a)は当該例示する図(I)であり、(b)は当該例示する図(II)である。It is a figure which illustrates a lane score etc. when there is a loss of a lane boundary line concerning an example, (a) is the figure (I) which illustrates the example, (b) is the figure (II) which illustrates the example is there. 実施例に係る車線境界線の欠損等がある場合の車線ネットワークを例示する図であり、(a)は当該車線ネットワークの第1例を例示する図であり、(b)は当該車線ネットワークの第2例を例示する図である。It is a figure which illustrates a lane network in case there is a loss of a lane boundary line concerning an example, (a) is a figure which illustrates the 1st example of the lane network concerned, and (b) is the figure of the lane network concerned. It is a figure which illustrates two examples. 実施例に係る交差点内の車線ネットワークを例示する図である。It is a figure which illustrates the lane network in the intersection which concerns on an Example.

次に、本願を実施するための形態について、図1を用いて説明する。なお図1は、実施形態に係る車線情報生成装置の概要構成を示すブロック図である。   Next, the form for implementing this application is demonstrated using FIG. FIG. 1 is a block diagram illustrating a schematic configuration of the lane information generation device according to the embodiment.

図1に示すように、実施形態に係る車線情報生成装置Sは、抽出手段1と、比較手段2と、生成手段3と、を備えて構成されている。   As illustrated in FIG. 1, the lane information generation device S according to the embodiment includes an extraction unit 1, a comparison unit 2, and a generation unit 3.

この構成において抽出手段1は、道路を撮像した実画像に映った線分を示す線分情報を、当該実画像に対応する実画像情報から抽出する。   In this configuration, the extracting unit 1 extracts line segment information indicating a line segment shown in the actual image obtained by imaging the road from the actual image information corresponding to the actual image.

そして比較手段2は、抽出手段1により抽出された線分情報に基づいて、上記道路に交差する方向に並んだ線分同士の当該交差する方向の間隔と、前記道路に含まれる車線としての幅員と、を比較する。   And the comparison means 2 is based on the line segment information extracted by the extraction means 1 and the interval between the line segments arranged in the direction intersecting the road and the width as the lane included in the road. And compare.

これにより生成手段3は、比較手段2による比較結果に基づいて、車線を示す車線情報を生成する。   Accordingly, the generation unit 3 generates lane information indicating the lane based on the comparison result by the comparison unit 2.

以上説明したように、実施形態に係る車線情報生成装置Sの動作によれば、車線を含む道路を撮像した実画像に対応する実画像情報から、当該実画像に映った線分を示す線分情報を抽出する。そして、道路に交差する方向に並んだ線分同士の当該交差方向の間隔と、車線としての幅員と、を線分情報に基づいて比較し、その比較結果に基づいて車線情報を生成する。よって、実画像に映った線分同士の道路に交差する方向の間隔と幅員との比較に基づいて車線情報を生成するので、道路に含まれる車線を示す車線情報を、実画像情報に基づいて自動的且つ正確に生成することができる。   As described above, according to the operation of the lane information generation device S according to the embodiment, the line segment indicating the line segment shown in the actual image from the actual image information corresponding to the actual image obtained by imaging the road including the lane. Extract information. And the space | interval of the said crossing direction of the line segment located in the direction which cross | intersects a road and the width | variety as a lane are compared based on line segment information, and lane information is produced | generated based on the comparison result. Therefore, since the lane information is generated based on the comparison between the width of the direction intersecting the road between the line segments reflected in the real image and the width, the lane information indicating the lane included in the road is based on the real image information. It can be generated automatically and accurately.

次に、上述した実施形態に対応する具体的な実施例について、図2乃至図23を用いて説明する。なお以下に説明する実施例は、道路に含まれる車線ごとの接続状態等を示す車線(レーン)ネットワーク情報の自動生成に本願を適用した場合の実施例である。   Next, specific examples corresponding to the above-described embodiment will be described with reference to FIGS. In addition, the Example demonstrated below is an Example at the time of applying this application to the automatic production | generation of the lane (lane) network information which shows the connection state etc. for every lane contained in a road.

また、図2は実施例に係る車線ネットワーク生成装置の概要構成を示すブロック図であり、図3は実施例に係る車線ネットワーク生成処理を示すフローチャートであり、図4は実施例に係るオルソ画像データ等を例示する図であり、図5は実施例に係るオルソ画像データと道路リンクとの関係等を例示する図である。また、図6は実施例に係る上下線確率を説明するための図であり、図7は実施例に係る長線等を例示する図であり、図8は実施例に係る長線等の状況を例示する図であり、図9は実施例に係る長線等の詳細を例示する図であり、図10は実施例に係る横断歩道のデータ等を例示する図である。更に、図11は実施例に係る車線ネットワーク等を例示する図であり、図12は実施例に係る垂直ネットワーク等を示す図であり、図13は実施例に係るラインスコアの算出等を例示する図であり、図14は実施例に係る幅員スコアを説明する図である。更にまた、図15は実施例に係るラインスコア等を示す図であり、図16は実施例に係る垂直ネットワークスコア等を示す図であり、図17は実施例に係るレーンラインの算出等を示す図であり、図18は実施例に係るレーンスコアを例示する図であり、図19は実施例に係る車線境界線の欠損等がある場合の車線ネットワークの生成を説明する図(I)である。また、図20は実施例に係る車線境界線の欠損等がある場合の車線ネットワークの生成を説明する図(II)であり、図21は実施例に係る車線境界線の欠損等がある場合のレーンスコア等を例示する図であり、図22は実施例に係る車線境界線の欠損等がある場合の車線ネットワークを例示する図であり、図23は実施例に係る交差点内の車線ネットワークを例示する図である。このとき図2では、図1に示した実施形態に係る車線情報生成装置Sにおける各構成部材に対応する実施例の構成部材それぞれについて、当該車線情報生成装置Sにおける各構成部材と同一の部材番号を用いている。   2 is a block diagram showing a schematic configuration of the lane network generation device according to the embodiment, FIG. 3 is a flowchart showing a lane network generation processing according to the embodiment, and FIG. 4 is ortho image data according to the embodiment. FIG. 5 is a diagram illustrating the relationship between the ortho image data and the road link according to the embodiment. 6 is a diagram for explaining the probability of up and down lines according to the embodiment, FIG. 7 is a diagram illustrating long lines and the like according to the embodiment, and FIG. 8 illustrates the situation of long lines and the like according to the embodiment. FIG. 9 is a diagram illustrating details of long lines and the like according to the embodiment, and FIG. 10 is a diagram illustrating data of a pedestrian crossing according to the embodiment. 11 is a diagram illustrating a lane network according to the embodiment, FIG. 12 is a diagram illustrating a vertical network according to the embodiment, and FIG. 13 illustrates calculation of a line score according to the embodiment. FIG. 14 is a diagram for explaining the width score according to the embodiment. FIG. 15 is a diagram showing line scores and the like according to the embodiment, FIG. 16 is a diagram showing vertical network scores and the like according to the embodiment, and FIG. 17 shows calculation of lane lines and the like according to the embodiment. FIG. 18 is a diagram illustrating a lane score according to the embodiment, and FIG. 19 is a diagram (I) illustrating generation of a lane network when there is a lane boundary line defect or the like according to the embodiment. . FIG. 20 is a diagram (II) illustrating generation of a lane network when there is a lane boundary line defect or the like according to the embodiment, and FIG. 21 is a diagram when there is a lane boundary line defect or the like according to the embodiment. 22 is a diagram illustrating a lane score and the like. FIG. 22 is a diagram illustrating a lane network when a lane boundary line is missing according to the embodiment. FIG. 23 is a diagram illustrating a lane network in an intersection according to the embodiment. It is a figure to do. At this time, in FIG. 2, the same member numbers as the respective constituent members in the lane information generating apparatus S for the respective constituent members in the examples corresponding to the respective constituent members in the lane information generating apparatus S according to the embodiment shown in FIG. 1. Is used.

図2に示すように、実施例に係る車線ネットワーク生成装置SVは、CPU、RAM(Random Access Memory)及びROM(Read Only Memory)等からなる処理部10と、外部の例えばインターネット等のネットワーク等との間のデータの授受を制御するインターフェース11と、キーボード及びマウス等からなる操作部12と、液晶ディスプレイ等からなるディスプレイ13と、HDD(Hard Disc Drive)又はSSD(Solid State Drive)等からなる記録部14と、を備えて構成されている。また処理部10は、実施形態に係る抽出手段1の一例としての抽出部1と、実施形態に係る比較手段2の一例としての検出部2と、実施形態に係る生成手段3の一例としての生成部3と、を備えて構成されている。このとき、上記抽出部1、検出部2及び生成部3のそれぞれは、処理部10を構成するCPU等のハードウェアロジック回路により実現されてもよいし、後述する実施例に係る車線ネットワーク生成処理に対応するプログラムを当該CPU等が読み出して実行することにより、ソフトウェア的に実現されるものであってもよい。また図2に破線で示すように、抽出部1、検出部2及び生成部3により、実施形態に係る車線情報生成装置Sの一例を構成している。また、抽出部1が本願に係る「道路標示抽出手段」の一例に相当し、検出部2が本願に係る「長さ検出手段」の一例に相当し、生成部3が、本願に係る「分割手段」の一例、「仮想線分情報生成手段」の一例、「接続情報生成手段」の一例にそれぞれ相当する。   As shown in FIG. 2, the lane network generation device SV according to the embodiment includes a processing unit 10 including a CPU, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, and an external network such as the Internet. An interface 11 for controlling the exchange of data between them, an operation unit 12 including a keyboard and a mouse, a display 13 including a liquid crystal display, and a recording including an HDD (Hard Disc Drive) or an SSD (Solid State Drive). And a portion 14. The processing unit 10 includes an extraction unit 1 as an example of the extraction unit 1 according to the embodiment, a detection unit 2 as an example of the comparison unit 2 according to the embodiment, and a generation as an example of the generation unit 3 according to the embodiment. Part 3. At this time, each of the extraction unit 1, the detection unit 2, and the generation unit 3 may be realized by a hardware logic circuit such as a CPU constituting the processing unit 10, or a lane network generation process according to an embodiment described later. The CPU or the like may read out and execute a program corresponding to the above, and may be realized as software. Moreover, as shown by a broken line in FIG. 2, the extraction unit 1, the detection unit 2, and the generation unit 3 constitute an example of the lane information generation device S according to the embodiment. Further, the extraction unit 1 corresponds to an example of the “road marking extraction unit” according to the present application, the detection unit 2 corresponds to an example of the “length detection unit” according to the present application, and the generation unit 3 It corresponds to an example of “means”, an example of “virtual line segment information generating means”, and an example of “connection information generating means”.

以上の構成において、実施例に係る車線ネットワーク生成処理の対象となる航空写真のデータは、航空機により撮影された航空写真のデータから生成されたオルソ画像データとして、例えば記録部14に予め記録されているか、又は、インターフェース11を介して外部から取得される。一方操作部12は、当該操作部12において車線ネットワーク生成装置SVに対する指示操作が行われると、当該指示操作に対応する操作信号を生成して処理部10に出力する。これらにより処理部10は、抽出部1、検出部2及び生成部3により、ディスプレイ13上に必要な情報を表示しつつ、上記オルソ画像データを用いて実施例に係る車線ネットワーク生成処理を行う。ここで実施例に係る車線ネットワークとは、従来からの道路リンクにより示される道路に含まれる車線の状況を当該車線ごとに示すネットワークである。この場合の「車線の状況」とは、例えば、一つの道路にいくつ(何本)の車線が含まれているか、や、一つの道路における車線数の変更の状況、或いは、他の道路の車線とどのように接続されているか、等の状況をいう。そして実施例に係る車線ネットワークは、現在研究が進められている自動運転への活用等を目標の一つとしたものである。   In the above configuration, the aerial photograph data to be subjected to the lane network generation process according to the embodiment is recorded in advance in the recording unit 14 as ortho image data generated from the aerial photograph data taken by the aircraft, for example. Or acquired from the outside via the interface 11. On the other hand, when an instruction operation is performed on the lane network generation device SV in the operation unit 12, the operation unit 12 generates an operation signal corresponding to the instruction operation and outputs the operation signal to the processing unit 10. Thus, the processing unit 10 performs lane network generation processing according to the embodiment using the ortho image data while displaying necessary information on the display 13 by the extraction unit 1, the detection unit 2, and the generation unit 3. Here, the lane network according to the embodiment is a network that shows, for each lane, the state of a lane included in a road indicated by a conventional road link. The “lane condition” in this case is, for example, how many (how many) lanes are included in one road, the change in the number of lanes on one road, or the lanes on other roads. And how they are connected. The lane network according to the embodiment is one of the targets for use in automatic driving, which is currently being researched.

次に、実施例に係る車線ネットワーク生成処理について、具体的に図2乃至図23を用いて説明する。   Next, the lane network generation processing according to the embodiment will be specifically described with reference to FIGS.

実施例に係る車線ネットワーク生成処理は、例えば操作部12における開始操作により開始される。そして図3に対応するフローチャートを示すように、実施例に係る車線ネットワーク生成処理が開始されると、当該車線ネットワーク生成処理の対象となる上記オルソ画像データが、例えば記録部14から、又はインターフェース11を介して取得される(ステップS1)。このとき当該オルソ画像データは、例えば図4(a)に例示するような航空写真の画像データであり、交差点CRで交差する道路Rの画像と共に、道路を跨ぐ歩道橋のような構造物BRが映っている。また、当該道路R上に存在する乗用車CやバスBのほか、分離帯P等も映っている。このようなオルソ画像データが入力されると、次に処理部10の抽出部1は、例えばセグメンテーション処理やマスク処理により、道路R及び交差点CRに相当する路面エリアを当該オルソ画像データから抽出する(ステップS2)。このステップS2の結果としては、例えば図4(b)に示すような路面エリアのみがオルソ画像データから抽出される。次に抽出部1は、路面エリアのみとなったオルソ画像データから、道路R及び交差点CRの表面に描かれている道路標示を抽出する(ステップS3)。ステップS3で抽出される道路標示(いわゆる路面ペイント)とは、通常は各車線の中央に白色等のペイントを用いて描かれている標示であり、進行方向を示す矢印標示や、行先標示、横断歩道標示、又は「バス優先」といった文字標示等が含まれる。この場合の道路標示のデータは、例えば図4(d)に白点で示す当該道路標示の位置データに加えて、向きのデータ、スケールのデータ、及び類似値のデータ等を含んでいる。   The lane network generation process according to the embodiment is started by a start operation in the operation unit 12, for example. As shown in the flowchart corresponding to FIG. 3, when the lane network generation process according to the embodiment is started, the ortho image data that is the target of the lane network generation process is, for example, from the recording unit 14 or the interface 11. (Step S1). At this time, the ortho image data is, for example, image data of an aerial photograph as illustrated in FIG. 4A, and a structure BR such as a pedestrian bridge across the road is displayed together with an image of the road R intersecting at the intersection CR. ing. In addition to the passenger car C and the bus B existing on the road R, a separation zone P and the like are also shown. When such ortho image data is input, the extraction unit 1 of the processing unit 10 next extracts a road surface area corresponding to the road R and the intersection CR from the ortho image data by, for example, segmentation processing or mask processing ( Step S2). As a result of this step S2, for example, only the road surface area as shown in FIG. 4B is extracted from the ortho image data. Next, the extraction part 1 extracts the road marking drawn on the surface of the road R and the intersection CR from the ortho image data which became only the road surface area (step S3). The road sign (so-called road surface paint) extracted in step S3 is a sign that is usually drawn using white paint at the center of each lane, such as an arrow sign indicating the direction of travel, a destination sign, and a crossing. A sidewalk sign or a character sign such as “bus priority” is included. The road marking data in this case includes, for example, orientation data, scale data, similarity value data, and the like in addition to the position data of the road marking indicated by white dots in FIG.

次に抽出部1は、いわゆるポリライン化等の処理により、路面エリアのみのオルソ画像データから道路R等を構成する線分からなる骨格ラインを抽出する(ステップS4)。ステップS4の処理は、路面エリアのみのオルソ画像データを細線化又は細分化する処理である。このステップS4の結果としては、例えば図4(b)に示す路面エリアのみのオルソ画像データに対応した図4(c)に示すような骨格ラインのデータが生成される。この骨格ラインのデータはいわゆるベクトルデータである。   Next, the extraction unit 1 extracts a skeleton line composed of line segments constituting the road R and the like from the ortho image data of only the road surface area by a process such as so-called polyline conversion (step S4). The process of step S4 is a process of thinning or subdividing the ortho image data of only the road surface area. As a result of this step S4, for example, skeleton line data as shown in FIG. 4C corresponding to the ortho image data of only the road surface area shown in FIG. 4B is generated. This skeleton line data is so-called vector data.

次に抽出部1は、図5に例示するように、オルソ画像データに映っている道路Rに対応する道路リンクRLのデータ(図5(a)参照)と、ステップS4で抽出した骨格ラインに含まれる各ライン(線分。図5(b)参照。)と、を比較し、骨格ラインにおいて道路リンクRLの周辺且つそのリンク方向に平行なライン及び垂直なラインをそれぞれ抽出し、その比較対象となった道路リンクRLのデータに紐付ける(ステップS5)。このとき図5(b)に例示する場合は、例えば交差点手前の横断歩道を示す道路標示は道路リンクRLに平行な線分からなっており、道路リンクRLに垂直なラインとしては例えば一時停止線に相当するラインが挙げられる。次に抽出部1は、上り線及び下り線の道路リンクRLと各ラインを紐付ける(ステップS6)。このとき抽出部1は、相対距離に起因したいずれかの道路リンクへの振り分けの困難性を考慮して、全てのラインについて、道路リンクRLとの関係における上下線確率(上り線に対応するラインである確率又は下り線に対応するラインである確率)を算出する(ステップS6)。   Next, as illustrated in FIG. 5, the extraction unit 1 uses the road link RL data (see FIG. 5A) corresponding to the road R shown in the ortho image data and the skeleton line extracted in step S <b> 4. Each included line (line segment; see FIG. 5 (b)) is compared, and a line around the road link RL and a line parallel to the link direction and a line perpendicular to the link direction are extracted from the skeleton line. It is linked to the data of the road link RL that has become (step S5). At this time, in the case illustrated in FIG. 5B, for example, the road marking indicating the pedestrian crossing before the intersection is composed of a line segment parallel to the road link RL, and a line perpendicular to the road link RL is, for example, a temporary stop line. The corresponding line is mentioned. Next, the extraction unit 1 associates each line with the road link RL of the up line and the down line (step S6). At this time, the extraction unit 1 considers the difficulty of allocating to any road link due to the relative distance, and for all lines, the vertical line probability in relation to the road link RL (the line corresponding to the up line) Or the probability corresponding to the downlink) (step S6).

ここで上記上下線確率とは、例えば図6(a)に示す一条道路(即ち原則として上り線と下り線からなる、一本の道路リンクRLに対応する道路)の場合は、道路ラインRLから遠ざかる位置にあるラインほど、上り線又は下り線である確率が高くなるが、道路リンクRLに相当する道路Rの中央部にいくほど、そのラインが上り線内に存在する確率と下り線内に存在する確率とは等しくなる(図6(a)参照)。一方、例えば図6(b)に示す二条道路(即ち原則として複数の車線にそれぞれ対応し且つ相互にリンク方向が反対である二本の道路リンクRLに対応する道路)の場合は、二本の道路ラインRLの外側は上り線又は下り線である確率が百パーセントとなるが、二本の道路ラインRLの間の領域では距離に応じて上り線である確率又は下り線である確率が異なってくる(図6(b)参照)。   Here, the above vertical line probability is, for example, in the case of a single road shown in FIG. 6A (that is, a road corresponding to a single road link RL consisting of an up line and a down line in principle) from the road line RL. The farther away the line, the higher the probability of being an up line or down line, but the closer to the center of the road R corresponding to the road link RL, the more likely that the line is in the up line and the down line. The probability of being present is equal (see FIG. 6A). On the other hand, for example, in the case of a two-row road shown in FIG. 6B (that is, a road corresponding to two road links RL each corresponding to a plurality of lanes and having opposite link directions in principle), The probability that the outside of the road line RL is an up line or a down line is one hundred percent, but in the area between the two road lines RL, the probability of being an up line or down line differs depending on the distance. Comes (see FIG. 6B).

次に抽出部1は、操作部12における設定操作等に基づいて、骨格ライン化された道路R(図4(c)、図5(b)又は図7(a)参照)のうち、実施例に係る車線ネットワーク生成処理の対象となる区間を一又は複数設定する(ステップS7)。次に抽出部1は、操作部12における操作に基づいて、設定した(ステップS7参照)区画のうちいずれか一の区画が選択されたか否かを判定する(ステップS8)。ステップS8の判定において、例えば交差点CR内以外の全ての区画についての車線ネットワーク生成処理が終了している等の理由によりいずれの区画も選択されない場合(ステップS8:NO)、処理部10は後述するステップS15に移行して交差点CR内の車線ネットワーク生成処理を行う。一方ステップS8の判定において、いずれか一の区画が選択された場合(ステップS8:YES)、次に抽出部1は、ステップS8で選択された区画に含まれている各ラインについて、それぞれの実際の長さに基づいた区分を行う。ここで、骨格ラインに含まれているラインの実際の(現実の)長さの検出は、例えばオルソ画像データの細線化(上記ステップS4参照)の後にベクトルデータ化することにより可能となる。またこれ以外の方法として、元のオルソ画像データ(航空写真)のスケール(縮尺)及び画像内のピクセル(画素)からメートルに変換してもよいし、当該変換をすることなくピクセル空間での距離を算出する方法でも可能である。但しこの場合も、単純にピクセル距離ではなく、サブピクセルで処理して精度を向上させる必要があると考えられる。より具体的に抽出部1は、図7(a)に示す骨格ラインとして抽出された各ラインを、各道路Rの外側線(道路以外の領域との境界線)を示す外側線OL(図7(b)参照)と、道路に平行且つ実測8.5メートル以上の長さを有する長線LL(図7(c)参照)と、道路に平行且つ実測8.5メートル未満の長さを有する短線SL(図7(d)参照)と、道路に垂直な垂直線VL(図7(e)参照)と、に区分する。このとき、長線LLと短線SLとを分けるための閾値である「8.5メートル」とは、道路構造令における高速道路の車線境界線(破線)の長さが8メートルとされていることから、それよりも少し長い閾値を設けたものである。そして、これら外側線OL、長線LL、短線SL及び垂直線VLを骨格ライン化されたデータ上で見ると、例えば交差点CRだと当該長線LL等が図8に例示するように分布していることになる。そして当該交差点CR部分を拡大し、オルソ画像データとしての実際の航空写真(図9(b)参照)と比較すると、図9(a)に例示するように、構造物BRに相当するライン50、車線境界線に相当するライン51、画像データ上の雑音に相当するライン52、上記分離帯Pに相当するライン53、一時停止線に相当するライン54、自転車横断帯に相当するライン55、バス等によるノイズに相当するライン56、道路標示に相当するライン57、車線境界線に相当するライン58及び横断歩道に相当するライン59等が含まれていることが判る。   Next, the extraction unit 1 is an embodiment of the road R (see FIG. 4C, FIG. 5B, or FIG. 7A) that has been converted into a skeleton line based on the setting operation or the like in the operation unit 12. One or a plurality of sections to be subjected to the lane network generation process are set (step S7). Next, the extraction unit 1 determines whether any one of the set (see step S7) sections has been selected based on the operation in the operation unit 12 (step S8). In the determination in step S8, for example, if no section is selected for the reason that the lane network generation processing for all sections other than in the intersection CR has been completed (step S8: NO), the processing unit 10 will be described later. The process proceeds to step S15 to perform a lane network generation process in the intersection CR. On the other hand, if any one of the sections is selected in the determination in step S8 (step S8: YES), the extraction unit 1 then selects each actual line for each line included in the section selected in step S8. Classification based on the length of. Here, the actual (real) length of the lines included in the skeleton line can be detected, for example, by converting the ortho image data into a vector data after thinning (see step S4). As another method, the original ortho image data (aerial photograph) scale (scale) and pixels in the image may be converted to meters, or the distance in the pixel space without the conversion. It is also possible to calculate the value. However, in this case as well, it is considered that it is necessary to improve accuracy by processing with sub-pixels instead of simply pixel distances. More specifically, the extraction unit 1 converts each line extracted as the skeleton line shown in FIG. 7A into an outer line OL (FIG. 7) indicating an outer line of each road R (a boundary line with a region other than the road). (See (b)), a long line LL (see FIG. 7C) parallel to the road and having a length of 8.5 meters or more, and a short line parallel to the road and having a length of less than 8.5 meters. It is divided into SL (see FIG. 7D) and a vertical line VL perpendicular to the road (see FIG. 7E). At this time, the threshold for separating the long line LL and the short line SL is “8.5 meters” because the lane boundary line (broken line) of the expressway in the road structure ordinance is 8 meters. , A threshold value slightly longer than that is provided. When these outer lines OL, long lines LL, short lines SL, and vertical lines VL are viewed on the skeleton line data, for example, at the intersection CR, the long lines LL are distributed as illustrated in FIG. become. When the intersection CR portion is enlarged and compared with an actual aerial photograph (see FIG. 9B) as ortho image data, as illustrated in FIG. 9A, a line 50 corresponding to the structure BR, A line 51 corresponding to a lane boundary line, a line 52 corresponding to noise on image data, a line 53 corresponding to the separation band P, a line 54 corresponding to a temporary stop line, a line 55 corresponding to a bicycle crossing band, a bus, etc. It can be seen that a line 56 corresponding to noise due to the above, a line 57 corresponding to a road marking, a line 58 corresponding to a lane boundary line, a line 59 corresponding to a pedestrian crossing, and the like are included.

次に抽出部1は、骨格ラインに上記ステップS9で区分した短線SLとして含まれている各ライン(図10(a)参照)から、平行且つ予め設定された密度以上の密度で等間隔で並んでいる短線SLを、横断歩道を示すライン59として検出する(ステップS10)。これは、横断歩道を示すライン59は、実施例に係る車線ネットワークには含まれないからである。   Next, the extraction unit 1 arranges the skeleton lines at equal intervals in parallel and at a density equal to or higher than a preset density from each line (see FIG. 10A) included as the short lines SL divided in step S9. The short line SL is detected as a line 59 indicating a pedestrian crossing (step S10). This is because the line 59 indicating the pedestrian crossing is not included in the lane network according to the embodiment.

以上のステップS10までの処理を前提として、以下に説明する処理が処理部10の検出部2等において順次実行されることにより、実施例に係る車線ネットワーク生成処理が行われる。そして当該車線ネットワーク生成処理の結果としては、例えば図11(a)に示す骨格ラインに含まれる各ラインのデータから、図11(b)に例示するような車線ネットワークLNWが生成される(ステップS11乃至ステップS15)。なお以下の説明では、上記ステップS7において設定された車線ネットワーク生成処理の対象となる区間が図9(a)に示す破線楕円で囲まれた領域内の、図12(a)に示す破線長方形で示された区間であるとする。   On the premise of the processing up to step S10 described above, the processing described below is sequentially executed in the detection unit 2 and the like of the processing unit 10, whereby the lane network generation processing according to the embodiment is performed. As a result of the lane network generation processing, for example, a lane network LNW as illustrated in FIG. 11B is generated from the data of each line included in the skeleton line illustrated in FIG. 11A (step S11). To Step S15). In the following description, the section that is the target of the lane network generation process set in step S7 is a dashed rectangle shown in FIG. 12A in the area surrounded by the dashed ellipse shown in FIG. It is assumed that the section is shown.

上述したステップS1乃至ステップS10が終了したら、次に処理部10の検出部2は、図12(a)において破線長方形で示されている区間に相当するベクトルデータVD(骨格ラインのデータ)を対象として、実施例に係る垂直ネットワークを用いた車線ネットワークの生成を行う(ステップS11)。このとき検出部2及び生成部3は、上記垂直線VL及び横断歩道を構成する短線SL(図10(b)参照)は、処理の対象外とする。   When step S1 to step S10 are completed, the detection unit 2 of the processing unit 10 next targets the vector data VD (skeleton line data) corresponding to the section indicated by the broken-line rectangle in FIG. Then, a lane network using the vertical network according to the embodiment is generated (step S11). At this time, the detection unit 2 and the generation unit 3 exclude the vertical line VL and the short line SL constituting the pedestrian crossing (see FIG. 10B) from the processing target.

ここで実施例に係る垂直ネットワークNとは、図12(b)に例示するように、相隣接する二つのライン(骨格ラインのデータとしてのライン)L同士を結ぶ線分であって、その両端に、各ラインL上にあるノードNDを有する線分である。   Here, the vertical network N according to the embodiment is a line segment connecting two adjacent lines (lines as data of the skeleton line) L as illustrated in FIG. Are line segments having nodes ND on each line L.

ステップS11として先ず初めに検出部2は、例えば図12(c)に示すように、対象となる区間内にある複数のラインLA等の中から一つの対象ラインLXを選び、並行している道路リンクRLのリンク方向に垂直な方向に対象ラインLXを移動させたとき(図12(c)ハッチング部分参照)に接触する他のラインLA、ラインLC、ラインLD及びラインLEそれぞれとの対象ラインLXと間に垂直ネットワークNを設定する。このとき検出部2は、図12(d)又は図12(e)に例示するように、相隣接する二つのラインLA及びラインLBを道路リンクRLの方向へ平行投影したときに交差する領域(図12(d)及び図12(e)におけるハッチング部分参照)の中心位置と各ラインLA及びラインLBとの交点をノードNDの位置として、垂直ネットワークNを設定する。なお検出部2は、対象ラインLXから見て他のラインLCにより遮蔽されているラインLF(図12(c)参照)については、ベクトルデータVDとしてのノイズであるとして、垂直ネットワークNの設定の対象外とする。そして、図12(a)に破線長方形で示す対象区間に含まれる各ラインLA乃至ラインLLについてそれぞれ垂直ネットワークNを設定すると、図13(a)に例示する垂直ネットワークN1乃至垂直ネットワークN13が設定される。   As step S11, the detection unit 2 first selects one target line LX from a plurality of lines LA in the target section, for example, as shown in FIG. When the target line LX is moved in a direction perpendicular to the link direction of the link RL (see the hatched portion in FIG. 12C), the target lines LX with other lines LA, LC, LD, and LE that are in contact with each other A vertical network N is set in between. At this time, as illustrated in FIG. 12D or 12E, the detection unit 2 intersects two adjacent lines LA and LB when they are projected in parallel in the direction of the road link RL ( The vertical network N is set with the intersection of the center position of each line LA and line LB in FIG. 12D and FIG. 12E as the position of the node ND. The detection unit 2 sets the vertical network N on the assumption that the line LF (see FIG. 12C) that is shielded by the other line LC when viewed from the target line LX is noise as the vector data VD. Not applicable. Then, when the vertical network N is set for each of the lines LA to LL included in the target section indicated by the dashed rectangle in FIG. 12A, the vertical networks N1 to N13 illustrated in FIG. 13A are set. The

次に検出部2は、相隣接するラインL自体の実際の長さから、各ラインLが車線境界線に対応している状態(即ち車線境界線らしさ)を示すパラメータの一つである「ラインスコア」を、ラインLごとに算出する。より具体的に検出部2は、各ラインLについて、垂直ネットワークNにノードNDを介して接続する二つのラインLにおいて、±0.5メートルの範囲でそれぞれの長さが近い値である場合、それぞれのラインLのラインスコアを1点加算する。この長さによる各ラインLのラインスコアについては、同じ長さのラインLが相隣接しているほど(即ち、当該二つのラインLにおける車線境界線らしさが高いほど)高いスコアとなる。例えば図13(b)に示すラインLAとラインLBとに着目した場合、実際の長さが順に1.5メートルと1.0メートルであったとすると、これらラインLAとラインLBについて、それぞれラインスコアが1点加算される。また同様に、図13(c)に示すラインLBとラインLCとに着目した場合、実際の長さが順に1.0メートルと0.8メートルであったとすると、これらラインLBとラインLCについても、それぞれラインスコアが1点加算される。これらの結果、ラインLAについてはラインスコアが1点加算され、ラインLBについてはラインスコアが合計2点加算され、ラインLCについてはラインスコアが1点加算される。なお、各ラインLそれぞれの長さによるラインスコアの値を、以下適宜「条件1」と称する。   Next, the detection unit 2 determines whether each line L corresponds to a lane boundary line (that is, the likelihood of a lane boundary line) from the actual lengths of the adjacent lines L themselves. "Score" is calculated for each line L. More specifically, for each line L, when the lengths of the two lines L connected to the vertical network N via the node ND are close to each other in a range of ± 0.5 meters, One point is added to the line score of each line L. About the line score of each line L by this length, it becomes a high score, so that the line L of the same length adjoins (namely, the likelihood of the lane boundary line in the said two lines L is high). For example, when attention is paid to the line LA and the line LB shown in FIG. 13B, if the actual lengths are 1.5 m and 1.0 m in order, the line scores for the line LA and the line LB are respectively set. 1 point is added. Similarly, when attention is paid to the line LB and the line LC shown in FIG. 13C, if the actual length is 1.0 meter and 0.8 meter in order, the line LB and the line LC are also described. Each line score is incremented by one point. As a result, one line score is added for the line LA, two line scores are added for the line LB, and one line score is added for the line LC. The value of the line score based on the length of each line L is hereinafter referred to as “condition 1” as appropriate.

次に検出部2は、相隣接するラインLの間隔(幅員)からも、各ラインLの車線境界線らしさを算出する。より具体的に検出部2は、図14(a)に示す道路構造令第5条第4項に規定されている車線の幅員に基づいて定義された図14(b)に示す幅員クラスWを用いて、各ラインLの車線境界線らしさを算出する。なお図14(b)に例示する場合は、±10パーセントの余裕を持たせて各幅員クラスWの定義が規定されている。また図14にそれぞれ記載されているデータは、例えば記録部14に予め記録されているものを用いればよい。そして検出部2は、複数の垂直ネットワークNに接続しているラインLのそれぞれについて、幅員クラスW0と幅員クラスW9に該当するもの以外の垂直ネットワークNの数を「n」とし、同じ幅員クラスに属する垂直ネットワークNの最大数をm(m>1)としたとき、「m/n」の値をラインスコアに加算する。この幅員スコアWによる各ラインLのラインスコアについては、同じ幅員クラスに属するラインLが相隣接しているほど(即ち、当該二つのラインLにおける車線境界線らしさが高いほど)高いスコアとなる。例えば図13(d)に示すラインLXに着目した場合、ラインLAに対する幅員スコアWとラインLBに対する幅員スコアWとが異なっており、有効な垂直ネットワークNが二つであるので、幅員クラスWによるラインスコアは0/2=0.0が加算される。また、例えば図13(e)に示すラインLXに着目した場合、ラインLAに対する幅員スコアWとラインLBに対する幅員スコアWとが同じであり、有効な垂直ネットワークNが二つであるので、幅員クラスWによるラインスコアは2/2=1.0が加算される。更に、例えば図13(f)に示すラインLXに着目した場合、三種類の幅員スコアWが対応するが、幅員スコアW2の垂直ネットワークNが三つで数が最も多く、有効な垂直ネットワークNが(幅員スコアW0の垂直ネットワークNを除いた)四つであるので、幅員クラスWによるラインスコアは3/4=0.75が加算される。なお、各ラインLそれぞれの幅員クラスWによるラインスコアの値を、以下適宜「条件2」と称する。   Next, the detection unit 2 calculates the likelihood of the lane boundary line of each line L also from the interval (width) of the adjacent lines L. More specifically, the detection unit 2 determines the width class W shown in FIG. 14 (b) defined based on the width of the lane defined in Article 5 (4) of the Road Structure Ordinance shown in FIG. 14 (a). The lane boundary line likelihood of each line L is calculated. In the case illustrated in FIG. 14B, the definition of each width class W is defined with a margin of ± 10%. Further, as the data described in FIG. 14, for example, data recorded in advance in the recording unit 14 may be used. The detection unit 2 sets the number of vertical networks N other than those corresponding to the width class W0 and the width class W9 to “n” for each of the lines L connected to the plurality of vertical networks N, and sets the same width class. When the maximum number of the vertical networks N to which it belongs is m (m> 1), the value of “m / n” is added to the line score. The line score of each line L based on the width score W becomes higher as the lines L belonging to the same width class are adjacent to each other (that is, the higher the lane boundary line in the two lines L is). For example, when attention is paid to the line LX shown in FIG. 13D, the width score W for the line LA is different from the width score W for the line LB, and there are two effective vertical networks N. 0/2 = 0.0 is added to the line score. For example, when attention is paid to the line LX shown in FIG. 13 (e), the width score W for the line LA and the width score W for the line LB are the same, and there are two effective vertical networks N. 2/2 = 1.0 is added to the line score by W. Further, for example, when attention is paid to the line LX shown in FIG. 13 (f), three types of width scores W correspond, but the number of the vertical networks N of the width scores W2 is three, and the number of effective vertical networks N is the largest. Since it is four (excluding the vertical network N of the width score W0), 3/4 = 0.75 is added to the line score by the width class W. In addition, the value of the line score by the width class W of each line L is hereinafter referred to as “condition 2” as appropriate.

そして検出部2は、上記条件1及び上記条件2によるラインスコアをラインLごとに加算し、ラインスコアを集計する。このとき、図13(a)及び図15(a)に例示する各ラインLA乃至ラインLLの場合、それぞれの集計結果は図15(b)に示すものとなる。   And the detection part 2 adds the line score by the said conditions 1 and the said condition 2 for every line L, and totals a line score. At this time, in the case of each of the lines LA to LL illustrated in FIG. 13A and FIG. 15A, the total results are as shown in FIG.

次に検出部2は、各ラインL間の幅員について、当該幅員らしさをしめすパラメータである垂直ネットワークスコアを各垂直ネットワークNについて算出する。より具体的に当該垂直ネットワークスコアは、図14(b)に示す幅員スコアと上記集計された(図15(b)参照)ラインスコアを加算して垂直ネットワークNごとに垂直ネットワークスコアを算出する。このとき、当該垂直ネットワークスコアが負数となる垂直ネットワークN(図16に例示する場合は、垂直ネットワークN1、垂直ネットワークN6及び垂直ネットワークN7)は、以後の車線ネットワーク生成処理には用いられない。これにより、真に車線に対応している垂直ネットワークNのみを車線ネットワーク生成処理の対象とすることができる。より具体的に例えば、図16(a)に例示するラインLA乃至ラインLL及び垂直ネットワークN1乃至垂直ネットワークN13において、ラインLDとラインLEを接続する垂直ネットワークN3に着目すると、幅員クラスW1でありラインLDのラインスコアが「2」でラインLEのラインスコアが「3」であるので、当該垂直ネットワークN3の垂直ネットワークスコアは「7」となる。以下同様にして、各垂直ネットワークNについて算出された垂直ネットワークスコアが図16(b)に例示されている。   Next, the detection unit 2 calculates, for each vertical network N, a vertical network score, which is a parameter indicating the width likeness, regarding the width between the lines L. More specifically, the vertical network score is calculated for each vertical network N by adding the width score shown in FIG. 14B and the totaled line score (see FIG. 15B). At this time, the vertical network N (in the example illustrated in FIG. 16, the vertical network N1, the vertical network N6, and the vertical network N7) in which the vertical network score is negative is not used for the subsequent lane network generation process. As a result, only the vertical network N that truly corresponds to the lane can be the target of the lane network generation process. More specifically, for example, in the line LA to line LL and the vertical network N1 to vertical network N13 illustrated in FIG. 16A, focusing on the vertical network N3 connecting the line LD and the line LE, the width class W1 and the line Since the line score of the LD is “2” and the line score of the line LE is “3”, the vertical network score of the vertical network N3 is “7”. Similarly, the vertical network score calculated for each vertical network N is illustrated in FIG. 16B.

次に処理部10の生成部3は、これまで検討してきた垂直ネットワークNにおいて互いに接続されている垂直ネットワークNを一つのグループとしてグループ化する。即ち図17(a)に例示するグループG1乃至グループG3を形成する。これら各グループにおいては、それぞれの両端の垂直ネットワークN2、垂直ネットワークN5、垂直ネットワークN10、垂直ネットワークN11及び垂直ネットワークN13が、道路における外側線OLに対応するラインLA、ラインLB、ラインLC及びラインLLにそれぞれ接続しており、更に垂直ネットワークスコアが負数であった垂直ネットワークN7を経由して垂直ネットワークN8がラインLBに接続している。そして各グループG1乃至グループG3にそれぞれ含まれている各垂直ネットワークNは図17(a)に例示するように道路を横断しており、当該各垂直ネットワークNの数は、車線数そのものとなる。   Next, the generation unit 3 of the processing unit 10 groups the vertical networks N connected to each other in the vertical network N that has been studied so far as one group. That is, the groups G1 to G3 illustrated in FIG. 17A are formed. In each of these groups, the vertical network N2, the vertical network N5, the vertical network N10, the vertical network N11, and the vertical network N13 at both ends are connected to the line LA, the line LB, the line LC, and the line LL corresponding to the outer line OL on the road. And the vertical network N8 is connected to the line LB via the vertical network N7 having a negative vertical network score. Each vertical network N included in each of the groups G1 to G3 crosses the road as illustrated in FIG. 17A, and the number of the vertical networks N is the number of lanes themselves.

次に生成部3は、上記各グループG1乃至グループG3に含まれる垂直ネットワークNを用いて、各グループG1乃至グループG3を接続する車線に相当するレーンラインを算出する。より具体的に生成部3は、図17(b)及び図17(c)に例示するように、対象となる垂直ネットワークNXを一つ定め、その中心から隣接するグループGに含まれる全ての垂直ネットワークNへの方向を算出し、平行する道路リンクRLのリンク方向に最も近い当該方向を、その垂直ネットワークNXを始点とするレーンラインLL(即ち一本の車線)とする。なお図17(b)及び図17(c)に例示する場合は、破線で示されている方向はレーンラインとしては採用されない。   Next, the generation unit 3 calculates lane lines corresponding to the lanes connecting the groups G1 to G3 using the vertical network N included in the groups G1 to G3. More specifically, as illustrated in FIGS. 17B and 17C, the generation unit 3 determines one target vertical network NX, and all the verticals included in the group G adjacent from the center. The direction to the network N is calculated, and the direction closest to the link direction of the parallel road links RL is defined as a lane line LL (that is, one lane) starting from the vertical network NX. In the case illustrated in FIG. 17B and FIG. 17C, the direction indicated by the broken line is not adopted as the lane line.

以上の図12乃至図17を用いて説明した一連の処理により、実施例に係るレーンラインLLA乃至レーンラインLLGが図17(d)に例示するように算出され、これらにより、実施例に係る車線ネットワークが生成される(ステップS11)。   The lane line LLA to the lane line LLG according to the embodiment are calculated as illustrated in FIG. 17D by the series of processes described with reference to FIGS. 12 to 17, and the lanes according to the embodiment are thereby calculated. A network is generated (step S11).

次に生成部3は、各ラインL及び各垂直ネットワークNについて、上記車線境界線らしさ及び上記幅員らしさの総合評価に当たるレーンスコアを算出する。より具体的に図18(a)に例示する場合において、各レーンラインLLA乃至レーンラインLLGのそれぞれにつき、接続する垂直ネットワークNの垂直ネットワークスコアの合計値を「S」とし、各車線に含まれるレーンラインLLの数を「LL」とし、各車線に含まれる垂直ネットワークNの数を「LN」とし、各車線に含まれる同一の幅員クラスの最大数を「W」とし、上記レーンスコアを(S/LL)×(W/LN)として算出する。例えば、図18(a)に例示するレーンラインLLA乃至レーンラインLLCからなる車線のレーンスコアは、
{(4+7+6+6)/3}×(4/4)=7.6
となり、図18(a)に例示するレーンラインLLD及びレーンラインLLEからなる車線のレーンスコアは、
{(7+7+7)/2}×(3/3)=10.5
となり、図18(a)に例示するレーンラインLLF及びレーンラインLLGからなる車線のレーンスコアは、
{(5+5+5)/2}×(3/3)=7.5
となる。なお生成部3は、図18(b)に示すように、上記ステップS3で抽出していた道路標示の位置RPに基づき、道路標示の中心付近を通る車線ほど正しいであろうとの仮定のもと、道路標示スコアを算出してこれを上記レーンスコアに加算してもよい。即ち、道路標示の検出位置を中心とした半径50センチメートル程度の円を道路標示円として仮定し、道路標示円とレーンラインLLとが交差又は接触している場合には、レーンラインLLと道路標示円の中心との最短距離が短いほど、道路標示スコアを高くしてレーンスコアに加算するのが好ましい。
Next, the generation unit 3 calculates, for each line L and each vertical network N, a lane score corresponding to a comprehensive evaluation of the lane boundary line likelihood and the width likelihood. More specifically, in the case illustrated in FIG. 18A, for each lane line LLA to lane line LLG, the total value of the vertical network scores of the connected vertical networks N is “S” and is included in each lane. The number of lane lines LL is “LL”, the number of vertical networks N included in each lane is “LN”, the maximum number of the same width class included in each lane is “W”, and the lane score is ( S / LL) × (W / LN). For example, the lane score of the lane composed of the lane line LLA to the lane line LLC illustrated in FIG.
{(4 + 7 + 6 + 6) / 3} × (4/4) = 7.6
The lane score of the lane composed of the lane line LLD and the lane line LLE illustrated in FIG.
{(7 + 7 + 7) / 2} × (3/3) = 10.5
The lane score of the lane composed of the lane line LLF and the lane line LLG illustrated in FIG.
{(5 + 5 + 5) / 2} × (3/3) = 7.5
It becomes. As shown in FIG. 18B, the generation unit 3 assumes that the lane passing near the center of the road marking will be correct based on the position RP of the road marking extracted in step S3. Alternatively, a road marking score may be calculated and added to the lane score. That is, a circle with a radius of about 50 centimeters centered on the detection position of the road marking is assumed as the road marking circle, and when the road marking circle and the lane line LL intersect or contact each other, the lane line LL and the road As the shortest distance from the center of the marking circle is shorter, it is preferable to increase the road marking score and add it to the lane score.

次に生成部3は、ステップS11までで生成されたレーンラインLLをそれぞれに含む車線について、元のオルソ画像データの段階で車線境界線が擦れる又は消失している等の理由により、例えば、その車線が含まれている道路の幅より狭く、且つ幅員クラスW7以上(例えば二車線分)の広い幅員があるか否かを判定する(ステップS12)。   Next, the generation unit 3 has the lane boundary LL generated up to step S11, and the lane boundary line rubs or disappears at the stage of the original ortho image data. It is determined whether or not there is a width that is narrower than the width of the road in which the lane is included and is wider than the width class W7 (for example, for two lanes) (step S12).

ステップS12の判定において、当該広い幅員がない場合(ステップS12:NO)、生成部3は後述するステップS13に移行する。一方ステップS12の判定において、上記のような広い幅員があった場合(ステップS12:YES)、生成部3は次に、当該幅員に対応した仮想のライン(線分)を骨格ラインのベクトルデータVDに追加し、当該追加後のベクトルデータVDを用いて、上記ステップS11と同様の車線ネットワーク生成処理(第2パターンの車線ネットワーク生成処理)を行う(ステップS14)。   If it is determined in step S12 that there is no wide width (step S12: NO), the generation unit 3 proceeds to step S13 described later. On the other hand, if it is determined in step S12 that there is a wide width as described above (step S12: YES), the generation unit 3 next converts the virtual line (line segment) corresponding to the width to the vector data VD of the skeleton line. And using the vector data VD after the addition, a lane network generation process (second pattern lane network generation process) similar to step S11 is performed (step S14).

ここで、上述したような車線境界線の擦れ等が生じている場合、例えば図19(a)に破線楕円で例示するように、対応するオルソ画像データにも対応するラインが表れないことになる。そしてこのようなオルソ画像データから抽出部1により上記ラインLを抽出すると、その結果としては図19(b)に例示するようなラインLA乃至ラインLIが抽出される。そしてこれらに対してステップS11と同様の垂直ネットワークNの設定を生成部3により行うと、結果としては図19(c)に例示する垂直ネットワークN1乃至垂直ネットワークN14が設定される。このとき、これら垂直ネットワークN1乃至垂直ネットワークN14についての幅員クラス及び幅員スコアは、それぞれ図19(d)に示すようになる(図14も合わせて参照)。次に、図19(c)に例示する各ラインL及び各垂直ネットワークNに対してステップS11と同様のグループ化を生成部3により行うと、結果として図20(a)に示すグループG1乃至グループG4が形成される。そして、当該グループ化の結果に対してステップS11と同様のレーンラインLLの算出を行うと、結果としては図20(b)に例示するレーンラインLLA乃至レーンラインLLGが算出される。   Here, when the lane boundary line rubbing or the like as described above occurs, the corresponding line does not appear in the corresponding ortho image data as exemplified by the broken line ellipse in FIG. . Then, when the extraction unit 1 extracts the line L from such ortho image data, as a result, the lines LA to LI as illustrated in FIG. 19B are extracted. When the setting of the vertical network N similar to that in step S11 is performed by the generating unit 3, the vertical networks N1 to N14 illustrated in FIG. 19C are set as a result. At this time, the width class and the width score for the vertical networks N1 to N14 are as shown in FIG. 19D (see also FIG. 14). Next, when the grouping similar to step S11 is performed on each line L and each vertical network N illustrated in FIG. 19C by the generation unit 3, as a result, the groups G1 to G1 illustrated in FIG. G4 is formed. Then, when the same lane line LL is calculated with respect to the grouping result, the lane lines LLA to LLG illustrated in FIG. 20B are calculated as the result.

そこで上記ステップS14では、図20(a)の状態で幅員が広い垂直ネットワークN2、垂直ネットワークN3及び垂直ネットワークN5のそれぞれを、仮に長さ方向に二等分し、元の垂直ネットワークN2を垂直ネットワークN2−1と垂直ネットワークN2−2に分け、元の垂直ネットワークN3を垂直ネットワークN3−1と垂直ネットワークN3−2に分け、更に元の垂直ネットワークN5を垂直ネットワークN5−1と垂直ネットワークN5−2に分ける(図14(b)における「組み換え」欄参照)。そして図20(c)に例示するように、垂直ネットワークN2、垂直ネットワークN3及び垂直ネットワークN5それぞれの二等分点を通る仮ラインLB’、仮ラインLC’及び仮ラインLD’を設定し、それらを含む各ラインL及び各垂直ネットワークNを用いて改めてレーンラインLLを算出する。この場合は、図20(d)に例示するレーンラインLLA乃至レーンラインLLIが改めて算出される。そして、これに基づいてステップS11と同様のレーンスコアまでを算出すると、その結果は図21に例示するものとなる(ステップS14)。   In step S14, the vertical network N2, the vertical network N3, and the vertical network N5 that are wide in the state shown in FIG. 20A are each bisected in the length direction, and the original vertical network N2 is divided into the vertical network. N2-1 is divided into a vertical network N2-2, the original vertical network N3 is divided into a vertical network N3-1 and a vertical network N3-2, and the original vertical network N5 is further divided into a vertical network N5-1 and a vertical network N5-2. (Refer to the “recombination” column in FIG. 14B). Then, as illustrated in FIG. 20C, provisional lines LB ′, provisional lines LC ′, and provisional lines LD ′ passing through the bisectors of the vertical network N2, the vertical network N3, and the vertical network N5 are set. The lane line LL is calculated again using each line L and each vertical network N. In this case, the lane line LLA to the lane line LLI illustrated in FIG. And if the same lane score as step S11 is calculated based on this, the result will be illustrated in FIG. 21 (step S14).

次に生成部3は、上記ステップS12の判定まで、又は上記ステップS14までに生成された車線ネットワークについて、最終的な評価を行い、実施例に係る車線ネットワークとしてインターフェース11を介して外部に出力するか、又は記録部14に記録する(ステップS13)。このステップS13として具体的に生成部3は、上記ステップS12の判定において上記広い幅員がない場合(ステップS12:NO)、上記ステップS11までの処理により生成された車線ネットワークをその区間の車線ネットワークとして出力等し、その後、次の区間についての車線ネットワークの生成を行うべく、上記ステップS8に戻る。一方ステップS14を経た場合に生成部3は、ステップS14で生成された上記レーンスコアを比較し、図22(a)に示すように、その値が高い方(図22(a)に例示する場合は、図20(d)に対応する車線ネットワーク)を出力等し、その後、次の区間についての車線ネットワークの生成を行うべく、上記ステップS8に戻る。なお、上記ステップS13の判定に、使用者による目視判定を併用してもよい。   Next, the generation unit 3 performs final evaluation on the lane network generated until the determination in step S12 or until step S14, and outputs the lane network according to the embodiment to the outside through the interface 11. Or is recorded in the recording unit 14 (step S13). Specifically, in step S13, the generation unit 3 determines that the lane network generated by the processing up to step S11 is set as the lane network of the section when there is no wide range in the determination in step S12 (step S12: NO). After that, the process returns to step S8 to generate a lane network for the next section. On the other hand, when passing through step S14, the generation unit 3 compares the lane scores generated in step S14, and as shown in FIG. 22 (a), the value is higher (in the case illustrated in FIG. 22 (a)). Outputs a lane network corresponding to FIG. 20D, and then returns to step S8 to generate a lane network for the next section. In addition, you may use the visual determination by a user together with determination of said step S13.

なお上述した実施例においては、広い幅員があった場合は、仮ラインLA’等を生成してこれを補間し、当該補間の有無に応じて算出されたレーンラインLLA等についてのレーンスコアを比較して最終的な車線ネットワークを出力した。しかしながらこれ以外に、例えば図22(b)に例示するように、広い幅員がある状態で上記仮ラインLA’等を生成することなく算出したレーンラインLLA等について、並行する道路リンクRLのリンク方向との角度α1乃至角度α4を算出し、これらの合計値を、仮ラインLA’等による補間の有無により比較し、当該角度の合計値が小さい方(即ち、道路リンクRLのリンク方向との角度差が小さい方)を車線ネットワークとして出力等するように構成してもよい。   In the embodiment described above, if there is a wide width, a temporary line LA ′ or the like is generated and interpolated, and the lane scores for the lane lines LLA and the like calculated according to the presence or absence of the interpolation are compared. And output the final lane network. However, other than this, for example, as illustrated in FIG. 22B, the link direction of the parallel road link RL with respect to the lane line LLA and the like calculated without generating the temporary line LA ′ and the like in a state where there is a wide width. Are calculated by comparing the sum of these values according to the presence / absence of interpolation using the temporary line LA ′ or the like, and the sum of the angles is smaller (that is, the angle with the link direction of the road link RL). You may comprise so that a difference may be output as a lane network.

次に、上記ステップS8の判定においていずれの区画も選択されない場合(ステップS8:NO)、処理部10は複数の道路Rが交差する交差点CR内における車線ネットワークを生成する(ステップS15)。このステップS15については後ほど詳述する。その後処理部10は、例えば車線ネットワーク生成装置SVの電源がオフとされる等の理由により、実施例に係る車線ネットワーク生成処理を終了するか否かを判定する(ステップS16)。ステップS16の判定において当該車線ネットワーク生成処理を終了する場合(ステップS16:YES)、処理部10はそのまま当該車線ネットワーク生成処理を終了する。一方ステップS16の判定において当該車線ネットワーク生成処理を継続する場合(ステップS16:NO)、処理部10は上記ステップS1に戻って上述してきた一連の処理を繰り返す。   Next, when no section is selected in the determination of step S8 (step S8: NO), the processing unit 10 generates a lane network in an intersection CR where a plurality of roads R intersect (step S15). Step S15 will be described in detail later. Thereafter, the processing unit 10 determines whether or not to end the lane network generation process according to the embodiment, for example, for the reason that the power of the lane network generation apparatus SV is turned off (step S16). When the lane network generation process ends in the determination of step S16 (step S16: YES), the processing unit 10 ends the lane network generation process as it is. On the other hand, when continuing the said lane network generation process in determination of step S16 (step S16: NO), the process part 10 returns to said step S1, and repeats a series of processes mentioned above.

次に、上記ステップS15における交差点内の車線ネットワーク生成処理について、具体的に説明する。当該車線ネットワーク生成処理としては、具体的には以下の四通りの方法が考えられる。   Next, the lane network generation process at the intersection in step S15 will be specifically described. Specifically, as the lane network generation process, the following four methods can be considered.

(I)道路リンクRLにおける接続関係を参照する方法
即ち処理部10は、第1の方法として、図23に例示する交差点CRに接続される車線ネットワークのグループがグループG1乃至グループG4まであったとする。このとき、当該交差点CRに接続する道路についての道路リンクRLがある場合は、グループG同士の大まかな接続関係(各グループG間の繋がり)を決定する。より具体的に例えば、図23に例示するグループG1乃至グループG4が「交差点CRで十字路を構成している」と決定する。また例えば、グループG1に含まれるレーンラインLLとグループG2に含まれるレーンラインLLとが交差点CRで接続されており、それに対する立体交差又は地下道としてグループG3に含まれるレーンラインLLとグループG4に含まれるレーンラインLLとが接続されていると決定する。
(I) The method of referencing the connection relationship in the road link RL, that is, the processing unit 10 assumes, as the first method, that there are groups of lane networks connected to the intersection CR illustrated in FIG. 23 from groups G1 to G4. . At this time, when there is a road link RL for a road connected to the intersection CR, a rough connection relationship between the groups G (connection between the groups G) is determined. More specifically, for example, the groups G1 to G4 illustrated in FIG. 23 determine that “the intersection CR forms a crossroad”. In addition, for example, the lane line LL included in the group G1 and the lane line LL included in the group G2 are connected at the intersection CR, and included in the lane line LL and group G4 included in the group G3 as a three-dimensional intersection or underground passage therewith It is determined that the connected lane line LL is connected.

(II)レーンラインにおける上り/下りの属性を利用する方法
即ち処理部10は、図23に例示する場合における第2の方法として、交差点CRに接続する道路についての道路リンクRLがある場合は、当該道路リンクRLにおける二条道路(図6(b)参照)における上り属性及び下り属性をレーンラインLLに転写し、上り車線同士及び下り車線同士が接続可能であると決定する。なお第2の方法としては、道路リンクRLを利用する以外の方法でレーンラインLLの上り属性及び下り属性が設定されている場合は、それに基づいて、上り車線同士及び下り車線同士が接続可能であると決定してもよい。
(II) The method of using the up / down attribute in the lane line, that is, the processing unit 10, as a second method in the case illustrated in FIG. 23, when there is a road link RL for the road connected to the intersection CR, The ascending attribute and the descending attribute of the Nijo road (see FIG. 6B) in the road link RL are transferred to the lane line LL, and it is determined that the ascending lanes and the descending lanes can be connected. As a second method, when the uplink attribute and the downlink attribute of the lane line LL are set by a method other than using the road link RL, the uplink lanes and the downlink lanes can be connected based on the attributes. You may decide that there is.

(III)道路標示を利用する方法
即ち処理部10は、図23に例示する場合における第3の方法として、交差点CRに接続する道路についての道路リンクRLがある場合に、その道路リンクRLを参照して決定したグループG間の接続状態と、各レーンラインLLにおける上り属性又は下り属性と、道路標示としての方向標示(矢印マーク)で示される方向と、に基づいて、交差点CR内で接続可能なレーンラインLLを推測する。より具体的に例えば、図23に例示するグループG2の一番左の車線に直進・左折を示す矢印標示がある場合は、グループG2の一番左のレーンラインLLがグループG1とグループG3に接続すると決定する。この場合は、結果的に一つのグループGから複数のグループGへの接続についての決定ができることになる。
(III) The method using the road marking, that is, the processing unit 10 refers to the road link RL when there is a road link RL for the road connected to the intersection CR as a third method in the case illustrated in FIG. Can be connected within the intersection CR based on the connection state between the groups G determined in this way, the up or down attribute in each lane line LL, and the direction indicated by the direction sign (arrow mark) as a road sign Lane line LL is estimated. More specifically, for example, when the left lane of the group G2 illustrated in FIG. 23 has an arrow sign indicating straight ahead or left turn, the leftmost lane line LL of the group G2 is connected to the group G1 and the group G3. Then decide. In this case, as a result, the connection from one group G to a plurality of groups G can be determined.

(IV)プローブ情報の利用
即ち処理部10は、図23に例示する場合における第4の方法として、交差点CRを通過する車両等の軌跡をいわゆるプローブ情報の収集により決定し、その中から規則性を検出して(又は、各軌跡を代表する軌跡を求めて)、各グループGの接続関係の決定に用いる。この場合は、交差点CR内におけるより現実に近い車線(曲線の走行ライン)及びその形状を決定することができる。
(IV) Utilization of probe information, that is, the processing unit 10 determines the trajectory of a vehicle or the like passing through the intersection CR by collecting so-called probe information as a fourth method in the case illustrated in FIG. Is detected (or a trajectory representing each trajectory is obtained) and used to determine the connection relationship of each group G. In this case, it is possible to determine a more realistic lane (curved running line) and its shape in the intersection CR.

以上それぞれ説明したように、実施例に係る車線ネットワーク生成処理によれば、車線を含む道路Rを撮像した実画像に対応するオルソ画像データから、当該実画像に映ったラインLを抽出し、道路Rに交差する方向に並んだラインL同士の当該交差方向の間隔と、車線としての法定幅員と、を比較し、その比較結果に基づいて車線ネットワークを生成する。よって、実画像に映ったラインL同士の道路に交差する方向の間隔と法定幅員との比較に基づいて車線ネットワークを生成するので、道路Rに含まれる車線を示す車線ネットワークを、実画像情報に基づいて自動的且つ正確に生成することができる。   As described above, according to the lane network generation process according to the embodiment, the line L reflected in the actual image is extracted from the ortho image data corresponding to the actual image obtained by capturing the road R including the lane, and the road A distance between the lines L arranged in a direction intersecting with R in the crossing direction is compared with a legal width as a lane, and a lane network is generated based on the comparison result. Therefore, since the lane network is generated based on the comparison between the distance between the lines L reflected in the actual image in the direction intersecting the road and the legal width, the lane network indicating the lane included in the road R is used as the actual image information. Based on this, it can be generated automatically and accurately.

また、上記間隔が法定幅員よりも長いラインLがある場合に、当該間隔を法定幅員に基づいて分割し、その分割点を通り且つ道路Rが延びる方向の仮ラインL’を生成し、その仮ラインL’に基づいて、仮ラインL’を生成した場合としない場合とを比較して車線ネットワークを生成する。よって、法定幅員に基づく分割を行った場合と行わなかった場合との各比較結果に基づいて車線ネットワークを生成するので、例えば道路上の車線境界線が擦れている場合でも、より正確に車線情報を生成することができる。   In addition, when there is a line L whose interval is longer than the legal width, the interval is divided based on the legal width, and a temporary line L ′ passing through the division point and extending in the road R is generated. Based on the line L ′, the lane network is generated by comparing the case where the temporary line L ′ is generated and the case where the temporary line L ′ is not generated. Therefore, since the lane network is generated based on the comparison results between the case where the division based on the legal width is performed and the case where the division is not performed, for example, even when the lane boundary line on the road is rubbed, the lane information is more accurately detected. Can be generated.

更に、各ラインLの長さを検出し、ラインL同士を接続した垂直ネットワークNを生成し、検出された長さと、垂直ネットワークNと、各比較結果と、に基づいて車線ネットワークを生成するので、各ラインLの長さ及び垂直ネットワークNを考慮することで、更に正確に車線ネットワークを生成することができる。   Furthermore, since the length of each line L is detected, a vertical network N connecting the lines L is generated, and a lane network is generated based on the detected length, the vertical network N, and each comparison result. Considering the length of each line L and the vertical network N, a lane network can be generated more accurately.

更にまた、図22(b)に示す場合は、各レーンラインLLと道路リンクRLのリンク方向との比較に基づいて車線ネットワークを生成するので、各レーンラインLLにより示される車線の方向の各々と、車線が含まれる道路Rが延びる方向と、を考慮することで、更に正確に車線ネットワークを生成することができる。   Furthermore, in the case shown in FIG. 22B, a lane network is generated based on a comparison between the link direction of each lane line LL and the road link RL, so that each of the lane directions indicated by each lane line LL Considering the direction in which the road R including the lane extends, the lane network can be generated more accurately.

また、図18(b)に例示するように、車線の中心線上に描かれている道路標示を示すオルソ画像データに基づいて車線ネットワークを生成する場合は、道路に含まれる車線を示す車線ネットワークをより正確に生成することができる。   Further, as illustrated in FIG. 18B, when generating a lane network based on the ortho image data indicating the road marking drawn on the center line of the lane, the lane network indicating the lane included in the road is displayed. It can be generated more accurately.

更に、使用者による選択結果に基づいて車線ネットワークを生成する場合は、使用者の意図に沿った車線ネットワークを生成することができる。   Furthermore, when generating a lane network based on the selection result by a user, the lane network according to a user's intention can be generated.

なお、上述した実施例の他に実施例に係る車線ネットワーク生成処理に用い得る技術としては、例えば以下の技術が挙げられる。
・曲線補間や走行画像等に基づいて生成した仮想軌跡を利用して、交差点CR内や遮蔽部(高架下やトンネル等)内の車線ネットワークを生成することができる。
・いわゆるリアルタイム評価値変動法を用いることで、複数の車線ネットワークの中から実際の車線の状態に合っているものを残し、その道路に隣接する道路における車線ネットワークについて、当該残った車線ネットワークとの接続関係も考慮し評価値を変動させる。これにより、車線ネットワークの候補としての確度を向上させることができる。
・いわゆる機械学習法を導入する。即ち、複数の車線ネットワークの候補を入力し、使用者の目視による正しい車線ネットワークを決定して出力するか、又はその正しい編集を決定して出力するニューラルネットワーク学習を活用する。この場合、十分に学習されたならば、評価値による候補の優先順位ではなく、ニューラルネットワークの出力結果を最上位の結果としてもよい。
In addition to the above-described embodiments, examples of technologies that can be used for the lane network generation processing according to the embodiments include the following technologies.
A lane network in an intersection CR or in a shielding part (such as under an overpass or a tunnel) can be generated by using a virtual trajectory generated based on curve interpolation or a running image.
-By using the so-called real-time evaluation value variation method, the lane network that matches the actual lane condition is left out of the multiple lane networks, and the lane network on the road adjacent to the road is compared with the remaining lane network. The evaluation value is changed in consideration of the connection relation. Thereby, the accuracy as a lane network candidate can be improved.
・ Introducing so-called machine learning methods. That is, a plurality of lane network candidates are input, and a correct lane network visually determined by the user is determined and output, or neural network learning that determines and outputs the correct edit is utilized. In this case, if the learning is sufficiently performed, the output result of the neural network may be the highest result instead of the priority order of candidates based on the evaluation value.

更にまた、図3に示したフローチャートに相当するプログラムを、光ディスク又はハードディスク等の記録媒体に記録しておき、或いはインターネット等のネットワークを介して取得しておき、これを汎用のマイクロコンピュータ等に読み出して実行することにより、当該マイクロコンピュータ等を実施例に係る処理部10として機能させることも可能である。   Furthermore, a program corresponding to the flowchart shown in FIG. 3 is recorded on a recording medium such as an optical disk or a hard disk, or is acquired via a network such as the Internet, and is read out to a general-purpose microcomputer or the like. It is possible to cause the microcomputer or the like to function as the processing unit 10 according to the embodiment.

1 抽出手段(抽出部)
2 比較手段(検出部)
3 生成手段(生成部)
10 処理部
S 車線情報生成装置
SV 車線ネットワーク生成装置
1 Extraction means (extraction unit)
2 comparison means (detector)
3 Generation means (generation unit)
10 Processing Unit S Lane Information Generation Device SV Lane Network Generation Device

Claims (8)

道路を撮像した実画像に映った線分を示す線分情報を、当該実画像に対応する実画像情報から抽出する抽出手段と、
前記抽出された線分情報に基づいて、前記道路に交差する方向に並んだ前記線分同士の当該交差する方向の間隔と、前記道路に含まれる車線としての幅員と、を比較する比較手段と、
前記比較手段による比較結果に基づいて、前記車線を示す車線情報を生成する生成手段と、
を備えることを特徴とする車線情報生成装置。
Extraction means for extracting line segment information indicating a line segment reflected in a real image obtained by imaging a road from real image information corresponding to the real image;
Comparing means for comparing, based on the extracted line segment information, an interval in the intersecting direction between the line segments arranged in a direction intersecting the road with a width as a lane included in the road; ,
Generating means for generating lane information indicating the lane based on a comparison result by the comparing means;
A lane information generation device comprising:
請求項1に記載の車線情報生成装置において、
前記生成手段は、
前記比較手段における比較結果に基づき、前記間隔が前記幅員よりも長い前記線分の当該間隔を当該幅員に基づいて分割する分割手段と、
前記分割された間隔における分割点を通り且つ前記道路が延びる方向の仮想線分を示す仮想線分情報を生成する仮想線分情報生成手段と、
を備え、
前記間隔が前記幅員よりも長い前記線分がある場合に、前記生成手段は、前記生成された仮想線分情報に基づいて、前記幅員に基づく分割を行わない場合の前記比較結果である第1比較結果と、分割後の前記仮想線分に対応する前記線分と当該仮想線分との間隔と前記幅員との比較結果である第2比較結果と、に基づいて前記車線情報を生成することを特徴とする車線情報生成装置。
In the lane information generation device according to claim 1,
The generating means includes
Based on the comparison result in the comparison means, the dividing means for dividing the interval of the line segment whose interval is longer than the width based on the width;
Virtual line segment information generating means for generating virtual line segment information indicating a virtual line segment in a direction in which the road extends through the dividing point in the divided interval;
With
When there is the line segment whose interval is longer than the width, the generation means is the first comparison result when the division based on the width is not performed based on the generated virtual line segment information. Generating the lane information based on a comparison result and a second comparison result that is a comparison result between the line segment corresponding to the divided virtual line segment, an interval between the virtual line segment, and the width. A lane information generation device characterized by the above.
請求項2に記載の車線情報生成装置において、
前記間隔を構成する前記線分の長さを、前記抽出された線分情報に基づいて検出する長さ検出手段と、
前記間隔を構成する前記線分同士を接続した接続線に対応した接続情報を、前記抽出された線分情報に基づいて生成する接続情報生成手段と、
を更に備え、
前記生成手段は、前記検出された長さを示す長さ情報と、前記生成された接続情報と、前記第1比較結果と、前記第2比較結果と、に基づいて前記車線情報を生成することを特徴とする車線情報生成装置。
In the lane information generation device according to claim 2,
A length detection means for detecting the length of the line segment constituting the interval based on the extracted line segment information;
Connection information generating means for generating connection information corresponding to a connection line connecting the line segments constituting the interval based on the extracted line segment information;
Further comprising
The generation means generates the lane information based on length information indicating the detected length, the generated connection information, the first comparison result, and the second comparison result. A lane information generation device characterized by the above.
請求項2に記載の車線情報生成装置において、
前記生成手段は、i)前記車線情報の候補として前記第1比較結果を用いて生成された第1候補車線情報により示される前記車線の方向、及びii)当該候補として前記第2比較結果を用いて生成された第2候補車線情報により示される前記車線の方向、の各々と、前記道路が延びる方向と、の比較に基づいて前記車線情報を生成することを特徴とする車線情報生成装置。
In the lane information generation device according to claim 2,
The generation means uses i) the direction of the lane indicated by the first candidate lane information generated using the first comparison result as the lane information candidate, and ii) uses the second comparison result as the candidate. A lane information generation device, wherein the lane information is generated based on a comparison between each of the lane directions indicated by the second candidate lane information generated in this way and a direction in which the road extends.
請求項1から請求項4のいずれか一項に記載の車線情報生成装置において、
前記実画像に映った前記線分以外の道路標示であって前記車線の中心線上に描かれている道路標示を示す道路標示情報を前記実画像情報から抽出する道路標示抽出手段を更に含み、
前記生成手段は、前記抽出された道路標示情報に基づいて前記車線情報を生成することを特徴とする車線情報生成装置。
In the lane information generation device according to any one of claims 1 to 4,
Road marking extracting means for extracting road marking information indicating the road marking drawn on the center line of the lane that is a road marking other than the line segment reflected in the actual image from the actual image information;
The generation means generates the lane information based on the extracted road marking information.
請求項2に記載の車線情報生成装置において、
前記生成手段は、
前記車線情報の候補として前記第1比較結果を用いて生成された第1候補車線情報と、当該候補として前記第2比較結果を用いて生成された第2候補車線情報と、をそれぞれ出力する出力手段と、
各前記出力された第1候補車線情報又は第2候補車線情報のいずれか一方の選択を受け付ける受付手段と、
を含み、
前記生成手段は、前記選択されたいずれか一方に基づいて前記車線情報を生成することを特徴とする車線情報生成装置。
In the lane information generation device according to claim 2,
The generating means includes
Output that outputs first candidate lane information generated using the first comparison result as the lane information candidate and second candidate lane information generated using the second comparison result as the candidate. Means,
Receiving means for accepting selection of either one of the output first candidate lane information or second candidate lane information;
Including
The generation means generates the lane information based on any one of the selected ones.
道路に含まれる車線を示す車線情報を生成する車線情報生成装置において実行される車線情報生成方法であって、
前記道路を撮像した実画像に映った線分を示す線分情報を、当該実画像に対応する実画像情報から抽出する抽出工程と、
前記抽出された線分情報に基づいて、前記道路に交差する方向に並んだ前記線分同士の当該交差する方向の間隔と、前記車線としての幅員と、を比較する比較工程と、
前記比較工程における比較結果に基づいて前記車線情報を生成する生成工程と、
を含むことを特徴とする車線情報生成方法。
A lane information generation method executed in a lane information generation device that generates lane information indicating a lane included in a road,
An extraction step of extracting line segment information indicating a line segment reflected in the actual image obtained by imaging the road from the actual image information corresponding to the actual image;
Based on the extracted line segment information, a comparison step for comparing the interval between the line segments arranged in the direction intersecting the road and the width as the lane, and
A generation step of generating the lane information based on a comparison result in the comparison step;
A lane information generation method comprising:
道路に含まれる車線を示す車線情報を生成する車線情報生成装置に含まれるコンピュータを、
前記道路を撮像した実画像に映った線分を示す線分情報を、当該実画像に対応する実画像情報から抽出する抽出手段、
前記抽出された線分情報に基づいて、前記道路に交差する方向に並んだ前記線分同士の当該交差する方向の間隔と、前記車線としての幅員と、を比較する比較手段、及び、
前記比較手段として機能する前記コンピュータによる比較結果に基づいて前記車線情報を生成する生成手段、
として機能させることを特徴とする車線情報生成用プログラム。
A computer included in a lane information generation device that generates lane information indicating a lane included in a road,
Extraction means for extracting line segment information indicating a line segment reflected in the actual image obtained by imaging the road from actual image information corresponding to the actual image;
Based on the extracted line segment information, a comparison means for comparing an interval between the line segments arranged in a direction intersecting the road and the width as the lane, and
Generating means for generating the lane information based on a comparison result by the computer functioning as the comparing means;
A program for generating lane information, characterized in that it functions as:
JP2017070799A 2017-03-31 2017-03-31 Lane information generator, lane information generation method, and lane information generation program Active JP6912251B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017070799A JP6912251B2 (en) 2017-03-31 2017-03-31 Lane information generator, lane information generation method, and lane information generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017070799A JP6912251B2 (en) 2017-03-31 2017-03-31 Lane information generator, lane information generation method, and lane information generation program

Publications (2)

Publication Number Publication Date
JP2018173762A true JP2018173762A (en) 2018-11-08
JP6912251B2 JP6912251B2 (en) 2021-08-04

Family

ID=64107424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017070799A Active JP6912251B2 (en) 2017-03-31 2017-03-31 Lane information generator, lane information generation method, and lane information generation program

Country Status (1)

Country Link
JP (1) JP6912251B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021516355A (en) * 2019-01-30 2021-07-01 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド Map compartment system for self-driving cars
KR20210149531A (en) * 2020-06-02 2021-12-09 네이버랩스 주식회사 Apparatus and method for classifying traffic lane
JP2022061336A (en) * 2020-10-06 2022-04-18 トヨタ自動車株式会社 Map generation device, map generation method, and map generation computer program
WO2023170997A1 (en) * 2022-03-11 2023-09-14 日立Astemo株式会社 Map information processing device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021516355A (en) * 2019-01-30 2021-07-01 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド Map compartment system for self-driving cars
JP7127071B2 (en) 2019-01-30 2022-08-29 バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッド Map partitioning system for self-driving cars
US11468690B2 (en) 2019-01-30 2022-10-11 Baidu Usa Llc Map partition system for autonomous vehicles
KR20210149531A (en) * 2020-06-02 2021-12-09 네이버랩스 주식회사 Apparatus and method for classifying traffic lane
KR102446433B1 (en) 2020-06-02 2022-09-23 네이버랩스 주식회사 Apparatus and method for classifying traffic lane
JP2022061336A (en) * 2020-10-06 2022-04-18 トヨタ自動車株式会社 Map generation device, map generation method, and map generation computer program
JP7287373B2 (en) 2020-10-06 2023-06-06 トヨタ自動車株式会社 MAP GENERATION DEVICE, MAP GENERATION METHOD AND MAP GENERATION COMPUTER PROGRAM
WO2023170997A1 (en) * 2022-03-11 2023-09-14 日立Astemo株式会社 Map information processing device

Also Published As

Publication number Publication date
JP6912251B2 (en) 2021-08-04

Similar Documents

Publication Publication Date Title
US10670416B2 (en) Traffic sign feature creation for high definition maps used for navigating autonomous vehicles
US11486727B2 (en) Map generation device, map generation method, and map generation computer program
WO2020108207A1 (en) Method and device for constructing high-resolution map
WO2018068653A1 (en) Point cloud data processing method and apparatus, and storage medium
US20170343374A1 (en) Vehicle navigation method and apparatus
JP2018173762A (en) Traffic lane information generation device, traffic lane information generation method, and program for traffic lane information generation
CN104376297A (en) Detection method and device for linear indication signs on road
JP6871784B2 (en) Lane information generator, lane information generation method, and lane information generation program
JP6871785B2 (en) Lane information generator, lane information generation method, and lane information generation program
US20220219700A1 (en) Apparatus, method, and computer program for generating map
JP6177498B2 (en) Route guidance system
CN102037327A (en) Method of and computer implemented system for generating a junction view image
CN116469066A (en) Map generation method and map generation system
JP2019100924A (en) Vehicle trajectory correction device
CN112923941B (en) Route planning method, data mining method, corresponding device and electronic equipment
JP2012133132A (en) Map data generation system
JP5847891B2 (en) Map data generation system
JP5888275B2 (en) Road edge detection system, method and program
Tian et al. Vision-based mapping of lane semantics and topology for intelligent vehicles
US11835359B2 (en) Apparatus, method and computer program for generating map
JP2013050411A (en) Vehicle itself position recognition system, vehicle itself position recognition program, and vehicle itself position recognition method
JP5679203B2 (en) Own vehicle position recognition system, own vehicle position recognition program, and own vehicle position recognition method
JP7310957B2 (en) MAP GENERATION DEVICE, MAP GENERATION METHOD AND MAP GENERATION COMPUTER PROGRAM
Sun A perception centred self-driving system without HD Maps
Narasimhan et al. Automatic Detection and Localization of Roadwork

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210708

R150 Certificate of patent or registration of utility model

Ref document number: 6912251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250