JP2019194751A - Lane information processing device, lane identification system, lane information processing method and lane information processing program - Google Patents

Lane information processing device, lane identification system, lane information processing method and lane information processing program Download PDF

Info

Publication number
JP2019194751A
JP2019194751A JP2018088090A JP2018088090A JP2019194751A JP 2019194751 A JP2019194751 A JP 2019194751A JP 2018088090 A JP2018088090 A JP 2018088090A JP 2018088090 A JP2018088090 A JP 2018088090A JP 2019194751 A JP2019194751 A JP 2019194751A
Authority
JP
Japan
Prior art keywords
lane
vehicle
road
information processing
lanes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018088090A
Other languages
Japanese (ja)
Inventor
晃 諏訪
Akira Suwa
晃 諏訪
竹嶋 進
Susumu Takeshima
進 竹嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2018088090A priority Critical patent/JP2019194751A/en
Publication of JP2019194751A publication Critical patent/JP2019194751A/en
Pending legal-status Critical Current

Links

Images

Abstract

To more accurately discriminate the lane on which a vehicle is located.SOLUTION: A lane information processing device comprises: an acquisition part which acquires measured information based on a measurement result of a vehicle on a road; and an output part which outputs an identification result based on the measured information acquired by the acquisition part by using an identification model which enables output of identification result on what number of lane from the right the car is on as well as from the left among multiple lanes in the same direction on the road.SELECTED DRAWING: Figure 2

Description

本発明は、車線情報処理装置、車線識別システム、車線情報処理方法および車線情報処理プログラムに関する。   The present invention relates to a lane information processing apparatus, a lane identification system, a lane information processing method, and a lane information processing program.

従来、車線を隔てるラインに基づいて、車両が走行している車線を判別する技術が開発されている。たとえば、特許文献1(特開2008−276642号公報)には、以下のような技術が開示されている。すなわち、走行車線認識装置は、車両の現在地を検出する検出手段と、道路の車線数を記憶する地図データ記憶手段と、前記検出手段によって検出した車両の現在地と前記地図データ記憶手段によって記憶した道路の車線数とに基づいて前記車両が走行している道路の車線数を検出する車線数検出手段と、車両に搭載され、走行している車線の境界線を認識する境界線認識手段と、前記車線数検出手段によって検出した車線数および前記境界線認識手段によって認識した境界線に基づいて、車両の走行車線を認識する走行車線認識手段とを備える。   Conventionally, a technique for discriminating a lane in which a vehicle is traveling has been developed based on a line separating the lanes. For example, Patent Document 1 (Japanese Patent Laid-Open No. 2008-276642) discloses the following technique. That is, the traveling lane recognition device includes a detecting means for detecting the current location of the vehicle, a map data storing means for storing the number of lanes on the road, a current location of the vehicle detected by the detecting means, and the road stored by the map data storing means. Lane number detecting means for detecting the number of lanes of the road on which the vehicle is traveling based on the number of lanes of the vehicle, boundary line recognizing means mounted on the vehicle and recognizing the boundary line of the traveling lane, Travel lane recognition means for recognizing the travel lane of the vehicle based on the number of lanes detected by the lane number detection means and the boundary line recognized by the boundary line recognition means.

また、特許文献2(特開2005−4442号公報)には、以下のような技術が開示されている。すなわち、走行車線判別装置は、車両が走行する道路の路面を表す路面画像を生成する少なくとも1台の撮像装置と接続可能な走行車線判別装置であって、前記撮像装置から路面画像を取得する画像取得部と、前記画像取得部で取得された路面画像から、路面上の障害物がないと予め想定可能な領域を切り出して、部分画像を作成する部分画像作成部と、前記部分画像作成部により作成された部分画像に含まれる部分的な区画線を抽出する区画線抽出部と、前記区画線抽出部で抽出された部分的な区画線に基づいて、車両の走行車線の両側に描かれている区画線の特徴を判別する区画線判別部と、前記区画線判別部で判別された区画線の特徴に基づいて、車両の走行車線の種類を判別する走行車線判別部とを備える。   Patent Document 2 (Japanese Patent Laid-Open No. 2005-4442) discloses the following technique. That is, the travel lane discrimination device is a travel lane discrimination device that can be connected to at least one imaging device that generates a road surface image representing a road surface of a road on which the vehicle travels, and is an image that acquires a road surface image from the imaging device. An acquisition unit, a partial image creation unit that creates a partial image by cutting out a region that can be assumed in advance as having no obstacle on the road surface from the road surface image acquired by the image acquisition unit, and the partial image creation unit A lane line extraction unit that extracts partial lane lines included in the created partial image, and is drawn on both sides of the driving lane of the vehicle based on the partial lane lines extracted by the lane line extraction unit. A lane line discriminating unit that discriminates the characteristics of the lane line that is present, and a travel lane discriminating unit that discriminates the type of the lane of the vehicle based on the lane line characteristics discriminated by the lane line discriminating unit.

特開2008−276642号公報JP 2008-276642 A 特開2005−4442号公報JP 2005-4442 A

Ramprasaath R. Selvaraju、外5名、“Grad−CAM: Visual Explanations from Deep Networks via Gradient−Based Localization”、arXiv:1610.02391v3、2017年5月Ramprasath R. Selvaraju, 5 others, “Grad-CAM: Visual Expansions from Deep Networks via Gradient-Based Localization”, arXiv: 1610.02391v3, May 2017

このような特許文献1および特許文献2に記載の技術を超えて、車両が位置する車線をより正確に判別する技術が望まれる。   Beyond the techniques described in Patent Document 1 and Patent Document 2, a technique for more accurately discriminating the lane in which the vehicle is located is desired.

この発明は、上述の課題を解決するためになされたもので、その目的は、車両が位置する車線をより正確に判別することが可能な車線情報処理装置、車線識別システム、車線情報処理方法および車線情報処理プログラムを提供することである。   This invention was made in order to solve the above-mentioned subject, The objective is the lane information processing apparatus, lane identification system, lane information processing method, and the lane information processing apparatus which can discriminate | determine more precisely the lane where a vehicle is located It is to provide a lane information processing program.

(1)上記課題を解決するために、この発明のある局面に係わる車線情報処理装置は、車両が位置する道路の前記車両における計測結果に基づく計測情報を取得する取得部と、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、前記取得部によって取得された前記計測情報に基づく前記識別結果を出力する出力部とを備える。   (1) In order to solve the above-described problem, a lane information processing apparatus according to an aspect of the present invention is the same as an acquisition unit that acquires measurement information based on measurement results of the vehicle on the road where the vehicle is located. Acquired by the acquisition unit using an identification model that can output as an identification result what number lane from the leftmost lane and what number from the rightmost lane among a plurality of lanes in the direction An output unit that outputs the identification result based on the measured information.

(7)上記課題を解決するために、この発明のある局面に係わる車線識別システムは、車両に搭載される車載装置と、車線情報処理装置とを備え、前記車載装置は、前記車両が位置する道路の前記車両における計測結果に基づく計測情報を取得し、取得した前記計測情報を前記車線情報処理装置へ送信し、前記車線情報処理装置は、前記車載装置から送信された前記計測情報を受信し、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、受信した前記計測情報に基づく前記識別結果を取得し、取得した前記識別結果に基づいて、前記車両が位置する道路の車線を判別する。   (7) In order to solve the above-described problem, a lane identification system according to an aspect of the present invention includes an on-vehicle device mounted on a vehicle and a lane information processing device, and the on-vehicle device is located on the vehicle. The measurement information based on the measurement result of the vehicle on the road is acquired, the acquired measurement information is transmitted to the lane information processing device, and the lane information processing device receives the measurement information transmitted from the in-vehicle device. Using the identification model that can output the number of lanes from the leftmost lane and the number of lanes from the rightmost lane among the multiple lanes in the same direction on the road, The identification result based on the received measurement information is acquired, and the lane of the road on which the vehicle is located is determined based on the acquired identification result.

(8)上記課題を解決するために、この発明のある局面に係わる車線情報処理方法は、車線情報処理装置における車線情報処理方法であって、車両が位置する道路の前記車両における計測結果に基づく計測情報を取得するステップと、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、取得した前記計測情報に基づく前記識別結果を出力するステップとを含む。   (8) In order to solve the above-described problem, a lane information processing method according to an aspect of the present invention is a lane information processing method in a lane information processing apparatus, and is based on a measurement result in the vehicle on a road on which the vehicle is located. It is possible to output the identification result of the step of obtaining measurement information and the number of lanes from the leftmost lane and the number of lanes from the rightmost lane among multiple lanes in the same direction on the road Outputting the identification result based on the acquired measurement information using a simple identification model.

(9)上記課題を解決するために、この発明のある局面に係わる車線情報処理プログラムは、車線情報処理装置において用いられる車線情報処理プログラムであって、コンピュータを、車両が位置する道路の前記車両における計測結果に基づく計測情報を取得する取得部と、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、前記取得部によって取得された前記計測情報に基づく前記識別結果を出力する出力部、として機能させるためのプログラムである。   (9) In order to solve the above-described problem, a lane information processing program according to an aspect of the present invention is a lane information processing program used in a lane information processing apparatus, and the computer is connected to the vehicle on the road where the vehicle is located. The acquisition unit that acquires measurement information based on the measurement results in and the number of lanes from the leftmost lane and the number of lanes from the rightmost lane among multiple lanes in the same direction on the road This is a program for functioning as an output unit that outputs the identification result based on the measurement information acquired by the acquisition unit using an identification model that can be output as an identification result.

本発明は、このような特徴的な処理部を備える車線情報処理装置として実現することができるだけでなく、車線情報処理装置の一部または全部を実現する半導体集積回路として実現することができる。   The present invention can be realized not only as a lane information processing apparatus including such a characteristic processing unit, but also as a semiconductor integrated circuit that realizes part or all of the lane information processing apparatus.

本発明は、このような特徴的な処理部を備える車線識別システムとして実現することができるだけでなく、かかる特徴的な処理をステップとする方法として実現したり、かかるステップをコンピュータに実行させるためのプログラムとして実現したりすることができる。また、車線識別システムの一部または全部を実現する半導体集積回路として実現することができる。   The present invention can be realized not only as a lane identification system including such a characteristic processing unit, but also as a method using such characteristic processing as a step, or for causing a computer to execute such a step. Or as a program. Further, it can be realized as a semiconductor integrated circuit that realizes part or all of the lane identification system.

本発明によれば、車両が位置する車線をより正確に判別することができる。   According to the present invention, it is possible to more accurately determine the lane in which the vehicle is located.

図1は、本発明の実施の形態に係る車線識別システムの構成を示す図である。FIG. 1 is a diagram showing a configuration of a lane identification system according to an embodiment of the present invention. 図2は、本発明の実施の形態に係る車線識別システムにおける車線情報処理装置の構成を示す図である。FIG. 2 is a diagram showing a configuration of the lane information processing apparatus in the lane identification system according to the embodiment of the present invention. 図3は、本発明の実施の形態に係る車線識別システムにおけるカメラにより撮影された画像の一例を示す図である。FIG. 3 is a diagram showing an example of an image taken by the camera in the lane identification system according to the embodiment of the present invention. 図4は、本発明の実施の形態に係る車線識別システムにおけるカメラにより撮影された画像の一例を示す図である。FIG. 4 is a diagram illustrating an example of an image photographed by the camera in the lane identification system according to the embodiment of the present invention. 図5は、本発明の実施の形態に係る車線識別システムにおけるカメラにより撮影された画像の一例を示す図である。FIG. 5 is a diagram showing an example of an image taken by the camera in the lane identification system according to the embodiment of the present invention. 図6は、本発明の実施の形態に係る車線識別システムにおけるカメラにより撮影された画像の一例を示す図である。FIG. 6 is a diagram illustrating an example of an image photographed by the camera in the lane identification system according to the embodiment of the present invention. 図7は、本発明の実施の形態に係る車線識別システムにおけるカメラにより撮影された画像の一例を示す図である。FIG. 7 is a diagram showing an example of an image photographed by the camera in the lane identification system according to the embodiment of the present invention. 図8は、本発明の実施の形態に係る車線識別システムにおいて用いられるラベルの一例を示す図である。FIG. 8 is a diagram showing an example of a label used in the lane identification system according to the embodiment of the present invention. 図9は、本発明の実施の形態に係る車線識別システムにおける車線情報処理装置が識別モデルを作成する際の動作手順を定めたフローチャートである。FIG. 9 is a flowchart defining an operation procedure when the lane information processing apparatus in the lane identification system according to the embodiment of the present invention creates an identification model. 図10は、本発明の実施の形態に係る車線識別システムにおける車線情報処理装置が車両の位置する道路の車線を判別する際の動作手順を定めたフローチャートである。FIG. 10 is a flowchart that defines an operation procedure when the lane information processing device in the lane identification system according to the embodiment of the present invention determines the lane of the road on which the vehicle is located.

最初に、本発明の実施形態の内容を列記して説明する。   First, the contents of the embodiment of the present invention will be listed and described.

(1)本発明の実施の形態に係る車線情報処理装置は、車両が位置する道路の前記車両における計測結果に基づく計測情報を取得する取得部と、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、前記取得部によって取得された前記計測情報に基づく前記識別結果を出力する出力部とを備える。   (1) A lane information processing apparatus according to an embodiment of the present invention includes an acquisition unit that acquires measurement information based on measurement results of the road on which the vehicle is located, and a plurality of lanes in the same direction aligned on the road Based on the measurement information acquired by the acquisition unit using an identification model capable of outputting as an identification result what number lane is from the leftmost lane and what number is the lane from the rightmost lane An output unit for outputting the identification result.

このような構成により、機械学習による識別モデルの作成において、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として用いることにより、車線数の相違に応じた複数の識別モデルを作成することなく機械学習を収束させることができる。そして、このような識別モデルを用いる構成により、道路において車線を隔てるラインを認識することが困難な状況においても、車両が位置する車線を判別することができる。したがって、車両が位置する車線をより正確に判別することができる。   With this configuration, when creating an identification model by machine learning, the number of lanes can be determined by using the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as identification results. Machine learning can be converged without creating a plurality of identification models according to the differences. And the structure using such an identification model can discriminate | determine the lane where a vehicle is located also in the situation where it is difficult to recognize the line which separates a lane on a road. Therefore, it is possible to more accurately determine the lane in which the vehicle is located.

(2)好ましくは、前記計測情報は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線の少なくともいずれか一方に関する前記計測結果を含む。   (2) Preferably, the measurement information includes the measurement result regarding at least one of a leftmost lane and a rightmost lane among a plurality of lanes arranged in the same direction on the road.

このような構成により、識別モデルが道路の両端に着目して車線を判別することを利用して、計測結果における道路の端の車線側に現れる特徴に着目したラベル付けを行うことができるため、道路の計測結果を良好に分類することができる。   With such a configuration, it is possible to perform labeling focusing on features that appear on the lane side at the end of the road in the measurement result by using the identification model focusing on both ends of the road to determine the lane, Road measurement results can be classified well.

(3)好ましくは、前記車線情報処理装置は、さらに、前記出力部によって出力された前記識別結果に基づいて、前記車両が位置する道路の車線を判別する判別部を備える。   (3) Preferably, the said lane information processing apparatus is further provided with the discrimination | determination part which discriminate | determines the lane of the road where the said vehicle is located based on the said identification result output by the said output part.

このような構成により、上記のような識別モデルによる識別結果を用いて、車両が位置する車線のより正確な判別結果を得ることができる。   With such a configuration, it is possible to obtain a more accurate discrimination result of the lane in which the vehicle is located using the discrimination result based on the discrimination model as described above.

(4)好ましくは、前記識別モデルは、ディープラーニングに従った機械学習により作成された識別モデルである。   (4) Preferably, the identification model is an identification model created by machine learning according to deep learning.

このような構成により、ディープラーニングモデルを用いて、車両が位置する車線をより正確に判別することができる。   With such a configuration, it is possible to more accurately determine the lane in which the vehicle is located using the deep learning model.

(5)好ましくは、前記計測結果は、カメラによる画像またはLiDAR(Light Detection and Ranging)による検知結果である。   (5) Preferably, the said measurement result is a detection result by the image by a camera, or LiDAR (Light Detection and Ranging).

このような構成により、カメラによる画像またはLiDARによる検知結果を用いて、車両が位置する車線を簡易な構成で判別することができる。   With such a configuration, it is possible to determine the lane in which the vehicle is located with a simple configuration using an image from the camera or a detection result by LiDAR.

(6)好ましくは、前記道路は、片側3車線以上の車線を含む道路である。   (6) Preferably, the road is a road including three or more lanes on one side.

このような構成により、特に3車線以上の道路において、車両が位置する車線をより正確に判別することができる。   With such a configuration, it is possible to more accurately determine the lane in which the vehicle is located, particularly on a road having three or more lanes.

(7)本発明の実施の形態に係る車線識別システムは、車両に搭載される車載装置と、車線情報処理装置とを備え、前記車載装置は、前記車両が位置する道路の前記車両における計測結果に基づく計測情報を取得し、取得した前記計測情報を前記車線情報処理装置へ送信し、前記車線情報処理装置は、前記車載装置から送信された前記計測情報を受信し、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、受信した前記計測情報に基づく前記識別結果を取得し、取得した前記識別結果に基づいて、前記車両が位置する道路の車線を判別する。   (7) A lane identification system according to an embodiment of the present invention includes an in-vehicle device mounted on a vehicle and a lane information processing device, and the in-vehicle device is a measurement result in the vehicle on a road where the vehicle is located. The measurement information based on is acquired, and the acquired measurement information is transmitted to the lane information processing device. The lane information processing device receives the measurement information transmitted from the in-vehicle device and Based on the received measurement information, using an identification model that can output as an identification result what number lane is from the leftmost lane and what number is the lane from the rightmost lane among a plurality of lanes The identification result is acquired, and the lane of the road on which the vehicle is located is determined based on the acquired identification result.

このような構成により、機械学習による識別モデルの作成において、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として用いることにより、車線数の相違に応じた複数の識別モデルを作成することなく機械学習を収束させることができる。そして、このような識別モデルを用いる構成により、道路において車線を隔てるラインを認識することが困難な状況においても、車両が位置する車線を判別することができる。したがって、車両が位置する車線をより正確に判別することができる。   With this configuration, when creating an identification model by machine learning, the number of lanes can be determined by using the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as identification results. Machine learning can be converged without creating a plurality of identification models according to the differences. And the structure using such an identification model can discriminate | determine the lane where a vehicle is located also in the situation where it is difficult to recognize the line which separates a lane on a road. Therefore, it is possible to more accurately determine the lane in which the vehicle is located.

(8)本発明の実施の形態に係る車線情報処理方法は、車線情報処理装置における車線情報処理方法であって、車両が位置する道路の前記車両における計測結果に基づく計測情報を取得するステップと、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、取得した前記計測情報に基づく前記識別結果を出力するステップとを含む。   (8) A lane information processing method according to an embodiment of the present invention is a lane information processing method in a lane information processing apparatus, and a step of acquiring measurement information based on a measurement result in the vehicle on a road where the vehicle is located; Using the identification model that can output the number of lanes from the leftmost lane and the number of lanes from the rightmost lane among the multiple lanes in the same direction on the road, Outputting the identification result based on the acquired measurement information.

このような構成により、機械学習による識別モデルの作成において、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として用いることにより、車線数の相違に応じた複数の識別モデルを作成することなく機械学習を収束させることができる。そして、このような識別モデルを用いる構成により、道路において車線を隔てるラインを認識することが困難な状況においても、車両が位置する車線を判別することができる。したがって、車両が位置する車線をより正確に判別することができる。   With this configuration, when creating an identification model by machine learning, the number of lanes can be determined by using the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as identification results. Machine learning can be converged without creating a plurality of identification models according to the differences. And the structure using such an identification model can discriminate | determine the lane where a vehicle is located also in the situation where it is difficult to recognize the line which separates a lane on a road. Therefore, it is possible to more accurately determine the lane in which the vehicle is located.

(9)本発明の実施の形態に係る車線情報処理プログラムは、車線情報処理装置において用いられる車線情報処理プログラムであって、コンピュータを、車両が位置する道路の前記車両における計測結果に基づく計測情報を取得する取得部と、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、前記取得部によって取得された前記計測情報に基づく前記識別結果を出力する出力部、として機能させるためのプログラムである。   (9) A lane information processing program according to an embodiment of the present invention is a lane information processing program used in a lane information processing apparatus, and uses a measurement information based on a measurement result of the vehicle on a road where the vehicle is located. And the number of lanes from the leftmost lane and the number of lanes from the rightmost lane among the multiple lanes in the same direction on the road can be output as identification results It is a program for functioning as an output unit that outputs the identification result based on the measurement information acquired by the acquisition unit using an identification model.

このような構成により、機械学習による識別モデルの作成において、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として用いることにより、車線数の相違に応じた複数の識別モデルを作成することなく機械学習を収束させることができる。そして、このような識別モデルを用いる構成により、道路において車線を隔てるラインを認識することが困難な状況においても、車両が位置する車線を判別することができる。したがって、車両が位置する車線をより正確に判別することができる。   With this configuration, when creating an identification model by machine learning, the number of lanes can be determined by using the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as identification results. Machine learning can be converged without creating a plurality of identification models according to the differences. And the structure using such an identification model can discriminate | determine the lane where a vehicle is located also in the situation where it is difficult to recognize the line which separates a lane on a road. Therefore, it is possible to more accurately determine the lane in which the vehicle is located.

以下、本発明の実施の形態について図面を用いて説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。また、以下に記載する実施の形態の少なくとも一部を任意に組み合わせてもよい。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated. Moreover, you may combine arbitrarily at least one part of embodiment described below.

[構成および基本動作]
図1は、本発明の実施の形態に係る車線識別システムの構成を示す図である。
[Configuration and basic operation]
FIG. 1 is a diagram showing a configuration of a lane identification system according to an embodiment of the present invention.

図1を参照して、車線識別システム301は、車載装置11と、車線情報処理装置101とを備える。   With reference to FIG. 1, the lane identification system 301 includes an in-vehicle device 11 and a lane information processing device 101.

車載装置11、カメラ12およびLiDAR13は、車両1に搭載される。   The in-vehicle device 11, the camera 12, and the LiDAR 13 are mounted on the vehicle 1.

車載装置11は、自己の位置する道路の計測結果に基づく計測情報を車線情報処理装置101へ送信する。   The in-vehicle device 11 transmits measurement information based on the measurement result of the road on which the vehicle-mounted device 11 is located to the lane information processing device 101.

たとえば、計測情報は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線の少なくともいずれか一方に関する計測結果を含む。計測結果は、たとえば、カメラ12による画像またはLiDAR13による検知結果である。本明細書において、「左端の車線」は、道路において並ぶ同じ方向の複数の車線のうちの、左端の車線を意味し、また、「右端の車線」は、道路において並ぶ同じ方向の複数の車線のうちの、右端の車線を意味するものとする。   For example, the measurement information includes a measurement result regarding at least one of the leftmost lane and the rightmost lane among a plurality of lanes in the same direction arranged on the road. The measurement result is, for example, an image by the camera 12 or a detection result by the LiDAR 13. In this specification, the “leftmost lane” means a leftmost lane among a plurality of lanes arranged in the same direction on the road, and the “rightmost lane” means a plurality of lanes arranged in the same direction on the road. Of these, it means the rightmost lane.

より詳細には、カメラ12は、たとえば、車両1の走行中および車両1の停車中において、車両1の周囲を定期的に撮影する撮像装置であり、車両1の周囲を撮影するための撮像素子、対応するソフトウェアを搭載したCPUおよび処理回路等を含む。   More specifically, the camera 12 is an imaging device that periodically images the surroundings of the vehicle 1 while the vehicle 1 is traveling and the vehicle 1 is stopped, for example. , Including a CPU and processing circuit equipped with corresponding software.

カメラ12は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線の少なくともいずれか一方、ならびに車線の外側における壁、建物および植物等を含む車両1の前方を撮影した画像(以下、撮影画像とも称する。)を車載装置11へ出力する。   The camera 12 is an image obtained by photographing the front of the vehicle 1 including a left lane and a right lane among a plurality of lanes arranged in the same direction on the road, and walls, buildings, plants, and the like outside the lane. (Hereinafter also referred to as a captured image) is output to the in-vehicle device 11.

LiDAR13は、たとえば、レーザ光を照射するためのレーザ機器、物体によるレーザ光の散乱光を受光するための受光素子、対応するソフトウェアを搭載したCPU(Central Processing Unit)および処理回路等を含む。   The LiDAR 13 includes, for example, a laser device for irradiating laser light, a light receiving element for receiving scattered light of laser light from an object, a CPU (Central Processing Unit) equipped with corresponding software, a processing circuit, and the like.

LiDAR13は、自己の車両1に1または複数設けられ、たとえば、車両1の走行中および車両1の停車中において、車両1に対して左側、右側、前側および後側に位置する物体を検知することが可能である。LiDAR13は、検知結果を定期的に車載装置11へ出力する。   One or a plurality of LiDARs 13 are provided in the own vehicle 1. For example, when the vehicle 1 is traveling and the vehicle 1 is stopped, the LiDAR 13 detects objects located on the left side, the right side, the front side, and the rear side with respect to the vehicle 1. Is possible. The LiDAR 13 periodically outputs the detection result to the in-vehicle device 11.

当該検知結果には、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線の少なくともいずれか一方、ならびに車線の外側における壁、建物および植物等、車両1の周辺の物体が含まれる。   The detection results include objects in the vicinity of the vehicle 1 such as at least one of the leftmost lane and the rightmost lane among a plurality of lanes arranged in the same direction on the road, and walls, buildings, and plants outside the lane. included.

車載装置11は、たとえば、テレマティクスにおいて用いられる通信装置であって、LTE(Long Term Evolution)または無線LANによる通信を行う。   The in-vehicle device 11 is a communication device used in telematics, for example, and performs communication by LTE (Long Term Evolution) or wireless LAN.

車載装置11は、カメラ12から受けた撮影画像およびLiDAR13から受けた検知結果を含み、かつ車両1のID(Identification)を付加した計測情報を車線情報処理装置101へ送信する。   The in-vehicle device 11 transmits the measurement information including the captured image received from the camera 12 and the detection result received from the LiDAR 13 and added with the ID (Identification) of the vehicle 1 to the lane information processing device 101.

[課題]
特許文献1(特開2008−276642号公報)には、カメラ等により撮影された画像において、道路における白線のパターンに基づいて走行車線を特定する方法が開示されている。
[Task]
Patent Document 1 (Japanese Patent Laid-Open No. 2008-276642) discloses a method of identifying a traveling lane based on a white line pattern on a road in an image taken by a camera or the like.

しかしながら、この方法では、白線のパターンが既知である道路でなければ走行車線を特定することができない。また、この方法では、積雪等により白線が埋もれて白線のパターンの認識が困難な場合、または経年変化等により白線の形状が変化した場合、白線のパターンを誤認して誤った走行車線を特定する可能性がある。また、たとえば片側4車線の道路において、中央の2車線の白線のパターンが同一の場合、いずれの走行車線を走行しているかを判別することができない。   However, according to this method, the traveling lane cannot be specified unless the road has a known white line pattern. Also, with this method, when the white line is buried due to snow or the like and it is difficult to recognize the white line pattern, or when the shape of the white line changes due to secular change or the like, the white line pattern is mistakenly identified and the wrong driving lane is specified. there is a possibility. For example, in the case of a four-lane road on one side, if the pattern of the white line in the center two lanes is the same, it cannot be determined which lane the vehicle is traveling.

また、特許文献2(特開2005−4442号公報)には、機械学習を用いて走行車線を特定する方法が開示されている。   Patent Document 2 (Japanese Patent Application Laid-Open No. 2005-4442) discloses a method of identifying a traveling lane using machine learning.

しかしながら、この方法では、走行車線数に応じた識別モデルの作成が必要となるため、識別モデルの数が多くなり機械学習を収束させることが困難である。   However, in this method, since it is necessary to create an identification model according to the number of lanes to travel, the number of identification models increases and it is difficult to converge machine learning.

これに対して、本発明の実施の形態に係る車線識別システムでは、以下のような構成および動作により、上記課題を解決する。   On the other hand, in the lane identification system according to the embodiment of the present invention, the above problem is solved by the following configuration and operation.

[車線情報処理装置の構成]
図2は、本発明の実施の形態に係る車線識別システムにおける車線情報処理装置の構成を示す図である。
[Configuration of lane information processing device]
FIG. 2 is a diagram showing a configuration of the lane information processing apparatus in the lane identification system according to the embodiment of the present invention.

図2を参照して、車線情報処理装置101は、受信部21と、取得部22と、出力部23と、判別部24と、記憶部25と、生成部26とを備える。   With reference to FIG. 2, the lane information processing apparatus 101 includes a reception unit 21, an acquisition unit 22, an output unit 23, a determination unit 24, a storage unit 25, and a generation unit 26.

受信部21は、1または複数の車両1に搭載された車載装置11から送信された計測情報を受信して記憶部25に保存する。   The receiving unit 21 receives measurement information transmitted from the in-vehicle device 11 mounted on one or a plurality of vehicles 1 and stores it in the storage unit 25.

図3〜図7は、本発明の実施の形態に係る車線識別システムにおけるカメラにより撮影された画像の一例を示す図である。   3-7 is a figure which shows an example of the image image | photographed with the camera in the lane identification system which concerns on embodiment of this invention.

図3に示す画像は、車両1が片側2車線の道路における左端の車線を走行している状態において、カメラ12が車両1の前方を撮影した撮影画像S21である。記憶部25には、このような撮影画像S21が複数保存されている。   The image shown in FIG. 3 is a captured image S21 in which the camera 12 captures the front of the vehicle 1 in a state where the vehicle 1 is traveling in the leftmost lane on a two-lane road. The storage unit 25 stores a plurality of such photographed images S21.

図4に示す画像は、車両1が片側2車線の道路における右端の車線を走行している状態において、カメラ12が車両1の前方を撮影した撮影画像S22である。記憶部25には、このような撮影画像S22が複数保存されている。   The image shown in FIG. 4 is a captured image S22 in which the camera 12 captures the front of the vehicle 1 in a state where the vehicle 1 is traveling in the rightmost lane on a two-lane road. A plurality of such photographed images S22 are stored in the storage unit 25.

図5に示す画像は、車両1が片側3車線の道路における左端の車線を走行している状態において、カメラ12が車両1の前方を撮影した撮影画像S31である。記憶部25には、このような撮影画像S31が複数保存されている。   The image shown in FIG. 5 is a captured image S31 in which the camera 12 captures the front of the vehicle 1 in a state where the vehicle 1 is traveling in the leftmost lane on a road with three lanes on one side. The storage unit 25 stores a plurality of such photographed images S31.

図6に示す画像は、車両1が片側3車線の道路における中央の車線を走行している状態において、カメラ12が車両1の前方を撮影した撮影画像S32である。記憶部25には、このような撮影画像S32が複数保存されている。   The image shown in FIG. 6 is a captured image S32 in which the camera 12 captures the front of the vehicle 1 in a state in which the vehicle 1 is traveling in the center lane on a three-lane road on one side. A plurality of such photographed images S32 are stored in the storage unit 25.

図7に示す画像は、車両1が片側3車線の道路における右端の車線を走行している状態において、カメラ12が車両1の前方を撮影した撮影画像S33である。記憶部25には、このような撮影画像S33が複数保存されている。   The image shown in FIG. 7 is a captured image S33 in which the camera 12 captures the front of the vehicle 1 in a state in which the vehicle 1 is traveling in the rightmost lane on a three-lane road on one side. A plurality of such photographed images S33 are stored in the storage unit 25.

また、記憶部25には、たとえば、車両1が片側1車線の道路を走行している状態において、カメラ12が車両1の前方を撮影した複数の撮影画像、および車両1が片側4車線以上の道路における各車線を走行している状態において、カメラ12が車両1の前方を撮影した複数の撮影画像が保存されている。   Further, in the storage unit 25, for example, in a state where the vehicle 1 is traveling on a one-lane road, the camera 12 captures a plurality of captured images of the front of the vehicle 1, and the vehicle 1 has four or more lanes on one side. A plurality of captured images in which the camera 12 captures the front of the vehicle 1 in a state where the vehicle is traveling on each lane on the road are stored.

また、記憶部25には、たとえば、複数のLiDAR13による検知結果が保存されている。LiDAR13による検知結果は、たとえば、図3〜図7に示す画像に奥行情報が追加された3次元のデータであり、撮影画像と同様に扱うことができる。   Further, the storage unit 25 stores, for example, detection results by a plurality of LiDARs 13. The detection result by the LiDAR 13 is, for example, three-dimensional data in which depth information is added to the images illustrated in FIGS. 3 to 7 and can be handled in the same manner as the captured image.

生成部26は、たとえば、ディープラーニングに従った機械学習により生成されるモデルである識別モデルを作成する。識別モデルは、たとえば、機械学習によって自動的に作成されるアルゴリズムである。ディープラーニングモデルは、ニューラルネットワークモデルの一例である。   The generation unit 26 creates, for example, an identification model that is a model generated by machine learning according to deep learning. The identification model is an algorithm automatically created by machine learning, for example. The deep learning model is an example of a neural network model.

ここで、非特許文献1(Ramprasaath R. Selvaraju、外5名、“Grad−CAM: Visual Explanations from Deep Networks via Gradient−Based Localization”、arXiv:1610.02391v3、2017年5月)に記載のGrad−CAM(Gradient−Weighted Class Activation Mapping)を用いることにより、ディープラーニングモデルにおいて、入力された画像のどこに着目されているかを可視化することができる。   Here, Non-Patent Document 1 (Ramprasaath R. Selvaraju, 5 others, “Grad-CAM: Visual Expansions from Deep Networks via Gradient-Based Localization”, 17-91, arXiv: 161, 1961, arXiv: 160, 1953. By using CAM (Gradient-Weighted Class Activation Mapping), it is possible to visualize where in the deep learning model the focused image is focused.

本願発明者らは、図3〜図7に示すような、車両の前方を撮影した撮影画像をディープラーニングモデルへ入力した場合、ディープラーニングモデルは、道路の両端に着目することを発見した。   The inventors of the present application have found that when a photographed image obtained by photographing the front of the vehicle as shown in FIGS. 3 to 7 is input to the deep learning model, the deep learning model focuses on both ends of the road.

そして、本願発明者らは、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを示すラベルを用いて、車両1の位置する車線を容易に分類できるという着想を得た。   Then, the inventors of the present invention use a label indicating the number of the lane from the leftmost lane and the number of the lane from the rightmost lane among the plurality of lanes arranged in the same direction on the road. The idea is that the lane in which the vehicle 1 is located can be easily classified.

図3および図5を参照して、左端の車線を車両1が走行している状態において撮影された撮影画像S21および撮影画像S31の左端付近において、車両1が走行している当該車線の外側に存在する壁の縦方向の比率は、3分の1程度である。   Referring to FIGS. 3 and 5, in the vicinity of the left end of the captured image S21 and the captured image S31 captured in the state where the vehicle 1 is traveling in the left lane, outside the lane in which the vehicle 1 is traveling. The vertical ratio of the existing walls is about one third.

また、道路の車線数が異なっていても、車両1が走行している車線から上記壁までの距離は変わらないため、車線数の異なる道路における各撮影画像の左端付近に現れる上記壁の縦方向の比率はほぼ同じである。   Even if the number of lanes on the road is different, the distance from the lane in which the vehicle 1 is traveling to the wall does not change, so the vertical direction of the wall that appears near the left end of each captured image on a road with a different number of lanes The ratio is almost the same.

同様に、図4および図7を参照して、右端の車線を車両1が走行している状態において撮影された撮影画像S22および撮影画像S33の右端付近において、車両1が走行している右端の車線の外側に存在する壁の縦方向の比率は、3分の1程度であり、撮影画像S22および撮影画像S33において当該比率はほぼ同じである。   Similarly, referring to FIG. 4 and FIG. 7, in the vicinity of the right end of the captured image S22 and the captured image S33 captured in a state where the vehicle 1 is traveling in the rightmost lane, The ratio of the vertical direction of the wall existing outside the lane is about one third, and the ratio is substantially the same in the captured image S22 and the captured image S33.

このように、道路の車線数が異なっていても、上記縦方向の比率がほぼ同じであることに着目し、車両1が位置する車線を示すラベルを用いて撮影画像を分類する。   In this way, even if the number of lanes on the road is different, paying attention to the fact that the ratio in the vertical direction is substantially the same, the captured images are classified using the labels indicating the lane where the vehicle 1 is located.

ここで、たとえば、左端の車線から何番目の車線であるかを示すラベルのみを用いた場合、片側2車線の車線を含む道路における右端の車線と、片側3車線の車線を含む道路における中央の車線とを区別することができない。   Here, for example, when only the label indicating the number of the lane from the leftmost lane is used, the rightmost lane on the road including the lane of two lanes on one side and the center of the road including the lane of three lanes on one side are used. Indistinguishable from lane.

これに対して、上記のようなラベルを用いることにより、片側3車線以上の道路であっても、車両1の位置する車線を容易に判別することができる。   On the other hand, by using the label as described above, the lane in which the vehicle 1 is located can be easily determined even on a road with three or more lanes on one side.

図8は、本発明の実施の形態に係る車線識別システムにおいて用いられるラベルの一例を示す図である。   FIG. 8 is a diagram showing an example of a label used in the lane identification system according to the embodiment of the present invention.

図8を参照して、車線識別システム301では、以下のように、車両1の位置する車線を示すラベルが撮影画像に付される。   Referring to FIG. 8, in lane identification system 301, a label indicating the lane in which vehicle 1 is located is attached to the captured image as follows.

すなわち、車両1が片側1車線の道路を走行している場合、左端の車線から1番目の車線に位置することを示すラベルL1が撮影画像に付される。あるいは、右端の車線から1番目の車線に位置することを示すラベルR1が撮影画像に付される。   That is, when the vehicle 1 is traveling on a one-lane road, a label L1 indicating that the vehicle 1 is located in the first lane from the leftmost lane is attached to the photographed image. Alternatively, a label R1 indicating that the vehicle is located in the first lane from the rightmost lane is attached to the captured image.

また、車両1が片側2車線の道路において左端の第1車線を走行している場合、左端の車線から1番目の車線に位置することを示すラベルL1が撮影画像に付される。   Further, when the vehicle 1 is traveling in the first lane at the left end on a two-lane road on one side, a label L1 indicating that the vehicle 1 is located in the first lane from the left lane is attached to the photographed image.

また、車両1が片側2車線の道路において右端の第2車線を走行している場合、右端の車線から1番目の車線に位置することを示すラベルR1が撮影画像に付される。   In addition, when the vehicle 1 is traveling in the second lane at the right end on a two-lane road on one side, a label R1 indicating that the vehicle 1 is located in the first lane from the right lane is attached to the photographed image.

また、車両1が片側3車線の道路において左端の第1車線を走行している場合、左端の車線から1番目の車線に位置することを示すラベルL1が撮影画像に付される。   Further, when the vehicle 1 is traveling on the leftmost first lane on a three-lane road on one side, a label L1 indicating that the vehicle 1 is located in the first lane from the leftmost lane is attached to the photographed image.

また、車両1が片側3車線の道路において中央の第2車線を走行している場合、左端の車線から2番目の車線に位置することを示すラベルL2が撮影画像に付される。あるいは、右端の車線から2番目の車線に位置することを示すラベルR2が撮影画像に付される。   In addition, when the vehicle 1 is traveling in the center second lane on a three-lane road on one side, a label L2 indicating that the vehicle 1 is located in the second lane from the leftmost lane is attached to the photographed image. Alternatively, a label R2 indicating that the vehicle is located in the second lane from the rightmost lane is attached to the captured image.

また、車両1が片側3車線の道路において右端の第3車線を走行している場合、右端の車線から1番目の車線に位置することを示すラベルR1が撮影画像に付される。   Further, when the vehicle 1 is traveling in the third lane on the right end on the three-lane road on one side, a label R1 indicating that the vehicle 1 is located in the first lane from the right lane is attached to the photographed image.

また、車両1が片側4車線の道路において左端の第1車線を走行している場合、左端の車線から1番目の車線に位置することを示すラベルL1が撮影画像に付される。   Further, when the vehicle 1 is traveling on the leftmost first lane on a four-lane road on one side, a label L1 indicating that the vehicle 1 is located in the first lane from the leftmost lane is attached to the photographed image.

また、車両1が片側4車線の道路において左端の車線から2番目の第2車線を走行している場合、左端の車線から2番目の車線に位置することを示すラベルL2が撮影画像に付される。   Further, when the vehicle 1 is traveling in the second lane second from the left lane on the four-lane road on one side, a label L2 indicating that the vehicle 1 is located in the second lane from the left lane is attached to the photographed image. The

また、車両1が片側4車線の道路において右端の車線から2番目の第3車線を走行している場合、右端の車線から2番目の車線に位置することを示すラベルR2が撮影画像に付される。   Further, when the vehicle 1 is traveling on the second lane from the right lane on the four-lane road on one side, a label R2 indicating that the vehicle 1 is located in the second lane from the right lane is attached to the photographed image. The

また、車両1が片側4車線の道路において右端の第4車線を走行している場合、右端の車線から1番目の車線に位置することを示すラベルR1が撮影画像に付される。   Further, when the vehicle 1 is traveling in the fourth lane at the right end on a four-lane road on one side, a label R1 indicating that the vehicle 1 is located in the first lane from the right lane is attached to the photographed image.

[動作の流れ]
車線識別システム301における各装置は、コンピュータを備え、当該コンピュータにおけるCPU等の演算処理部は、以下のフローチャートの各ステップの一部または全部を含むプログラムを図示しないメモリからそれぞれ読み出して実行する。これら複数の装置のプログラムは、それぞれ、外部からインストールすることができる。これら複数の装置のプログラムは、それぞれ、記録媒体に格納された状態で流通する。
[Flow of operation]
Each device in the lane identification system 301 includes a computer, and an arithmetic processing unit such as a CPU in the computer reads and executes a program including a part or all of each step of the following flowchart from a memory (not shown). Each of the programs of the plurality of apparatuses can be installed from the outside. The programs of the plurality of apparatuses are distributed while being stored in a recording medium.

図9は、本発明の実施の形態に係る車線識別システムにおける車線情報処理装置が識別モデルを作成する際の動作手順を定めたフローチャートである。   FIG. 9 is a flowchart defining an operation procedure when the lane information processing apparatus in the lane identification system according to the embodiment of the present invention creates an identification model.

図9を参照して、まず、生成部26は、ユーザの操作に従って、画像データPL1を作成する。   Referring to FIG. 9, first, generation unit 26 creates image data PL1 in accordance with a user operation.

より詳細には、ユーザは、たとえば、識別モデルを作成するため、記憶部25に保存された複数の画像のうち、車両1が左端から1番目の車線を走行している状態における撮影画像すなわち撮影画像S21および撮影画像S31(図3および図5参照)を複数たとえば500個選択し、選択結果を入力する操作を車線情報処理装置101に対して行う。   More specifically, the user, for example, in order to create an identification model, a captured image in a state where the vehicle 1 is traveling in the first lane from the left end among a plurality of images stored in the storage unit 25, that is, a captured image. A plurality of, for example, 500 images S21 and photographed images S31 (see FIGS. 3 and 5) are selected, and an operation for inputting a selection result is performed on the lane information processing apparatus 101.

なお、選択された500個の撮影画像には、車両1が片側1車線の道路を走行している状態における撮影画像、および車両1が片側4車線以上の道路における左端の車線を走行している状態における撮影画像の少なくともいずれか一方が含まれてもよい。   The selected 500 captured images include a captured image in a state where the vehicle 1 is traveling on a road with one lane on one side, and a vehicle 1 is traveling on the leftmost lane on a road with four or more lanes on one side. At least one of the captured images in the state may be included.

生成部26は、選択された撮影画像を500個含む画像データPL1を作成する(ステップS101)。   The generation unit 26 creates image data PL1 including 500 selected photographed images (step S101).

次に、生成部26は、ユーザの操作に従って、画像データPR1を作成する。   Next, the production | generation part 26 produces the image data PR1 according to a user's operation.

より詳細には、ユーザは、たとえば、識別モデルを作成するため、記憶部25に保存された複数の撮影画像のうち、車両1が右端から1番目の車線を走行している状態における撮影画像すなわち撮影画像S22および撮影画像S33(図4および図7参照)を複数たとえば500個選択し、選択結果を入力する操作を車線情報処理装置101に対して行う。   More specifically, the user, for example, in order to create an identification model, among the plurality of captured images stored in the storage unit 25, the captured image in a state where the vehicle 1 is traveling in the first lane from the right end, that is, A plurality of, for example, 500 photographed images S22 and photographed images S33 (see FIGS. 4 and 7) are selected, and an operation for inputting a selection result is performed on the lane information processing apparatus 101.

なお、選択された500個の撮影画像には、車両1が片側1車線の道路を走行している状態における撮影画像、および車両1が片側4車線以上の道路における右端の車線を走行している状態における撮影画像の少なくともいずれか一方が含まれてもよい。   In the selected 500 captured images, a captured image in a state where the vehicle 1 is traveling on a road with one lane on one side, and a vehicle 1 is traveling in the rightmost lane on a road with four or more lanes on one side. At least one of the captured images in the state may be included.

生成部26は、選択された撮影画像を500個含む画像データPR1を作成する(ステップS102)。   The generation unit 26 creates image data PR1 including 500 selected photographed images (step S102).

次に、生成部26は、ユーザの操作に従って、画像データPL2を作成する。   Next, the production | generation part 26 produces the image data PL2 according to a user's operation.

より詳細には、ユーザは、たとえば、識別モデルを作成するため、記憶部25に保存された複数の撮影画像のうち、車両1が左端から2番目の車線を走行している状態における撮影画像すなわち撮影画像S32(図6参照)を複数たとえば500個選択し、選択結果を入力する操作を車線情報処理装置101に対して行う。   More specifically, the user, for example, in order to create an identification model, among the plurality of captured images stored in the storage unit 25, the captured image in a state where the vehicle 1 is traveling in the second lane from the left end, that is, A plurality of, for example, 500 photographed images S32 (see FIG. 6) are selected, and an operation for inputting a selection result is performed on the lane information processing apparatus 101.

なお、選択された500個の撮影画像には、車両1が片側4車線以上の道路における左端の車線から2番目の車線を走行している状態における撮影画像が含まれてもよい。   Note that the selected 500 captured images may include captured images in a state where the vehicle 1 is traveling in the second lane from the leftmost lane on a road with four or more lanes on one side.

生成部26は、選択された撮影画像を500個含む画像データPL2を作成する(ステップS103)。   The generation unit 26 creates image data PL2 including 500 selected photographed images (step S103).

次に、生成部26は、ユーザの操作に従って、画像データPR2を作成する。   Next, the production | generation part 26 produces the image data PR2 according to a user's operation.

より詳細には、ユーザは、たとえば、識別モデルを作成するため、記憶部25に保存された複数の画像のうち、車両1が右端から2番目の車線を走行している状態における撮影画像すなわち撮影画像S32(図6参照)を複数たとえば500個選択し、選択結果を入力する操作を車線情報処理装置101に対して行う。   More specifically, the user, for example, in order to create an identification model, a captured image in a state where the vehicle 1 is traveling in the second lane from the right end among a plurality of images stored in the storage unit 25, that is, a captured image. A plurality of, for example, 500 images S32 (see FIG. 6) are selected, and an operation for inputting the selection result is performed on the lane information processing apparatus 101.

なお、選択された500個の画像には、車両1が片側4車線以上の道路における右端の車線から2番目の車線を走行している状態における撮影画像が含まれてもよい。   The selected 500 images may include photographed images in a state where the vehicle 1 is traveling in the second lane from the rightmost lane on a road with four or more lanes on one side.

生成部26は、選択された撮影画像を500個含む画像データPR2を作成する(ステップS104)。   The generation unit 26 creates image data PR2 including 500 selected photographed images (step S104).

次に、生成部26は、学習データセットを作成する。   Next, the generation unit 26 creates a learning data set.

より詳細には、生成部26は、500個の画像を含む画像データPL1から、撮影画像を1個取得し、車両1が左端から1番目の車線に位置していることを示すラベルL1を当該撮影画像に付す。   More specifically, the generation unit 26 acquires one captured image from the image data PL1 including 500 images, and applies the label L1 indicating that the vehicle 1 is located in the first lane from the left end. Attached to the shot image.

生成部26は、画像データPL1における他の撮影画像についても同様に処理することにより学習用データを作成する。このようにして、車両1が左端から1番目の車線に位置している状態における撮影画像についての500個の学習用データが作成される。   The generation unit 26 creates learning data by processing the other captured images in the image data PL1 in the same manner. In this way, 500 pieces of learning data are created for the captured image in a state where the vehicle 1 is positioned in the first lane from the left end.

また、生成部26は、500個の撮影画像を含む画像データPR1から、撮影画像を1個取得し、車両1が右端から1番目の車線に位置していることを示すラベルR1を当該撮影画像に付す。   Further, the generation unit 26 acquires one captured image from the image data PR1 including 500 captured images, and labels the captured image R1 indicating that the vehicle 1 is located in the first lane from the right end. Attached.

生成部26は、画像データPR1における他の撮影画像についても同様に処理することにより学習用データを作成する。このようにして、車両1が右端から1番目の車線に位置している状態における撮影画像についての500個の学習用データが作成される。   The generation unit 26 creates learning data by processing the other captured images in the image data PR1 in the same manner. In this way, 500 pieces of learning data are created for the captured image in a state where the vehicle 1 is positioned in the first lane from the right end.

また、生成部26は、500個の撮影画像を含む画像データPL2から、撮影画像を1個取得し、車両1が左端から2番目の車線に位置していることを示すラベルL2を当該撮影画像に付す。   Further, the generation unit 26 acquires one captured image from the image data PL2 including 500 captured images, and displays a label L2 indicating that the vehicle 1 is located in the second lane from the left end. Attached.

生成部26は、画像データPL2における他の撮影画像についても同様に処理することにより学習用データを作成する。このようにして、車両1が左端から2番目の車線に位置している状態における撮影画像についての500個の学習用データが作成される。   The generation unit 26 creates learning data by processing the other captured images in the image data PL2 in the same manner. In this way, 500 pieces of learning data are created for the captured image in a state where the vehicle 1 is positioned in the second lane from the left end.

また、生成部26は、500個の撮影画像を含む画像データPR2から、撮影画像を1個取得し、車両1が右端から2番目の車線に位置していることを示すラベルR2を当該撮影画像に付す。   Further, the generation unit 26 acquires one captured image from the image data PR2 including 500 captured images, and labels the captured image R2 indicating that the vehicle 1 is located in the second lane from the right end. Attached.

生成部26は、画像データPR2における他の撮影画像についても同様に処理することにより学習用データを作成する。このようにして、車両1が右端から2番目の車線に位置している状態における撮影画像についての500個の学習用データが作成される。   The generation unit 26 generates learning data by processing the other captured images in the image data PR2 in the same manner. In this way, 500 pieces of learning data are created for the captured image in a state where the vehicle 1 is positioned in the second lane from the right end.

生成部26は、生成した合計2000個の学習用データから学習データセットを作成する(ステップS105)。   The generation unit 26 creates a learning data set from the generated total 2000 pieces of learning data (step S105).

具体的には、生成部26は、生成した2000個の学習用データに含まれる各撮影画像を、車両1の位置する車線が、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを示すラベルごとに分類した学習データセットを作成する。   Specifically, the generation unit 26 captures each captured image included in the generated 2000 learning data from the leftmost lane among a plurality of lanes in the same direction in which the lane where the vehicle 1 is located is aligned on the road. A learning data set classified for each label indicating the number of lanes and the number of lanes from the rightmost lane is created.

次に、生成部26は、作成した学習データセットを用いて識別モデルを作成する。   Next, the production | generation part 26 produces an identification model using the produced learning data set.

具体的には、生成部26は、たとえば、ディープラーニング(Deep Learning)の手法に沿って、多層化したニューラルネットワークに学習データセットを入力する。   Specifically, the generation unit 26 inputs a learning data set to a multilayered neural network in accordance with, for example, a deep learning technique.

生成部26は、多層化したニューラルネットワークに対して、車両1の位置する車線が、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別できるように機械学習させることにより識別モデルを作成する(ステップS106)。   The generation unit 26 determines, for the multilayered neural network, the number of the lane in which the vehicle 1 is located from the leftmost lane among the plurality of lanes arranged in the same direction on the road, and the rightmost lane. An identification model is created by machine learning so that it can be identified what lane the vehicle is from (step S106).

このような機械学習の結果、識別モデルは、たとえば、画像データにおける道路の左端および右端に現れる壁等の特徴に基づいて、車両1の位置する車線が、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能となる。   As a result of such machine learning, the identification model is obtained from, for example, a plurality of lanes in the same direction in which the lane where the vehicle 1 is located is aligned on the road based on features such as walls appearing at the left and right ends of the road in the image data. Among these, it is possible to output as an identification result which number is the lane from the leftmost lane and what number is the lane from the rightmost lane.

識別モデルの内容は、たとえば所定条件を満たしたときに決定される。この例では、識別モデルの内容は、学習データセットに含まれる撮影画像をすべて用いた機械学習が完了したときに決定される。   The content of the identification model is determined when a predetermined condition is satisfied, for example. In this example, the content of the identification model is determined when machine learning using all the captured images included in the learning data set is completed.

以下、機械学習の完了した識別モデルを、学習済識別モデルとも称する。この学習済識別モデルへ画像データが入力されると、車両1の位置する車線が、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを示す識別結果が当該画像データに付されて出力される。   Hereinafter, the identification model for which machine learning has been completed is also referred to as a learned identification model. When image data is input to the learned identification model, the lane in which the vehicle 1 is located is the number of the lane from the leftmost lane among the plurality of lanes arranged in the same direction on the road, and the rightmost lane. The identification result indicating what number of lane is attached to the image data and output.

生成部26は、生成した学習済識別モデルを記憶部25に保存する(ステップS107)。   The generation unit 26 stores the generated learned identification model in the storage unit 25 (step S107).

なお、上記ステップS101〜S104の順番は、上記に限らず、一部または全部の順番を変更してもよい。   Note that the order of steps S101 to S104 is not limited to the above, and a part or all of the order may be changed.

図10は、本発明の実施の形態に係る車線識別システムにおける車線情報処理装置が車両の位置する道路の車線を判別する際の動作手順を定めたフローチャートである。   FIG. 10 is a flowchart that defines an operation procedure when the lane information processing device in the lane identification system according to the embodiment of the present invention determines the lane of the road on which the vehicle is located.

図10を参照して、まず、取得部22は、車両1が位置する道路の当該車両1における計測結果に基づく計測情報を取得する(ステップS201)。   With reference to FIG. 10, first, the acquisition unit 22 acquires measurement information based on the measurement result of the vehicle 1 on the road where the vehicle 1 is located (step S201).

より詳細には、取得部22は、記憶部25に保存された計測情報を取得し、取得した計測情報に含まれる撮影画像(以下、判定用画像とも称する。)を出力部23へ出力する。   More specifically, the acquisition unit 22 acquires measurement information stored in the storage unit 25, and outputs a captured image (hereinafter also referred to as a determination image) included in the acquired measurement information to the output unit 23.

次に、出力部23は、学習済識別モデルを用いて、取得部22によって取得された計測情報に基づく識別結果を出力する(ステップS202)。   Next, the output unit 23 outputs an identification result based on the measurement information acquired by the acquisition unit 22 using the learned identification model (step S202).

より詳細には、出力部23は、記憶部25に保存された学習済識別モデルを取得する。そして、出力部23は、取得部22から判定用画像を当該学習済識別モデルへ入力することにより、対応の車両1の位置する車線が、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを択一的に示す識別結果を当該判定用画像に付して判別部24へ出力する。   More specifically, the output unit 23 acquires a learned identification model stored in the storage unit 25. And the output part 23 inputs the image for determination from the acquisition part 22 into the said learned identification model, and the lane where the corresponding vehicle 1 is located is leftmost among a plurality of lanes in the same direction lined up on the road. An identification result that alternatively indicates the number of the lane from the lane and the number of the lane from the rightmost lane is attached to the determination image and output to the determination unit 24.

具体的には、出力部23は、判定用画像を学習済識別モデルへ入力することにより、車両1が左端の車線から1番目の車線に位置することを示す識別結果KL1、車両1が右端の車線から1番目の車線に位置することを示す識別結果KR1、車両1が左端の車線から2番目の車線に位置することを示す識別結果KL2および車両1が右端の車線から2番目の車線に位置することを示す識別結果KR2のうちのいずれかを当該判定用画像に付して判別部24へ出力する。   Specifically, the output unit 23 inputs the determination image to the learned identification model, and thereby the identification result KL1 indicating that the vehicle 1 is positioned in the first lane from the left lane, and the vehicle 1 is the right end. Identification result KR1 indicating that the vehicle is located in the first lane from the lane, identification result KL2 indicating that the vehicle 1 is located in the second lane from the leftmost lane, and vehicle 1 is located in the second lane from the rightmost lane One of the identification results KR2 indicating that this is to be performed is attached to the determination image and output to the determination unit 24.

判別部24は、たとえば、出力部23から受けた判定用画像に付された識別結果に基づいて、対応の車両1が位置する道路の車線を判別する(ステップS203)。   For example, the determination unit 24 determines the lane of the road where the corresponding vehicle 1 is located based on the identification result attached to the determination image received from the output unit 23 (step S203).

より詳細には、判別部24は、出力部23から識別結果KL1が付された判定用画像を受けた場合、車両1が左端の車線から1番目の車線に位置していると判別する。   More specifically, when receiving the determination image with the identification result KL1 from the output unit 23, the determination unit 24 determines that the vehicle 1 is located in the first lane from the leftmost lane.

また、判別部24は、出力部23から識別結果KR1が付された判定用画像を受けた場合、車両1が右端の車線から1番目の車線に位置していると判別する。   Further, when the determination unit 24 receives the determination image with the identification result KR1 from the output unit 23, the determination unit 24 determines that the vehicle 1 is located in the first lane from the rightmost lane.

また、判別部24は、出力部23から識別結果KL2が付された判定用画像を受けた場合、車両1が左端の車線から2番目の車線に位置していると判別する。   Further, when receiving the determination image with the identification result KL2 from the output unit 23, the determination unit 24 determines that the vehicle 1 is located in the second lane from the leftmost lane.

また、判別部24は、出力部23から識別結果KR2が付された判定用画像を受けた場合、車両1が右端の車線から2番目の車線に位置していると判別する。   Further, when receiving the determination image with the identification result KR2 from the output unit 23, the determination unit 24 determines that the vehicle 1 is located in the second lane from the rightmost lane.

なお、車線識別システム301では、撮影画像を用いて識別モデルを生成する構成に限らず、LiDAR13による検知結果を用いた識別モデルを生成してもよい。この場合、学習データセットは、ラベルL1,R1,L2,R2が付された検知結果を含む。出力部23は、取得部22から受けたLiDAR13による検知結果を学習済識別モデルへ入力することにより、いずれかの識別結果が付された検知結果を判別部24へ出力する。判別部24は、出力部23から受けた検知結果に付された識別結果に基づいて、車両1が位置する道路の車線を判別する。   The lane identification system 301 is not limited to the configuration in which the identification model is generated using the captured image, and the identification model using the detection result by the LiDAR 13 may be generated. In this case, the learning data set includes detection results with labels L1, R1, L2, and R2. The output unit 23 inputs the detection result by the LiDAR 13 received from the acquisition unit 22 to the learned identification model, and outputs the detection result to which any identification result is attached to the determination unit 24. The determination unit 24 determines the lane of the road on which the vehicle 1 is located based on the identification result attached to the detection result received from the output unit 23.

また、本発明の実施の形態に係る車線識別システムでは、計測情報は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線の少なくともいずれか一方に関する計測結果を含むとしたが、これに限定するものではない。計測情報は、左端の車線および右端の車線に関する計測結果を含まず、車線を識別可能な何らかの特徴を含む計測結果を含んでもよい。   Further, in the lane identification system according to the embodiment of the present invention, the measurement information includes a measurement result regarding at least one of the leftmost lane and the rightmost lane among the plurality of lanes arranged in the same direction on the road. However, the present invention is not limited to this. The measurement information may include a measurement result including some characteristic that can identify the lane without including the measurement result regarding the left lane and the right lane.

また、本発明の実施の形態に係る車線識別システムでは、車線情報処理装置101は、
判別部24を備える構成であるとしたが、これに限定するものではない。車線情報処理装置101は、判別部24を備えない構成であってもよい。この場合、出力部23は、識別結果を車線情報処理装置101の外部へ出力する。
In the lane identification system according to the embodiment of the present invention, the lane information processing apparatus 101 is
Although it was set as the structure provided with the discrimination | determination part 24, it is not limited to this. The lane information processing apparatus 101 may be configured not to include the determination unit 24. In this case, the output unit 23 outputs the identification result to the outside of the lane information processing apparatus 101.

また、本発明の実施の形態に係る車線識別システムでは、出力部23は、ディープラーニングに従った機械学習を用いる構成であるとしたが、これに限定するものではない。出力部23は、たとえばディープラーニング以外のニューラルネットワークを用いる構成であってもよい。あるいは、出力部23は、サポートベクターマシン、C4.5、CART(Classification and Regression Tree)、ランダムフォレスト、バギング、決定木、ナイーブベイズ、adaboostおよびk近傍法(kNN:k−nearest neighbor algorithm)等の教師あり学習を用いる構成であってもよい。   In the lane identification system according to the embodiment of the present invention, the output unit 23 is configured to use machine learning according to deep learning, but the present invention is not limited to this. The output unit 23 may be configured to use a neural network other than deep learning, for example. Alternatively, the output unit 23 may be a support vector machine, C4.5, CART (Classification and Regression Tree), random forest, bagging, decision tree, naive bayes, adoboost, and k-nearest neighbor algorithm (kNN). A configuration using supervised learning may be used.

また、本発明の実施の形態に係る車線識別システムでは、車両1における計測結果は、カメラによる画像またはLiDARによる検知結果であるとしたが、これに限定するものではない。車両1における計測結果は、カメラによる画像およびLiDARによる検知結果以外の計測結果であってもよい。   In the lane identification system according to the embodiment of the present invention, the measurement result in the vehicle 1 is an image by a camera or a detection result by LiDAR. However, the present invention is not limited to this. The measurement result in the vehicle 1 may be a measurement result other than the image by the camera and the detection result by LiDAR.

また、本発明の実施の形態に係る車線識別システムでは、計測情報は、カメラ12から受けた画像およびLiDAR13から受けた検知結果を含むとしたが、これに限定するものではない。計測情報は、カメラ12から受けた画像およびLiDAR13から受けた検知結果のいずれか一方を含んでもよい。   In the lane identification system according to the embodiment of the present invention, the measurement information includes the image received from the camera 12 and the detection result received from the LiDAR 13, but the present invention is not limited to this. The measurement information may include either an image received from the camera 12 or a detection result received from the LiDAR 13.

ところで、特許文献1および特許文献2に記載の技術を超えて、車両が位置する車線をより正確に判別する技術が望まれる。   By the way, beyond the technique of patent document 1 and patent document 2, the technique of discriminating the lane where a vehicle is located more correctly is desired.

本発明の実施の形態に係る車線情報処理装置では、取得部22は、車両1が位置する道路の車両1における計測結果に基づく計測情報を取得する。出力部23は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、取得部22によって取得された計測情報に基づく識別結果を出力する。   In the lane information processing apparatus according to the embodiment of the present invention, the acquisition unit 22 acquires measurement information based on the measurement result of the vehicle 1 on the road where the vehicle 1 is located. The output unit 23 is an identification model that can output, as an identification result, the number of the lane from the leftmost lane and the number of the lane from the rightmost lane among a plurality of lanes arranged in the same direction on the road. The identification result based on the measurement information acquired by the acquisition unit 22 is output.

このような構成により、機械学習による識別モデルの作成において、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として用いることにより、車線数の相違に応じた複数の識別モデルを作成することなく機械学習を収束させることができる。そして、このような識別モデルを用いる構成により、道路において車線を隔てるラインを認識することが困難な状況においても、車両1が位置する車線を判別することができる。   With this configuration, when creating an identification model by machine learning, the number of lanes can be determined by using the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as identification results. Machine learning can be converged without creating a plurality of identification models according to the differences. And the structure using such an identification model can discriminate | determine the lane where the vehicle 1 is located also in the situation where it is difficult to recognize the line which separates a lane on a road.

したがって、本発明の実施の形態に係る車線情報処理装置では、車両1が位置する車線をより正確に判別することができる。   Therefore, the lane information processing apparatus according to the embodiment of the present invention can more accurately determine the lane in which the vehicle 1 is located.

また、本発明の実施の形態に係る車線情報処理装置では、計測情報は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線の少なくともいずれか一方に関する計測結果を含む。   In the lane information processing apparatus according to the embodiment of the present invention, the measurement information includes a measurement result regarding at least one of the left-end lane and the right-end lane among a plurality of lanes arranged in the same direction on the road.

このような構成により、識別モデルが道路の両端に着目して車線を判別することを利用して、計測結果における道路の端の車線側に現れる特徴に着目したラベル付けを行うことができるため、道路の計測結果を良好に分類することができる。   With such a configuration, it is possible to perform labeling focusing on features that appear on the lane side at the end of the road in the measurement result by using the identification model focusing on both ends of the road to determine the lane, Road measurement results can be classified well.

また、本発明の実施の形態に係る車線情報処理装置では、判別部24は、出力部23によって出力された識別結果に基づいて、車両1が位置する道路の車線を判別する。   In the lane information processing apparatus according to the embodiment of the present invention, the determination unit 24 determines the lane of the road on which the vehicle 1 is located based on the identification result output by the output unit 23.

このような構成により、上記のような識別モデルによる識別結果を用いて、車両1が位置する車線のより正確な判別結果を得ることができる。   With such a configuration, it is possible to obtain a more accurate discrimination result of the lane in which the vehicle 1 is located using the discrimination result based on the discrimination model as described above.

また、本発明の実施の形態に係る車線情報処理装置では、識別モデルは、ディープラーニングに従った機械学習により作成された識別モデルである。   In the lane information processing apparatus according to the embodiment of the present invention, the identification model is an identification model created by machine learning according to deep learning.

このような構成により、ディープラーニングモデルを用いて、車両1が位置する車線をより正確に判別することができる。   With such a configuration, it is possible to more accurately determine the lane in which the vehicle 1 is located using the deep learning model.

また、本発明の実施の形態に係る車線情報処理装置では、計測結果は、カメラ12による画像またはLiDAR13による検知結果である。   In the lane information processing apparatus according to the embodiment of the present invention, the measurement result is an image obtained by the camera 12 or a detection result obtained by the LiDAR 13.

このような構成により、カメラ12による画像またはLiDAR13による検知結果を用いて、車両1が位置する車線を簡易な構成で判別することができる。   With such a configuration, it is possible to determine the lane in which the vehicle 1 is located with a simple configuration using the image by the camera 12 or the detection result by the LiDAR 13.

また、本発明の実施の形態に係る車線情報処理装置では、道路は、片側3車線以上の車線を含む道路である。   In the lane information processing apparatus according to the embodiment of the present invention, the road is a road including three or more lanes on one side.

このような構成により、特に3車線以上の道路において、車両1が位置する車線をより正確に判別することができる。   With such a configuration, it is possible to more accurately determine the lane in which the vehicle 1 is located, particularly on a road having three or more lanes.

また、本発明の実施の形態に係る車線識別システムでは、車載装置11は、車両1が位置する道路の車両1における計測結果に基づく計測情報を取得し、取得した計測情報を車線情報処理装置101へ送信する。車線情報処理装置101は、車載装置11から送信された計測情報を受信し、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、受信した計測情報に基づく識別結果を取得し、取得した識別結果に基づいて、車両1が位置する道路の車線を判別する。   In the lane identification system according to the embodiment of the present invention, the in-vehicle device 11 acquires measurement information based on the measurement result of the vehicle 1 on the road where the vehicle 1 is located, and the acquired measurement information is used as the lane information processing device 101. Send to. The lane information processing apparatus 101 receives the measurement information transmitted from the in-vehicle apparatus 11, and among the lanes in the same direction aligned on the road, the lane information processing apparatus 101 indicates the number of the lane from the leftmost lane and the number from the rightmost lane. The identification model based on the received measurement information is acquired using an identification model that can output whether the vehicle is the th lane as the identification result, and the lane of the road on which the vehicle 1 is located is determined based on the acquired identification result. .

このような構成により、機械学習による識別モデルの作成において、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として用いることにより、車線数の相違に応じた複数の識別モデルを作成することなく機械学習を収束させることができる。そして、このような識別モデルを用いる構成により、道路において車線を隔てるラインを認識することが困難な状況においても、車両1が位置する車線を判別することができる。   With this configuration, when creating an identification model by machine learning, the number of lanes can be determined by using the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as identification results. Machine learning can be converged without creating a plurality of identification models according to the differences. And the structure using such an identification model can discriminate | determine the lane where the vehicle 1 is located also in the situation where it is difficult to recognize the line which separates a lane on a road.

したがって、本発明の実施の形態に係る車線識別システムでは、車両1が位置する車線をより正確に判別することができる。   Therefore, in the lane identification system according to the embodiment of the present invention, it is possible to more accurately determine the lane in which the vehicle 1 is located.

また、本発明の実施の形態に係る車線情報処理方法では、まず、車両1が位置する道路の車両1における計測結果に基づく計測情報を取得する。次に、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、取得した計測情報に基づく識別結果を出力する。   In the lane information processing method according to the embodiment of the present invention, first, measurement information based on the measurement result of the vehicle 1 on the road where the vehicle 1 is located is acquired. Next, an identification model is used that can output the number of lanes from the leftmost lane and the number of lanes from the rightmost lane among the multiple lanes in the same direction on the road. The identification result based on the acquired measurement information is output.

このような構成により、機械学習による識別モデルの作成において、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として用いることにより、車線数の相違に応じた複数の識別モデルを作成することなく機械学習を収束させることができる。そして、このような識別モデルを用いる構成により、道路において車線を隔てるラインを認識することが困難な状況においても、車両1が位置する車線を判別することができる。   With this configuration, when creating an identification model by machine learning, the number of lanes can be determined by using the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as identification results. Machine learning can be converged without creating a plurality of identification models according to the differences. And the structure using such an identification model can discriminate | determine the lane where the vehicle 1 is located also in the situation where it is difficult to recognize the line which separates a lane on a road.

したがって、本発明の実施の形態に係る車線情報処理方法では、車両1が位置する車線をより正確に判別することができる。   Therefore, in the lane information processing method according to the embodiment of the present invention, it is possible to more accurately determine the lane in which the vehicle 1 is located.

上記実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The above embodiment should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

以上の説明は、以下に付記する特徴を含む。
[付記1]
車両が位置する道路の前記車両における計測結果に基づく計測情報を取得する取得部と、
道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、前記取得部によって取得された前記計測情報に基づく前記識別結果を出力する出力部とを備え、
前記計測情報は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線に関する前記計測結果を含み、
前記計測結果は、車線の外側を計測した結果を含む、車線情報処理装置。
The above description includes the following features.
[Appendix 1]
An acquisition unit for acquiring measurement information based on a measurement result in the vehicle on the road where the vehicle is located;
Among the plurality of lanes in the same direction arranged on the road, using an identification model that can output the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as an identification result, An output unit that outputs the identification result based on the measurement information acquired by the acquisition unit;
The measurement information includes the measurement results related to the leftmost lane and the rightmost lane among a plurality of lanes in the same direction on the road,
The measurement result includes a lane information processing apparatus including a result of measuring the outside of the lane.

[付記2]
車両に搭載される車載装置と、
車線情報処理装置とを備え、
前記車載装置は、前記車両が位置する道路の前記車両における計測結果に基づく計測情報を取得し、取得した前記計測情報を前記車線情報処理装置へ送信し、
前記車線情報処理装置は、前記車載装置から送信された前記計測情報を受信し、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、受信した前記計測情報に基づく前記識別結果に基づいて、前記車両が位置する道路の車線を判別し、
前記計測情報は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線に関する前記計測結果を含み、
前記計測結果は、車線の外側を計測した結果を含む、車線識別システム。
[Appendix 2]
An in-vehicle device mounted on the vehicle;
A lane information processing device,
The in-vehicle device acquires measurement information based on a measurement result in the vehicle on a road where the vehicle is located, and transmits the acquired measurement information to the lane information processing device,
The lane information processing device receives the measurement information transmitted from the in-vehicle device, and from among a plurality of lanes arranged in the same direction on the road, the number of lanes from the leftmost lane and the rightmost lane Using an identification model that can be output as an identification result indicating what number lane, based on the identification result based on the received measurement information, determine the lane of the road where the vehicle is located,
The measurement information includes the measurement results related to the leftmost lane and the rightmost lane among a plurality of lanes in the same direction on the road,
The said measurement result is a lane identification system containing the result of having measured the outer side of the lane.

1 車両
11 車載装置
12 カメラ
13 LiDAR
21 受信部
22 取得部
23 出力部
24 判別部
25 記憶部
26 生成部
101 車線情報処理装置
301 車線識別システム
1 vehicle 11 in-vehicle device 12 camera 13 LiDAR
DESCRIPTION OF SYMBOLS 21 Reception part 22 Acquisition part 23 Output part 24 Discrimination part 25 Storage part 26 Generation part 101 Lane information processing apparatus 301 Lane identification system

Claims (9)

車両が位置する道路の前記車両における計測結果に基づく計測情報を取得する取得部と、
道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、前記取得部によって取得された前記計測情報に基づく前記識別結果を出力する出力部とを備える、車線情報処理装置。
An acquisition unit for acquiring measurement information based on a measurement result in the vehicle on the road where the vehicle is located;
Among the plurality of lanes in the same direction arranged on the road, using an identification model that can output the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as an identification result, A lane information processing apparatus comprising: an output unit that outputs the identification result based on the measurement information acquired by the acquisition unit.
前記計測情報は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線の少なくともいずれか一方に関する前記計測結果を含む、請求項1に記載の車線情報処理装置。   2. The lane information processing apparatus according to claim 1, wherein the measurement information includes the measurement result regarding at least one of a leftmost lane and a rightmost lane among a plurality of lanes arranged in the same direction on a road. 前記車線情報処理装置は、さらに、
前記出力部によって出力された前記識別結果に基づいて、前記車両が位置する道路の車線を判別する判別部を備える、請求項1または請求項2に記載の車線情報処理装置。
The lane information processing device further includes:
The lane information processing apparatus according to claim 1, further comprising: a determination unit configured to determine a lane of a road on which the vehicle is located based on the identification result output by the output unit.
前記識別モデルは、ディープラーニングに従った機械学習により作成された識別モデルである、請求項1から請求項3のいずれか1項に記載の車線情報処理装置。   The lane information processing device according to any one of claims 1 to 3, wherein the identification model is an identification model created by machine learning according to deep learning. 前記計測結果は、カメラによる画像またはLiDAR(Light Detection and Ranging)による検知結果である、請求項1から請求項4のいずれか1項に記載の車線情報処理装置。   The lane information processing apparatus according to any one of claims 1 to 4, wherein the measurement result is an image obtained by a camera or a detection result obtained by LiDAR (Light Detection and Ranging). 前記道路は、片側3車線以上の車線を含む道路である、請求項1から請求項5のいずれか1項に記載の車線情報処理装置。   The lane information processing apparatus according to any one of claims 1 to 5, wherein the road is a road including three or more lanes on one side. 車両に搭載される車載装置と、
車線情報処理装置とを備え、
前記車載装置は、前記車両が位置する道路の前記車両における計測結果に基づく計測情報を取得し、取得した前記計測情報を前記車線情報処理装置へ送信し、
前記車線情報処理装置は、前記車載装置から送信された前記計測情報を受信し、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、受信した前記計測情報に基づく前記識別結果を取得し、取得した前記識別結果に基づいて、前記車両が位置する道路の車線を判別する、車線識別システム。
An in-vehicle device mounted on the vehicle;
A lane information processing device,
The in-vehicle device acquires measurement information based on a measurement result in the vehicle on a road where the vehicle is located, and transmits the acquired measurement information to the lane information processing device,
The lane information processing device receives the measurement information transmitted from the in-vehicle device, and from among a plurality of lanes arranged in the same direction on the road, the number of lanes from the leftmost lane and the rightmost lane Using an identification model that can output as an identification result what number lane it is, obtain the identification result based on the received measurement information, and based on the obtained identification result, the road on which the vehicle is located A lane identification system that identifies lanes.
車線情報処理装置における車線情報処理方法であって、
車両が位置する道路の前記車両における計測結果に基づく計測情報を取得するステップと、
道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、取得した前記計測情報に基づく前記識別結果を出力するステップとを含む、車線情報処理方法。
A lane information processing method in a lane information processing apparatus,
Obtaining measurement information based on measurement results in the vehicle on the road where the vehicle is located;
Acquired by using an identification model that can output the number of lanes from the leftmost lane and the numbered lane from the rightmost lane among multiple lanes in the same direction on the road Outputting the identification result based on the measured information.
車線情報処理装置において用いられる車線情報処理プログラムであって、
コンピュータを、
車両が位置する道路の前記車両における計測結果に基づく計測情報を取得する取得部と、
道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、前記取得部によって取得された前記計測情報に基づく前記識別結果を出力する出力部、
として機能させるための、車線情報処理プログラム。
A lane information processing program used in a lane information processing apparatus,
Computer
An acquisition unit for acquiring measurement information based on a measurement result in the vehicle on the road where the vehicle is located;
Among the plurality of lanes in the same direction arranged on the road, using an identification model that can output the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as an identification result, An output unit that outputs the identification result based on the measurement information acquired by the acquisition unit;
Lane information processing program to function as
JP2018088090A 2018-05-01 2018-05-01 Lane information processing device, lane identification system, lane information processing method and lane information processing program Pending JP2019194751A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018088090A JP2019194751A (en) 2018-05-01 2018-05-01 Lane information processing device, lane identification system, lane information processing method and lane information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018088090A JP2019194751A (en) 2018-05-01 2018-05-01 Lane information processing device, lane identification system, lane information processing method and lane information processing program

Publications (1)

Publication Number Publication Date
JP2019194751A true JP2019194751A (en) 2019-11-07

Family

ID=68469313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018088090A Pending JP2019194751A (en) 2018-05-01 2018-05-01 Lane information processing device, lane identification system, lane information processing method and lane information processing program

Country Status (1)

Country Link
JP (1) JP2019194751A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210098272A (en) * 2020-01-31 2021-08-10 경북대학교 산학협력단 Device for recognizing lane and vehicle position information and controlling mmthod thereof
KR20210136194A (en) * 2020-05-06 2021-11-17 이지스로직 주식회사 Display device for construction equipment using LiDAR and AR
JP7374001B2 (en) 2020-01-15 2023-11-06 Go株式会社 Learning model generation method, program, and information processing device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7374001B2 (en) 2020-01-15 2023-11-06 Go株式会社 Learning model generation method, program, and information processing device
KR20210098272A (en) * 2020-01-31 2021-08-10 경북대학교 산학협력단 Device for recognizing lane and vehicle position information and controlling mmthod thereof
KR102399519B1 (en) * 2020-01-31 2022-05-19 경북대학교 산학협력단 Device for recognizing lane and vehicle position information and controlling mmthod thereof
KR20210136194A (en) * 2020-05-06 2021-11-17 이지스로직 주식회사 Display device for construction equipment using LiDAR and AR
KR102332616B1 (en) 2020-05-06 2021-12-01 이지스로직 주식회사 Display device for construction equipment using LiDAR and AR

Similar Documents

Publication Publication Date Title
JP6942712B2 (en) Detection of partially obstructed objects using context and depth order
JP6298128B2 (en) Classification of objects detected by 3D sensors
CN107176161B (en) Recognition result presentation device, recognition result presentation method, and autonomous moving object
US9443309B2 (en) System and method for image based mapping, localization, and pose correction of a vehicle with landmark transform estimation
JP6672212B2 (en) Information processing apparatus, vehicle, information processing method and program
JP6514192B2 (en) Object movement classification based on lidar
JP2024012655A (en) sensor data segmentation
JP6642745B2 (en) Learning method for associating observations from multiple connected vehicles
JP2019125368A (en) Method of associating observation values from multiple connected vehicles
JP6804991B2 (en) Information processing equipment, information processing methods, and information processing programs
JP2019194751A (en) Lane information processing device, lane identification system, lane information processing method and lane information processing program
JPWO2016203515A1 (en) Traveling lane discrimination device and traveling lane discrimination method
CN112997187A (en) Two-dimensional object bounding box information estimation based on aerial view point cloud
JP2007114831A (en) Object detection device
KR101969842B1 (en) System for classifying dangerous road surface information based on deep running and method thereof
KR20200013155A (en) Method and system for detecting change point of interest
JP2018005629A (en) Road information generator
JP2017159884A (en) Drive control device, drive control method and drive control program
JP2018133085A (en) Information processing device, information processing method, information processing program, and mobile unit
US11897501B2 (en) ADS perception development
KR102287310B1 (en) Object determination system and method of the vehicle around
US10186154B2 (en) Device and method for detecting surrounding vehicles
JP2019211822A (en) Travel area determination apparatus, travel area determination method and method for generating road surface image machine learning model
CN112286178B (en) Identification system, vehicle control system, identification method, and storage medium
Bălănescu et al. Intersection detection based on mono-camera sensor