JP2019194751A - Lane information processing device, lane identification system, lane information processing method and lane information processing program - Google Patents
Lane information processing device, lane identification system, lane information processing method and lane information processing program Download PDFInfo
- Publication number
- JP2019194751A JP2019194751A JP2018088090A JP2018088090A JP2019194751A JP 2019194751 A JP2019194751 A JP 2019194751A JP 2018088090 A JP2018088090 A JP 2018088090A JP 2018088090 A JP2018088090 A JP 2018088090A JP 2019194751 A JP2019194751 A JP 2019194751A
- Authority
- JP
- Japan
- Prior art keywords
- lane
- vehicle
- road
- information processing
- lanes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、車線情報処理装置、車線識別システム、車線情報処理方法および車線情報処理プログラムに関する。 The present invention relates to a lane information processing apparatus, a lane identification system, a lane information processing method, and a lane information processing program.
従来、車線を隔てるラインに基づいて、車両が走行している車線を判別する技術が開発されている。たとえば、特許文献1(特開2008−276642号公報)には、以下のような技術が開示されている。すなわち、走行車線認識装置は、車両の現在地を検出する検出手段と、道路の車線数を記憶する地図データ記憶手段と、前記検出手段によって検出した車両の現在地と前記地図データ記憶手段によって記憶した道路の車線数とに基づいて前記車両が走行している道路の車線数を検出する車線数検出手段と、車両に搭載され、走行している車線の境界線を認識する境界線認識手段と、前記車線数検出手段によって検出した車線数および前記境界線認識手段によって認識した境界線に基づいて、車両の走行車線を認識する走行車線認識手段とを備える。 Conventionally, a technique for discriminating a lane in which a vehicle is traveling has been developed based on a line separating the lanes. For example, Patent Document 1 (Japanese Patent Laid-Open No. 2008-276642) discloses the following technique. That is, the traveling lane recognition device includes a detecting means for detecting the current location of the vehicle, a map data storing means for storing the number of lanes on the road, a current location of the vehicle detected by the detecting means, and the road stored by the map data storing means. Lane number detecting means for detecting the number of lanes of the road on which the vehicle is traveling based on the number of lanes of the vehicle, boundary line recognizing means mounted on the vehicle and recognizing the boundary line of the traveling lane, Travel lane recognition means for recognizing the travel lane of the vehicle based on the number of lanes detected by the lane number detection means and the boundary line recognized by the boundary line recognition means.
また、特許文献2(特開2005−4442号公報)には、以下のような技術が開示されている。すなわち、走行車線判別装置は、車両が走行する道路の路面を表す路面画像を生成する少なくとも1台の撮像装置と接続可能な走行車線判別装置であって、前記撮像装置から路面画像を取得する画像取得部と、前記画像取得部で取得された路面画像から、路面上の障害物がないと予め想定可能な領域を切り出して、部分画像を作成する部分画像作成部と、前記部分画像作成部により作成された部分画像に含まれる部分的な区画線を抽出する区画線抽出部と、前記区画線抽出部で抽出された部分的な区画線に基づいて、車両の走行車線の両側に描かれている区画線の特徴を判別する区画線判別部と、前記区画線判別部で判別された区画線の特徴に基づいて、車両の走行車線の種類を判別する走行車線判別部とを備える。 Patent Document 2 (Japanese Patent Laid-Open No. 2005-4442) discloses the following technique. That is, the travel lane discrimination device is a travel lane discrimination device that can be connected to at least one imaging device that generates a road surface image representing a road surface of a road on which the vehicle travels, and is an image that acquires a road surface image from the imaging device. An acquisition unit, a partial image creation unit that creates a partial image by cutting out a region that can be assumed in advance as having no obstacle on the road surface from the road surface image acquired by the image acquisition unit, and the partial image creation unit A lane line extraction unit that extracts partial lane lines included in the created partial image, and is drawn on both sides of the driving lane of the vehicle based on the partial lane lines extracted by the lane line extraction unit. A lane line discriminating unit that discriminates the characteristics of the lane line that is present, and a travel lane discriminating unit that discriminates the type of the lane of the vehicle based on the lane line characteristics discriminated by the lane line discriminating unit.
このような特許文献1および特許文献2に記載の技術を超えて、車両が位置する車線をより正確に判別する技術が望まれる。 Beyond the techniques described in Patent Document 1 and Patent Document 2, a technique for more accurately discriminating the lane in which the vehicle is located is desired.
この発明は、上述の課題を解決するためになされたもので、その目的は、車両が位置する車線をより正確に判別することが可能な車線情報処理装置、車線識別システム、車線情報処理方法および車線情報処理プログラムを提供することである。 This invention was made in order to solve the above-mentioned subject, The objective is the lane information processing apparatus, lane identification system, lane information processing method, and the lane information processing apparatus which can discriminate | determine more precisely the lane where a vehicle is located It is to provide a lane information processing program.
(1)上記課題を解決するために、この発明のある局面に係わる車線情報処理装置は、車両が位置する道路の前記車両における計測結果に基づく計測情報を取得する取得部と、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、前記取得部によって取得された前記計測情報に基づく前記識別結果を出力する出力部とを備える。 (1) In order to solve the above-described problem, a lane information processing apparatus according to an aspect of the present invention is the same as an acquisition unit that acquires measurement information based on measurement results of the vehicle on the road where the vehicle is located. Acquired by the acquisition unit using an identification model that can output as an identification result what number lane from the leftmost lane and what number from the rightmost lane among a plurality of lanes in the direction An output unit that outputs the identification result based on the measured information.
(7)上記課題を解決するために、この発明のある局面に係わる車線識別システムは、車両に搭載される車載装置と、車線情報処理装置とを備え、前記車載装置は、前記車両が位置する道路の前記車両における計測結果に基づく計測情報を取得し、取得した前記計測情報を前記車線情報処理装置へ送信し、前記車線情報処理装置は、前記車載装置から送信された前記計測情報を受信し、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、受信した前記計測情報に基づく前記識別結果を取得し、取得した前記識別結果に基づいて、前記車両が位置する道路の車線を判別する。 (7) In order to solve the above-described problem, a lane identification system according to an aspect of the present invention includes an on-vehicle device mounted on a vehicle and a lane information processing device, and the on-vehicle device is located on the vehicle. The measurement information based on the measurement result of the vehicle on the road is acquired, the acquired measurement information is transmitted to the lane information processing device, and the lane information processing device receives the measurement information transmitted from the in-vehicle device. Using the identification model that can output the number of lanes from the leftmost lane and the number of lanes from the rightmost lane among the multiple lanes in the same direction on the road, The identification result based on the received measurement information is acquired, and the lane of the road on which the vehicle is located is determined based on the acquired identification result.
(8)上記課題を解決するために、この発明のある局面に係わる車線情報処理方法は、車線情報処理装置における車線情報処理方法であって、車両が位置する道路の前記車両における計測結果に基づく計測情報を取得するステップと、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、取得した前記計測情報に基づく前記識別結果を出力するステップとを含む。 (8) In order to solve the above-described problem, a lane information processing method according to an aspect of the present invention is a lane information processing method in a lane information processing apparatus, and is based on a measurement result in the vehicle on a road on which the vehicle is located. It is possible to output the identification result of the step of obtaining measurement information and the number of lanes from the leftmost lane and the number of lanes from the rightmost lane among multiple lanes in the same direction on the road Outputting the identification result based on the acquired measurement information using a simple identification model.
(9)上記課題を解決するために、この発明のある局面に係わる車線情報処理プログラムは、車線情報処理装置において用いられる車線情報処理プログラムであって、コンピュータを、車両が位置する道路の前記車両における計測結果に基づく計測情報を取得する取得部と、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、前記取得部によって取得された前記計測情報に基づく前記識別結果を出力する出力部、として機能させるためのプログラムである。 (9) In order to solve the above-described problem, a lane information processing program according to an aspect of the present invention is a lane information processing program used in a lane information processing apparatus, and the computer is connected to the vehicle on the road where the vehicle is located. The acquisition unit that acquires measurement information based on the measurement results in and the number of lanes from the leftmost lane and the number of lanes from the rightmost lane among multiple lanes in the same direction on the road This is a program for functioning as an output unit that outputs the identification result based on the measurement information acquired by the acquisition unit using an identification model that can be output as an identification result.
本発明は、このような特徴的な処理部を備える車線情報処理装置として実現することができるだけでなく、車線情報処理装置の一部または全部を実現する半導体集積回路として実現することができる。 The present invention can be realized not only as a lane information processing apparatus including such a characteristic processing unit, but also as a semiconductor integrated circuit that realizes part or all of the lane information processing apparatus.
本発明は、このような特徴的な処理部を備える車線識別システムとして実現することができるだけでなく、かかる特徴的な処理をステップとする方法として実現したり、かかるステップをコンピュータに実行させるためのプログラムとして実現したりすることができる。また、車線識別システムの一部または全部を実現する半導体集積回路として実現することができる。 The present invention can be realized not only as a lane identification system including such a characteristic processing unit, but also as a method using such characteristic processing as a step, or for causing a computer to execute such a step. Or as a program. Further, it can be realized as a semiconductor integrated circuit that realizes part or all of the lane identification system.
本発明によれば、車両が位置する車線をより正確に判別することができる。 According to the present invention, it is possible to more accurately determine the lane in which the vehicle is located.
最初に、本発明の実施形態の内容を列記して説明する。 First, the contents of the embodiment of the present invention will be listed and described.
(1)本発明の実施の形態に係る車線情報処理装置は、車両が位置する道路の前記車両における計測結果に基づく計測情報を取得する取得部と、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、前記取得部によって取得された前記計測情報に基づく前記識別結果を出力する出力部とを備える。 (1) A lane information processing apparatus according to an embodiment of the present invention includes an acquisition unit that acquires measurement information based on measurement results of the road on which the vehicle is located, and a plurality of lanes in the same direction aligned on the road Based on the measurement information acquired by the acquisition unit using an identification model capable of outputting as an identification result what number lane is from the leftmost lane and what number is the lane from the rightmost lane An output unit for outputting the identification result.
このような構成により、機械学習による識別モデルの作成において、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として用いることにより、車線数の相違に応じた複数の識別モデルを作成することなく機械学習を収束させることができる。そして、このような識別モデルを用いる構成により、道路において車線を隔てるラインを認識することが困難な状況においても、車両が位置する車線を判別することができる。したがって、車両が位置する車線をより正確に判別することができる。 With this configuration, when creating an identification model by machine learning, the number of lanes can be determined by using the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as identification results. Machine learning can be converged without creating a plurality of identification models according to the differences. And the structure using such an identification model can discriminate | determine the lane where a vehicle is located also in the situation where it is difficult to recognize the line which separates a lane on a road. Therefore, it is possible to more accurately determine the lane in which the vehicle is located.
(2)好ましくは、前記計測情報は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線の少なくともいずれか一方に関する前記計測結果を含む。 (2) Preferably, the measurement information includes the measurement result regarding at least one of a leftmost lane and a rightmost lane among a plurality of lanes arranged in the same direction on the road.
このような構成により、識別モデルが道路の両端に着目して車線を判別することを利用して、計測結果における道路の端の車線側に現れる特徴に着目したラベル付けを行うことができるため、道路の計測結果を良好に分類することができる。 With such a configuration, it is possible to perform labeling focusing on features that appear on the lane side at the end of the road in the measurement result by using the identification model focusing on both ends of the road to determine the lane, Road measurement results can be classified well.
(3)好ましくは、前記車線情報処理装置は、さらに、前記出力部によって出力された前記識別結果に基づいて、前記車両が位置する道路の車線を判別する判別部を備える。 (3) Preferably, the said lane information processing apparatus is further provided with the discrimination | determination part which discriminate | determines the lane of the road where the said vehicle is located based on the said identification result output by the said output part.
このような構成により、上記のような識別モデルによる識別結果を用いて、車両が位置する車線のより正確な判別結果を得ることができる。 With such a configuration, it is possible to obtain a more accurate discrimination result of the lane in which the vehicle is located using the discrimination result based on the discrimination model as described above.
(4)好ましくは、前記識別モデルは、ディープラーニングに従った機械学習により作成された識別モデルである。 (4) Preferably, the identification model is an identification model created by machine learning according to deep learning.
このような構成により、ディープラーニングモデルを用いて、車両が位置する車線をより正確に判別することができる。 With such a configuration, it is possible to more accurately determine the lane in which the vehicle is located using the deep learning model.
(5)好ましくは、前記計測結果は、カメラによる画像またはLiDAR(Light Detection and Ranging)による検知結果である。 (5) Preferably, the said measurement result is a detection result by the image by a camera, or LiDAR (Light Detection and Ranging).
このような構成により、カメラによる画像またはLiDARによる検知結果を用いて、車両が位置する車線を簡易な構成で判別することができる。 With such a configuration, it is possible to determine the lane in which the vehicle is located with a simple configuration using an image from the camera or a detection result by LiDAR.
(6)好ましくは、前記道路は、片側3車線以上の車線を含む道路である。 (6) Preferably, the road is a road including three or more lanes on one side.
このような構成により、特に3車線以上の道路において、車両が位置する車線をより正確に判別することができる。 With such a configuration, it is possible to more accurately determine the lane in which the vehicle is located, particularly on a road having three or more lanes.
(7)本発明の実施の形態に係る車線識別システムは、車両に搭載される車載装置と、車線情報処理装置とを備え、前記車載装置は、前記車両が位置する道路の前記車両における計測結果に基づく計測情報を取得し、取得した前記計測情報を前記車線情報処理装置へ送信し、前記車線情報処理装置は、前記車載装置から送信された前記計測情報を受信し、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、受信した前記計測情報に基づく前記識別結果を取得し、取得した前記識別結果に基づいて、前記車両が位置する道路の車線を判別する。 (7) A lane identification system according to an embodiment of the present invention includes an in-vehicle device mounted on a vehicle and a lane information processing device, and the in-vehicle device is a measurement result in the vehicle on a road where the vehicle is located. The measurement information based on is acquired, and the acquired measurement information is transmitted to the lane information processing device. The lane information processing device receives the measurement information transmitted from the in-vehicle device and Based on the received measurement information, using an identification model that can output as an identification result what number lane is from the leftmost lane and what number is the lane from the rightmost lane among a plurality of lanes The identification result is acquired, and the lane of the road on which the vehicle is located is determined based on the acquired identification result.
このような構成により、機械学習による識別モデルの作成において、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として用いることにより、車線数の相違に応じた複数の識別モデルを作成することなく機械学習を収束させることができる。そして、このような識別モデルを用いる構成により、道路において車線を隔てるラインを認識することが困難な状況においても、車両が位置する車線を判別することができる。したがって、車両が位置する車線をより正確に判別することができる。 With this configuration, when creating an identification model by machine learning, the number of lanes can be determined by using the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as identification results. Machine learning can be converged without creating a plurality of identification models according to the differences. And the structure using such an identification model can discriminate | determine the lane where a vehicle is located also in the situation where it is difficult to recognize the line which separates a lane on a road. Therefore, it is possible to more accurately determine the lane in which the vehicle is located.
(8)本発明の実施の形態に係る車線情報処理方法は、車線情報処理装置における車線情報処理方法であって、車両が位置する道路の前記車両における計測結果に基づく計測情報を取得するステップと、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、取得した前記計測情報に基づく前記識別結果を出力するステップとを含む。 (8) A lane information processing method according to an embodiment of the present invention is a lane information processing method in a lane information processing apparatus, and a step of acquiring measurement information based on a measurement result in the vehicle on a road where the vehicle is located; Using the identification model that can output the number of lanes from the leftmost lane and the number of lanes from the rightmost lane among the multiple lanes in the same direction on the road, Outputting the identification result based on the acquired measurement information.
このような構成により、機械学習による識別モデルの作成において、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として用いることにより、車線数の相違に応じた複数の識別モデルを作成することなく機械学習を収束させることができる。そして、このような識別モデルを用いる構成により、道路において車線を隔てるラインを認識することが困難な状況においても、車両が位置する車線を判別することができる。したがって、車両が位置する車線をより正確に判別することができる。 With this configuration, when creating an identification model by machine learning, the number of lanes can be determined by using the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as identification results. Machine learning can be converged without creating a plurality of identification models according to the differences. And the structure using such an identification model can discriminate | determine the lane where a vehicle is located also in the situation where it is difficult to recognize the line which separates a lane on a road. Therefore, it is possible to more accurately determine the lane in which the vehicle is located.
(9)本発明の実施の形態に係る車線情報処理プログラムは、車線情報処理装置において用いられる車線情報処理プログラムであって、コンピュータを、車両が位置する道路の前記車両における計測結果に基づく計測情報を取得する取得部と、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、前記取得部によって取得された前記計測情報に基づく前記識別結果を出力する出力部、として機能させるためのプログラムである。 (9) A lane information processing program according to an embodiment of the present invention is a lane information processing program used in a lane information processing apparatus, and uses a measurement information based on a measurement result of the vehicle on a road where the vehicle is located. And the number of lanes from the leftmost lane and the number of lanes from the rightmost lane among the multiple lanes in the same direction on the road can be output as identification results It is a program for functioning as an output unit that outputs the identification result based on the measurement information acquired by the acquisition unit using an identification model.
このような構成により、機械学習による識別モデルの作成において、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として用いることにより、車線数の相違に応じた複数の識別モデルを作成することなく機械学習を収束させることができる。そして、このような識別モデルを用いる構成により、道路において車線を隔てるラインを認識することが困難な状況においても、車両が位置する車線を判別することができる。したがって、車両が位置する車線をより正確に判別することができる。 With this configuration, when creating an identification model by machine learning, the number of lanes can be determined by using the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as identification results. Machine learning can be converged without creating a plurality of identification models according to the differences. And the structure using such an identification model can discriminate | determine the lane where a vehicle is located also in the situation where it is difficult to recognize the line which separates a lane on a road. Therefore, it is possible to more accurately determine the lane in which the vehicle is located.
以下、本発明の実施の形態について図面を用いて説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。また、以下に記載する実施の形態の少なくとも一部を任意に組み合わせてもよい。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated. Moreover, you may combine arbitrarily at least one part of embodiment described below.
[構成および基本動作]
図1は、本発明の実施の形態に係る車線識別システムの構成を示す図である。
[Configuration and basic operation]
FIG. 1 is a diagram showing a configuration of a lane identification system according to an embodiment of the present invention.
図1を参照して、車線識別システム301は、車載装置11と、車線情報処理装置101とを備える。
With reference to FIG. 1, the
車載装置11、カメラ12およびLiDAR13は、車両1に搭載される。
The in-
車載装置11は、自己の位置する道路の計測結果に基づく計測情報を車線情報処理装置101へ送信する。
The in-
たとえば、計測情報は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線の少なくともいずれか一方に関する計測結果を含む。計測結果は、たとえば、カメラ12による画像またはLiDAR13による検知結果である。本明細書において、「左端の車線」は、道路において並ぶ同じ方向の複数の車線のうちの、左端の車線を意味し、また、「右端の車線」は、道路において並ぶ同じ方向の複数の車線のうちの、右端の車線を意味するものとする。
For example, the measurement information includes a measurement result regarding at least one of the leftmost lane and the rightmost lane among a plurality of lanes in the same direction arranged on the road. The measurement result is, for example, an image by the
より詳細には、カメラ12は、たとえば、車両1の走行中および車両1の停車中において、車両1の周囲を定期的に撮影する撮像装置であり、車両1の周囲を撮影するための撮像素子、対応するソフトウェアを搭載したCPUおよび処理回路等を含む。
More specifically, the
カメラ12は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線の少なくともいずれか一方、ならびに車線の外側における壁、建物および植物等を含む車両1の前方を撮影した画像(以下、撮影画像とも称する。)を車載装置11へ出力する。
The
LiDAR13は、たとえば、レーザ光を照射するためのレーザ機器、物体によるレーザ光の散乱光を受光するための受光素子、対応するソフトウェアを搭載したCPU(Central Processing Unit)および処理回路等を含む。
The
LiDAR13は、自己の車両1に1または複数設けられ、たとえば、車両1の走行中および車両1の停車中において、車両1に対して左側、右側、前側および後側に位置する物体を検知することが可能である。LiDAR13は、検知結果を定期的に車載装置11へ出力する。
One or a plurality of
当該検知結果には、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線の少なくともいずれか一方、ならびに車線の外側における壁、建物および植物等、車両1の周辺の物体が含まれる。 The detection results include objects in the vicinity of the vehicle 1 such as at least one of the leftmost lane and the rightmost lane among a plurality of lanes arranged in the same direction on the road, and walls, buildings, and plants outside the lane. included.
車載装置11は、たとえば、テレマティクスにおいて用いられる通信装置であって、LTE(Long Term Evolution)または無線LANによる通信を行う。
The in-
車載装置11は、カメラ12から受けた撮影画像およびLiDAR13から受けた検知結果を含み、かつ車両1のID(Identification)を付加した計測情報を車線情報処理装置101へ送信する。
The in-
[課題]
特許文献1(特開2008−276642号公報)には、カメラ等により撮影された画像において、道路における白線のパターンに基づいて走行車線を特定する方法が開示されている。
[Task]
Patent Document 1 (Japanese Patent Laid-Open No. 2008-276642) discloses a method of identifying a traveling lane based on a white line pattern on a road in an image taken by a camera or the like.
しかしながら、この方法では、白線のパターンが既知である道路でなければ走行車線を特定することができない。また、この方法では、積雪等により白線が埋もれて白線のパターンの認識が困難な場合、または経年変化等により白線の形状が変化した場合、白線のパターンを誤認して誤った走行車線を特定する可能性がある。また、たとえば片側4車線の道路において、中央の2車線の白線のパターンが同一の場合、いずれの走行車線を走行しているかを判別することができない。 However, according to this method, the traveling lane cannot be specified unless the road has a known white line pattern. Also, with this method, when the white line is buried due to snow or the like and it is difficult to recognize the white line pattern, or when the shape of the white line changes due to secular change or the like, the white line pattern is mistakenly identified and the wrong driving lane is specified. there is a possibility. For example, in the case of a four-lane road on one side, if the pattern of the white line in the center two lanes is the same, it cannot be determined which lane the vehicle is traveling.
また、特許文献2(特開2005−4442号公報)には、機械学習を用いて走行車線を特定する方法が開示されている。 Patent Document 2 (Japanese Patent Application Laid-Open No. 2005-4442) discloses a method of identifying a traveling lane using machine learning.
しかしながら、この方法では、走行車線数に応じた識別モデルの作成が必要となるため、識別モデルの数が多くなり機械学習を収束させることが困難である。 However, in this method, since it is necessary to create an identification model according to the number of lanes to travel, the number of identification models increases and it is difficult to converge machine learning.
これに対して、本発明の実施の形態に係る車線識別システムでは、以下のような構成および動作により、上記課題を解決する。 On the other hand, in the lane identification system according to the embodiment of the present invention, the above problem is solved by the following configuration and operation.
[車線情報処理装置の構成]
図2は、本発明の実施の形態に係る車線識別システムにおける車線情報処理装置の構成を示す図である。
[Configuration of lane information processing device]
FIG. 2 is a diagram showing a configuration of the lane information processing apparatus in the lane identification system according to the embodiment of the present invention.
図2を参照して、車線情報処理装置101は、受信部21と、取得部22と、出力部23と、判別部24と、記憶部25と、生成部26とを備える。
With reference to FIG. 2, the lane
受信部21は、1または複数の車両1に搭載された車載装置11から送信された計測情報を受信して記憶部25に保存する。
The receiving
図3〜図7は、本発明の実施の形態に係る車線識別システムにおけるカメラにより撮影された画像の一例を示す図である。 3-7 is a figure which shows an example of the image image | photographed with the camera in the lane identification system which concerns on embodiment of this invention.
図3に示す画像は、車両1が片側2車線の道路における左端の車線を走行している状態において、カメラ12が車両1の前方を撮影した撮影画像S21である。記憶部25には、このような撮影画像S21が複数保存されている。
The image shown in FIG. 3 is a captured image S21 in which the
図4に示す画像は、車両1が片側2車線の道路における右端の車線を走行している状態において、カメラ12が車両1の前方を撮影した撮影画像S22である。記憶部25には、このような撮影画像S22が複数保存されている。
The image shown in FIG. 4 is a captured image S22 in which the
図5に示す画像は、車両1が片側3車線の道路における左端の車線を走行している状態において、カメラ12が車両1の前方を撮影した撮影画像S31である。記憶部25には、このような撮影画像S31が複数保存されている。
The image shown in FIG. 5 is a captured image S31 in which the
図6に示す画像は、車両1が片側3車線の道路における中央の車線を走行している状態において、カメラ12が車両1の前方を撮影した撮影画像S32である。記憶部25には、このような撮影画像S32が複数保存されている。
The image shown in FIG. 6 is a captured image S32 in which the
図7に示す画像は、車両1が片側3車線の道路における右端の車線を走行している状態において、カメラ12が車両1の前方を撮影した撮影画像S33である。記憶部25には、このような撮影画像S33が複数保存されている。
The image shown in FIG. 7 is a captured image S33 in which the
また、記憶部25には、たとえば、車両1が片側1車線の道路を走行している状態において、カメラ12が車両1の前方を撮影した複数の撮影画像、および車両1が片側4車線以上の道路における各車線を走行している状態において、カメラ12が車両1の前方を撮影した複数の撮影画像が保存されている。
Further, in the
また、記憶部25には、たとえば、複数のLiDAR13による検知結果が保存されている。LiDAR13による検知結果は、たとえば、図3〜図7に示す画像に奥行情報が追加された3次元のデータであり、撮影画像と同様に扱うことができる。
Further, the
生成部26は、たとえば、ディープラーニングに従った機械学習により生成されるモデルである識別モデルを作成する。識別モデルは、たとえば、機械学習によって自動的に作成されるアルゴリズムである。ディープラーニングモデルは、ニューラルネットワークモデルの一例である。
The
ここで、非特許文献1(Ramprasaath R. Selvaraju、外5名、“Grad−CAM: Visual Explanations from Deep Networks via Gradient−Based Localization”、arXiv:1610.02391v3、2017年5月)に記載のGrad−CAM(Gradient−Weighted Class Activation Mapping)を用いることにより、ディープラーニングモデルにおいて、入力された画像のどこに着目されているかを可視化することができる。 Here, Non-Patent Document 1 (Ramprasaath R. Selvaraju, 5 others, “Grad-CAM: Visual Expansions from Deep Networks via Gradient-Based Localization”, 17-91, arXiv: 161, 1961, arXiv: 160, 1953. By using CAM (Gradient-Weighted Class Activation Mapping), it is possible to visualize where in the deep learning model the focused image is focused.
本願発明者らは、図3〜図7に示すような、車両の前方を撮影した撮影画像をディープラーニングモデルへ入力した場合、ディープラーニングモデルは、道路の両端に着目することを発見した。 The inventors of the present application have found that when a photographed image obtained by photographing the front of the vehicle as shown in FIGS. 3 to 7 is input to the deep learning model, the deep learning model focuses on both ends of the road.
そして、本願発明者らは、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを示すラベルを用いて、車両1の位置する車線を容易に分類できるという着想を得た。 Then, the inventors of the present invention use a label indicating the number of the lane from the leftmost lane and the number of the lane from the rightmost lane among the plurality of lanes arranged in the same direction on the road. The idea is that the lane in which the vehicle 1 is located can be easily classified.
図3および図5を参照して、左端の車線を車両1が走行している状態において撮影された撮影画像S21および撮影画像S31の左端付近において、車両1が走行している当該車線の外側に存在する壁の縦方向の比率は、3分の1程度である。 Referring to FIGS. 3 and 5, in the vicinity of the left end of the captured image S21 and the captured image S31 captured in the state where the vehicle 1 is traveling in the left lane, outside the lane in which the vehicle 1 is traveling. The vertical ratio of the existing walls is about one third.
また、道路の車線数が異なっていても、車両1が走行している車線から上記壁までの距離は変わらないため、車線数の異なる道路における各撮影画像の左端付近に現れる上記壁の縦方向の比率はほぼ同じである。 Even if the number of lanes on the road is different, the distance from the lane in which the vehicle 1 is traveling to the wall does not change, so the vertical direction of the wall that appears near the left end of each captured image on a road with a different number of lanes The ratio is almost the same.
同様に、図4および図7を参照して、右端の車線を車両1が走行している状態において撮影された撮影画像S22および撮影画像S33の右端付近において、車両1が走行している右端の車線の外側に存在する壁の縦方向の比率は、3分の1程度であり、撮影画像S22および撮影画像S33において当該比率はほぼ同じである。 Similarly, referring to FIG. 4 and FIG. 7, in the vicinity of the right end of the captured image S22 and the captured image S33 captured in a state where the vehicle 1 is traveling in the rightmost lane, The ratio of the vertical direction of the wall existing outside the lane is about one third, and the ratio is substantially the same in the captured image S22 and the captured image S33.
このように、道路の車線数が異なっていても、上記縦方向の比率がほぼ同じであることに着目し、車両1が位置する車線を示すラベルを用いて撮影画像を分類する。 In this way, even if the number of lanes on the road is different, paying attention to the fact that the ratio in the vertical direction is substantially the same, the captured images are classified using the labels indicating the lane where the vehicle 1 is located.
ここで、たとえば、左端の車線から何番目の車線であるかを示すラベルのみを用いた場合、片側2車線の車線を含む道路における右端の車線と、片側3車線の車線を含む道路における中央の車線とを区別することができない。 Here, for example, when only the label indicating the number of the lane from the leftmost lane is used, the rightmost lane on the road including the lane of two lanes on one side and the center of the road including the lane of three lanes on one side are used. Indistinguishable from lane.
これに対して、上記のようなラベルを用いることにより、片側3車線以上の道路であっても、車両1の位置する車線を容易に判別することができる。 On the other hand, by using the label as described above, the lane in which the vehicle 1 is located can be easily determined even on a road with three or more lanes on one side.
図8は、本発明の実施の形態に係る車線識別システムにおいて用いられるラベルの一例を示す図である。 FIG. 8 is a diagram showing an example of a label used in the lane identification system according to the embodiment of the present invention.
図8を参照して、車線識別システム301では、以下のように、車両1の位置する車線を示すラベルが撮影画像に付される。
Referring to FIG. 8, in
すなわち、車両1が片側1車線の道路を走行している場合、左端の車線から1番目の車線に位置することを示すラベルL1が撮影画像に付される。あるいは、右端の車線から1番目の車線に位置することを示すラベルR1が撮影画像に付される。 That is, when the vehicle 1 is traveling on a one-lane road, a label L1 indicating that the vehicle 1 is located in the first lane from the leftmost lane is attached to the photographed image. Alternatively, a label R1 indicating that the vehicle is located in the first lane from the rightmost lane is attached to the captured image.
また、車両1が片側2車線の道路において左端の第1車線を走行している場合、左端の車線から1番目の車線に位置することを示すラベルL1が撮影画像に付される。 Further, when the vehicle 1 is traveling in the first lane at the left end on a two-lane road on one side, a label L1 indicating that the vehicle 1 is located in the first lane from the left lane is attached to the photographed image.
また、車両1が片側2車線の道路において右端の第2車線を走行している場合、右端の車線から1番目の車線に位置することを示すラベルR1が撮影画像に付される。 In addition, when the vehicle 1 is traveling in the second lane at the right end on a two-lane road on one side, a label R1 indicating that the vehicle 1 is located in the first lane from the right lane is attached to the photographed image.
また、車両1が片側3車線の道路において左端の第1車線を走行している場合、左端の車線から1番目の車線に位置することを示すラベルL1が撮影画像に付される。 Further, when the vehicle 1 is traveling on the leftmost first lane on a three-lane road on one side, a label L1 indicating that the vehicle 1 is located in the first lane from the leftmost lane is attached to the photographed image.
また、車両1が片側3車線の道路において中央の第2車線を走行している場合、左端の車線から2番目の車線に位置することを示すラベルL2が撮影画像に付される。あるいは、右端の車線から2番目の車線に位置することを示すラベルR2が撮影画像に付される。 In addition, when the vehicle 1 is traveling in the center second lane on a three-lane road on one side, a label L2 indicating that the vehicle 1 is located in the second lane from the leftmost lane is attached to the photographed image. Alternatively, a label R2 indicating that the vehicle is located in the second lane from the rightmost lane is attached to the captured image.
また、車両1が片側3車線の道路において右端の第3車線を走行している場合、右端の車線から1番目の車線に位置することを示すラベルR1が撮影画像に付される。 Further, when the vehicle 1 is traveling in the third lane on the right end on the three-lane road on one side, a label R1 indicating that the vehicle 1 is located in the first lane from the right lane is attached to the photographed image.
また、車両1が片側4車線の道路において左端の第1車線を走行している場合、左端の車線から1番目の車線に位置することを示すラベルL1が撮影画像に付される。 Further, when the vehicle 1 is traveling on the leftmost first lane on a four-lane road on one side, a label L1 indicating that the vehicle 1 is located in the first lane from the leftmost lane is attached to the photographed image.
また、車両1が片側4車線の道路において左端の車線から2番目の第2車線を走行している場合、左端の車線から2番目の車線に位置することを示すラベルL2が撮影画像に付される。 Further, when the vehicle 1 is traveling in the second lane second from the left lane on the four-lane road on one side, a label L2 indicating that the vehicle 1 is located in the second lane from the left lane is attached to the photographed image. The
また、車両1が片側4車線の道路において右端の車線から2番目の第3車線を走行している場合、右端の車線から2番目の車線に位置することを示すラベルR2が撮影画像に付される。 Further, when the vehicle 1 is traveling on the second lane from the right lane on the four-lane road on one side, a label R2 indicating that the vehicle 1 is located in the second lane from the right lane is attached to the photographed image. The
また、車両1が片側4車線の道路において右端の第4車線を走行している場合、右端の車線から1番目の車線に位置することを示すラベルR1が撮影画像に付される。 Further, when the vehicle 1 is traveling in the fourth lane at the right end on a four-lane road on one side, a label R1 indicating that the vehicle 1 is located in the first lane from the right lane is attached to the photographed image.
[動作の流れ]
車線識別システム301における各装置は、コンピュータを備え、当該コンピュータにおけるCPU等の演算処理部は、以下のフローチャートの各ステップの一部または全部を含むプログラムを図示しないメモリからそれぞれ読み出して実行する。これら複数の装置のプログラムは、それぞれ、外部からインストールすることができる。これら複数の装置のプログラムは、それぞれ、記録媒体に格納された状態で流通する。
[Flow of operation]
Each device in the
図9は、本発明の実施の形態に係る車線識別システムにおける車線情報処理装置が識別モデルを作成する際の動作手順を定めたフローチャートである。 FIG. 9 is a flowchart defining an operation procedure when the lane information processing apparatus in the lane identification system according to the embodiment of the present invention creates an identification model.
図9を参照して、まず、生成部26は、ユーザの操作に従って、画像データPL1を作成する。
Referring to FIG. 9, first,
より詳細には、ユーザは、たとえば、識別モデルを作成するため、記憶部25に保存された複数の画像のうち、車両1が左端から1番目の車線を走行している状態における撮影画像すなわち撮影画像S21および撮影画像S31(図3および図5参照)を複数たとえば500個選択し、選択結果を入力する操作を車線情報処理装置101に対して行う。
More specifically, the user, for example, in order to create an identification model, a captured image in a state where the vehicle 1 is traveling in the first lane from the left end among a plurality of images stored in the
なお、選択された500個の撮影画像には、車両1が片側1車線の道路を走行している状態における撮影画像、および車両1が片側4車線以上の道路における左端の車線を走行している状態における撮影画像の少なくともいずれか一方が含まれてもよい。 The selected 500 captured images include a captured image in a state where the vehicle 1 is traveling on a road with one lane on one side, and a vehicle 1 is traveling on the leftmost lane on a road with four or more lanes on one side. At least one of the captured images in the state may be included.
生成部26は、選択された撮影画像を500個含む画像データPL1を作成する(ステップS101)。
The
次に、生成部26は、ユーザの操作に従って、画像データPR1を作成する。
Next, the production |
より詳細には、ユーザは、たとえば、識別モデルを作成するため、記憶部25に保存された複数の撮影画像のうち、車両1が右端から1番目の車線を走行している状態における撮影画像すなわち撮影画像S22および撮影画像S33(図4および図7参照)を複数たとえば500個選択し、選択結果を入力する操作を車線情報処理装置101に対して行う。
More specifically, the user, for example, in order to create an identification model, among the plurality of captured images stored in the
なお、選択された500個の撮影画像には、車両1が片側1車線の道路を走行している状態における撮影画像、および車両1が片側4車線以上の道路における右端の車線を走行している状態における撮影画像の少なくともいずれか一方が含まれてもよい。 In the selected 500 captured images, a captured image in a state where the vehicle 1 is traveling on a road with one lane on one side, and a vehicle 1 is traveling in the rightmost lane on a road with four or more lanes on one side. At least one of the captured images in the state may be included.
生成部26は、選択された撮影画像を500個含む画像データPR1を作成する(ステップS102)。
The
次に、生成部26は、ユーザの操作に従って、画像データPL2を作成する。
Next, the production |
より詳細には、ユーザは、たとえば、識別モデルを作成するため、記憶部25に保存された複数の撮影画像のうち、車両1が左端から2番目の車線を走行している状態における撮影画像すなわち撮影画像S32(図6参照)を複数たとえば500個選択し、選択結果を入力する操作を車線情報処理装置101に対して行う。
More specifically, the user, for example, in order to create an identification model, among the plurality of captured images stored in the
なお、選択された500個の撮影画像には、車両1が片側4車線以上の道路における左端の車線から2番目の車線を走行している状態における撮影画像が含まれてもよい。 Note that the selected 500 captured images may include captured images in a state where the vehicle 1 is traveling in the second lane from the leftmost lane on a road with four or more lanes on one side.
生成部26は、選択された撮影画像を500個含む画像データPL2を作成する(ステップS103)。
The
次に、生成部26は、ユーザの操作に従って、画像データPR2を作成する。
Next, the production |
より詳細には、ユーザは、たとえば、識別モデルを作成するため、記憶部25に保存された複数の画像のうち、車両1が右端から2番目の車線を走行している状態における撮影画像すなわち撮影画像S32(図6参照)を複数たとえば500個選択し、選択結果を入力する操作を車線情報処理装置101に対して行う。
More specifically, the user, for example, in order to create an identification model, a captured image in a state where the vehicle 1 is traveling in the second lane from the right end among a plurality of images stored in the
なお、選択された500個の画像には、車両1が片側4車線以上の道路における右端の車線から2番目の車線を走行している状態における撮影画像が含まれてもよい。 The selected 500 images may include photographed images in a state where the vehicle 1 is traveling in the second lane from the rightmost lane on a road with four or more lanes on one side.
生成部26は、選択された撮影画像を500個含む画像データPR2を作成する(ステップS104)。
The
次に、生成部26は、学習データセットを作成する。
Next, the
より詳細には、生成部26は、500個の画像を含む画像データPL1から、撮影画像を1個取得し、車両1が左端から1番目の車線に位置していることを示すラベルL1を当該撮影画像に付す。
More specifically, the
生成部26は、画像データPL1における他の撮影画像についても同様に処理することにより学習用データを作成する。このようにして、車両1が左端から1番目の車線に位置している状態における撮影画像についての500個の学習用データが作成される。
The
また、生成部26は、500個の撮影画像を含む画像データPR1から、撮影画像を1個取得し、車両1が右端から1番目の車線に位置していることを示すラベルR1を当該撮影画像に付す。
Further, the
生成部26は、画像データPR1における他の撮影画像についても同様に処理することにより学習用データを作成する。このようにして、車両1が右端から1番目の車線に位置している状態における撮影画像についての500個の学習用データが作成される。
The
また、生成部26は、500個の撮影画像を含む画像データPL2から、撮影画像を1個取得し、車両1が左端から2番目の車線に位置していることを示すラベルL2を当該撮影画像に付す。
Further, the
生成部26は、画像データPL2における他の撮影画像についても同様に処理することにより学習用データを作成する。このようにして、車両1が左端から2番目の車線に位置している状態における撮影画像についての500個の学習用データが作成される。
The
また、生成部26は、500個の撮影画像を含む画像データPR2から、撮影画像を1個取得し、車両1が右端から2番目の車線に位置していることを示すラベルR2を当該撮影画像に付す。
Further, the
生成部26は、画像データPR2における他の撮影画像についても同様に処理することにより学習用データを作成する。このようにして、車両1が右端から2番目の車線に位置している状態における撮影画像についての500個の学習用データが作成される。
The
生成部26は、生成した合計2000個の学習用データから学習データセットを作成する(ステップS105)。
The
具体的には、生成部26は、生成した2000個の学習用データに含まれる各撮影画像を、車両1の位置する車線が、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを示すラベルごとに分類した学習データセットを作成する。
Specifically, the
次に、生成部26は、作成した学習データセットを用いて識別モデルを作成する。
Next, the production |
具体的には、生成部26は、たとえば、ディープラーニング(Deep Learning)の手法に沿って、多層化したニューラルネットワークに学習データセットを入力する。
Specifically, the
生成部26は、多層化したニューラルネットワークに対して、車両1の位置する車線が、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別できるように機械学習させることにより識別モデルを作成する(ステップS106)。
The
このような機械学習の結果、識別モデルは、たとえば、画像データにおける道路の左端および右端に現れる壁等の特徴に基づいて、車両1の位置する車線が、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能となる。 As a result of such machine learning, the identification model is obtained from, for example, a plurality of lanes in the same direction in which the lane where the vehicle 1 is located is aligned on the road based on features such as walls appearing at the left and right ends of the road in the image data. Among these, it is possible to output as an identification result which number is the lane from the leftmost lane and what number is the lane from the rightmost lane.
識別モデルの内容は、たとえば所定条件を満たしたときに決定される。この例では、識別モデルの内容は、学習データセットに含まれる撮影画像をすべて用いた機械学習が完了したときに決定される。 The content of the identification model is determined when a predetermined condition is satisfied, for example. In this example, the content of the identification model is determined when machine learning using all the captured images included in the learning data set is completed.
以下、機械学習の完了した識別モデルを、学習済識別モデルとも称する。この学習済識別モデルへ画像データが入力されると、車両1の位置する車線が、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを示す識別結果が当該画像データに付されて出力される。 Hereinafter, the identification model for which machine learning has been completed is also referred to as a learned identification model. When image data is input to the learned identification model, the lane in which the vehicle 1 is located is the number of the lane from the leftmost lane among the plurality of lanes arranged in the same direction on the road, and the rightmost lane. The identification result indicating what number of lane is attached to the image data and output.
生成部26は、生成した学習済識別モデルを記憶部25に保存する(ステップS107)。
The
なお、上記ステップS101〜S104の順番は、上記に限らず、一部または全部の順番を変更してもよい。 Note that the order of steps S101 to S104 is not limited to the above, and a part or all of the order may be changed.
図10は、本発明の実施の形態に係る車線識別システムにおける車線情報処理装置が車両の位置する道路の車線を判別する際の動作手順を定めたフローチャートである。 FIG. 10 is a flowchart that defines an operation procedure when the lane information processing device in the lane identification system according to the embodiment of the present invention determines the lane of the road on which the vehicle is located.
図10を参照して、まず、取得部22は、車両1が位置する道路の当該車両1における計測結果に基づく計測情報を取得する(ステップS201)。
With reference to FIG. 10, first, the
より詳細には、取得部22は、記憶部25に保存された計測情報を取得し、取得した計測情報に含まれる撮影画像(以下、判定用画像とも称する。)を出力部23へ出力する。
More specifically, the
次に、出力部23は、学習済識別モデルを用いて、取得部22によって取得された計測情報に基づく識別結果を出力する(ステップS202)。
Next, the
より詳細には、出力部23は、記憶部25に保存された学習済識別モデルを取得する。そして、出力部23は、取得部22から判定用画像を当該学習済識別モデルへ入力することにより、対応の車両1の位置する車線が、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを択一的に示す識別結果を当該判定用画像に付して判別部24へ出力する。
More specifically, the
具体的には、出力部23は、判定用画像を学習済識別モデルへ入力することにより、車両1が左端の車線から1番目の車線に位置することを示す識別結果KL1、車両1が右端の車線から1番目の車線に位置することを示す識別結果KR1、車両1が左端の車線から2番目の車線に位置することを示す識別結果KL2および車両1が右端の車線から2番目の車線に位置することを示す識別結果KR2のうちのいずれかを当該判定用画像に付して判別部24へ出力する。
Specifically, the
判別部24は、たとえば、出力部23から受けた判定用画像に付された識別結果に基づいて、対応の車両1が位置する道路の車線を判別する(ステップS203)。
For example, the
より詳細には、判別部24は、出力部23から識別結果KL1が付された判定用画像を受けた場合、車両1が左端の車線から1番目の車線に位置していると判別する。
More specifically, when receiving the determination image with the identification result KL1 from the
また、判別部24は、出力部23から識別結果KR1が付された判定用画像を受けた場合、車両1が右端の車線から1番目の車線に位置していると判別する。
Further, when the
また、判別部24は、出力部23から識別結果KL2が付された判定用画像を受けた場合、車両1が左端の車線から2番目の車線に位置していると判別する。
Further, when receiving the determination image with the identification result KL2 from the
また、判別部24は、出力部23から識別結果KR2が付された判定用画像を受けた場合、車両1が右端の車線から2番目の車線に位置していると判別する。
Further, when receiving the determination image with the identification result KR2 from the
なお、車線識別システム301では、撮影画像を用いて識別モデルを生成する構成に限らず、LiDAR13による検知結果を用いた識別モデルを生成してもよい。この場合、学習データセットは、ラベルL1,R1,L2,R2が付された検知結果を含む。出力部23は、取得部22から受けたLiDAR13による検知結果を学習済識別モデルへ入力することにより、いずれかの識別結果が付された検知結果を判別部24へ出力する。判別部24は、出力部23から受けた検知結果に付された識別結果に基づいて、車両1が位置する道路の車線を判別する。
The
また、本発明の実施の形態に係る車線識別システムでは、計測情報は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線の少なくともいずれか一方に関する計測結果を含むとしたが、これに限定するものではない。計測情報は、左端の車線および右端の車線に関する計測結果を含まず、車線を識別可能な何らかの特徴を含む計測結果を含んでもよい。 Further, in the lane identification system according to the embodiment of the present invention, the measurement information includes a measurement result regarding at least one of the leftmost lane and the rightmost lane among the plurality of lanes arranged in the same direction on the road. However, the present invention is not limited to this. The measurement information may include a measurement result including some characteristic that can identify the lane without including the measurement result regarding the left lane and the right lane.
また、本発明の実施の形態に係る車線識別システムでは、車線情報処理装置101は、
判別部24を備える構成であるとしたが、これに限定するものではない。車線情報処理装置101は、判別部24を備えない構成であってもよい。この場合、出力部23は、識別結果を車線情報処理装置101の外部へ出力する。
In the lane identification system according to the embodiment of the present invention, the lane
Although it was set as the structure provided with the discrimination |
また、本発明の実施の形態に係る車線識別システムでは、出力部23は、ディープラーニングに従った機械学習を用いる構成であるとしたが、これに限定するものではない。出力部23は、たとえばディープラーニング以外のニューラルネットワークを用いる構成であってもよい。あるいは、出力部23は、サポートベクターマシン、C4.5、CART(Classification and Regression Tree)、ランダムフォレスト、バギング、決定木、ナイーブベイズ、adaboostおよびk近傍法(kNN:k−nearest neighbor algorithm)等の教師あり学習を用いる構成であってもよい。
In the lane identification system according to the embodiment of the present invention, the
また、本発明の実施の形態に係る車線識別システムでは、車両1における計測結果は、カメラによる画像またはLiDARによる検知結果であるとしたが、これに限定するものではない。車両1における計測結果は、カメラによる画像およびLiDARによる検知結果以外の計測結果であってもよい。 In the lane identification system according to the embodiment of the present invention, the measurement result in the vehicle 1 is an image by a camera or a detection result by LiDAR. However, the present invention is not limited to this. The measurement result in the vehicle 1 may be a measurement result other than the image by the camera and the detection result by LiDAR.
また、本発明の実施の形態に係る車線識別システムでは、計測情報は、カメラ12から受けた画像およびLiDAR13から受けた検知結果を含むとしたが、これに限定するものではない。計測情報は、カメラ12から受けた画像およびLiDAR13から受けた検知結果のいずれか一方を含んでもよい。
In the lane identification system according to the embodiment of the present invention, the measurement information includes the image received from the
ところで、特許文献1および特許文献2に記載の技術を超えて、車両が位置する車線をより正確に判別する技術が望まれる。 By the way, beyond the technique of patent document 1 and patent document 2, the technique of discriminating the lane where a vehicle is located more correctly is desired.
本発明の実施の形態に係る車線情報処理装置では、取得部22は、車両1が位置する道路の車両1における計測結果に基づく計測情報を取得する。出力部23は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、取得部22によって取得された計測情報に基づく識別結果を出力する。
In the lane information processing apparatus according to the embodiment of the present invention, the
このような構成により、機械学習による識別モデルの作成において、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として用いることにより、車線数の相違に応じた複数の識別モデルを作成することなく機械学習を収束させることができる。そして、このような識別モデルを用いる構成により、道路において車線を隔てるラインを認識することが困難な状況においても、車両1が位置する車線を判別することができる。 With this configuration, when creating an identification model by machine learning, the number of lanes can be determined by using the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as identification results. Machine learning can be converged without creating a plurality of identification models according to the differences. And the structure using such an identification model can discriminate | determine the lane where the vehicle 1 is located also in the situation where it is difficult to recognize the line which separates a lane on a road.
したがって、本発明の実施の形態に係る車線情報処理装置では、車両1が位置する車線をより正確に判別することができる。 Therefore, the lane information processing apparatus according to the embodiment of the present invention can more accurately determine the lane in which the vehicle 1 is located.
また、本発明の実施の形態に係る車線情報処理装置では、計測情報は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線の少なくともいずれか一方に関する計測結果を含む。 In the lane information processing apparatus according to the embodiment of the present invention, the measurement information includes a measurement result regarding at least one of the left-end lane and the right-end lane among a plurality of lanes arranged in the same direction on the road.
このような構成により、識別モデルが道路の両端に着目して車線を判別することを利用して、計測結果における道路の端の車線側に現れる特徴に着目したラベル付けを行うことができるため、道路の計測結果を良好に分類することができる。 With such a configuration, it is possible to perform labeling focusing on features that appear on the lane side at the end of the road in the measurement result by using the identification model focusing on both ends of the road to determine the lane, Road measurement results can be classified well.
また、本発明の実施の形態に係る車線情報処理装置では、判別部24は、出力部23によって出力された識別結果に基づいて、車両1が位置する道路の車線を判別する。
In the lane information processing apparatus according to the embodiment of the present invention, the
このような構成により、上記のような識別モデルによる識別結果を用いて、車両1が位置する車線のより正確な判別結果を得ることができる。 With such a configuration, it is possible to obtain a more accurate discrimination result of the lane in which the vehicle 1 is located using the discrimination result based on the discrimination model as described above.
また、本発明の実施の形態に係る車線情報処理装置では、識別モデルは、ディープラーニングに従った機械学習により作成された識別モデルである。 In the lane information processing apparatus according to the embodiment of the present invention, the identification model is an identification model created by machine learning according to deep learning.
このような構成により、ディープラーニングモデルを用いて、車両1が位置する車線をより正確に判別することができる。 With such a configuration, it is possible to more accurately determine the lane in which the vehicle 1 is located using the deep learning model.
また、本発明の実施の形態に係る車線情報処理装置では、計測結果は、カメラ12による画像またはLiDAR13による検知結果である。
In the lane information processing apparatus according to the embodiment of the present invention, the measurement result is an image obtained by the
このような構成により、カメラ12による画像またはLiDAR13による検知結果を用いて、車両1が位置する車線を簡易な構成で判別することができる。
With such a configuration, it is possible to determine the lane in which the vehicle 1 is located with a simple configuration using the image by the
また、本発明の実施の形態に係る車線情報処理装置では、道路は、片側3車線以上の車線を含む道路である。 In the lane information processing apparatus according to the embodiment of the present invention, the road is a road including three or more lanes on one side.
このような構成により、特に3車線以上の道路において、車両1が位置する車線をより正確に判別することができる。 With such a configuration, it is possible to more accurately determine the lane in which the vehicle 1 is located, particularly on a road having three or more lanes.
また、本発明の実施の形態に係る車線識別システムでは、車載装置11は、車両1が位置する道路の車両1における計測結果に基づく計測情報を取得し、取得した計測情報を車線情報処理装置101へ送信する。車線情報処理装置101は、車載装置11から送信された計測情報を受信し、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、受信した計測情報に基づく識別結果を取得し、取得した識別結果に基づいて、車両1が位置する道路の車線を判別する。
In the lane identification system according to the embodiment of the present invention, the in-
このような構成により、機械学習による識別モデルの作成において、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として用いることにより、車線数の相違に応じた複数の識別モデルを作成することなく機械学習を収束させることができる。そして、このような識別モデルを用いる構成により、道路において車線を隔てるラインを認識することが困難な状況においても、車両1が位置する車線を判別することができる。 With this configuration, when creating an identification model by machine learning, the number of lanes can be determined by using the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as identification results. Machine learning can be converged without creating a plurality of identification models according to the differences. And the structure using such an identification model can discriminate | determine the lane where the vehicle 1 is located also in the situation where it is difficult to recognize the line which separates a lane on a road.
したがって、本発明の実施の形態に係る車線識別システムでは、車両1が位置する車線をより正確に判別することができる。 Therefore, in the lane identification system according to the embodiment of the present invention, it is possible to more accurately determine the lane in which the vehicle 1 is located.
また、本発明の実施の形態に係る車線情報処理方法では、まず、車両1が位置する道路の車両1における計測結果に基づく計測情報を取得する。次に、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、取得した計測情報に基づく識別結果を出力する。 In the lane information processing method according to the embodiment of the present invention, first, measurement information based on the measurement result of the vehicle 1 on the road where the vehicle 1 is located is acquired. Next, an identification model is used that can output the number of lanes from the leftmost lane and the number of lanes from the rightmost lane among the multiple lanes in the same direction on the road. The identification result based on the acquired measurement information is output.
このような構成により、機械学習による識別モデルの作成において、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として用いることにより、車線数の相違に応じた複数の識別モデルを作成することなく機械学習を収束させることができる。そして、このような識別モデルを用いる構成により、道路において車線を隔てるラインを認識することが困難な状況においても、車両1が位置する車線を判別することができる。 With this configuration, when creating an identification model by machine learning, the number of lanes can be determined by using the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as identification results. Machine learning can be converged without creating a plurality of identification models according to the differences. And the structure using such an identification model can discriminate | determine the lane where the vehicle 1 is located also in the situation where it is difficult to recognize the line which separates a lane on a road.
したがって、本発明の実施の形態に係る車線情報処理方法では、車両1が位置する車線をより正確に判別することができる。 Therefore, in the lane information processing method according to the embodiment of the present invention, it is possible to more accurately determine the lane in which the vehicle 1 is located.
上記実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The above embodiment should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
以上の説明は、以下に付記する特徴を含む。
[付記1]
車両が位置する道路の前記車両における計測結果に基づく計測情報を取得する取得部と、
道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、前記取得部によって取得された前記計測情報に基づく前記識別結果を出力する出力部とを備え、
前記計測情報は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線に関する前記計測結果を含み、
前記計測結果は、車線の外側を計測した結果を含む、車線情報処理装置。
The above description includes the following features.
[Appendix 1]
An acquisition unit for acquiring measurement information based on a measurement result in the vehicle on the road where the vehicle is located;
Among the plurality of lanes in the same direction arranged on the road, using an identification model that can output the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as an identification result, An output unit that outputs the identification result based on the measurement information acquired by the acquisition unit;
The measurement information includes the measurement results related to the leftmost lane and the rightmost lane among a plurality of lanes in the same direction on the road,
The measurement result includes a lane information processing apparatus including a result of measuring the outside of the lane.
[付記2]
車両に搭載される車載装置と、
車線情報処理装置とを備え、
前記車載装置は、前記車両が位置する道路の前記車両における計測結果に基づく計測情報を取得し、取得した前記計測情報を前記車線情報処理装置へ送信し、
前記車線情報処理装置は、前記車載装置から送信された前記計測情報を受信し、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、受信した前記計測情報に基づく前記識別結果に基づいて、前記車両が位置する道路の車線を判別し、
前記計測情報は、道路において並ぶ同じ方向の複数の車線のうち、左端の車線および右端の車線に関する前記計測結果を含み、
前記計測結果は、車線の外側を計測した結果を含む、車線識別システム。
[Appendix 2]
An in-vehicle device mounted on the vehicle;
A lane information processing device,
The in-vehicle device acquires measurement information based on a measurement result in the vehicle on a road where the vehicle is located, and transmits the acquired measurement information to the lane information processing device,
The lane information processing device receives the measurement information transmitted from the in-vehicle device, and from among a plurality of lanes arranged in the same direction on the road, the number of lanes from the leftmost lane and the rightmost lane Using an identification model that can be output as an identification result indicating what number lane, based on the identification result based on the received measurement information, determine the lane of the road where the vehicle is located,
The measurement information includes the measurement results related to the leftmost lane and the rightmost lane among a plurality of lanes in the same direction on the road,
The said measurement result is a lane identification system containing the result of having measured the outer side of the lane.
1 車両
11 車載装置
12 カメラ
13 LiDAR
21 受信部
22 取得部
23 出力部
24 判別部
25 記憶部
26 生成部
101 車線情報処理装置
301 車線識別システム
1
DESCRIPTION OF
Claims (9)
道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、前記取得部によって取得された前記計測情報に基づく前記識別結果を出力する出力部とを備える、車線情報処理装置。 An acquisition unit for acquiring measurement information based on a measurement result in the vehicle on the road where the vehicle is located;
Among the plurality of lanes in the same direction arranged on the road, using an identification model that can output the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as an identification result, A lane information processing apparatus comprising: an output unit that outputs the identification result based on the measurement information acquired by the acquisition unit.
前記出力部によって出力された前記識別結果に基づいて、前記車両が位置する道路の車線を判別する判別部を備える、請求項1または請求項2に記載の車線情報処理装置。 The lane information processing device further includes:
The lane information processing apparatus according to claim 1, further comprising: a determination unit configured to determine a lane of a road on which the vehicle is located based on the identification result output by the output unit.
車線情報処理装置とを備え、
前記車載装置は、前記車両が位置する道路の前記車両における計測結果に基づく計測情報を取得し、取得した前記計測情報を前記車線情報処理装置へ送信し、
前記車線情報処理装置は、前記車載装置から送信された前記計測情報を受信し、道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、受信した前記計測情報に基づく前記識別結果を取得し、取得した前記識別結果に基づいて、前記車両が位置する道路の車線を判別する、車線識別システム。 An in-vehicle device mounted on the vehicle;
A lane information processing device,
The in-vehicle device acquires measurement information based on a measurement result in the vehicle on a road where the vehicle is located, and transmits the acquired measurement information to the lane information processing device,
The lane information processing device receives the measurement information transmitted from the in-vehicle device, and from among a plurality of lanes arranged in the same direction on the road, the number of lanes from the leftmost lane and the rightmost lane Using an identification model that can output as an identification result what number lane it is, obtain the identification result based on the received measurement information, and based on the obtained identification result, the road on which the vehicle is located A lane identification system that identifies lanes.
車両が位置する道路の前記車両における計測結果に基づく計測情報を取得するステップと、
道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、取得した前記計測情報に基づく前記識別結果を出力するステップとを含む、車線情報処理方法。 A lane information processing method in a lane information processing apparatus,
Obtaining measurement information based on measurement results in the vehicle on the road where the vehicle is located;
Acquired by using an identification model that can output the number of lanes from the leftmost lane and the numbered lane from the rightmost lane among multiple lanes in the same direction on the road Outputting the identification result based on the measured information.
コンピュータを、
車両が位置する道路の前記車両における計測結果に基づく計測情報を取得する取得部と、
道路において並ぶ同じ方向の複数の車線のうち、左端の車線から何番目の車線であるか、および右端の車線から何番目の車線であるかを識別結果として出力可能な識別モデルを用いて、前記取得部によって取得された前記計測情報に基づく前記識別結果を出力する出力部、
として機能させるための、車線情報処理プログラム。 A lane information processing program used in a lane information processing apparatus,
Computer
An acquisition unit for acquiring measurement information based on a measurement result in the vehicle on the road where the vehicle is located;
Among the plurality of lanes in the same direction arranged on the road, using an identification model that can output the number of lanes from the leftmost lane and the number of lanes from the rightmost lane as an identification result, An output unit that outputs the identification result based on the measurement information acquired by the acquisition unit;
Lane information processing program to function as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018088090A JP2019194751A (en) | 2018-05-01 | 2018-05-01 | Lane information processing device, lane identification system, lane information processing method and lane information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018088090A JP2019194751A (en) | 2018-05-01 | 2018-05-01 | Lane information processing device, lane identification system, lane information processing method and lane information processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019194751A true JP2019194751A (en) | 2019-11-07 |
Family
ID=68469313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018088090A Pending JP2019194751A (en) | 2018-05-01 | 2018-05-01 | Lane information processing device, lane identification system, lane information processing method and lane information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019194751A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210098272A (en) * | 2020-01-31 | 2021-08-10 | 경북대학교 산학협력단 | Device for recognizing lane and vehicle position information and controlling mmthod thereof |
KR20210136194A (en) * | 2020-05-06 | 2021-11-17 | 이지스로직 주식회사 | Display device for construction equipment using LiDAR and AR |
JP7374001B2 (en) | 2020-01-15 | 2023-11-06 | Go株式会社 | Learning model generation method, program, and information processing device |
-
2018
- 2018-05-01 JP JP2018088090A patent/JP2019194751A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7374001B2 (en) | 2020-01-15 | 2023-11-06 | Go株式会社 | Learning model generation method, program, and information processing device |
KR20210098272A (en) * | 2020-01-31 | 2021-08-10 | 경북대학교 산학협력단 | Device for recognizing lane and vehicle position information and controlling mmthod thereof |
KR102399519B1 (en) * | 2020-01-31 | 2022-05-19 | 경북대학교 산학협력단 | Device for recognizing lane and vehicle position information and controlling mmthod thereof |
KR20210136194A (en) * | 2020-05-06 | 2021-11-17 | 이지스로직 주식회사 | Display device for construction equipment using LiDAR and AR |
KR102332616B1 (en) | 2020-05-06 | 2021-12-01 | 이지스로직 주식회사 | Display device for construction equipment using LiDAR and AR |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6942712B2 (en) | Detection of partially obstructed objects using context and depth order | |
JP6298128B2 (en) | Classification of objects detected by 3D sensors | |
CN107176161B (en) | Recognition result presentation device, recognition result presentation method, and autonomous moving object | |
US9443309B2 (en) | System and method for image based mapping, localization, and pose correction of a vehicle with landmark transform estimation | |
JP6672212B2 (en) | Information processing apparatus, vehicle, information processing method and program | |
JP6514192B2 (en) | Object movement classification based on lidar | |
JP2024012655A (en) | sensor data segmentation | |
JP6642745B2 (en) | Learning method for associating observations from multiple connected vehicles | |
JP2019125368A (en) | Method of associating observation values from multiple connected vehicles | |
JP6804991B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
JP2019194751A (en) | Lane information processing device, lane identification system, lane information processing method and lane information processing program | |
JPWO2016203515A1 (en) | Traveling lane discrimination device and traveling lane discrimination method | |
CN112997187A (en) | Two-dimensional object bounding box information estimation based on aerial view point cloud | |
JP2007114831A (en) | Object detection device | |
KR101969842B1 (en) | System for classifying dangerous road surface information based on deep running and method thereof | |
KR20200013155A (en) | Method and system for detecting change point of interest | |
JP2018005629A (en) | Road information generator | |
JP2017159884A (en) | Drive control device, drive control method and drive control program | |
JP2018133085A (en) | Information processing device, information processing method, information processing program, and mobile unit | |
US11897501B2 (en) | ADS perception development | |
KR102287310B1 (en) | Object determination system and method of the vehicle around | |
US10186154B2 (en) | Device and method for detecting surrounding vehicles | |
JP2019211822A (en) | Travel area determination apparatus, travel area determination method and method for generating road surface image machine learning model | |
CN112286178B (en) | Identification system, vehicle control system, identification method, and storage medium | |
Bălănescu et al. | Intersection detection based on mono-camera sensor |