JP7433496B1 - 車線識別方法、車線識別装置、電子デバイス、記憶媒体及びプログラム - Google Patents
車線識別方法、車線識別装置、電子デバイス、記憶媒体及びプログラム Download PDFInfo
- Publication number
- JP7433496B1 JP7433496B1 JP2023050736A JP2023050736A JP7433496B1 JP 7433496 B1 JP7433496 B1 JP 7433496B1 JP 2023050736 A JP2023050736 A JP 2023050736A JP 2023050736 A JP2023050736 A JP 2023050736A JP 7433496 B1 JP7433496 B1 JP 7433496B1
- Authority
- JP
- Japan
- Prior art keywords
- lane
- original image
- pixel
- key point
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000003860 storage Methods 0.000 title claims abstract description 16
- 230000004927 fusion Effects 0.000 claims abstract description 22
- 239000013598 vector Substances 0.000 claims description 67
- 238000000605 extraction Methods 0.000 claims description 22
- 238000009826 distribution Methods 0.000 claims description 16
- 238000010586 diagram Methods 0.000 abstract description 19
- 238000013135 deep learning Methods 0.000 abstract description 9
- 230000000694 effects Effects 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 6
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 21
- 238000001514 detection method Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 11
- 238000003062 neural network model Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 238000012805 post-processing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Abstract
【課題】車線識別方法、車線識別装置、電子デバイス、記憶媒体及びプログラムを提供する。【解決手段】本開示は、人工知能技術分野に関し、特にスマートモビリティ、自動運転、高精度地図、深層学習等の技術分野に関する。具体的な実現方法は、原画像の基本特徴を抽出することと、原画像の基本特徴を利用して、原画像における少なくとも1つの車線キーポイントを識別することと、少なくとも1つの車線キーポイントを利用して、原画像の基本特徴から局所特徴を抽出し、基本特徴と局所特徴とを融合することと、融合後の結果に基づいて、原画像における車線を識別することと、を含む。本開示によれば、車線識別の効果を向上することができる。【選択図】図2
Description
本開示は、人工知能技術分野に関し、特にスマートモビリティ、自動運転、高精度地図、深層学習等の技術分野に関する。
近年、人工知能技術の発展に伴い、高精度地図技術は徐々に画期的な進展を実現している。高精度地図において、車線の検出は、地図要素への認知のコア技術であり、高精度地図データの制作方向において極めて重要な役割を有する。深層学習に基づく車線検出方法が主流になりつつある。深層学習に基づく車線検出方法は、通常ではセマンティック分割、後処理車線抽出に基づく方法であり、その後処理プロセスが冗長であるため、車線識別の効果が低い。
本開示は、車線識別方法、車線識別装置、電子デバイス、記憶媒体及びプログラムを提供する。
本開示の1つの態様では、車線識別方法を提供し、当該方法は、
原画像の基本特徴を抽出することと、
原画像の基本特徴を利用して、原画像における少なくとも1つの車線キーポイントを識別することと、
少なくとも1つの車線キーポイントを利用して、原画像の基本特徴から局所特徴を抽出し、基本特徴と局所特徴とを融合することと、
融合後の結果に基づいて、原画像における車線を識別することと、を含む。
原画像の基本特徴を抽出することと、
原画像の基本特徴を利用して、原画像における少なくとも1つの車線キーポイントを識別することと、
少なくとも1つの車線キーポイントを利用して、原画像の基本特徴から局所特徴を抽出し、基本特徴と局所特徴とを融合することと、
融合後の結果に基づいて、原画像における車線を識別することと、を含む。
本開示のもう1つの様態では、車線識別装置を提供し、当該装置は、
原画像の基本特徴を抽出するためのメインモジュールと、
原画像の基本特徴を利用して、原画像における少なくとも1つの車線キーポイントを識別するためのキーポイント識別モジュールと、
少なくとも1つの車線キーポイントを利用して、原画像の基本特徴から局所特徴を抽出し、基本特徴と局所特徴とを融合するための抽出及び融合モジュールと、
融合後の結果に基づいて、原画像における車線を識別するための車線識別モジュールと、を備える。
原画像の基本特徴を抽出するためのメインモジュールと、
原画像の基本特徴を利用して、原画像における少なくとも1つの車線キーポイントを識別するためのキーポイント識別モジュールと、
少なくとも1つの車線キーポイントを利用して、原画像の基本特徴から局所特徴を抽出し、基本特徴と局所特徴とを融合するための抽出及び融合モジュールと、
融合後の結果に基づいて、原画像における車線を識別するための車線識別モジュールと、を備える。
本開示のもう1つの様態では、電子デバイスを提供し、当該電子デバイスは、
少なくとも1つのプロセッサと、
当該少なくとも1つのプロセッサと通信接続されるメモリと、を備え、
当該メモリには、当該少なくとも1つのプロセッサで実行可能な命令が記憶され、当該命令は、当該少なくとも1つのプロセッサによって実行されると、当該少なくとも1つのプロセッサに、本開示のいずれか1つの実施例の車線識別方法を実行させる。
少なくとも1つのプロセッサと、
当該少なくとも1つのプロセッサと通信接続されるメモリと、を備え、
当該メモリには、当該少なくとも1つのプロセッサで実行可能な命令が記憶され、当該命令は、当該少なくとも1つのプロセッサによって実行されると、当該少なくとも1つのプロセッサに、本開示のいずれか1つの実施例の車線識別方法を実行させる。
本開示のもう1つの様態では、コンピュータ命令を記憶した非一時的なコンピュータ可読記憶媒体を提供し、当該コンピュータ命令は、本開示のいずれか1つの実施例の車線識別方法をコンピュータに実行させる。
本開示のもう1つの様態では、プログラムを提供し、該プログラムは、コンピュータにおいて、プロセッサにより実行されると、本開示のいずれか1つの実施例の車線識別方法を実行させる。
本開示の車線識別方法によれば、原画像の基本特徴と局所特徴との融合結果に基づいて車線を識別することができるため、複雑な後処理プロセスを回避し、車線識別の効果を高めることができる。
ここに記載された内容は、本開示の実施例のキーポイント又は重要な特徴を記述することを意図せず、また、本開示の範囲を制限することにも用いられないことを理解すべきである。本開示の他の特徴については、下記の明細書を通して説明を促す。
添付図面は、本方案をより良く理解するためのものであり、本開示を限定するものではない。
従来のセマンティック分割、後処理に基づく車線識別方法を示す概略図である。
本開示の一実施例による車線識別方法200の実現フローチャートである。
本開示の一実施例による局所特徴抽出方式を示す概略図である。
本開示の一実施例による車線画素符号化を示す概略図である。
本開示の一実施例による車線符号化情報を示す概略図である。
本開示の一実施例による車線識別の全体枠組を示す概略図である。
本開示の一実施例による車線識別装置700の構成を示す概略図である。
本開示の一実施例による車線識別装置800の構成を示す概略図である。
本開示の実施例を実現可能な例示的な電子デバイス900の概略ブロック図である。
以下では、本開示の例示的な実施例を、理解を容易にするために本開示の実施例の様々な詳細を含む添付の図面に関連して説明するが、これらは単に例示的なものであると考えるべきである。したがって、当業者は、本開示の範囲及び精神を逸脱することなく、本明細書に記載された実施例に様々な変更及び修正を加えることができることを認識すべきである。同様に、以下の説明では、周知の機能及び構成については、明確化及び簡明化のために説明を省略する。
車線検出アルゴリズムは、従来の検出アルゴリズムと深層学習に基づく車線検出アルゴリズムとに大別されている。深層学習に基づく車線検出の主流である方式は、セマンティック分割、後処理車線抽出に基づくものであり、このような方式は、後処理プロセスが冗長であるため、車線識別の効果が低い。
図1は、従来のセマンティック分割、後処理に基づく車線識別方法を示す概略図である。図1に示すように、当該識別方式は、以下のステップを含む。
1.セマンティック分割アルゴリズムに基づいて、原画像に対して画素レベルの分割を行い、セマンティック分割図を得る。
2.セマンティック分割図に基づいて、車線輪郭を抽出する。
3.車線輪郭に基づいて、車線中心線を抽出する。
4.抽出した車線中心線に対して車線の集約を行い、1つの車線となるように同一方向の複数の車線を集約する。
5.集約後の車線に対してフィッティングを行い、滑らかな車線曲線となるように車線をフィッティングし、車線識別を完了する。
このように、上述の過程には複数の処理プロセスが含まれており、プロセスの冗長性により車線識別効果の低下を招くことが分かる。例えば、プロセスごとの精度が90%の場合でも、理論的には最終的な車線識別の精度は約90%×90%×90%×90%×90%=59%となる。このことから、直前のプロセスの識別誤差が後続のプロセスに蓄積されてしまい、また、従来のセマンティック分割、後処理に基づく車線識別方法には処理プロセスが多いため、従来の車線識別方法は車線識別効果が比較的低いということがわかる。
本開示の実施例では、冗長な後処理プロセスを排除し、車線識別の効果を向上させることができる車線識別方法を提案する。図2は、本開示の一実施例による車線識別方法200の実現フローチャートであり、以下のステップを含む。
S210において、原画像の基本特徴を抽出する。
S220において、当該原画像の基本特徴を利用して、当該原画像における少なくとも1つの車線キーポイントを識別する。
S230において、当該少なくとも1つの車線キーポイントを利用して、当該原画像の基本特徴から局所特徴を抽出し、当該基本特徴と当該局所特徴とを融合する。
S240において、融合後の結果に基づいて、当該原画像における車線を識別する。
ここで、原画像は、交通シーンの画像であってもよく、例えば、車載撮像装置、スマートモビリティ撮像装置等により取得された映像データであってもよい。原画像は、静的画像、動的ビデオ画像、またはビデオ画像から抽出されたビデオフレームなど、様々な形態とすることができ、本開示の実施例では、原画像の形態や取得経路について制限しない。
ステップS220において、基本特徴を利用して識別された車線キーポイントは、車線の関連情報を初歩的に備えているが、基本特徴の表現力が弱いため、識別の効果が相対的に低い。本開示の実施例は、後続のステップにより、局所特徴と基本特徴とを融合し、融合した結果を利用して最終的に車線を識別する。局所特徴は、車線キーポイント付近の特徴情報を重点的に表しており、基本特徴は、原画像の全体情報を表しているため、融合後の結果は、原画像の全体情報を表すことができるとともに、車線キーポイント周辺の局所情報もよりよく表すことができる。そのため、融合後の結果を用いて車線を識別する効果がより良い。
上述の過程から分かるように、本開示の実施例で提案される車線識別方法は、入力が原画像であり、出力が完全な高精度車線であるエンドツーエンドの高精度な車線検出方法である。図1に示すような車線輪郭の抽出、車線中心線の抽出、車線の集約、車線のフィッティング等の多段階な処理方式に比べて、本開示の実施例では、煩雑で冗長な処理を回避し、車線識別の効果を高め、車線識別の精度及び再現率を向上させることができる。
本開示の実施例で提案の車線識別方法は、1つ以上のニューラルネットワークモデルまたはディープラーニングモデル(モデルと略す)を利用して実現することができる。
いくつかの実施形態では、本開示の実施例は、モデルのバックボーン(Backbone)ネットワークを用いて、原画像の基本特徴を抽出することができ、すなわち、上述のステップS210を実行することができる。例えば、車載カメラ、スマートモビリティ撮像装置などによって取得した原画像をニューラルネットワークモデルのBackboneネットワークに入力し、ニューラルネットワークモデルのBackboneネットワークから当該原画像の基本特徴を出力する。
Backboneネットワークは、特徴抽出ネットワークを用いることができ、後続のネットワークで利用するために、画像中の情報を抽出する役割を果たすことができる。Backboneネットワークは、深層残差ネットワーク(Deep residual network,ResNet)、視覚幾何学グループ(VGG,Visual Geometry Group)ネットワークなどがよく用いられている。これらのネットワークは、画像分類、画像識別などの問題において特徴抽出能力が高いことが証明されている。本開示の実施例は、バックボーンネットワークとしてこれらのネットワークを使用する場合に、トレーニング済みモデルパラメータを直接ロードしてから、後続のネットワークに接続ことができる。トレーニングの過程において、ネットワークの全体に対して同期にトレーニングすることができる。
いくつかの実施形態では、本開示の実施例の、原画像の基本特徴を利用して、原画像における少なくとも1つの車線キーポイントを識別する(例えば、上述のステップS220)方法は、以下のステップを含む。
原画像の基本特徴を利用して、原画像の対応するキーポイント分布情報を決定し、ここで、キーポイント分布情報は、原画像における少なくとも1つの車線キーポイントを表すために用いられ、キーポイント分布情報には、各画素の種類が含まれる。
原画像におけるキーポイント分布情報を決定することにより、原画像における車線キーポイントの初歩的な識別を実現することが可能となり、車線キーポイント周辺の特徴情報を表す局所特徴を抽出するための基礎を築く。
例えば、当該種類は、背景、車線キーポイント、または車線の縁である。
いくつかの実施形態では、本開示の実施例は、1つ以上のニューラルネットワークモデル、または1つのニューラルネットワークモデルにおける1つ以上の層を用いて、ステップS210で抽出された基本特徴を利用して、キーポイント分布情報を識別することができる。例えば、このキーポイント分布情報は、キーポイント画像(Node map)であってもよく、Node mapにおける各画素の値は、0、1、または2であってもよく、ここで、
値が0の場合、当該画素が背景に属していることを表す、
値が1の場合、当該画素が車線キーポイントに属していることを表す、
値が2の場合、当該画素が車線の縁に属することを表す。
値が0の場合、当該画素が背景に属していることを表す、
値が1の場合、当該画素が車線キーポイントに属していることを表す、
値が2の場合、当該画素が車線の縁に属することを表す。
いくつかの実施形態では、上記の「背景」は、車線(車線キーポイント及び車線の縁を含む)以外の部分を指すことができる。
この例では、画素の値が1であれば、当該画素が車線キーポイントであることを表し、画素の値が別の値(例えば0または2)であれば、当該画素が車線キーポイントではないことを表す。
上述した画素の値及び意味は一例にすぎず、本開示の実施例では、これについて限定しない。本開示の実施例は、任意の値を用いて画素が車線キーポイントに属することを表すことができる。なお、本開示の実施形態では、背景と車線の縁とを区別しなくてもよい。例えば、Node mapにおける各画素の値は0または1とすることができ、ここで、値が1であれば、当該画素が車線キーポイントに属していることを表し、値が0であれば、当該画素が車線キーポイントに属していないことを表す。
いくつかの実施形態では、本開示の実施例のステップS230において、車線キーポイントを利用して原画像の基本特徴から局所特徴を抽出する方法は、
車線キーポイントを利用して複数の局所枠を構築作成することと、
当該複数の局所枠を利用して、原画像の基本特徴に対し分割し、局所特徴を得ることと、を含む。
車線キーポイントを利用して複数の局所枠を構築作成することと、
当該複数の局所枠を利用して、原画像の基本特徴に対し分割し、局所特徴を得ることと、を含む。
図3は、本開示の一実施例による局所特徴抽出方式を示す概略図である。図3に示すように、本開示の実施例は、車線キーポイントが各局所枠の右下隅、左下隅、右上隅及び左上隅に位置するように、車線キーポイントを利用して4つの局所枠を構築することができる。例えば、図3に示すように、車線キーポイントは、第1局所枠の右下隅、第2局所枠の左下隅、第3局所枠の右上隅及び第4局所枠の左上隅に位置する。4つの局所枠のサイズは、予め設定された値であり、さらに4つの局所枠を利用してそれぞれ原画像の基本特徴に対し分割し、分割して得られたデータを局所特徴とする。
上記の例では、車線がそれぞれ右下隅、左下隅、右上隅、及び左上隅に位置する4つの局所枠を利用して基本特徴を分割することで、分割によって得られた局所特徴が車線キーポイント及び車線キーポイント周辺の特徴情報を重点的に表すことができ、車線識別の効果を向上させることができる。
いくつかの実施形態では、原画像の基本特徴は、例えばH*W*64の大きさの特徴ベクトルとして表してもよく、ここで、Hは原画像の高さ(単位は画素数)、Wは原画像の幅(単位は画素数)である。画素Aを例にとると、画素Aは車線キーポイントであり、画素Aの対応する局所特徴を抽出する過程は、次のとおりである。
1.画素Aの座標x,yを取得する。
2.Aの座標位置を右下隅、左下隅、右上隅、左上隅とし、それぞれ4つの5*5の局所枠を構築し、ここで、5*5は、予め設定された、局所枠のサイズであり、当該サイズは単なる例示である。
3.構築した局所枠を利用して画像の基本特徴に対し分割し、局所特徴を得る。
このようにして、1つの画素は、サイズ5*5の4つの局所枠に対応し、各局所枠は、原画像の基本特徴(H*W*64の特徴ベクトル)から局所特徴を分割して抽出する必要があるため、1画素あたりの局所特徴ベクトルの大きさは4*64*5*5であり、抽出された局所特徴を後から融合しやすくするために、局所特徴ベクトルを、256*5*5の大きさの特徴ベクトルのような3次元ベクトルに調整してもよい。
なお、図3に示す局所枠は、抽出された車線キーポイントの近傍部分の局所特徴(局所特徴はベクトルで表される)を表す抽象的な表現であり、具体的な形状を表すものではない。
上記の例は、単一車線キーポイントの視点から説明したものである。単一車線キーポイントに対し、その対応する局所特徴を得ることができる。前のステップで複数の車線キーポイントが識別された場合、本ステップでは、各車線キーポイントに対しそれぞれの対応する局所特徴を取得し、その後の過程で、基本特徴と複数の車線キーポイントの対応する局所特徴とを融合してもよい。
いくつかの実施形態では、原画像の基本特徴は、第1ベクトルで表され、車線キーポイントに対応する局所特徴は、第2ベクトルで表され、
基本特徴と局所特徴とを融合する方法は、第1ベクトルと第2ベクトルとを組み合わせて第3ベクトルを得ることを含むことができる。
基本特徴と局所特徴とを融合する方法は、第1ベクトルと第2ベクトルとを組み合わせて第3ベクトルを得ることを含むことができる。
ベクトルを組み合わせる方式を採用することにより、基本特徴と局所特徴とを融合した後に得られた特徴は、依然としてベクトルの形式で表し、後続の車線識別過程で使いやすくできる。
例えば、複数の車線キーポイントが識別された場合、各車線キーポイントに対応する局所特徴は、第2ベクトルで表すことができる。このようにして、基本特徴と局所特徴とを融合する際に、第1ベクトルと複数の第2ベクトル(すなわち、すべての車線キーポイントの対応する局所特徴のベクトル表示)とを組み合わせて第3ベクトルを得ることができる。融合後の第3ベクトルは、3次元ベクトルであってもよい。
上記の局所特徴の抽出、及び基本特徴と局所特徴との融合の過程は、1つまたは複数のニューラルネットワークモデル、または1つのニューラルネットワークモデルにおける1つまたは複数の層を用いて実現することができる。
本開示の実施例は、車線の局所特徴と全体特徴との融合を採用することにより、車線の識別精度を大幅に向上させることができ、画素レベルでの車線の高精度な識別を実現することができる。本開示の実施例は、車両遮蔽、車線被覆などの特殊な場面においても、エンドツーエンド生成型ネットワークにより、車線識別再現率及びモデルのロバスト性を大幅に向上させることができる。
いくつかの実施形態では、本開示の実施例における、融合後の結果に基づいて原画像における車線を識別する方法(上述のステップS240)は、
融合後の結果に基づいて、原画像の車線符号化情報を決定することと、
車線符号化情報を利用して原画像における車線を識別することと、を含むことができる。
融合後の結果に基づいて、原画像の車線符号化情報を決定することと、
車線符号化情報を利用して原画像における車線を識別することと、を含むことができる。
いくつかの実施形態では、原画像の車線符号化情報は、原画像における各画素の第1情報を含み、当該第1情報は、以下の少なくとも1つを含む。
(1)画素が車線キーポイントであるか否か、
(2)画素の隣接する車線キーポイントの数、
(3)画素と隣接する車線キーポイントとの位置関係。
(1)画素が車線キーポイントであるか否か、
(2)画素の隣接する車線キーポイントの数、
(3)画素と隣接する車線キーポイントとの位置関係。
例えば、ある画素が車線キーポイントである場合、当該画素の第1情報は、当該画素の隣接する車線キーポイントの数と、当該画素と隣接する車線キーポイントとの位置関係とを含む。また、例えば、ある画素が車線キーポイントでない場合、当該画素の第1情報は、当該画素の隣接する車線キーポイントの数、及び当該画素と隣接する車線キーポイントとの位置関係を含まず、それに応じて、第1情報のうちの、当該画素の隣接する車線キーポイントの数を表す部分、及び当該画素と隣接する車線キーポイントとの位置関係を表す部分の値がデフォルト値となる。
上述した車線符号化情報の一例から分かるように、車線符号化情報における各画素の第1情報には、当該画素が車線キーポイントであるか否かの情報と、周辺キーポイントとの位置関係とが含まれており、画素の車線関連情報を網羅的にカバーすることができ、車線識別の効果を保証することができる。
いくつかの実施形態では、画素が車線キーポイントである場合、当該画素と隣接する車線キーポイントとの位置関係は、原画像の座標軸に対する、当該画素と隣接する車線キーポイントとの連結線の偏向角度、及び当該画素と隣接する車線キーポイントとの連結線の長さとを含んでもよい。ここで、座標軸とは、水平座標軸または垂直座標軸を指してもよい。この位置関係表現方法は、少ないデータ量で車線キーポイント間の位置関係を表現することができ、データ量を削減し、データ処理の困難性を低減することができる。
あるいは、画素が車線キーポイントである場合に、当該画素と隣接する車線キーポイントとの位置関係は、当該画素に対する、隣接する車線キーポイントの水平方向のオフセット量、及び当該画素に対する、隣接する車線キーポイントの垂直方向のオフセット量を含んでもよい。
本開示の実施例は、他の位置関係表現形式を採用してもよいが、ここでは枚挙しない。
いくつかの実施形態では、各画素の第1情報は、3次元ベクトルで表されてもよい。当該3次元ベクトルのうちの2つの要素は、画素の、原画像における位置(例えば、水平方向における位置や、垂直方向における位置を含む)を表し、当該3次元ベクトルのうちの3番目の要素は、当該画素の第1情報を表す。
車線検出において、車線の符号化形式が非常に重要である。有効な符号化車線こそ、ディープラーニングアルゴリズムに画像中の車線をより正確に識別させることができると共に、より直接的な車線表現形式を提供し、エンドツーエンドの車線検出の実現可能性を高める。本開示の実施例で提案する車線符号化は、符号化アルゴリズムによって画像中の車線をベクトルの形式に符号化する。
本開示の実施例は、車線を3次元ベクトルに符号化し、すなわち、上述した車線符号化情報を3次元ベクトルの形式で表す。当該3次元ベクトルは、効率的に車線の画像における具体的な位置を表現すると共に、ディープラーニングのエンドツーエンドの車線検出、識別の実現をサポートすることができる。図4は、本開示の一実施例による車線画素符号化を示す概略図である。図4における点A、B、C、D、E、Fは、車線を構成する車線キーポイントである。図4中の車線構造は、以下の辞書を用いて符号化され、当該辞書には、複数のキー値対(Key-Value)が含まれ、各キー値対は1つの車線キーポイントの座標、及び当該車線キーポイントのすべての隣接する車線キーポイントの座標を表す。
{
A:[B]、
B:[A,C]、
C:[B,D,E]、
D:[C]、
E:[C,F]、
F:[E]
}
A:[B]、
B:[A,C]、
C:[B,D,E]、
D:[C]、
E:[C,F]、
F:[E]
}
車線キーポイントAの隣接する車線キーポイントにはBが含まれ、車線キーポイントBの隣接する車線キーポイントにはAとCが含まれ、等が上記の辞書から分かる。
上記の車線符号化構造がエンドツーエンド車線検出アルゴリズムトレーニングに直接使用できず、この問題を解決するために、本開示の実施例では、トレーニングに使用可能な3次元ベクトル、すなわち上記の実施例の過程における車線符号化情報となるように、一部の情報を符号化する。ある一枚の画像に対し、画像における各画素点を符号化する必要がある。符号化情報には、次の3つの部分がある。
1.ノード(Node)ビットは、1ビット符号であり、現在の画素点が車線キーポイントであるか否かを表す。例えば、当該ビットが0の場合、車線キーポイントではないことを表し、当該ビットが1の場合、車線キーポイントであることを表す。
2、リンク(Link)ビットは、6ビット符号であり、現在の画素点が車線キーポイントであれば、Linkビットは、当該画素点に隣接する車線キーポイントが存在するか否か、隣接する車線キーポイントがいくつ存在するかを表す。Linkビットのデフォルト値は、「000000」のように、すべての位置が0を取る。たとえば、N個(Nは正の整数)の隣接する車線キーポイントがある場合、左から右に向かって最初のN個の0符号を順次1に変更し、隣接ノードが存在することを表す。例えば、ある画素のLinkビットの値が「000000」である場合に、当該画素に表される車線キーポイントに隣接する車線キーポイントはないことを意味する。また、ある画素のLinkビットの値が「111000」である場合に、当該画素に表される車線キーポイントに3つの隣接する車線キーポイントがあることを意味する。この例では、最大で1画素の6つの隣接する車線キーポイントを表すことができる。なお、Linkビットの6ビット符号化の形式は、一例にすぎず、Linkビットを別の長さに符号化すると、表現できる隣接する車線キーポイントの最大数もそれに応じて変化する。ある画素のNodeビットの値が「0」である場合、すなわち、当該画素が車線キーポイントでない場合、当該画素のLinkビットの値は「000000」を取ることができる。
3、位置関係(Dx&Dy)ビットは、12ビット符号であり、現在の画素と隣接する車線キーポイントとの位置関係を表す。デフォルト値は、(0,0)x6のように、すべての位置に0を取る。現在の画素点が1つの車線キーポイントである場合に、Linkビットに「1」が記入された位置の対応する(Dx&Dy)ビットに、原画像の座標軸に対する、当該画素と隣接する車線キーポイントとの連結線の偏向角度、及び当該画素と隣接する車線キーポイントとの連結線の長さがそれぞれ表される。
図5は、本開示の一実施例による車線符号化情報を示す概略図である。図5に示すように、3次元の車線符号化ベクトルは、原画像における車線キーポイントを表すことができる。当該3次元ベクトルは、Hを原画像の高さ(単位は画素数)、Wを原画像の幅(単位は画素数)としたとき、H*W*19の大きさで表される。なお、上記の3次元ベクトルのサイズの「19」は、一例に過ぎない。当該サイズは、単一の画素の符号化方法に関連する一例であり、上記の3次元ベクトルのサイズの「19」は、1つの画素の符号化方法に関連し、符号化形式が変化する場合、当該3次元ベクトルの大きさもそれに応じて変化する。
このようにして、原画像における各画素点を順次符号化し、各画素点がいずれも19ビットの符号を有するようにすることにより、原画像全体の車線構造を3次元ベクトルに符号化することができる。エンドツーエンドの車線識別モデルは、当該車線符号化構造に基づいてトレーニング及び学習することができる。このように、本開示の実施例は、符号化方式を採用し、車線図の符号化アルゴリズムを革新し、画像中の車線を3次元ベクトルに符号化することができ、ディープラーニングに基づくエンドツーエンドの車線検出モデルの構築に実現可能な符号化方式を提供し、エンドツーエンドの車線トレーニングにおける車線符号化の難題を効果的に解決し、車線識別の正確率をさらに高めることができる。
上記では、本開示の実施例で提案された車線識別方法を説明したが、当該車線識別方法は、1つまたは複数のニューラルネットワークモデルを用いて実現され得る。本方案は主に二つの方面で革新を行った。第一に、原画像における車線キーポイントを初歩的に識別し、それによって局部特徴を抽出し、局部情報と基本特徴とを融合し、融合後の情報を利用して車線の識別を行い、車線の識別の正確率を高めることができる。第二に、融合後の情報を符号化し、本開示で提案した符号化方式を採用して符号化して3次元ベクトルを得、当該3次元ベクトルを最終的な車線識別に用いることにより、車線のエンドツーエンドの正確な識別をさらに向上させることができる。
本開示の実施例で提案した車線識別方法は、ニューラルネットワークモデルを採用して実現することができる。図6は、本開示の一実施例による車線識別の全体枠組を示す概略図である。図6に示すように、バックボーンネットワークは、入力された原画像に対して特徴抽出を行い、原画像の基本特徴を得て、当該基本特徴を後続の車線識別の基本的な情報とする。当該基本特徴に基づいて、原画像における車線キーポイントを識別し、車線キーポイントの情報を図6のキーポイント画像(Node map)で表すことができる。当該ステップで抽出された車線キーポイントは、初歩的な抽出である。その後、当該車線キーポイントの情報を利用して、基本特徴から局所特徴を抽出し、基本特徴と局所特徴とを融合する。融合後の特徴に基づいて、ニューラルネットワークアルゴリズムを用いて車線符号化ベクトル予測を行うことができ、融合後の特徴を、対応する車線符号化ベクトルに変換する。本開示の実施例では、ニューラルネットワークアルゴリズムの具体的な方法について限定しない。最後に、車線符号化ベクトルに基づいて、最終的な車線識別結果を得ることができる。車線符号化ベクトルを車線識別結果に変換する過程は、上記符号化過程の逆演算を採用してもよい。具体的に、上記図4及び図5に示す符号化過程を参照してもよいため、ここでは繰り返し述べない。
本開示の実施例は、さらに車線識別装置を提案する。図7は、本開示の実施例による車線識別装置700の構成を示す概略図であり、当該車線識別装置700は、
原画像の基本特徴を抽出するためのメインモジュール710と、
原画像の基本特徴を利用して、原画像における少なくとも1つの車線キーポイントを識別するためのキーポイント識別モジュール720と、
少なくとも1つの車線キーポイントを利用して、原画像の基本特徴から局所特徴を抽出し、基本特徴と局所特徴とを融合するための抽出及び融合モジュール730と、
融合後の結果に基づいて、原画像における車線を識別するための車線識別モジュール740と、を備える。
原画像の基本特徴を抽出するためのメインモジュール710と、
原画像の基本特徴を利用して、原画像における少なくとも1つの車線キーポイントを識別するためのキーポイント識別モジュール720と、
少なくとも1つの車線キーポイントを利用して、原画像の基本特徴から局所特徴を抽出し、基本特徴と局所特徴とを融合するための抽出及び融合モジュール730と、
融合後の結果に基づいて、原画像における車線を識別するための車線識別モジュール740と、を備える。
図8は、本開示の一実施例による車線識別装置800の構成を示す構成図であり、図8に示すように、いくつかの実施形態において、本開示の一実施例で提案される車線識別モジュール740は、
融合後の結果に基づいて、原画像の車線符号化情報を決定するための符号化決定サブモジュール741と、ここで、原画像の車線符号化情報は、原画像における各画素の第1情報を含み、当該第1情報は、当該画素が車線キーポイントであるか否かと、当該画素の隣接する車線キーポイントの数と、当該画素と隣接する車線キーポイントとの位置関係と、のうちの少なくとも1つを含み、
車線符号化情報を利用して原画像における車線を識別するための識別サブモジュール742と、を備える。
融合後の結果に基づいて、原画像の車線符号化情報を決定するための符号化決定サブモジュール741と、ここで、原画像の車線符号化情報は、原画像における各画素の第1情報を含み、当該第1情報は、当該画素が車線キーポイントであるか否かと、当該画素の隣接する車線キーポイントの数と、当該画素と隣接する車線キーポイントとの位置関係と、のうちの少なくとも1つを含み、
車線符号化情報を利用して原画像における車線を識別するための識別サブモジュール742と、を備える。
いくつかの実施形態では、各画素の第1情報は、3次元ベクトルで表され、
3次元ベクトルのうちの2つの要素は、画素の、原画像における位置を表し、3次元ベクトルのうちのもう1つの要素は、画素の第1情報を表す。
3次元ベクトルのうちの2つの要素は、画素の、原画像における位置を表し、3次元ベクトルのうちのもう1つの要素は、画素の第1情報を表す。
いくつかの実施形態では、画素が車線キーポイントである場合に、当該画素と隣接する車線キーポイントとの位置関係は、
原画像の座標軸に対する、当該画素と隣接する車線キーポイントとの連結線の偏向角度と、当該画素と隣接する車線キーポイントとの連結線の長さと、を含む。
原画像の座標軸に対する、当該画素と隣接する車線キーポイントとの連結線の偏向角度と、当該画素と隣接する車線キーポイントとの連結線の長さと、を含む。
いくつかの実施形態では、抽出及び融合モジュール730は、
車線キーポイントを利用して複数の局所枠を構築し、複数の局所枠を利用して、原画像の基本特徴に対し分割し、局所特徴を得るための局所特徴抽出サブモジュール731を備える。
車線キーポイントを利用して複数の局所枠を構築し、複数の局所枠を利用して、原画像の基本特徴に対し分割し、局所特徴を得るための局所特徴抽出サブモジュール731を備える。
いくつかの実施形態では、局所特徴抽出サブモジュール731は、車線キーポイントが各局所枠の右下隅、左下隅、右上隅、及び左上隅に位置するように、車線キーポイントを利用して4つの局所枠を構築することに用いられ、
4つの局所枠のサイズは、予め設定された値である。
4つの局所枠のサイズは、予め設定された値である。
いくつかの実施形態では、基本特徴は、第1ベクトルで表され、局所的特徴は、第2ベクトルで表され、
抽出及び融合モジュール730は、
第1ベクトルと第2ベクトルとを組み合わせて、第3ベクトルを得るための融合サブモジュール732をさらに備える。
抽出及び融合モジュール730は、
第1ベクトルと第2ベクトルとを組み合わせて、第3ベクトルを得るための融合サブモジュール732をさらに備える。
いくつかの実施形態では、キーポイント識別モジュール720は、原画像の基本特徴を利用して、原画像の対応するキーポイント分布情報を決定することに用いられ、ここで、キーポイント分布情報は、原画像における少なくとも1つの車線キーポイントを表すために用いられ、キーポイント分布情報には、画素の種類(背景、車線キーポイント、または車線の縁)が含まれる。
本開示の実施例で提案される車線識別装置は、1つまたは複数のニューラルネットワークモデルを採用して実現され得る。例えば、1つ以上のニューラルネットワークモデルを1つ以上のサーバーに配置し、本開示の実施例の車線識別装置を構成する。車線識別装置は、上述したいずれの車線識別方法を採用して、原画像を利用してエンドツーエンドの車線識別を実現することができる。
本開示の実施例に係る装置の各モジュール、サブモジュールの具体的な機能及び例示的説明は、上述した方法の実施例における対応するステップの関連説明を参照することができ、ここでは繰り返し述べない。
本開示の技術的解決策において、関係する利用者の個人情報の取得、保管及び利用等は、いずれも関係法令の規定に適合しており、公序良俗に反するものではない。
本開示の実施例によれば、本開示は、電子デバイス及び可読記憶媒体を提供する。
図9は、本開示の実施例を実現するための電子デバイス900の概略ブロック図である。電子デバイスは、各形式のデジタルコンピュータを指し、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバー、ブレードサーバー、大型コンピュータ、及びその他の適合するコンピュータが挙げられる。電子デバイスは、各形式の移動装置を更に指し、例えば、パーソナルデジタルアシスタント、セルラー電話、インテリジェントフォン、ウェアラブルデバイス、及びその他の類似のコンピュータ装置が挙げられる。本開示に記載されているコンポーネント、それらの接続関係、及び機能は例示的なものに過ぎず、本開示に記載・特定されているものの実現を限定するわけではない。
図9に示すように、デバイス900は、リードオンリーメモリ(ROM)902に記憶されたコンピュータプログラム命令、又は記憶ユニット908からランダムアクセスメモリ(RAM)903にローディングされたコンピュータプログラム命令に基づいて、各種の適切な動作と処理を実行できる計算ユニット901を含む。RAM903には、デバイス900の動作に必要な各種のプログラム及びデータを更に記憶することができる。計算ユニット901と、ROM902と、RAM903とは、バス904を介して互いに接続されている。入力/出力(I/O)インターフェース905もバス904に接続されている。
デバイス900における複数のコンポーネントは、I/Oインターフェース905に接続されており、当該複数のコンポーネントは、キーボードやマウス等の入力ユニット906と、種々なディスプレイやスピーカ等の出力ユニット907と、磁気ディスクや光学ディスク等の記憶ユニット908と、ネットワークカード、モデム、無線通信トランシーバー等の通信ユニット909と、を備える。通信ユニット909は、デバイス900がインターネットのようなコンピュータネット及び/又は種々なキャリアネットワークを介して他の機器と情報/データを交換することを許可する。
計算ユニット901は、処理及び計算能力を有する様々な汎用及び/又は専用の処理コンポーネントであってもよい。計算ユニット901のいくつかの例としては、中央処理装置(CPU)、グラフィックス処理ユニット(GPU)、様々な専用の人工知能(AI)計算チップ、様々な機械学習モデルアルゴリズムを実行する計算ユニット、デジタル信号プロセッサ(DSP)、及び任意の適切なプロセッサ、コントローラ、マイクロコントローラ等を備えるが、これらに限定されない。計算ユニット901は、上述で説明された各方法及び処理、例えば車線識別方法を実行する。例えば、いくつかの実施例では、車線識別方法を、記憶ユニット908のような機械読み取り可能な媒体に有形的に含まれるコンピュータソフトウエアプログラムとして実現することができる。一部の実施形態では、コンピュータプログラムの一部又は全ては、ROM902及び/又は通信ユニット909を介して、デバイス900にロード及び/又はインストールすることができる。コンピュータプログラムがRAM903にロードされて計算ユニット901によって実行される場合に、前述した車線識別方法の1つ又は複数のステップを実行することができる。追加可能に、他の実施例では、計算ユニット901は、他の任意の適当な方式(例えば、ファームウェア)により車線識別方法を実行するように構成することができる。
本開示で記載されているシステム又は技術の各種の実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準品(ASSP)、システムオンチップ(SOC)、コンプレックスプログラマブルロジックデバイス(CPLD)、コンピュータのハードウェア、ファームウェア、ソフトウェア、及び/又はこれらの組み合わせによって実現することができる。これらの各実施例は、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムにて実行及び/又は解釈される1つ又は複数のコンピュータプログラムにより実行することを含み得、当該プログラマブルプロセッサは、ストレージシステム、少なくとも1つの入力デバイス、及び少なくとも1つの出力デバイスからデータ及び命令を受け取り、データ及び命令を当該ストレージシステム、当該少なくとも1つの入力デバイス、及び当該少なくとも1つの出力デバイスに転送することができる専用又は汎用のプログラマブルプロセッサであってもよい。
本開示の方法を実行するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで作成することができる。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ又は他のプログラミングデータ処理装置のプロセッサ又はコントローラに提供されることにより、プログラムコードがプロセッサ又はコントローラによって実行される場合に、フローチャート及び/又はブロック図に規定された機能/動作を実行することができる。プログラムコードは、完全にマシンで実行されてもよいし、部分的にマシンで実行されてもよいし、独立したソフトパッケージとして部分的にマシンで実行されるとともに部分的にリモートマシンで実行されてもよし、又は完全にリモートマシン又はサーバーで実行されてもよい。
本開示の説明において、機械読み取り可能な媒体は、有形な媒体であってもよく、命令実行システム、装置又は機器によって、又は命令実行システム、装置又は機器と合わせて用いられるプログラムを含み、又は記憶する。機械読み取り可能な媒体は、機械読み取り可能な信号媒体又は機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子、磁気、光学、電磁、赤外線、又は半導体システム、装置、又はデバイス、又は前述した内容の任意の適切な組み合わせを含むことができるがこれらに限定されない。機械読み取り可能な記憶媒体のさらなる具体例として、1つ又は複数の配線による電気的接続、ポータブルコンピュータディスクカートリッジ、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバー、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置、又は前述した内容の任意の組み合わせを含む。
ユーザとのインタラクションを提供するために、コンピュータによりここで記載されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニター等)、ユーザが入力をコンピュータに提供するためのキーボード及びポインティングデバイス(例えば、マウス又はトラックボール等)を備えるができる。ユーザとのインタラクションを提供するために、他の種類の装置を使用することもでき、例えば、ユーザに提供するフィードバックは、いかなる形式のセンサーフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック等)であってもよく、また、いかなる形式(例えば、音響入力、音声入力、触覚入力等)によって、ユーザからの入力を受付取るができる。
ここに記載されているシステムと技術を、バックグラウンド部品に含まれる計算システム(例えば、データサーバーとして)、又はミドルウェア部品を含む計算システム(例えば、アプリケーションサーバー)、又はフロント部品を含む計算システム(例えば、GUI又はネットワークブラウザを有するユーザコンピュータが挙げられ、ユーザがGUI又は当該ネットワークブラウザによって、ここに記載されているシステムと技術の実施形態とインタラクションすることができる)、又はこのようなバックグラウンド部品、ミドルウェア部品、又はフロント部品のいかなる組合した計算システムで実施することができる。如何なる形式又はメディアのデジタルデータ通信(例えば、通信ネットワーク)を介して、システムの部品を互いに接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及びインターネットを含む。
コンピュータシステムは、クライアントとサーバーを含み得る。通常、クライアントとサーバーは、互いに離れており、通信ネットワークを介してインタラクションを行うことが一般的である。対応するコンピュータで動作することで、クライアント-サーバーの関係を有するコンピュータプログラムによってクライアントとサーバーの関係を生み出す。サーバーは、クラウドサーバーであってもよく、または分布式システムのサーバーであってもよく、あるいはブロックチェーンを結合したサーバーであってもよい。
上記の様々な態様のフローを使用して、ステップを新たにソート、追加、又は削除することが可能であることを理解すべきである。例えば、本開示で記載された各ステップは、並列に実行しても良いし、順次に実行しても良いし、異なる順序で実行しても良い。本開示で開示された技術案が所望する結果を実現することができる限り、本開示ではこれに限定されない。
上記具体的な実施形態は、本開示の保護範囲に対する限定を構成するものではない。当業者は、設計事項やその他の要因によって、様々な修正、組み合わせ、サブ組み合わせ、及び代替が可能であることを理解するべきである。本開示の要旨及び原理原則内における変更、均等な置換及び改善等は、いずれも本開示の保護範囲に含まれるべきである。
Claims (19)
- 原画像の基本特徴を抽出することと、
前記原画像の基本特徴を利用して、前記原画像における少なくとも1つの車線キーポイントを識別することと、
前記少なくとも1つの車線キーポイントを利用して、前記原画像の基本特徴から局所特徴を抽出し、前記基本特徴と前記局所特徴とを融合することと、
融合後の結果に基づいて、前記原画像における車線を識別することと、を含む、
車線識別方法。 - 前記融合後の結果に基づいて、前記原画像における車線を識別することは、
融合後の結果に基づいて、前記原画像の車線符号化情報を決定することと、
前記車線符号化情報を利用して前記原画像における車線を識別することと、を含み、
ここで、前記原画像の車線符号化情報は、前記原画像における各画素の第1情報を含み、
前記第1情報は、
前記画素が車線キーポイントであるか否かと、
前記画素の隣接する車線キーポイントの数と、
前記画素と前記隣接する車線キーポイントとの位置関係と、
のうちの少なくとも一つを含む、
請求項1に記載の車線識別方法。 - 前記各画素の第1情報は、3次元ベクトルで表され、
前記3次元ベクトルのうちの2つの要素は、前記画素の、前記原画像における位置を表し、前記3次元ベクトルのうちのもう1つの要素は、前記画素の第1情報を表す、
請求項2に記載の車線識別方法。 - 前記画素が車線キーポイントである場合に、前記画素と前記隣接する車線キーポイントとの位置関係は、
前記原画像の座標軸に対する、前記画素と前記隣接する車線キーポイントとの連結線の偏向角度と、
前記画素と前記隣接する車線キーポイントとの連結線の長さと、を含む、
請求項2に記載の車線識別方法。 - 前記車線キーポイントを利用して、前記原画像の基本特徴から局所特徴を抽出することは、
前記車線キーポイントを利用して複数の局所枠を構築することと、
前記複数の局所枠を利用して前記原画像の基本特徴に対し分割し、前記局所特徴を得ることと、を含む、
請求項1に記載の車線識別方法。 - 前記車線キーポイントを利用して複数の局所枠を構築することは、
前記車線キーポイントが各局所枠の右下隅、左下隅、右上隅、及び左上隅に位置するように、前記車線キーポイントを利用して4つの局所枠を構築することを含み、
前記4つの局所枠のサイズは、予め設定された値である、
請求項5に記載の車線識別方法。 - 前記基本特徴は、第1ベクトルで表され、前記局所特徴は、第2ベクトルで表され、
前記基本特徴と前記局所特徴とを融合することは、前記第1ベクトルと前記第2ベクトルとを組み合わせて、第3ベクトルを得ることを含む、
請求項6に記載の車線識別方法。 - 前記原画像の基本特徴を利用して、前記原画像における少なくとも1つの車線キーポイントを識別することは、
前記原画像の基本特徴を利用して、前記原画像の対応するキーポイント分布情報を決定することを含み、ここで、前記キーポイント分布情報は、前記原画像における少なくとも1つの車線キーポイントを表すために用いられ、前記キーポイント分布情報には、各画素の種類が含まれる、
請求項1に記載の車線識別方法。 - 原画像の基本特徴を抽出するためのメインモジュールと、
前記原画像の基本特徴を利用して、前記原画像における少なくとも1つの車線キーポイントを識別するためのキーポイント識別モジュールと、
前記少なくとも1つの車線キーポイントを利用して、前記原画像の基本特徴から局所特徴を抽出し、前記基本特徴と前記局所特徴とを融合するための抽出及び融合モジュールと、
融合後の結果に基づいて、前記原画像における車線を識別するための車線識別モジュールと、を備える、
車線識別装置。 - 前記車線識別モジュールは、
融合後の結果に基づいて、前記原画像の車線符号化情報を決定するための符号化決定サブモジュールと、
前記車線符号化情報を利用して前記原画像における車線を識別するための識別サブモジュールと、を備え、
ここで、前記原画像の車線符号化情報は、前記原画像における各画素の第1情報を含み、
前記第1情報は、
前記画素が車線キーポイントであるか否かと、
前記画素の隣接する車線キーポイントの数と、
前記画素と前記隣接する車線キーポイントとの位置関係と、
のうちの少なくとも一つを含む、
請求項9に記載の車線識別装置。 - 前記各画素の第1情報は、3次元ベクトルで表され、
前記3次元ベクトルのうちの2つの要素は、前記画素の、前記原画像における位置を表し、前記3次元ベクトルのうちのもう1つの要素は、前記画素の第1情報を表す、
請求項10に記載の車線識別装置。 - 前記画素が車線キーポイントである場合に、前記画素と前記隣接する車線キーポイントとの位置関係は、
前記原画像の座標軸に対する、前記画素と前記隣接する車線キーポイントとの連結線の偏向角度と、
前記画素と前記隣接する車線キーポイントとの連結線の長さと、を含む、
請求項10に記載の車線識別装置。 - 前記抽出及び融合モジュールは、
前記車線キーポイントを利用して複数の局所枠を構築し、前記複数の局所枠を利用して前記原画像の基本特徴に対し分割し、前記局所特徴を得るための局所特徴抽出サブモジュール、を備える、
請求項9に記載の車線識別装置。 - 前記局所特徴抽出サブモジュールは、
前記車線キーポイントが各局所枠の右下隅、左下隅、右上隅、及び左上隅に位置するように、前記車線キーポイントを利用して4つの局所枠を構築することに用いられ、
前記4つの局所枠のサイズは、予め設定された値である、
請求項13に記載の車線識別装置。 - 前記基本特徴は、第1ベクトルで表され、前記局所特徴は、第2ベクトルで表され、
前記抽出及び融合モジュールは、前記第1ベクトルと前記第2ベクトルとを組み合わせて、第3ベクトルを得るための融合サブモジュールをさらに備える、
請求項14に記載の車線識別装置。 - 前記キーポイント識別モジュールは、前記原画像の基本特徴を利用して、前記原画像の対応するキーポイント分布情報を決定することに用いられ、ここで、前記キーポイント分布情報は、前記原画像における少なくとも1つの車線キーポイントを表すために用いられ、前記キーポイント分布情報には、各画素の種類が含まれる、
請求項9に記載の車線識別装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されるメモリと、を備え、
前記メモリには、前記少なくとも1つのプロセッサで実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、請求項1から請求項8のいずれか1項に記載の車線識別方法を実行させる、電子デバイス。 - コンピュータに請求項1から請求項8のいずれか1項に記載の車線識別方法を実行させるコンピュータ命令を記憶した非一時的なコンピュータ可読記憶媒体。
- コンピュータにおいて、プロセッサにより実行されると、請求項1から請求項8のいずれか1項に記載の車線識別方法を実現するためのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211036766.6 | 2022-08-29 | ||
CN202211036766.6A CN115147801B (zh) | 2022-08-29 | 2022-08-29 | 车道线识别方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7433496B1 true JP7433496B1 (ja) | 2024-02-19 |
JP2024032640A JP2024032640A (ja) | 2024-03-12 |
Family
ID=83415353
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023050736A Active JP7433496B1 (ja) | 2022-08-29 | 2023-03-28 | 車線識別方法、車線識別装置、電子デバイス、記憶媒体及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240071102A1 (ja) |
EP (1) | EP4332912A1 (ja) |
JP (1) | JP7433496B1 (ja) |
KR (1) | KR20240030966A (ja) |
CN (1) | CN115147801B (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686233A (zh) | 2021-03-22 | 2021-04-20 | 广州赛特智能科技有限公司 | 基于轻量化边缘计算的车道线识别方法及装置 |
CN113468967A (zh) | 2021-06-02 | 2021-10-01 | 北京邮电大学 | 基于注意力机制的车道线检测方法、装置、设备及介质 |
CN114120289A (zh) | 2022-01-25 | 2022-03-01 | 中科视语(北京)科技有限公司 | 一种行车区域与车道线识别方法及系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018204246A1 (de) * | 2018-03-20 | 2019-09-26 | Ford Global Technologies, Llc | Verfahren und Vorrichtung zur fehlertoleranten automatisierten dynamischen Echtzeit-Erkennung eines Fahrspurverlaufs |
US11688155B2 (en) * | 2020-01-06 | 2023-06-27 | Luminar, Llc | Lane detection and tracking techniques for imaging systems |
CN112016532B (zh) * | 2020-10-22 | 2021-02-05 | 腾讯科技(深圳)有限公司 | 一种车辆检测方法和装置 |
CN112819007B (zh) * | 2021-01-07 | 2023-08-01 | 北京百度网讯科技有限公司 | 图像识别方法、装置、电子设备及存储介质 |
CN113313031B (zh) * | 2021-05-31 | 2022-04-22 | 南京航空航天大学 | 一种基于深度学习的车道线检测和车辆横向定位方法 |
-
2022
- 2022-08-29 CN CN202211036766.6A patent/CN115147801B/zh active Active
-
2023
- 2023-01-03 EP EP23150179.2A patent/EP4332912A1/en active Pending
- 2023-01-03 US US18/092,518 patent/US20240071102A1/en active Pending
- 2023-02-20 KR KR1020230022203A patent/KR20240030966A/ko unknown
- 2023-03-28 JP JP2023050736A patent/JP7433496B1/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686233A (zh) | 2021-03-22 | 2021-04-20 | 广州赛特智能科技有限公司 | 基于轻量化边缘计算的车道线识别方法及装置 |
CN113468967A (zh) | 2021-06-02 | 2021-10-01 | 北京邮电大学 | 基于注意力机制的车道线检测方法、装置、设备及介质 |
CN114120289A (zh) | 2022-01-25 | 2022-03-01 | 中科视语(北京)科技有限公司 | 一种行车区域与车道线识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
US20240071102A1 (en) | 2024-02-29 |
CN115147801A (zh) | 2022-10-04 |
CN115147801B (zh) | 2022-12-23 |
EP4332912A1 (en) | 2024-03-06 |
JP2024032640A (ja) | 2024-03-12 |
KR20240030966A (ko) | 2024-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023541532A (ja) | テキスト検出モデルのトレーニング方法及び装置、テキスト検出方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム | |
CN113222916B (zh) | 采用目标检测模型检测图像的方法、装置、设备和介质 | |
JP7384943B2 (ja) | 文字生成モデルのトレーニング方法、文字生成方法、装置、機器及び媒体 | |
EP3876197A2 (en) | Portrait extracting method and apparatus, electronic device and storage medium | |
WO2023273173A1 (zh) | 目标分割的方法、装置及电子设备 | |
EP4174785A1 (en) | Method and apparatus for constructing landform map, electronic device, and readable storage medium | |
EP4120181A2 (en) | Method and apparatus of fusing image, and method of training image fusion model | |
CN113591566A (zh) | 图像识别模型的训练方法、装置、电子设备和存储介质 | |
CN113822232B (zh) | 一种基于金字塔注意力的场景识别方法、训练方法及装置 | |
CN114708374A (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN114283343A (zh) | 基于遥感卫星图像的地图更新方法、训练方法和设备 | |
JP7433496B1 (ja) | 車線識別方法、車線識別装置、電子デバイス、記憶媒体及びプログラム | |
EP4123605A2 (en) | Method of transferring image, and method and apparatus of training image transfer model | |
CN117011658A (zh) | 图像处理方法、装置、设备、存储介质和计算机程序产品 | |
CN116704203A (zh) | 目标检测方法、装置、电子设备、计算机可读存储介质 | |
JP7403673B2 (ja) | モデルトレーニング方法、歩行者再識別方法、装置および電子機器 | |
CN113628349B (zh) | 基于场景内容自适应的ar导航方法、设备及可读存储介质 | |
CN115082298A (zh) | 图像生成方法、装置、电子设备以及存储介质 | |
CN113724269A (zh) | 实例分割方法、实例分割网络的训练方法及相关设备 | |
CN114549825A (zh) | 目标检测方法、装置、电子设备与存储介质 | |
Yuan et al. | Traffic scene depth analysis based on depthwise separable convolutional neural network | |
CN115661449B (zh) | 图像分割与图像分割模型的训练方法、装置 | |
JP7372487B2 (ja) | オブジェクトセグメンテーション方法、オブジェクトセグメンテーション装置及び電子機器 | |
CN116740498B (zh) | 模型预训练方法、模型训练方法、对象处理方法及装置 | |
CN117808680A (zh) | 图像处理方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7433496 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |