JP2022513781A - ターゲット属性検出、ニューラルネットワークトレーニング及びインテリジェント走行方法、装置 - Google Patents
ターゲット属性検出、ニューラルネットワークトレーニング及びインテリジェント走行方法、装置 Download PDFInfo
- Publication number
- JP2022513781A JP2022513781A JP2021533200A JP2021533200A JP2022513781A JP 2022513781 A JP2022513781 A JP 2022513781A JP 2021533200 A JP2021533200 A JP 2021533200A JP 2021533200 A JP2021533200 A JP 2021533200A JP 2022513781 A JP2022513781 A JP 2022513781A
- Authority
- JP
- Japan
- Prior art keywords
- target
- image
- attribute
- lane
- road
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 135
- 238000001514 detection method Methods 0.000 title claims abstract description 76
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 65
- 238000012549 training Methods 0.000 title claims abstract description 39
- 238000012545 processing Methods 0.000 claims abstract description 79
- 230000011218 segmentation Effects 0.000 claims abstract description 35
- 238000004590 computer program Methods 0.000 claims abstract description 20
- 238000000605 extraction Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 230000003746 surface roughness Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 1
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本出願は、出願番号が201911081216.4であり、出願日が2019年11月7日である中国特許出願に基づいて提出され、当該中国特許出願の優先権を主張し、当該中国特許出願の全内容は、参照により本出願に組み込まれる。
処理対象画像に対してセマンティックセグメンテーションを行い、前記処理対象画像のマスク画像を確定するステップであって、前記マスク画像が前記処理対象画像内のターゲットの位置を表すステップと、
前記マスク画像に基づき、前記処理対象画像の属性特徴マップ内の前記ターゲットに属する属性特徴を確定するステップであって、前記処理対象画像の属性特徴マップが前記処理対象画像の属性を表すステップと、
前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するステップとを含む。
サンプル画像のラベリングされたマスク画像に基づき、前記サンプル画像の属性特徴マップ内のターゲットに属する属性特徴を確定するステップであって、前記ラベリングされたマスク画像が前記サンプル画像における前記ターゲットの位置を表し、前記サンプル画像の属性特徴マップが前記サンプル画像の属性を表すステップと、
前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するステップと、
確定された前記ターゲットの属性と前記ターゲットのラベリングされた属性の間の差異、及び前記ラベリングされたマスク画像と前記サンプル画像に対してセマンティックセグメンテーションを行った後に確定された前記サンプル画像のマスク画像の間の差異に基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整するステップとを含む。
上記の任意のターゲット属性検出方法により、インテリジェント走行デバイスで取得された道路画像内の車線属性を検出するステップと、
検出された車線属性に基づいて、前記道路画像に対応する道路において走行するようにインテリジェント走行デバイスに指示するステップとを含む。
処理対象画像に対してセマンティックセグメンテーションを行い、前記処理対象画像のマスク画像を確定するように構成され、前記マスク画像が前記処理対象画像内のターゲットの位置を表す第1の処理モジュールと、
前記マスク画像に基づき、前記処理対象画像の属性特徴マップ内の前記ターゲットに属する属性特徴を確定するように構成され、前記処理対象画像の属性特徴マップが前記処理対象画像の属性を表す第2の処理モジュールと、
前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するように構成される第3の処理モジュールとを備える。
サンプル画像のラベリングされたマスク画像に基づき、前記サンプル画像の属性特徴マップ内のターゲットに属する属性特徴を確定するように構成され、前記ラベリングされたマスク画像が前記サンプル画像における前記ターゲットの位置を表し、前記サンプル画像の属性特徴マップが前記サンプル画像の属性を表す第四の処理モジュールと、
前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するように構成される第5の処理モジュールと、
確定された前記ターゲットの属性と前記ターゲットのラベリングされた属性の間の差異、及び前記ラベリングされたマスク画像と前記サンプル画像に対してセマンティックセグメンテーションを行った後に確定された前記サンプル画像のマスク画像の間の差異に基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整するように構成される調整モジュールとを備える。
上記の任意のターゲット属性検出方法により、インテリジェント走行デバイスで取得された道路画像内の車線属性を検出するように構成される検出モジュールと、
検出された車線属性に基づいて、前記道路画像に対応する道路において走行するようにインテリジェント走行デバイスに指示するように構成される指示モジュールとを備える。
前記コンピュータプログラムを動作させるとき、上記の任意のターゲット属性検出方法又は上記の任意のニューラルネットワークトレーニング方法又は上記の任意のインテリジェント走行方法を実行するように構成されるプロセッサと、
プロセッサで動作できるコンピュータプログラムを記憶するように構成されるメモリとを備える。
Pが予め設定された長さを表す。
処理対象画像に対してセマンティックセグメンテーションを行い、前記処理対象画像のマスク画像を確定するように構成され、前記マスク画像が前記処理対象画像内のターゲットの位置を表す第1の処理モジュール501と、
前記マスク画像に基づき、前記処理対象画像の属性特徴マップ内の前記ターゲットに属する属性特徴を確定するように構成され、前記処理対象画像の属性特徴マップが前記処理対象画像の属性を表す第2の処理モジュール502と、
前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するように構成される第3の処理モジュール503とを備える。
前記第1の処理モジュール501は、前記道路画像に対して特徴抽出を行い、前記道路画像の領域特徴マップ及び前記道路画像の属性特徴マップを確定し、前記道路画像の領域特徴マップに基づき、前記道路画像内の車線のマスク画像を確定するように構成され、
前記第2の処理モジュール502は、前記道路画像内の車線のマスク画像に基づき、前記道路画像の属性特徴マップ内の車線に属する属性特徴を確定するように構成され、
前記第3の処理モジュール503は、前記車線の属性特徴に基づいて、前記車線の属性を確定するように構成される。
サンプル画像のラベリングされたマスク画像に基づき、前記サンプル画像の属性特徴マップ内のターゲットに属する属性特徴を確定するように構成され、前記ラベリングされたマスク画像が前記サンプル画像における前記ターゲットの位置を表し、前記サンプル画像の属性特徴マップが前記サンプル画像の属性を表す第四の処理モジュール601と、
前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するように構成される第5の処理モジュール602と、
確定された前記ターゲットの属性と前記ターゲットのラベリングされた属性の間の差異、及び前記ラベリングされたマスク画像と前記サンプル画像に対してセマンティックセグメンテーションを行った後に確定された前記サンプル画像のマスク画像の間の差異に基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整するように構成される調整モジュール603とを備える。
前記第4の処理モジュール601は、前記道路サンプル画像のラベリングされたマスク画像に基づき、前記道路サンプル画像の属性特徴マップ内の前記車線に属する属性特徴を確定するように構成され、前記道路サンプル画像のラベリングされたマスク画像が前記道路サンプル画像における前記車線の位置を表す。
前記調整モジュール603は、確定された前記車線の属性と前記車線のラベリングされた属性の間の差異、及び前記道路サンプル画像のラベリングされたマスク画像と前記道路サンプル画像の領域特徴マップに基づいて確定された前記車線のマスク画像の間の差異に基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整するように構成される。
前記ターゲット属性検出方法が車線属性検出方法であり、かつ前記処理対象画像が道路画像であり、ターゲットが車線である場合、上記の任意のターゲット属性検出方法により、インテリジェント走行デバイスで取得された道路画像内の車線属性を検出するように構成される検出モジュール701と、
検出された車線属性に基づいて、前記道路画像に対応する道路において走行するようにインテリジェント走行デバイスに指示するように構成される指示モジュール702とを備える。
コンピュータプログラム及びデータを記憶するように構成されるメモリ81と、
前記メモリに記憶されたコンピュータプログラムを実行して、上記の実施例の任意のターゲット属性検出方法又は上記の任意のニューラルネットワークトレーニング方法又は上記の任意のインテリジェント走行方法を実現するように構成されるプロセッサ82とを備えることができる。
本出願の実施例は、ターゲット属性検出方法、ニューラルネットワークトレーニング方法及びインテリジェント走行方法、装置、電子デバイス、コンピュータ記憶媒体及びコンピュータプログラムを提供する。当該ターゲット属性検出方法は、処理対象画像に対してセマンティックセグメンテーションを行い、前記処理対象画像のマスク画像を確定するステップであって、前記マスク画像が前記処理対象画像内のターゲットの位置を表すステップと、前記マスク画像に基づき、前記処理対象画像の属性特徴マップ内の前記ターゲットに属する属性特徴を確定するステップであって、前記処理対象画像の属性特徴マップが前記処理対象画像の属性を表すステップと、前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するステップとを含む。このように、本出願の実施例では、画像内のターゲットの所在する領域を抽出する必要がないので、セマンティックセグメンテーションにより得られたより識別性のあるマスク画像でターゲットの属性特徴を確定することができ、したがって、ターゲット属性の検出の精度を向上させることができる。
Claims (21)
- ターゲット属性検出方法であって、
処理対象画像に対してセマンティックセグメンテーションを行い、前記処理対象画像のマスク画像を確定するステップであって、前記マスク画像が前記処理対象画像内のターゲットの位置を表すステップと、
前記マスク画像に基づき、前記処理対象画像の属性特徴マップ内の前記ターゲットに属する属性特徴を確定するステップであって、前記処理対象画像の属性特徴マップが前記処理対象画像の属性を表すステップと、
前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するステップと、を含む、ターゲット属性検出方法。 - 前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するステップは、
前記ターゲットの属性特徴を予め設定された長さの特徴に変換するステップと、
変換後の予め設定された長さの前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するステップと、を含むことを特徴とする
請求項1に記載の方法。 - 前記ターゲットの属性特徴を予め設定された長さの特徴に変換するステップは、
前記ターゲットの属性特徴に対応する点をk個分に分割するステップと、
1個分毎における点の対応する前記ターゲットの属性特徴の平均値を計算し、k個の平均値を得るステップと、
上記のステップをn回繰り返して実行し、かつ任意の2回の実行プロセスにおけるkの値が異なり、かつkがターゲットの属性特徴に対応する点の可能な最大数未満であり、nが1よりも大きい整数であるステップと、
取得された平均値を用いて前記予め設定された長さの特徴を構成するステップとを含むことを特徴とする
請求項2に記載の方法。 - 前記ターゲット属性検出方法は車線属性検出方法であり、前記処理対象画像は道路画像であり、
処理対象画像に対してセマンティックセグメンテーションを行い、前記処理対象画像のマスク画像を確定するステップは、
前記道路画像に対して特徴抽出を行い、前記道路画像の領域特徴マップ及び前記道路画像の属性特徴マップを確定するステップと、
前記道路画像の領域特徴マップに基づき、前記道路画像内の車線のマスク画像を確定するステップとを含み、
前記マスク画像に基づき、前記処理対象画像の属性特徴マップ内の前記ターゲットに属する属性特徴を確定するステップは、
前記道路画像内の車線のマスク画像に基づき、前記道路画像の属性特徴マップ内の車線に属する属性特徴を確定するステップを含み、
前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するステップは、
前記車線の属性特徴に基づいて、前記車線の属性を確定するステップを含むことを特徴とする
請求項1-3のいずれか一項に記載の方法。 - 前記車線の属性が確定された後、前記方法は、さらに、
前記道路画像、確定された前記道路画像内の車線のマスク画像及び確定された前記車線の属性に基づいて、前記道路画像内の車線を確定するステップを含むことを特徴とする
請求項4に記載の方法。 - 前記ターゲット属性検出方法は、ニューラルネットワークによって実行され、前記ニューラルネットワークは、サンプル画像、前記サンプル画像のラベリングされたマスク画像及び前記サンプル画像のターゲットのラベリングされた属性によってトレーニングして得られたものであることを特徴とする
請求項1-5のいずれか一項に記載の方法。 - ニューラルネットワークトレーニング方法であって、
サンプル画像のラベリングされたマスク画像に基づき、前記サンプル画像の属性特徴マップ内のターゲットに属する属性特徴を確定するステップであって、前記ラベリングされたマスク画像が前記サンプル画像における前記ターゲットの位置を表し、前記サンプル画像の属性特徴マップが前記サンプル画像の属性を表すステップと、
前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するステップと、
確定された前記ターゲットの属性と前記ターゲットのラベリングされた属性の間の差異、及び前記ラベリングされたマスク画像と前記サンプル画像に対してセマンティックセグメンテーションを行った後に確定された前記サンプル画像のマスク画像の間の差異に基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整するステップとを含む、ニューラルネットワークトレーニング方法。 - 前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するステップは、
前記ターゲットの属性特徴を予め設定された長さの特徴に変換するステップと、
変換後の予め設定された長さの前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するステップとを含むことを特徴とする
請求項7に記載の方法。 - 前記ターゲットの属性特徴を予め設定された長さの特徴に変換するステップは、
前記ターゲットの属性特徴に対応する点をk個分に分割するステップと、
1個分毎における点の対応する前記ターゲットの属性特徴の平均値を計算し、k個の平均値を得るステップと、
上記のステップをn回繰り返して実行し、かつ任意の2回の実行プロセスにおけるkの値が異なり、かつkがターゲットの属性特徴に対応する点の可能な最大数未満であり、nが1よりも大きい整数であるステップと、
取得された平均値を用いて前記予め設定された長さの特徴を構成するステップとを含むことを特徴とする
請求項8に記載の方法。 - 前記ニューラルネットワークは車線属性の検出に用いられ、前記サンプル画像は道路サンプル画像であり、前記ターゲットは車線であり、
サンプル画像のラベリングされたマスク画像に基づき、前記サンプル画像の属性特徴マップ内のターゲットに属する属性特徴を確定するステップは、
前記道路サンプル画像のラベリングされたマスク画像に基づき、前記道路サンプル画像の属性特徴マップ内の前記車線に属する属性特徴を確定するステップであって、前記道路サンプル画像のラベリングされたマスク画像が前記道路サンプル画像における前記車線の位置を表すステップを含み、
前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するステップは、
前記車線の属性特徴に基づいて、前記車線の属性を確定するステップを含み、
確定された前記ターゲットの属性と前記ターゲットのラベリングされた属性の間の差異、及び前記ラベリングされたマスク画像と前記サンプル画像に対してセマンティックセグメンテーションを行った後に確定された前記サンプル画像のマスク画像の間の差異に基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整するステップは、
確定された前記車線の属性と前記車線のラベリングされた属性の間の差異、及び前記道路サンプル画像のラベリングされたマスク画像と前記道路サンプル画像の領域特徴マップに基づいて確定された前記車線のマスク画像の間の差異に基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整するステップとを含むことを特徴とする
請求項7-9のいずれか一項に記載の方法。 - インテリジェント走行方法であって、
請求項4-6のいずれか一項に記載の方法により、インテリジェント走行デバイスで取得された道路画像内の車線属性を検出するステップと、
検出された車線属性に基づいて、前記道路画像に対応する道路において走行するようにインテリジェント走行デバイスに指示するステップとを含む、インテリジェント走行方法。 - ターゲット属性検出装置であって、
処理対象画像に対してセマンティックセグメンテーションを行い、前記処理対象画像のマスク画像を確定するように構成され、前記マスク画像が前記処理対象画像内のターゲットの位置を表す第1の処理モジュールと、
前記マスク画像に基づき、前記処理対象画像の属性特徴マップ内の前記ターゲットに属する属性特徴を確定するように構成され、前記処理対象画像の属性特徴マップが前記処理対象画像の属性を表す第2の処理モジュールと、
前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するように構成される第3の処理モジュールと、を備える、ターゲット属性検出装置。 - 前記第3の処理モジュールは、前記ターゲットの属性特徴を予め設定された長さの特徴に変換し、変換後の予め設定された長さの前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するように構成されることを特徴とする
請求項12に記載の装置。 - 前記第3の処理モジュールは、前記ターゲットの属性特徴を予め設定された長さの特徴に変換する場合において、
前記ターゲットの属性特徴に対応する点をk個分に分割し、1個分毎における点の対応する前記ターゲットの属性特徴の平均値を計算し、k個の平均値を得、上記のステップをn回繰り返して実行し、かつ任意の2回の実行プロセスにおけるkの値が異なり、かつkがターゲットの属性特徴に対応する点の可能な最大数未満であり、nが1よりも大きい整数であり、取得された平均値を用いて前記予め設定された長さの特徴を構成するように構成されることを特徴とする
請求項13に記載の装置。 - 前記ターゲット属性検出装置は車線属性検出装置であり、前記処理対象画像は道路画像であり、
前記第1の処理モジュールは、前記道路画像に対して特徴抽出を行い、前記道路画像の領域特徴マップ及び前記道路画像の属性特徴マップを確定し、前記道路画像の領域特徴マップに基づき、前記道路画像内の車線のマスク画像を確定するように構成され、
前記第2の処理モジュールは、前記道路画像内の車線のマスク画像に基づき、前記道路画像の属性特徴マップ内の車線に属する属性特徴を確定するように構成され、
前記第3の処理モジュールは、前記車線の属性特徴に基づいて、前記車線の属性を確定するように構成されることを特徴とする
請求項12-14のいずれかの一項に記載の装置。 - 前記第3の処理モジュールは、さらに前記車線の属性が確定された後、前記道路画像、確定された前記道路画像内の車線のマスク画像及び確定された前記車線の属性に基づいて、前記道路画像内の車線を確定するように構成されることを特徴とする
請求項15に記載の装置。 - ニューラルネットワークトレーニング装置であって、
サンプル画像のラベリングされたマスク画像に基づき、前記サンプル画像の属性特徴マップ内のターゲットに属する属性特徴を確定するように構成され、前記ラベリングされたマスク画像が前記サンプル画像における前記ターゲットの位置を表し、前記サンプル画像の属性特徴マップが前記サンプル画像の属性を表す第4の処理モジュールと、
前記ターゲットの属性特徴に基づいて、前記ターゲットの属性を確定するように構成される第5の処理モジュールと、
確定された前記ターゲットの属性と前記ターゲットのラベリングされた属性の間の差異、及び前記ラベリングされたマスク画像と前記サンプル画像に対してセマンティックセグメンテーションを行った後に確定された前記サンプル画像のマスク画像の間の差異に基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整するように構成される調整モジュールとを備える、ニューラルネットワークトレーニング装置。 - インテリジェント走行装置であって、
請求項4-6のいずれか一項に記載の方法により、インテリジェント走行デバイスで取得された道路画像内の車線属性を検出するように構成される検出モジュールと、
検出された車線属性に基づいて、前記道路画像に対応する道路において走行するようにインテリジェント走行デバイスに指示するように構成される指示モジュールと、を備える、インテリジェント走行装置。 - 電子デバイスであって、
前記コンピュータプログラムを動作させるとき、請求項1-6のいずれか一項に記載のターゲット属性検出方法又は請求項7-10のいずれか一項に記載のニューラルネットワークトレーニング方法又は請求項11に記載のインテリジェント走行方法を実行するように構成されるプロセッサと、
前記プロセッサで動作できるコンピュータプログラムを記憶するように構成されるメモリと、を備える、電子デバイス。 - コンピュータプログラムを記憶しているコンピュータ記憶媒体であって、
当該コンピュータプログラムがプロセッサによって実行されるとき、請求項1-6のいずれか一項に記載のターゲット属性検出方法又は請求項7-10のいずれか一項に記載のニューラルネットワークトレーニング方法又は請求項11に記載のインテリジェント走行方法が実現される、コンピュータ記憶媒体。 - コンピュータで読み取り可能なコードを含むコンピュータプログラムであって、
前記コンピュータで読み取り可能なコードが電子デバイスで実行される場合、前記電子デバイスでのプロセッサは、請求項1-6のいずれか一項に記載のターゲット属性検出方法又は請求項7-10のいずれか一項に記載のニューラルネットワークトレーニング方法又は請求項11に記載のインテリジェント走行方法を実行する、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911081216.4 | 2019-11-07 | ||
CN201911081216.4A CN112785595B (zh) | 2019-11-07 | 2019-11-07 | 目标属性检测、神经网络训练及智能行驶方法、装置 |
PCT/CN2020/114109 WO2021088505A1 (zh) | 2019-11-07 | 2020-09-08 | 目标属性检测、神经网络训练及智能行驶方法、装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022513781A true JP2022513781A (ja) | 2022-02-09 |
Family
ID=75747824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021533200A Pending JP2022513781A (ja) | 2019-11-07 | 2020-09-08 | ターゲット属性検出、ニューラルネットワークトレーニング及びインテリジェント走行方法、装置 |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2022513781A (ja) |
KR (1) | KR20210087496A (ja) |
CN (1) | CN112785595B (ja) |
WO (1) | WO2021088505A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023146286A1 (ko) * | 2022-01-28 | 2023-08-03 | 삼성전자 주식회사 | 이미지의 화질을 개선하기 위한 전자 장치 및 방법 |
CN115661556B (zh) * | 2022-10-20 | 2024-04-12 | 南京领行科技股份有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001092970A (ja) * | 1999-09-22 | 2001-04-06 | Fuji Heavy Ind Ltd | 車線認識装置 |
JP2006018688A (ja) * | 2004-07-02 | 2006-01-19 | Toyota Motor Corp | 道路環境認識方法及び道路環境認識装置 |
JP2011150689A (ja) * | 2009-12-25 | 2011-08-04 | Ricoh Co Ltd | 撮像装置、車載用撮像システム、路面外観認識方法及び物体識別装置 |
JP2016206721A (ja) * | 2015-04-15 | 2016-12-08 | 日産自動車株式会社 | 路面標示検出装置及び路面標示検出方法 |
JP2017533482A (ja) * | 2015-09-10 | 2017-11-09 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 車線データの処理方法、装置、記憶媒体及び機器 |
JP2018195097A (ja) * | 2017-05-18 | 2018-12-06 | 株式会社デンソーアイティーラボラトリ | 認識システム、共通特徴量抽出ユニット、及び認識システム構成方法 |
JP2019139762A (ja) * | 2018-02-12 | 2019-08-22 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 車両走行のための情報を提供する方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105718870B (zh) * | 2016-01-15 | 2019-06-14 | 武汉光庭科技有限公司 | 自动驾驶中基于前向摄像头的道路标线提取方法 |
CN105956122A (zh) * | 2016-05-03 | 2016-09-21 | 无锡雅座在线科技发展有限公司 | 对象属性的确定方法和装置 |
US10679351B2 (en) * | 2017-08-18 | 2020-06-09 | Samsung Electronics Co., Ltd. | System and method for semantic segmentation of images |
CN107729880A (zh) * | 2017-11-15 | 2018-02-23 | 北京小米移动软件有限公司 | 人脸检测方法及装置 |
CN108229386B (zh) * | 2017-12-29 | 2021-12-14 | 百度在线网络技术(北京)有限公司 | 用于检测车道线的方法、装置和介质 |
US10671855B2 (en) * | 2018-04-10 | 2020-06-02 | Adobe Inc. | Video object segmentation by reference-guided mask propagation |
CN108764137A (zh) * | 2018-05-29 | 2018-11-06 | 福州大学 | 基于语义分割的车辆行驶车道定位方法 |
CN110163069B (zh) * | 2019-01-04 | 2023-09-08 | 深圳市布谷鸟科技有限公司 | 用于辅助驾驶的车道线检测方法 |
CN110414428A (zh) * | 2019-07-26 | 2019-11-05 | 厦门美图之家科技有限公司 | 一种生成人脸属性信息识别模型的方法 |
-
2019
- 2019-11-07 CN CN201911081216.4A patent/CN112785595B/zh active Active
-
2020
- 2020-09-08 JP JP2021533200A patent/JP2022513781A/ja active Pending
- 2020-09-08 KR KR1020217016723A patent/KR20210087496A/ko not_active Application Discontinuation
- 2020-09-08 WO PCT/CN2020/114109 patent/WO2021088505A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001092970A (ja) * | 1999-09-22 | 2001-04-06 | Fuji Heavy Ind Ltd | 車線認識装置 |
JP2006018688A (ja) * | 2004-07-02 | 2006-01-19 | Toyota Motor Corp | 道路環境認識方法及び道路環境認識装置 |
JP2011150689A (ja) * | 2009-12-25 | 2011-08-04 | Ricoh Co Ltd | 撮像装置、車載用撮像システム、路面外観認識方法及び物体識別装置 |
JP2016206721A (ja) * | 2015-04-15 | 2016-12-08 | 日産自動車株式会社 | 路面標示検出装置及び路面標示検出方法 |
JP2017533482A (ja) * | 2015-09-10 | 2017-11-09 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 車線データの処理方法、装置、記憶媒体及び機器 |
JP2018195097A (ja) * | 2017-05-18 | 2018-12-06 | 株式会社デンソーアイティーラボラトリ | 認識システム、共通特徴量抽出ユニット、及び認識システム構成方法 |
JP2019139762A (ja) * | 2018-02-12 | 2019-08-22 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 車両走行のための情報を提供する方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20210087496A (ko) | 2021-07-12 |
WO2021088505A1 (zh) | 2021-05-14 |
CN112785595B (zh) | 2023-02-28 |
CN112785595A (zh) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108564874B (zh) | 地面标志提取的方法、模型训练的方法、设备及存储介质 | |
CN108038474B (zh) | 人脸检测方法、卷积神经网络参数的训练方法、装置及介质 | |
US10769473B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
KR102206834B1 (ko) | 도로정보 변화 감지 방법 및 시스템 | |
CN111222395A (zh) | 目标检测方法、装置与电子设备 | |
US11295144B2 (en) | Obstacle classification method and apparatus based on unmanned vehicle, device, and storage medium | |
US20120294476A1 (en) | Salient Object Detection by Composition | |
CN112541395A (zh) | 一种目标检测和跟踪方法、装置、存储介质及电子装置 | |
KR102207408B1 (ko) | 이미지 처리를 위한 방법, 장치 및 컴퓨터 판독 가능한 매체 | |
JP2022513781A (ja) | ターゲット属性検出、ニューラルネットワークトレーニング及びインテリジェント走行方法、装置 | |
WO2023116113A1 (zh) | 交通灯状态检测方法、装置、车辆及存储介质 | |
JP2018180945A (ja) | 物体検出装置及びプログラム | |
JP7119197B2 (ja) | 車線属性検出 | |
CN112699711B (zh) | 车道线检测方法、装置、存储介质及电子设备 | |
WO2023273467A1 (zh) | 真值数据确定、神经网络训练、行驶控制方法及装置 | |
CN113012215A (zh) | 一种空间定位的方法、系统及设备 | |
CN114495041A (zh) | 车辆与目标物之间距离的测量方法、装置、设备及介质 | |
WO2021095463A1 (ja) | 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット | |
Acun et al. | D3NET (divide and detect drivable area net): deep learning based drivable area detection and its embedded application | |
JP2017174380A (ja) | 認識装置、物体の認識方法、プログラム、及び、記憶媒体 | |
US20220164584A1 (en) | Method and system for detecting lane pattern | |
JP2011043995A (ja) | 路面標示認識装置 | |
JP2011081614A (ja) | 認識装置、認識方法及びプログラム | |
US11113549B2 (en) | Method and device for analyzing an image and providing the analysis for a driving assistance system of a vehicle | |
KR102384177B1 (ko) | 전방위 화상정보 기반의 자동위상 매핑 처리 방법 및 그 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210610 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210610 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230711 |