JP6817384B2 - 自動運転車両の視覚感知方法、自動運転車両の視覚感知装置、制御機器及びコンピュータ読み取り可能な記憶媒体 - Google Patents
自動運転車両の視覚感知方法、自動運転車両の視覚感知装置、制御機器及びコンピュータ読み取り可能な記憶媒体 Download PDFInfo
- Publication number
- JP6817384B2 JP6817384B2 JP2019134756A JP2019134756A JP6817384B2 JP 6817384 B2 JP6817384 B2 JP 6817384B2 JP 2019134756 A JP2019134756 A JP 2019134756A JP 2019134756 A JP2019134756 A JP 2019134756A JP 6817384 B2 JP6817384 B2 JP 6817384B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- network model
- target
- driving vehicle
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims description 91
- 238000000034 method Methods 0.000 title claims description 42
- 238000003062 neural network model Methods 0.000 claims description 208
- 238000012549 training Methods 0.000 claims description 64
- 239000000523 sample Substances 0.000 description 49
- 230000035945 sensitivity Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 206010039203 Road traffic accident Diseases 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000016776 visual perception Effects 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
- B60Q9/002—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle
- B60Q9/004—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors
- B60Q9/005—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors using a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
Claims (16)
- 自動運転車両が収集した第1視覚感知画像を取得することと、
前記第1視覚感知画像を第1ニューラルネットワークモデルに入力し、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報を識別し、それによって前記第1視覚感知画像における余剰特徴情報を取り除くことと、
前記少なくとも1つの認識すべきターゲット識別対象のそれぞれのマルチチャンネル特徴情報をそれぞれ第2ニューラルネットワークモデルにおける複数のサブニューラルネットワークモデルにおける対応するサブニューラルネットワークモデルに入力し、少なくとも1つのターゲット識別対象を得ることと、を含み、
前記複数のサブニューラルネットワークモデルは、それぞれ一類別のターゲット識別対象に対応することを特徴とする自動運転車両の視覚感知方法。 - 前記第1ニューラルネットワークモデルを取得することを更に含むことを特徴とする請求項1に記載の自動運転車両の視覚感知方法。
- 前記第1ニューラルネットワークモデルを取得することは、
第2視覚感知画像及び少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、第1プリセットニューラルネットワークモデルをトレーニングして前記第1ニューラルネットワークモデルを生成することを含み、
前記第2視覚感知画像には、前記少なくとも1つのトレーニングサンプル対象が含まれていることを特徴とする請求項2に記載の自動運転車両の視覚感知方法。 - 前記第2ニューラルネットワークモデルを取得することを更に含むことを特徴とする請求項1−3のいずれか1項に記載の自動運転車両の視覚感知方法。
- 前記第2ニューラルネットワークモデルを取得することは、
少なくとも1つのトレーニングサンプル対象及び前記少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、それぞれ第2プリセットニューラルネットワークモデルにおける複数のサブプリセットニューラルネットワークモデルをトレーニングし、前記第2ニューラルネットワークモデルを生成することを含み、
前記複数のサブプリセットニューラルネットワークモデルは、それぞれ一類別のトレーニングサンプル対象に対応することを特徴とする請求項4に記載の自動運転車両の視覚感知方法。 - 前記自動運転車両が収集した第1視覚感知画像を取得することは、
前記自動運転車両に設置された画像収集装置が収集した前記第1視覚感知画像を取得することを含むことを特徴とする請求項1−3のいずれか1項に記載の自動運転車両の視覚感知方法。 - 前記ターゲット識別対象は、ターゲット物体及びターゲットエリアのうち、少なくとも1つを含むことを特徴とする請求項1−3のいずれか1項に記載の自動運転車両の視覚感知方法。
- 自動運転車両が収集した第1視覚感知画像を取得するために用いられる第1取得モジュールと、
前記第1視覚感知画像を第1ニューラルネットワークモデルに入力し、少なくとも1つの認識すべきターゲット識別対象のマルチチャンネル特徴情報を識別し、前記第1視覚感知画像における余剰特徴情報を取り除くために用いられる識別モジュールと、
前記少なくとも1つの認識すべきターゲット識別対象のそれぞれのマルチチャンネル特徴情報をそれぞれ第2ニューラルネットワークモデルにおける複数のサブニューラルネットワークモデルにおける対応するサブニューラルネットワークモデルに入力し、少なくとも1つのターゲット識別対象を得るために用いられる確定モジュールと、を含み、
前記複数のサブニューラルネットワークモデルは、それぞれ一類別のターゲット識別対象に対応することを特徴とする自動運転車両の視覚感知装置。 - 前記第1ニューラルネットワークモデルを取得するために用いられる第2取得モジュールを更に含むことを特徴とする請求項8に記載の自動運転車両の視覚感知装置。
- 前記第2取得モジュールは、
第2視覚感知画像及び少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、第1プリセットニューラルネットワークモデルをトレーニングして前記第1ニューラルネットワークモデルを生成するために用いられ、
前記第2視覚感知画像には、前記少なくとも1つのトレーニングサンプル対象が含まれていることを特徴とする請求項9に記載の自動運転車両の視覚感知装置。 - 前記第2ニューラルネットワークモデルを取得するために用いられる第3取得モジュールを更に含むことを特徴とする請求項8−10のいずれか1項に記載の自動運転車両の視覚感知装置。
- 前記第3取得モジュールは、
少なくとも1つのトレーニングサンプル対象及び前記少なくとも1つのトレーニングサンプル対象のマルチチャンネル特徴情報に基づき、それぞれ第2プリセットニューラルネットワークモデルにおける複数のサブプリセットニューラルネットワークモデルをトレーニングして前記第2ニューラルネットワークモデルを生成するために用いられ、
前記複数のサブプリセットニューラルネットワークモデルは、それぞれ一類別のトレーニングサンプル対象に対応することを特徴とする請求項11に記載の自動運転車両の視覚感知装置。 - 前記第1取得モジュールは、
前記自動運転車両における画像収集装置が収集した前記第1視覚感知画像を取得するために用いられることを特徴とする請求項8−10のいずれか1項に記載の自動運転車両に基づく視覚感知装置。 - 前記ターゲット識別対象は、ターゲット物体及びターゲットエリアのうち、少なくとも1つを含むことを特徴とする請求項8−10のいずれか1項に記載の自動運転車両の視覚感知装置。
- メモリ及びプロセッサを含む制御機器であって、
前記メモリは、コンピュータコマンドを記憶するために用いられ、
前記プロセッサは、前記メモリに記憶された前記コンピュータコマンドを実行して請求項1−7のいずれか1項に記載の自動運転車両の視覚感知方法を実現するために用いられることを特徴とする制御機器。 - コンピュータコマンドが記憶されたコンピュータ読み取り可能な記憶媒体であって、前記コンピュータコマンドは、請求項1−7のいずれか1項に記載の自動運転車両の視覚感知方法を実現するために用いられることを特徴とするコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811055289.1A CN109376594A (zh) | 2018-09-11 | 2018-09-11 | 基于自动驾驶车辆的视觉感知方法、装置、设备以及介质 |
CN201811055289.1 | 2018-09-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020042794A JP2020042794A (ja) | 2020-03-19 |
JP6817384B2 true JP6817384B2 (ja) | 2021-01-20 |
Family
ID=65405526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019134756A Active JP6817384B2 (ja) | 2018-09-11 | 2019-07-22 | 自動運転車両の視覚感知方法、自動運転車両の視覚感知装置、制御機器及びコンピュータ読み取り可能な記憶媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11120275B2 (ja) |
EP (1) | EP3579144A3 (ja) |
JP (1) | JP6817384B2 (ja) |
CN (1) | CN109376594A (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10846593B2 (en) * | 2018-04-27 | 2020-11-24 | Qualcomm Technologies Inc. | System and method for siamese instance search tracker with a recurrent neural network |
CN111923919B (zh) * | 2019-05-13 | 2021-11-23 | 广州汽车集团股份有限公司 | 车辆控制方法、装置、计算机设备和存储介质 |
US11120566B2 (en) * | 2019-06-28 | 2021-09-14 | Baidu Usa Llc | Determining vanishing points based on feature maps |
CN110406530B (zh) * | 2019-07-02 | 2020-12-01 | 宁波吉利汽车研究开发有限公司 | 一种自动驾驶方法、装置、设备和车辆 |
US11182652B2 (en) | 2019-08-16 | 2021-11-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Methods and system for inferring perception based on augmented feature maps of a perception network |
EP3806065A1 (en) | 2019-10-11 | 2021-04-14 | Aptiv Technologies Limited | Method and system for determining an attribute of an object at a pre-determined time point |
CN111428859A (zh) * | 2020-03-05 | 2020-07-17 | 北京三快在线科技有限公司 | 自动驾驶场景的深度估计网络训练方法、装置和自主车辆 |
CN111768333B (zh) * | 2020-05-29 | 2024-10-18 | 北京沃东天骏信息技术有限公司 | 标识去除方法、装置、设备及存储介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105809704B (zh) * | 2016-03-30 | 2019-03-15 | 北京小米移动软件有限公司 | 识别图像清晰度的方法及装置 |
US10943148B2 (en) | 2016-12-02 | 2021-03-09 | Apple Inc. | Inspection neural network for assessing neural network reliability |
WO2018102918A1 (en) | 2016-12-05 | 2018-06-14 | Avigilon Corporation | System and method for cnn layer sharing |
CN106778867B (zh) * | 2016-12-15 | 2020-07-07 | 北京旷视科技有限公司 | 目标检测方法和装置、神经网络训练方法和装置 |
CN108241829A (zh) * | 2016-12-23 | 2018-07-03 | 乐视汽车(北京)有限公司 | 车辆行驶图像识别方法 |
CN108230421A (zh) * | 2017-09-19 | 2018-06-29 | 北京市商汤科技开发有限公司 | 一种道路图生成方法、装置、电子设备和计算机存储介质 |
KR102610820B1 (ko) * | 2017-09-27 | 2023-12-06 | 삼성전자주식회사 | 뉴럴 네트워크 시스템 및 뉴럴 네트워크 시스템의 동작방법 |
CN108230358A (zh) * | 2017-10-27 | 2018-06-29 | 北京市商汤科技开发有限公司 | 目标跟踪及神经网络训练方法、装置、存储介质、电子设备 |
CN107885214A (zh) * | 2017-11-22 | 2018-04-06 | 济南浪潮高新科技投资发展有限公司 | 一种基于fpga的加速自动驾驶视觉感知的方法及装置 |
US10762396B2 (en) * | 2017-12-05 | 2020-09-01 | Utac, Llc | Multiple stage image based object detection and recognition |
CN108154196B (zh) * | 2018-01-19 | 2019-10-22 | 百度在线网络技术(北京)有限公司 | 用于输出图像的方法和装置 |
CN108319977B (zh) * | 2018-01-30 | 2020-11-10 | 浙江大学 | 基于通道信息多模态网络的宫颈活检区域识别方法及装置 |
CN108510012B (zh) * | 2018-05-04 | 2022-04-01 | 四川大学 | 一种基于多尺度特征图的目标快速检测方法 |
-
2018
- 2018-09-11 CN CN201811055289.1A patent/CN109376594A/zh active Pending
-
2019
- 2019-07-18 EP EP19187106.0A patent/EP3579144A3/en not_active Ceased
- 2019-07-18 US US16/516,017 patent/US11120275B2/en active Active
- 2019-07-22 JP JP2019134756A patent/JP6817384B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
EP3579144A2 (en) | 2019-12-11 |
US20200005051A1 (en) | 2020-01-02 |
EP3579144A3 (en) | 2020-03-04 |
CN109376594A (zh) | 2019-02-22 |
JP2020042794A (ja) | 2020-03-19 |
US11120275B2 (en) | 2021-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6817384B2 (ja) | 自動運転車両の視覚感知方法、自動運転車両の視覚感知装置、制御機器及びコンピュータ読み取り可能な記憶媒体 | |
KR102702524B1 (ko) | 운전자 보조 시스템을 테스트하기 위한 방법 및 장치 | |
CN109426801B (zh) | 一种车道线实例检测方法和装置 | |
US11170525B2 (en) | Autonomous vehicle based position detection method and apparatus, device and medium | |
WO2019047656A1 (zh) | 用于控制无人驾驶车辆的方法和装置 | |
CN111539484B (zh) | 训练神经网络的方法及装置 | |
CN108133484B (zh) | 基于场景分割的自动驾驶处理方法及装置、计算设备 | |
WO2022121283A1 (zh) | 车辆关键点信息检测和车辆控制 | |
EP3832260A1 (en) | Real-time generation of functional road maps | |
KR102015939B1 (ko) | 인공지능 영상 학습을 위한 동영상의 학습 대상 프레임 이미지 샘플링 방법, 장치, 프로그램 및 그 영상 학습 방법 | |
CN115223130B (zh) | 基于改进YOLOv5的多任务全景驾驶感知方法与系统 | |
US10913455B2 (en) | Method for the improved detection of objects by a driver assistance system | |
EP3822830B1 (en) | Feature processing method and device for motion trajectory, and computer storage medium | |
JP6700373B2 (ja) | ビデオ動画の人工知能のための学習対象イメージパッケージング装置及び方法 | |
CN113808098A (zh) | 道路病害识别方法、装置、电子设备及可读存储介质 | |
CN108399609B (zh) | 一种三维点云数据的修补方法、装置和机器人 | |
CN112289021A (zh) | 一种交通信号灯的检测方法、装置及自动驾驶汽车 | |
JP6681965B2 (ja) | 自律走行のための学習対象イメージ抽出装置及び方法 | |
CN111210411B (zh) | 图像中灭点的检测方法、检测模型训练方法和电子设备 | |
CN109977884B (zh) | 目标跟随方法和装置 | |
CN116580232A (zh) | 一种图像自动标注方法、系统及电子设备 | |
CN112001236B (zh) | 基于人工智能的书写行为的识别方法及装置 | |
CN113085861A (zh) | 自动驾驶车辆的控制方法及装置、自动驾驶车辆 | |
WO2023170912A1 (ja) | 情報処理装置、生成方法、情報処理方法、及びコンピュータ可読媒体 | |
CN113590980B (zh) | 训练神经网络的方法、预测轨迹的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201027 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201224 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6817384 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |