JP7079445B2 - モデルパラメータ学習装置、制御装置及びモデルパラメータ学習方法 - Google Patents
モデルパラメータ学習装置、制御装置及びモデルパラメータ学習方法 Download PDFInfo
- Publication number
- JP7079445B2 JP7079445B2 JP2018178677A JP2018178677A JP7079445B2 JP 7079445 B2 JP7079445 B2 JP 7079445B2 JP 2018178677 A JP2018178677 A JP 2018178677A JP 2018178677 A JP2018178677 A JP 2018178677A JP 7079445 B2 JP7079445 B2 JP 7079445B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- data
- learning
- input
- learning process
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 158
- 230000008569 process Effects 0.000 claims description 133
- 230000006870 function Effects 0.000 claims description 45
- 238000001514 detection method Methods 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 description 25
- 238000003062 neural network model Methods 0.000 description 14
- 230000009471 action Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Electromagnetism (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Description
実行するように構成してもよい。
2 画像データ取得部(特性データ取得手段、教師データ取得手段)
4 加算器(第1ノイズ付加データ作成手段、入力用特性データ設定手段)
5 データ処理部(モデルデータ取得手段、実行停止手段)
7 第1学習処理部(第1学習手段、実行停止手段)
8 第2学習処理部(第2学習手段、実行停止手段)
10 画像処理NNモデル(第1モデル、第2モデル)
11 入力層(第1モデル)
12 隠れ層(第1モデル、第2モデル)
13 出力層(第2モデル)
20 制御処理NNモデル(第1モデル、第3モデル)
21 隠れ層(第3モデル)
22 出力層(第3モデル)
50 制御装置
52 ECU(記憶手段、制御手段)
Xorg 画像データ(特性データ、教師データ)
Xnoi ノイズ(所定の第1ノイズデータ、所定の第2ノイズデータ)
Xin 入力データ(第1ノイズ付加データ、入力用特性データ)
Xout 出力データ(第2モデルデータ)
W1 重み項、モデルパラメータ
b1 バイアス項、モデルパラメータ
W2 重み項、モデルパラメータ
b2 バイアス項、モデルパラメータ
Wm 重み項、モデルパラメータ
bm バイアス項、モデルパラメータ
Wq 重み項、モデルパラメータ
bq バイアス項、モデルパラメータ
Q 出力データ(第3モデルデータ)
LRL 損失関数
Claims (16)
- 対象の物理的特性及び視覚的特性の少なくとも一方を表すパラメータのデータである特性データを取得する特性データ取得手段と、
前記特性データに所定の第1ノイズデータを付加することにより、第1ノイズ付加データを作成する第1ノイズ付加データ作成手段と、
第1モデル及び第2モデルを有し、前記第1ノイズ付加データが当該第1モデルに入力されたときに、当該第1モデルの出力データを前記第2モデルに入力するとともに、当該第2モデルから出力される第2モデルデータを取得するモデルデータ取得手段と、
前記特性データに相当する教師データを取得する教師データ取得手段と、
前記第2モデルデータと前記教師データとの誤差が最小になるように、前記第1モデル及び前記第2モデルの少なくとも一方のモデルパラメータを学習する第1学習処理を実行する第1学習手段と、
前記第1学習処理の実行回数が第1所定値に達したときに、前記第1ノイズ付加データの前記第1モデルへの入力と前記第1学習処理を停止する実行停止手段と、
前記特性データに所定の第2ノイズデータを付加したデータ又は前記特性データを、入力用特性データとして設定する入力用特性データ設定手段と、
を備え、
前記モデルデータ取得手段は、前記第2モデルと別個の第3モデルをさらに有し、前記第1学習処理が停止されている場合において前記入力用特性データが前記第1モデルに入力されたときに、当該第1モデルの出力データを前記第3モデルに入力するとともに、当該第3モデルから出力される第3モデルデータを取得し、
当該第3モデルデータを独立変数として含む損失関数が最小になるように、前記第1モデル及び前記第3モデルの少なくとも一方のモデルパラメータを学習する第2学習処理を実行する第2学習手段をさらに備えることを特徴とするモデルパラメータ学習装置。 - 請求項1に記載のモデルパラメータ学習装置において、
前記実行停止手段は、前記第2学習処理の実行回数が第2所定値に達したときに、前記入力用特性データの前記第1モデルへの入力と前記第2学習処理を停止すると同時に、前記第1ノイズ付加データの前記第1モデルへの入力と前記第1学習処理を実行し、当該第1学習処理の実行以降、前記第1学習処理の前記実行回数が前記第1所定値に達する毎、及び前記第2学習処理の前記実行回数が前記第2所定値に達する毎に、前記第1学習処理及び前記第2学習処理の一方の停止と他方の実行を交互に実施することを特徴とするモデルパラメータ学習装置。 - 請求項1又は2に記載のモデルパラメータ学習装置において、
前記特性データは、前記対象の画像データであることを特徴とするモデルパラメータ学習装置。 - 請求項1ないし3のいずれかに記載のモデルパラメータ学習装置において、
前記特性データ取得手段及び前記教師データ取得手段はそれぞれ、前記特性データ及び前記教師データを仮想空間におけるデータとして取得することを特徴とするモデルパラメータ学習装置。 - 請求項3に記載のモデルパラメータ学習装置において、
前記教師データ取得手段は、前記対象を画像に含むとともに前記画像データと同等以上の解像度又は画質を有する第2画像データ、及び、前記対象との距離を表す距離データの一方に基づき、前記教師データを取得することを特徴とするモデルパラメータ学習装置。 - 請求項5に記載のモデルパラメータ学習装置において、
前記特性データ取得手段は、第1カメラであり、
前記教師データ取得手段は、前記第1カメラ以上の画素数を有する第2カメラであることを特徴とするモデルパラメータ学習装置。 - 請求項5に記載のモデルパラメータ学習装置において、
前記特性データ取得手段は、カメラであり、
前記教師データ取得手段は、LIDAR及びレーダの一方の検出データに基づいて、前記教師データを取得することを特徴とするモデルパラメータ学習装置。 - 請求項2に記載のモデルパラメータ学習装置において、
前記第1学習処理では、少なくとも前記第1モデルのモデルパラメータが学習され、
前記第2学習処理では、少なくとも前記第3モデルのモデルパラメータが学習されることを特徴とするモデルパラメータ学習装置。 - 請求項8に記載のモデルパラメータ学習装置において前記第1学習処理及び前記第2学習処理が交互に実行された回数が第3所定値に達したときの前記第1モデル及び前記第3モデルの前記モデルパラメータと、前記第1モデル及び前記第3モデルとを記憶する記憶手段と、
当該記憶手段に記憶された前記モデルパラメータと、前記第1モデル及び前記第3モデルとを用いて、車両を制御する制御手段と、
を備えることを特徴とする制御装置。 - 対象の物理的特性及び視覚的特性の少なくとも一方を表すパラメータのデータである特性データを取得し、
当該特性データに所定の第1ノイズデータを付加することにより、第1ノイズ付加データを作成し、
前記第1ノイズ付加データを第1モデルに入力し、
当該第1モデルの出力データを第2モデルに入力し、
当該第2モデルの出力データである第2モデルデータを取得し、
前記特性データに相当する教師データを取得し、
前記第2モデルデータと前記教師データとの誤差が最小になるように、前記第1モデル及び前記第2モデルの少なくとも一方のモデルパラメータを学習する第1学習処理を実行し、
前記第1学習処理の実行回数が第1所定値に達したときに、前記第1ノイズ付加データの前記第1モデルへの入力と前記第1学習処理を停止し、
前記特性データに所定の第2ノイズデータを付加したデータ又は前記特性データを、入力用特性データとして設定し、
当該入力用特性データを前記第1モデルに入力し、
当該第1モデルの出力データを前記第2モデルと別個の第3モデルに入力し、
当該第3モデルから出力される第3モデルデータを取得し、
当該第3モデルデータを独立変数として含む損失関数が最小になるように、前記第1モデル及び前記第3モデルの少なくとも一方のモデルパラメータを学習する第2学習処理を実行することを特徴とするモデルパラメータ学習方法。 - 請求項10に記載のモデルパラメータ学習方法において、
前記第2学習処理の実行回数が第2所定値に達したときに、前記入力用特性データの前記第1モデルへの入力と前記第2学習処理を停止すると同時に、前記第1ノイズ付加データの前記第1モデルへの入力と前記第1学習処理を実行し、
当該第1学習処理の実行以降、前記第1学習処理の前記実行回数が前記第1所定値に達する毎、及び前記第2学習処理の前記実行回数が前記第2所定値に達する毎に、前記第1学習処理及び前記第2学習処理の一方の停止と他方の実行を交互に実施することを特徴とするモデルパラメータ学習方法。 - 請求項10又は11に記載のモデルパラメータ学習方法において、
前記特性データは、前記対象の画像データであることを特徴とするモデルパラメータ学習方法。 - 請求項10ないし12のいずれかに記載のモデルパラメータ学習方法において、
前記特性データ及び前記教師データは仮想空間におけるデータとして取得されることを特徴とするモデルパラメータ学習方法。 - 請求項12に記載のモデルパラメータ学習方法において、
前記対象を画像に含むとともに前記画像データと同等以上の解像度又は画質を有する第2画像データ、及び、前記対象との距離を表す距離データの一方に基づき、前記教師データを取得することを特徴とするモデルパラメータ学習方法。 - 請求項14に記載のモデルパラメータ学習方法において、
第1カメラによって、前記画像データを取得し、
前記第1カメラ以上の画素数を有する第2カメラによって、前記教師データを取得することを特徴とするモデルパラメータ学習方法。 - 請求項14に記載のモデルパラメータ学習方法において、
カメラによって、前記画像データを取得し、
LIDAR及びレーダの一方の検出データに基づいて、前記教師データを取得することを特徴とするモデルパラメータ学習方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018178677A JP7079445B2 (ja) | 2018-09-25 | 2018-09-25 | モデルパラメータ学習装置、制御装置及びモデルパラメータ学習方法 |
US16/574,370 US11144789B2 (en) | 2018-09-25 | 2019-09-18 | Model parameter learning device, control device, and model parameter learning method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018178677A JP7079445B2 (ja) | 2018-09-25 | 2018-09-25 | モデルパラメータ学習装置、制御装置及びモデルパラメータ学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020052513A JP2020052513A (ja) | 2020-04-02 |
JP7079445B2 true JP7079445B2 (ja) | 2022-06-02 |
Family
ID=69883235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018178677A Active JP7079445B2 (ja) | 2018-09-25 | 2018-09-25 | モデルパラメータ学習装置、制御装置及びモデルパラメータ学習方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11144789B2 (ja) |
JP (1) | JP7079445B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11922314B1 (en) * | 2018-11-30 | 2024-03-05 | Ansys, Inc. | Systems and methods for building dynamic reduced order physical models |
JP7106486B2 (ja) * | 2019-04-22 | 2022-07-26 | 株式会社東芝 | 学習装置、学習方法、プログラムおよび情報処理システム |
US11126895B2 (en) * | 2019-05-22 | 2021-09-21 | Lawrence Livermore National Security, Llc | Mimicking of corruption in images |
CN112581414B (zh) * | 2019-09-30 | 2024-04-23 | 京东方科技集团股份有限公司 | 一种卷积神经网络、图像处理的方法及电子设备 |
KR20210042696A (ko) * | 2019-10-10 | 2021-04-20 | 삼성전자주식회사 | 모델 학습 방법 및 장치 |
US11228683B2 (en) * | 2019-12-06 | 2022-01-18 | At&T Intellectual Property I, L.P. | Supporting conversations between customers and customer service agents |
US11254323B2 (en) * | 2020-03-04 | 2022-02-22 | Zoox, Inc. | Localization error monitoring |
US11798139B2 (en) * | 2020-11-17 | 2023-10-24 | GM Global Technology Operations LLC | Noise-adaptive non-blind image deblurring |
JP2022085164A (ja) | 2020-11-27 | 2022-06-08 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | データ処理装置、ニューラルネットワークの深層学習の方法及びプログラム |
JPWO2022185482A1 (ja) * | 2021-03-04 | 2022-09-09 | ||
WO2023037504A1 (ja) * | 2021-09-10 | 2023-03-16 | 日本電気株式会社 | 強化学習システム、強化学習装置及び強化学習方法 |
CN115190226B (zh) * | 2022-05-31 | 2024-04-16 | 华为技术有限公司 | 参数调整的方法、训练神经网络模型的方法及相关装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014229115A (ja) | 2013-05-23 | 2014-12-08 | キヤノン株式会社 | 情報処理装置および方法、プログラム、記憶媒体 |
WO2017163538A1 (ja) | 2016-03-25 | 2017-09-28 | ソニー株式会社 | 情報処理装置 |
WO2018078712A1 (en) | 2016-10-25 | 2018-05-03 | Nec Corporation | Pattern recognition apparatus, method and medium |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08214174A (ja) * | 1995-02-01 | 1996-08-20 | Canon Inc | 色処理方法 |
JP5772057B2 (ja) * | 2011-02-24 | 2015-09-02 | ソニー株式会社 | 通信制御装置、通信制御方法、プログラム及び通信システム |
JP6813178B2 (ja) | 2016-12-07 | 2021-01-13 | 学校法人常翔学園 | 生体画像処理装置、出力画像製造方法、学習結果製造方法、及びプログラム |
JP6795090B2 (ja) * | 2017-04-28 | 2020-12-02 | 富士通株式会社 | 行動選択学習装置、行動選択学習プログラム、行動選択学習方法及び行動選択学習システム |
JP6794957B2 (ja) * | 2017-08-04 | 2020-12-02 | トヨタ自動車株式会社 | 車両の配車システム |
JP6501018B1 (ja) * | 2018-04-20 | 2019-04-17 | トヨタ自動車株式会社 | 未燃燃料量の機械学習装置 |
-
2018
- 2018-09-25 JP JP2018178677A patent/JP7079445B2/ja active Active
-
2019
- 2019-09-18 US US16/574,370 patent/US11144789B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014229115A (ja) | 2013-05-23 | 2014-12-08 | キヤノン株式会社 | 情報処理装置および方法、プログラム、記憶媒体 |
WO2017163538A1 (ja) | 2016-03-25 | 2017-09-28 | ソニー株式会社 | 情報処理装置 |
WO2018078712A1 (en) | 2016-10-25 | 2018-05-03 | Nec Corporation | Pattern recognition apparatus, method and medium |
Also Published As
Publication number | Publication date |
---|---|
US20200097772A1 (en) | 2020-03-26 |
JP2020052513A (ja) | 2020-04-02 |
US11144789B2 (en) | 2021-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7079445B2 (ja) | モデルパラメータ学習装置、制御装置及びモデルパラメータ学習方法 | |
CN111137292B (zh) | 经执行器-评价网络架构学习车道变换策略的方法和系统 | |
CN110588653B (zh) | 自主车辆的控制系统、控制方法以及控制器 | |
KR102144623B1 (ko) | 이동체의 이동 속성 획득 방법 및 이를 수행하는 장치 | |
CN111204346B (zh) | 用于自动车辆的控制命令的端对端学习的方法及系统 | |
WO2019230339A1 (ja) | 物体識別装置、移動体用システム、物体識別方法、物体識別モデルの学習方法及び物体識別モデルの学習装置 | |
JP5782088B2 (ja) | 歪みのあるカメラ画像を補正するシステム及び方法 | |
JP6550678B2 (ja) | 行動決定装置、未来予測モデル学習装置、ネットワーク学習装置、方法、及びプログラム | |
US11783593B2 (en) | Monocular depth supervision from 3D bounding boxes | |
JP7036610B2 (ja) | 学習方法およびプログラム | |
US20210056388A1 (en) | Knowledge Transfer Between Different Deep Learning Architectures | |
Wang et al. | End-to-end self-driving using deep neural networks with multi-auxiliary tasks | |
CN111105030B (zh) | 用于车辆感知系统的神经网络中的激活零旁路和权重剪枝 | |
KR102320999B1 (ko) | 폴트 톨러런스 및 플럭츄에이션 로버스트를 위한 복수의 뉴럴 네트워크를 사용하여 흔들리는 카메라로 인해 생성된 비디오에서 지터링을 제거하기 위한 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
CN113614730A (zh) | 多帧语义信号的cnn分类 | |
US20230342960A1 (en) | Depth estimation based on ego-motion estimation and residual flow estimation | |
CN112721950A (zh) | 一种基于深度学习的自主车辆控制方法及系统 | |
CN114067166A (zh) | 用于确定物理对象的物理特性的设备和方法 | |
US11756314B2 (en) | Processors configured to detect objects and methods of detecting objects | |
JP7125286B2 (ja) | 行動予測装置及び自動運転装置 | |
CN113382908A (zh) | 用于获取车辆动作预测的系统及相应方法 | |
CN108764465B (zh) | 一种进行神经网络运算的处理装置 | |
CN113139567A (zh) | 信息处理装置及其控制方法、车辆、记录介质、信息处理服务器、信息处理方法 | |
CN112100787B (zh) | 车辆动作预测方法、装置、电子设备及存储介质 | |
CN114008698A (zh) | 外部环境识别装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220513 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7079445 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |