JP2021527891A - テストデータセットの生成方法、テスト方法、システムの動作方法、機器、制御システム、コンピュータプログラム製品、コンピュータ可読媒体、生成及び使用 - Google Patents
テストデータセットの生成方法、テスト方法、システムの動作方法、機器、制御システム、コンピュータプログラム製品、コンピュータ可読媒体、生成及び使用 Download PDFInfo
- Publication number
- JP2021527891A JP2021527891A JP2020570681A JP2020570681A JP2021527891A JP 2021527891 A JP2021527891 A JP 2021527891A JP 2020570681 A JP2020570681 A JP 2020570681A JP 2020570681 A JP2020570681 A JP 2020570681A JP 2021527891 A JP2021527891 A JP 2021527891A
- Authority
- JP
- Japan
- Prior art keywords
- image
- algorithm
- data set
- test
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012360 testing method Methods 0.000 title claims abstract description 104
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000004590 computer program Methods 0.000 title claims abstract description 5
- 238000010998 test method Methods 0.000 title claims description 10
- 230000009471 action Effects 0.000 claims abstract description 106
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 61
- 238000012549 training Methods 0.000 claims description 27
- 230000007787 long-term memory Effects 0.000 claims description 6
- 230000006403 short-term memory Effects 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 4
- 230000001419 dependent effect Effects 0.000 abstract description 16
- 230000000007 visual effect Effects 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 239000002131 composite material Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000000638 stimulation Effects 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004936 stimulating effect Effects 0.000 description 2
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 1
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 1
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000013522 software testing Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/4183—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/41885—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by modeling, simulation of the manufacturing system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Manufacturing & Machinery (AREA)
- Quality & Reliability (AREA)
- Automation & Control Theory (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
ステップ1.1訓練された人工知能(8)が提供されるステップ、ステップ1.2人工知能(8)が、特にランダム信号(11)を用いて及び/又は視覚概念に対する準線形特性を用いて、刺激されるステップ、ステップ1.3人工知能(8)が、画像データ(15)及び画像データ(1g)に関連するアクション領域(16)及び/又はセンサデータ及びセンサデータに関連するアクション領域を含む、少なくとも1つのテストデータセット(14)を生成するステップ、を有している。さらに、本発明は、装置の自動化された画像依存制御のためのシステムの動作方法と、その方法を実行するための機器に関する。最後に、本発明は、そのような機器を含む装置用制御システム、並びに、コンピュータプログラム製品、コンピュータ可読媒体、データキャリアの生成、及び、人工知能(8)の使用に関する。
Description
ステップ1.1 訓練された人工知能が提供されるステップ、
ステップ1.2 人工知能が刺激されるステップ、及び
ステップ1.3 刺激された人工知能が、画像データ及び画像データに関連するアクション領域及び/又はセンサデータ及びセンサデータに関連するアクション領域を含む、少なくとも1つのテストデータセットを生成するステップ、
を有する方法により、解決される。
ステップ2.1 少なくとも1つの画像取得装置によって記録された実画像データ及び実画像データに関連するアクション領域並びに/又は少なくとも1つのセンサ装置によって記録された実センサデータ及び実センサデータに関連するアクション領域を含む、学習データセットが提供されるステップ、
ステップ2.2 人工知能が提供されるステップ、及び、
ステップ2.3 人工知能は、提供された学習データセットを用いて調整されるステップ、が実行される。
ステップ9.1 テストされるべきアルゴリズムであって、入力として画像データを取得し、出力として画像データに依存するアクション領域を出力する、及び/又は、入力としてセンサデータを取得し、出力としてセンサデータに依存するアクション領域を出力する、アルゴリズム、が提供されるステップ、
ステップ9.2 画像データ及び画像データに関連するアクション領域を含む、及び/又は、センサデータ及びセンサデータに関連するアクション領域を含む、少なくとも1つのテストデータセットを取得するために、請求項1〜8の何れか1項に記載の方法を実行するステップ、
ステップ9.3 少なくとも1つのテストデータセットが提供されるステップ、
ステップ9.4 少なくとも1つのテストデータセットの画像データ及び/又はセンサデータが、テストされるべきアルゴリズムに入力として供給されるステップ、
ステップ9.5 アルゴリズムが実行され、出力としてアクション領域を出力するステップと、
ステップ9.6 アルゴリズムにより出力として出力されたアクション領域が、少なくとも1つのテストデータセットのアクション領域と比較されるステップ、
ステップ9.7 比較の結果から、テストされたアルゴリズムの品質が推論されるステップ、
を含む、アルゴリズムのテスト方法である。
Claims (17)
- アルゴリズム(1)のための少なくとも1つのテストデータセット(14)の生成方法にして、当該アルゴリズム(1)は入力として画像データ(17)を取得し、出力として前記画像データに依存するアクション領域(16)を出力し、及び/又は、当該アルゴリズム(1)は入力としてセンサデータを取得し、出力として前記センサデータに依存するアクション領域を出力する方法であって、以下のステップを有する、即ち、
ステップ1.1 訓練された人工知能(8)が提供されるステップ、
ステップ1.2 前記人工知能(8)が刺激されるステップ、及び、
ステップ1.3 刺激された前記人工知能(8)が、画像データ(15)及び前記画像データ(15)に関連するアクション領域(16)及び/又はセンサデータ及び前記センサデータに関連するアクション領域を含む、少なくとも1つのテストデータセット(14)を生成するステップ、
を有する方法。 - 請求項1に記載の方法において、
ステップ1.1で提供される訓練された前記人工知能を取得するために、以下のステップが実行されること、即ち、
ステップ2.1 少なくとも1つの画像取得装置を用いて記録された実画像データ(3)及び前記実画像データ(3)に関連するアクション領域(5)及び/又は少なくとも1つのセンサ装置を用いて記録された実センサデータ及び前記実センサデータに関連するアクション領域を含む学習データセット(2)が、提供されるステップ、
ステップ2.2 人工知能が提供されるステップ、及び、
ステップ2.3 前記人工知能(8)は、提供された前記学習データセット(2)を用いて調整されるステップ、
が実行されること、
を特徴とする方法。 - 請求項2に記載の方法において、
ステップ2.1では、少なくとも1つの画像取得装置を用いて記録された実画像シーケンス(3)及び前記シーケンス(3)の画像(4)に関連するアクション領域(5)を含む、学習データセット(2)が提供され、ステップ1.3では、刺激された前記人工知能(8)は、新しい画像シーケンス(15)及び前記新しい画像シーケンス(15)に関連するアクション領域(16)を含む、少なくとも1つのテストデータセット(14)を生成し、及び/又は、ステップ2.1では、実画像シーケンス(3)を含む学習データセット(2)が提供され、前記学習データセット(2)の前記アクション領域(5)は、前記画像シーケンス(3)のそれぞれの画像(4)のために、少なくとも1つの制御パラメータ又はこれを示す値、及び、それぞれの少なくとも1つの制御パラメータ又はこれを示す値のために関連する目標領域、を含むこと、
を特徴とする方法。 - 請求項2又は3に記載の方法において、
先進運転支援システムのアルゴリズム(1)のための又は自律車両運転用システムのアルゴリズムのための少なくとも1つのテストデータセット(15)が生成され、提供された前記学習データセット(2)は画像シーケンス(3)を含み、当該画像シーケンス(3)は走行状況の画像を含んでいる及び/又はそれぞれの画像(4)に対して関連するアクション領域(5)として走行軌跡(6)を含んでいること、
を特徴とする方法。 - 請求項1〜4の何れか1項に記載の方法において、
少なくとも1つのテストデータセット(14)が、入力として画像シーケンス(17)を取得しまた出力として前記画像シーケンス(17)に依存するアクション領域(16)を出力するアルゴリズム(1)のために、生成されること、
を特徴とする方法。 - 請求項1〜5の何れか1項に記載の方法において、
ステップ1.3では、画像シーケンス(15)を含む少なくとも1つのテストデータセット(12)が生成され、当該画像シーケンス(15)は走行状況の画像(17)を含んでいる及び/又は当該画像シーケンス(15)はそれぞれの画像(17)に対して関連するアクション領域(16)として走行軌跡(18)を含んでいること、
を特徴とする方法。 - 請求項1〜6の何れか1項に記載の方法において、
ステップ1.1では、長・短期記憶ネットワーク(9、10)を含むか又はそのようなものにより与えられている人工知能(8)が、提供されること、
を特徴とする方法。 - 請求項1〜7の何れか1項に記載の方法において、
ステップ1.1では、少なくとも1つの生成ネットワーク(9)及び/又は少なくとも1つの識別ネットワーク(10)を含むか又はそのようなものにより与えられている人工知能(8)が、提供されること、
を特徴とする方法。 - アルゴリズム(1)のテスト方法であって、以下のステップを有する、即ち、
ステップ9.1 テストされるべきアルゴリズム(1)が提供されるステップであり、当該アルゴリズム(1)は入力として画像データ(15)を取得しまた出力として前記画像データ(15)に依存するアクション領域(20)を出力する、及び/又は、当該アルゴリズム(1)は入力としてセンサデータを取得しまた出力として前記センサデータに依存するアクション領域を出力する、
ステップ9.2 画像データ(15)及び前記画像データ(15)に関連するアクション領域(16)を含む及び/又はセンサデータ及び前記センサデータに関連するアクション領域を含む、少なくとも1つのテストデータセット(14)を取得するために、請求項1〜8の何れか1項に記載の方法を実行するステップ、
ステップ9.3 前記少なくとも1つのテストデータセット(14)が提供されるステップ、
ステップ9.4 前記少なくとも1つのテストデータセット(14)の前記画像データ(15)及び/又は前記センサデータが、テストされるべき前記アルゴリズム(1)に入力として供給されるステップ、
ステップ9.5 前記アルゴリズム(1)が実行され、出力としてアクション領域(20)を出力するステップ、
ステップ9.6 前記アルゴリズムにより出力として出力された前記アクション領域(20)が、前記少なくとも1つのテストデータセット(14)の前記アクション領域(16)と比較されるステップ、
ステップ9.7 比較(21)の結果から、テストされた前記アルゴリズム(1)の品質が推論されるステップ、
を有する方法。 - 請求項9に記載の方法において、
ステップ9.1〜9.7の実行に続いて、請求項1〜8の何れか1項に記載の少なくとも1つのテストデータセット(14)の生成方法のステップ1.2及びステップ1.3が、以前に生成された前記テストデータセット(14)とは異なる少なくとも1つのさらなるテストデータセット(14)を生成するために、再び実行され、前記少なくとも1つのさらなるテストデータセット(14)が提供され、前記ステップ9.4から前記ステップ9.7が繰り返されること、
を特徴とする方法。 - 装置の自動化された制御のためのシステムの動作方法にして、前記システムは、少なくとも1つの画像取得装置及び/又は少なくとも1つのセンサ装置、並びに評価・制御ユニット及び前記装置の制御手段、を含み、また、前記制御・評価ユニット内にアルゴリズム(1)が格納されているか又は格納されることになり、当該アルゴリズム(1)は入力として画像データ(17)を取得し、出力として前記画像データに依存するアクション領域(16)を出力するか、又は、当該アルゴリズム(1)は入力としてセンサデータを取得し、出力として前記センサデータに依存するアクション領域を出力する方法であって、前記アルゴリズム(1)は請求項9又は10に記載の方法の実行中にテストされ、テストの結果、前記アルゴリズム(1)の機能性が不十分である場合、前記アルゴリズム(1)は所定の方法で適合され、前記アルゴリズム(1)を用いて前記装置の制御が行われる、方法。
- 請求項11に記載の方法において、
前記システムは少なくとも1つの画像取得装置を含み、前記システムの前記少なくとも1つの画像取得装置を用いて画像(4)のシーケンス(3)が取得され、前記シーケンス(3)の前記画像(4)にアクション領域(5)が割り当てられ、割り当てられた前記アクション領域(5)を含む前記画像シーケンス(3)は、前記人工知能(8)を訓練するための学習データセット(2)として提供されること、及び/又は、前記システムは少なくとも1つのセンサ装置を含み、前記システムの前記少なくとも1つのセンサ装置を用いてセンサデータが取得され、前記センサデータにアクション領域が割り当てられ、割り当てられた前記アクション領域を含む前記センサデータは、前記人工知能(8)を訓練するための学習データセットとして提供されること、
を特徴とする方法。 - 入力として画像データ(17)を取得し、出力として前記画像データに依存するアクション領域(16)を出力するアルゴリズム(1)のための及び/又は入力としてセンサデータを取得し、出力として前記センサデータに依存するアクション領域を出力するアルゴリズム(1)のための、少なくとも1つのテストデータセットを生成するための訓練された人工知能(8)の使用。
- 請求項1〜8の何れか1項に記載の方法の実行中に取得された前記少なくとも1つのテストデータセットが格納されているデータキャリアの生成。
- 請求項1〜8の何れか1項に記載の方法、又は請求項9又は10に記載の方法、又は請求項11又は12に記載の方法を実行するように形成及び調整されている機器。
- 請求項1〜8の何れか1項に記載の方法、又は請求項9又は10に記載の方法、又は請求項11又は12に記載の方法を実行するためのプログラムコード手段を含むコンピュータプログラム製品。
- 少なくとも1つのコンピュータ上で実行されると、前記少なくとも1つのコンピュータに、請求項1〜8の何れか1項に記載の方法のステップ、又は請求項9又は10に記載の方法のステップ、又は請求項11又は12に記載の方法のステップを実行させる命令を含むコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18178772.2A EP3584748A1 (de) | 2018-06-20 | 2018-06-20 | Verfahren zur erzeugung eines testdatensatzes, verfahren zum testen, verfahren zum betreiben eines systems, vorrichtung, steuerungssystem, computerprogrammprodukt, computerlesbares medium, erzeugung und verwendung |
EP18178772.2 | 2018-06-20 | ||
PCT/EP2019/062774 WO2019242955A1 (de) | 2018-06-20 | 2019-05-17 | Verfahren zur erzeugung eines testdatensatzes, verfahren zum testen, verfahren zum betreiben eines systems, vorrichtung, steuerungssystem, computerprogrammprodukt, computerlesbares medium, erzeugung und verwendung |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021527891A true JP2021527891A (ja) | 2021-10-14 |
JP6972395B2 JP6972395B2 (ja) | 2021-11-24 |
Family
ID=62873124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020570681A Active JP6972395B2 (ja) | 2018-06-20 | 2019-05-17 | テストデータセットの生成方法、テスト方法、システムの動作方法、機器、制御システム、コンピュータプログラム製品、コンピュータ可読媒体、生成及び使用 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210216063A1 (ja) |
EP (2) | EP3584748A1 (ja) |
JP (1) | JP6972395B2 (ja) |
KR (1) | KR102355815B1 (ja) |
CN (1) | CN112292695A (ja) |
WO (1) | WO2019242955A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111930078B (zh) * | 2020-06-21 | 2024-04-19 | 中国舰船研究设计中心 | 一种面向核控系统的网络测试装置 |
US11763135B2 (en) * | 2021-03-01 | 2023-09-19 | Robert Bosch Gmbh | Concept-based adversarial generation method with steerable and diverse semantics |
CN115658550B (zh) * | 2022-12-09 | 2023-04-07 | 合肥高维数据技术有限公司 | 提升大规模样本测试效率的自动化测试方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018113015A (ja) * | 2016-09-23 | 2018-07-19 | ケーピーアイティ テクノロジーズ リミテッド | オートノマスシステムの検証法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10860950B2 (en) * | 2016-08-31 | 2020-12-08 | Sas Institute Inc. | Automated computer-based model development, deployment, and management |
KR101813698B1 (ko) * | 2016-12-21 | 2018-01-30 | 한국항공대학교산학협력단 | 공중 로봇의 이동 속도 추정 장치 및 방법 |
US10228693B2 (en) * | 2017-01-13 | 2019-03-12 | Ford Global Technologies, Llc | Generating simulated sensor data for training and validation of detection models |
CN106844949B (zh) * | 2017-01-18 | 2020-01-10 | 清华大学 | 一种用于实现机车节能操纵的双向lstm模型的训练方法 |
US10268203B2 (en) * | 2017-04-20 | 2019-04-23 | GM Global Technology Operations LLC | Calibration validation for autonomous vehicle operations |
CN107330444A (zh) * | 2017-05-27 | 2017-11-07 | 苏州科技大学 | 一种基于生成对抗网络的图像自动文本标注方法 |
DE102017213634A1 (de) * | 2017-08-07 | 2019-02-07 | Ford Global Technologies, Llc | Verfahren und Vorrichtung für die Durchführung von virtuellen Tests in einer virtuellen Realitätsumgebung für ein autonom fahrendes Fahrzeug |
CN107577996A (zh) * | 2017-08-16 | 2018-01-12 | 中国地质大学(武汉) | 一种车辆驾驶路径偏移的识别方法及系统 |
US10831636B2 (en) * | 2018-01-08 | 2020-11-10 | Waymo Llc | Software validation for autonomous vehicles |
-
2018
- 2018-06-20 EP EP18178772.2A patent/EP3584748A1/de not_active Withdrawn
-
2019
- 2019-05-17 CN CN201980041287.3A patent/CN112292695A/zh active Pending
- 2019-05-17 JP JP2020570681A patent/JP6972395B2/ja active Active
- 2019-05-17 WO PCT/EP2019/062774 patent/WO2019242955A1/de unknown
- 2019-05-17 KR KR1020217001806A patent/KR102355815B1/ko active IP Right Grant
- 2019-05-17 US US17/254,296 patent/US20210216063A1/en active Pending
- 2019-05-17 EP EP19727883.1A patent/EP3782081B1/de active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018113015A (ja) * | 2016-09-23 | 2018-07-19 | ケーピーアイティ テクノロジーズ リミテッド | オートノマスシステムの検証法 |
Non-Patent Citations (1)
Title |
---|
TIAN, YUCHI ET AL.: "DeepTest: Automated Testing of Deep-Neural-Network-driven Autonomous Cars", PROCEEDINGS OF THE 40TH INTERNATIONAL CONFERENCE ON SOFTWARE ENGINEERING, JPN7021004134, May 2018 (2018-05-01), pages 303 - 314, XP033397196, ISSN: 0004609735 * |
Also Published As
Publication number | Publication date |
---|---|
EP3584748A1 (de) | 2019-12-25 |
CN112292695A (zh) | 2021-01-29 |
KR20210014740A (ko) | 2021-02-09 |
US20210216063A1 (en) | 2021-07-15 |
EP3782081A1 (de) | 2021-02-24 |
WO2019242955A1 (de) | 2019-12-26 |
JP6972395B2 (ja) | 2021-11-24 |
EP3782081B1 (de) | 2022-12-07 |
KR102355815B1 (ko) | 2022-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102635987B1 (ko) | 이미지 시맨틱 세그멘테이션 네트워크를 트레이닝하기 위한 방법, 장치, 디바이스 및 저장 매체 | |
JP6972395B2 (ja) | テストデータセットの生成方法、テスト方法、システムの動作方法、機器、制御システム、コンピュータプログラム製品、コンピュータ可読媒体、生成及び使用 | |
Giese et al. | Neural and computational mechanisms of action processing: interaction between visual and motor representations | |
Demiris* et al. | Distributed, predictive perception of actions: a biologically inspired robotics architecture for imitation and learning | |
KR20200052444A (ko) | 신경망을 이용하여 예측 결과를 출력하는 방법, 신경망을 생성하는 방법 및 그 장치들 | |
US20180275667A1 (en) | Machine Learning for Event Detection and Classification in Autonomous Vehicles | |
CN112560886A (zh) | 训练类条件生成对抗序列网络 | |
CN108334081A (zh) | 用于对象检测的循环深度卷积神经网络 | |
Li et al. | Turing learning: a metric-free approach to inferring behavior and its application to swarms | |
US10736561B2 (en) | Neural model-based controller | |
US11203361B2 (en) | Method for performing on-device learning of machine learning network on autonomous vehicle by using multi-stage learning with adaptive hyper-parameter sets and device using the same | |
CN107944382A (zh) | 目标跟踪方法、装置及电子设备 | |
JP2020052999A (ja) | 人工知能映像学習のための動画の学習対象フレームイメージサンプリング方法、装置、プログラム及びその映像学習方法 | |
Hsu et al. | End-to-end deep learning for autonomous longitudinal and lateral control based on vehicle dynamics | |
JP2023540613A (ja) | 運転者支援システムを試験するための方法およびシステム | |
JP6856936B2 (ja) | 学習方法、学習装置及び学習プログラム | |
US10984311B2 (en) | Involved generative machine learning models for functional testing | |
Cazin et al. | Real-time sensory–motor integration of hippocampal place cell replay and prefrontal sequence learning in simulated and physical rat robots for novel path optimization | |
CN113095351A (zh) | 借助于初始标记的改善生成经标记的数据的方法 | |
CN110852394B (zh) | 数据处理方法及装置、计算机系统以及可读存储介质 | |
CN110719487A (zh) | 视频预测方法和装置、电子设备及车辆 | |
CN115131399A (zh) | 通过多个神经网络的协作对多个对象的跟踪 | |
Cultrera et al. | Explaining autonomous driving with visual attention and end-to-end trainable region proposals | |
US9646056B1 (en) | Rank-ordering and cognitive saliency schema-based selection | |
KR102010129B1 (ko) | 로봇의 행동 모방 장치 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210825 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210825 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210825 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210825 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6972395 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |