JP2023107752A - 対象物検出器をトレーニングするための方法及び制御装置 - Google Patents
対象物検出器をトレーニングするための方法及び制御装置 Download PDFInfo
- Publication number
- JP2023107752A JP2023107752A JP2023007955A JP2023007955A JP2023107752A JP 2023107752 A JP2023107752 A JP 2023107752A JP 2023007955 A JP2023007955 A JP 2023007955A JP 2023007955 A JP2023007955 A JP 2023007955A JP 2023107752 A JP2023107752 A JP 2023107752A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- object detector
- sensor data
- training
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 82
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000001514 detection method Methods 0.000 claims description 33
- 238000013528 artificial neural network Methods 0.000 claims description 21
- 230000005540 biological transmission Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 35
- 238000005259 measurement Methods 0.000 description 16
- 230000007613 environmental effect Effects 0.000 description 9
- 238000013145 classification model Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 230000008092 positive effect Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/06—Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0028—Mathematical models, e.g. for simulation
- B60W2050/0037—Mathematical models of vehicle sub-units
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Automation & Control Theory (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Electromagnetism (AREA)
- Acoustics & Sound (AREA)
- Radar Systems Or Details Thereof (AREA)
- Traffic Control Systems (AREA)
- Train Traffic Observation, Control, And Security (AREA)
Abstract
【課題】本発明は、センサのセンサデータにおける対象物を検出するように構成されている対象物検出器をトレーニングするための方法に関する。【解決手段】本方法(1,20)は、センサの第1のセンサデータを供給するステップ(3,22)と、第1のセンサデータに対応付けられた対象物表現を供給するステップ(4,23)と、センサのセンサデータに対して対象物表現をマッピングするように構成されているセンサモデルへ対象物表現を伝送するステップ(5,24)と、センサモデルによって対象物表現を第2のセンサデータに対応付けるステップ(6,25)と、第2のセンサデータに基づいて対象物検出器をトレーニングするステップ(7,26)と、を含む。【選択図】図1
Description
本発明は、最適化された対象物検出器を生成することのできる、対象物検出器をトレーニングするための方法及び制御装置に関する。
自動車の環境の包括的な認識、特に対象物、例えば自動車の環境に存在する他の交通利用者の包括的な認識が、自動車の多くの運転者支援システム及び自動運転機能にとっての基礎となっている。ここで、自動車は通常、各検出領域における対象物を識別するというタスクを有するセンサシステムを備えている。個々のセンサシステムは、この場合それぞれ、環境センサと、この環境センサから送出されたデータを分析して例えばデータ内の対象物を検出するように構成された処理ユニットとを含む。この場合、環境センサは、例えば、カメラ、レーダ、LiDAR、又は、超音波センサであり得る。
ここで、この種のセンサシステム又はセンサシステムの処理ユニットは、機械学習アルゴリズム、例えばディープニューラルネットワークをますますその基礎とするようになっている。対象物検出のためのディープニューラルネットワークは、典型的には2つのモジュールから成る。第1のモジュール、いわゆるフィーチャバックボーン(Feature Backbone)は、センサデータに基づく特徴抽出に用いられ、ここでは、多数のニューラルネットワーク層が並列配置されることにより、センサデータから特徴が抽出される。次いで、第2のモジュール、いわゆるディテクションヘッド(Detection Head)が、抽出された特徴に基づいて1つ又は複数の対象物クラスのための対象物検出を実行する。
ここで、このような対象物検出器は、通常、教師あり学習によって、すなわちアノテーションされたデータ又はラベリングされたデータに基づいて、トレーニングされる。しかし、相応のデータセットの作成及び特にアノテーションには、時間及びリソース又はコストが大きくかかる。特に、データセットはこの場合、相応のセンサによって適当に検出された対象物に対してのみアノテーションを有する。また、典型的にはアノテーションが存在しないセンサ、例えばレーダセンサも知られている。レーダに基づく対象物検出器に基づく対象物へのアノテーションはきわめて困難であるので、レーダに基づく対象物検出器のトレーニングのために、LiDARに基づくアノテーションが使用されることが多い。ただし、この場合、測定方式、センサ仕様又はセンサの取り付け位置若しくは組み込み位置がそれぞれ異なるため、アノテーションを1対1に伝送できないことが多く、このことが、相応にトレーニングされた対象物検出器の品質低下をまねくことがある。
独国特許出願公開第102017006155号明細書からは、車両用の、少なくとも2つの環境センサを備えたセンサシステムを動作させるための方法が公知であり、ここでは、第1の分類器が第1の環境センサの第1のトレーニングデータによってトレーニングされ、第1の分類器を表現する第1の分類モデルが決定され、第1の環境センサの第1のセンサデータが第1の分類モデルに基づいて分類され、第1の環境センサとは異なる第2の環境センサの第2のセンサデータが受信され、第1の分類器を用いて第2のセンサデータが第1の分類モデルに基づいて分類され、分類された第2のセンサデータが、第2の環境センサに対応付けられた第2の分類器へ第2のトレーニングデータとして伝送され、第2の分類器を表現する第2の分類モデルが第2のトレーニングデータに基づいて決定される。
したがって、本発明の基礎とする課題は、対象物検出器をトレーニングするための改善された方法を提供することである。
課題は、請求項1の特徴部分に記載の、対象物検出器をトレーニングするための方法によって解決される。
また、課題は、請求項6の特徴部分に記載の、対象物検出器をトレーニングするための制御装置によって解決される。
発明の開示
本発明の一実施形態では、上記の課題は、対象物検出器をトレーニングするための方法であって、対象物検出器がセンサのセンサデータにおける対象物を検出するように構成されており、センサの第1のセンサデータが供給され、第1のセンサデータに対応付けられた対象物表現が供給され、センサのセンサデータに対して対象物表現をマッピングするように構成されているセンサモデルへ対象物表現が伝送され、センサモデルによって対象物表現が第2のセンサデータに対応付けられ、第2のセンサデータに基づいて対象物検出器がトレーニングされる方法により、解決される。
本発明の一実施形態では、上記の課題は、対象物検出器をトレーニングするための方法であって、対象物検出器がセンサのセンサデータにおける対象物を検出するように構成されており、センサの第1のセンサデータが供給され、第1のセンサデータに対応付けられた対象物表現が供給され、センサのセンサデータに対して対象物表現をマッピングするように構成されているセンサモデルへ対象物表現が伝送され、センサモデルによって対象物表現が第2のセンサデータに対応付けられ、第2のセンサデータに基づいて対象物検出器がトレーニングされる方法により、解決される。
したがって、センサモデルは、環境表現として予測されるセンサの測定データに対して当該環境表現をマッピングする関数を記述する。特に、センサモデルはこの場合、対応するセンサの測定特性をモデリングするものである。
さらに、対象物検出器による対象物検出は、対象物の分類と分類された対象物の対象物パラメータの推定との双方を含み得る。なお、対象物検出器による対象物検出は、例えば対象物の分類のみを含むこともあり得る。この場合、対象物検出器は、例えば、既知の値又は実際にセンサによって測定された値と、相応に対応付けられた検出結果又は対象物検出結果とに基づいて、事前トレーニングすることができる。
さらに、対象物表現とは、センサデータにおける対象物の表現又はマッピングを表すものである。ここで、当該対象物表現は、例えば、対象物検出器による第1のセンサデータに基づいて生成されるものすなわち対象物検出結果とすることができ、又は、供給されたアノテーションによっても、若しくは、補完のために利用される、例えば他のセンサから供給された付加的なデータによっても、規定することができる。
この方法によって、ここでは、特定のセンサに基づいてアノテーションされたデータセットを他のセンサのために使用することができる。例えば、LiDARセンサに基づいて生成されたアノテーションを、レーダ対象物検出器のトレーニングに使用することができる。これにより、既存のデータセットの再利用可能性が高められ、ひいては付加的なアノテーションの需要が低減されて、このことにより時間及びコストが節約される。
ただし、この方法はさらに、アノテーションの存在から独立しており、ラベリングされていないデータにも適用することができる。したがって、対象物検出器のトレーニングのために格段に大きいデータ範囲を利用することができ、このことは、対象物検出品質又は対象物検出器の品質及び生成されたトレーニングデータの品質にさらにポジティブに作用する。
こうして、全体として、対象物検出器をトレーニングするための改善された方法が提供される。
ここで、対象物検出器のトレーニングとは、教師あり学習であるものとしてもよく、又は、教師なし学習若しくは半教師あり学習であるものとしてもよい。
この場合、方法はさらに、第2のセンサデータと第1のセンサデータとを比較して第1のコスト関数を算定することと、第1のコスト関数に基づいて対象物検出器をトレーニングすることとを含み得る。
この場合、コスト関数又は損失とは、算定された出力値と、対応する実際の条件又は実際に測定されたデータとの間の損失又はエラーであると理解される。
したがって、センサモデルのモデリング又はセンサの測定特性のモデリングによって生成された第1のコスト関数により、対象物検出器のトレーニングをより所期の通りに制御することができ、この対象物検出器を簡単な手法によりかつわずかなリソース消費によって再トレーニングすることができる。例えば、対象物検出器がこのケースではディープニューラルネットワークに基づく場合には、第1のコスト関数を、ネットワーク層を通してバックプロパゲーションし、対応するネットワーク重みの調整のために利用することができる。
また、方法はさらに、アノテーションを供給するステップと、対象物表現と供給されたアノテーションとを比較して第2のコスト関数を算定するステップと、第2のコスト関数に基づいて対象物検出器をトレーニングするステップとを含み得るものであり、ここで、対象物検出結果は、第1のセンサデータに基づいて対象物検出器によって生成される。
この場合、第2のコスト関数に基づいて対象物検出器を相応に再トレーニングすることによって、対象物検出器を改善又は精細化することができる。例えば、対象物検出器がここではディープニューラルネットワークに基づく場合には、第2のコスト関数を再びネットワーク層によってバックプロパゲーションし、対応するネットワーク重みの調整のために利用することができる。
さらに、対象物表現は、アノテーションあるものとしてよい。ここで、方法はさらに、アノテーションがセンサの可視領域内にあるかどうかを推定するステップを含み得るものであり、アノテーションがセンサの可視領域内にない場合、第1のセンサデータは、破棄される。
センサの可視領域又は視野とは、その内部でイベント又は変化がセンサによって知覚され記録され得る領域であると理解されたい。
さらに、第1のセンサデータの破棄とは、第1のセンサデータと、対象物表現若しくはアノテーションとから成る対が、対象物検出器をトレーニングするためのトレーニングデータとならないこと、又は、対象物検出器のトレーニングに使用されないことを意味する。
したがって、不可視の例えば隠れた対象物の既存のアノテーションを、センサ用の対象物検出器のトレーニングから除外することができる。このことは、対象物検出器の品質にさらにポジティブに作用し得る。
この場合、センサモデルは、人工ニューラルネットワークあるものとしてよい。
人工ニューラルネットワークは、生物学的ニューロンを志向するものであって、既存のトレーニングデータから未知のシステム挙動を学習し、続いて学習されたシステム挙動を未知の入力量にも適用することが可能である。ここで、ニューラルネットワークは、理想化されたニューロンを有する複数の層から成っており、これらの層は、ネットワークのトポロジに従ってそれぞれ異なる形式で相互に接続されている。入力層とも称される第1の層は、この場合、入力値を検出して伝送し、ここで、入力層におけるニューロン数は処理されるべき入力信号数に対応する。最後の層は出力層とも称され、供給される出力値と同数のニューロンを有する。また、入力層と出力層との間には、しばしば隠れ層とも称される少なくとも1つの中間層が設けられており、この場合、中間層数及び中間層内のニューロン数は、ニューラルネットワークによって解決すべき具体的なタスクに依存して定められる。
センサモデルが人工ニューラルネットワークであることにより、第1のセンサの測定特性のモデリングを最適化することができる。ここでは、センサモデルは、センサの既知の実際の又は測定されたセンサデータと、対象物検出器自体によって生成された対応する対象物検出結果又は供給されたアノテーションとに基づいてトレーニングすることができ、この場合、センサモデルは、対象物検出器と同時にトレーニングすることができるが、対象物検出器に依存することなくトレーニングすることもできる。
なお、ここではセンサモデルは人工ニューラルネットワークであるが、これは好ましい実施形態にすぎない。このため、センサモデルは、例えば専門家知識に基づいて生成することもできる。
本発明のさらなる実施形態によれば、自動車の運転者支援システムを制御するための方法も提示され、ここでは、上述した対象物検出器をトレーニングするための方法によってトレーニングされた自動車のセンサ用の対象物検出器が準備され、センサ用の対象物検出器により対象物検出結果が生成され、この対象物検出結果に基づいて運転者支援システムが制御される。
この場合、自動車のセンサ用の対象物検出結果の生成とは、自動車のセンサによって検出されたデータに対して対象物検出が実行されることを意味する。
よって、対象物検出器をトレーニングするための改善された方法に基づいてトレーニングされた対象物検出器に基づく、自動車の運転者支援システムを制御するための方法が提示される。
ここでの対象物検出器をトレーニングするための方法によれば、特定のセンサに基づいてアノテーションされたデータセットを他のセンサのために使用することができる。例えば、LiDARセンサに基づいて生成されたアノテーションをレーダ対象物検出器のトレーニングのために使用することができる。これにより、既存のデータセットの再利用可能性が高められ、ひいては付加的なアノテーションの需要が低減されて、このことにより時間及びコストが節約される。
なお、対象物検出器をトレーニングするための方法は、アノテーションの存在から独立しており、ラベリングされていないデータにも適用することができる。したがって、対象物検出器のトレーニングのために格段に大きいデータ範囲を利用することができ、このことは、対象物検出品質又は対象物検出器の品質にさらにポジティブに作用する。
本発明のさらなる実施形態によれば、対象物検出器をトレーニングするための制御装置も提示される。ここでは、対象物検出器は、センサのセンサデータにおける対象物を検出するように構成されており、制御装置は、センサの第1のセンサデータを供給するように構成された第1の供給ユニットと、第1のセンサデータに対応付けられた対象物表現を供給するように構成された第2の供給ユニットと、センサのセンサデータに対して対象物表現をマッピングするように構成されているセンサモデルへ対象物表現を伝送する伝送ユニットと、センサモデルによって対象物表現を第2のセンサデータに対応付ける対応付けユニットと、第2のセンサデータに基づいて対象物検出器をトレーニングするように構成されたトレーニングユニットと、を備えている。
したがって、対象物検出器をトレーニングするための改善された制御装置が提示される。
制御装置は、特定のセンサに基づいてアノテーションされたデータセットを他のセンサのために使用することができるように構成されている。例えば、LiDARセンサに基づいて生成されたアノテーションを、レーダ対象物検出器のトレーニングに使用することができる。これにより、既存のデータセットの再利用可能性が高められ、ひいては付加的なアノテーションの需要が低減されて、このことにより時間及びコストが節約される。
なお、制御装置は、アノテーションの存在から独立しており、ラベリングされていないデータにも適用することができる。したがって、対象物検出器のトレーニングのために格段に大きいデータ範囲を利用することができ、このことは、対象物検出品質又は対象物検出器の品質にさらにポジティブに作用する。
この場合、制御装置はさらに、第2のセンサデータと第1のセンサデータとを比較して第1のコスト関数を算定するように構成された第1の比較ユニットを有し得るものであり、ここで、トレーニングユニットは、第1のコスト関数に基づいて対象物検出器をトレーニングするように構成されている。したがって、センサモデルのモデリング又はセンサの測定特性のモデリングによって生成された第1のコスト関数によって、対象物検出器のトレーニングをより所期の通りに制御することができる。例えば、トレーニングは、センサが例えばその取り付け位置又は組み込み位置に基づいてきわめて良好に測定可能な対象物の特性に集中することができる。これにより、トレーニングされた対象物検出器の品質を大幅に改善することができる。例えば、対象物検出器がこのケースではディープニューラルネットワークに基づく場合には、第1のコスト関数をネットワーク層によってバックプロパゲーションし、対応するネットワーク重みの調整のために利用することができる。
また、制御装置はさらに、アノテーションを供給するように構成された第3の供給ユニットを備え得るものである。ここで、制御装置はさらに、例えば、対象物表現と供給されたアノテーションとを比較して第2のコスト関数を算定するように構成された第2の比較ユニットも備え得るものであり、ここで、トレーニングユニットは、第2のコスト関数に基づいて対象物検出器をトレーニングするように構成されており、第2の供給ユニットは、第1のセンサデータに基づいて対象物検出器により対象物表現を生成するように構成されている。この場合、第2のコスト関数に基づいて対象物検出器を相応にトレーニングすることにより、対象物検出器を改善又は精細化することができる。例えば、対象物検出器がここではディープニューラルネットワークに基づく場合には、第2のコスト関数を再びネットワーク層によってバックプロパゲーションし、対応するネットワーク重みの調整のために利用することができる。
さらに、対象物表現は、供給されたアノテーションあるものとしてよい。ここでは、制御装置はさらに、アノテーションがセンサの可視領域内に位置しているかどうかを推定するように構成された推定ユニットと、アノテーションがセンサの可視領域内に位置していない場合に第1のセンサデータを破棄するように構成された破棄ユニットとを有し得る。したがって、不可視の対象物、例えば隠れた対象物の既存のアノテーションを、対象物検出器のトレーニングから除外することができる。このことも、トレーニングされた対象物検出器の品質にさらにポジティブに作用する。
この場合も、センサモデルは、人工ニューラルネットワークあるものとしてよい。
センサモデルが人工ニューラルネットワークであることにより、センサの測定特性のモデリングを最適化することができる。ここでは、センサモデルを、センサの既知の実際の又は測定されたセンサデータと、対象物検出器自体によって生成された対応する対象物検出結果又は供給されたアノテーションとに基づいてトレーニングすることができ、この場合、センサモデルは、対象物検出器と同時にトレーニングすることも、対象物検出器に依存することなくトレーニングすることもできる。
なお、ここでは、センサモデルは人工ニューラルネットワークであるが、これは好ましい実施形態にすぎない。このため、センサモデルは、例えば、専門家知識に基づいて生成することもできる。
本発明のさらなる実施形態によればさらに、自動車の運転者支援システムを制御するための制御装置も提示される。当該制御装置は、上述した自動車のセンサ用の対象物検出器をトレーニングするための制御装置によってトレーニングされた対象物検出器を受信する受信ユニットと、自動車のセンサ用の対象物検出器によって対象物検出結果を生成するように構成された生成ユニットと、生成された対象物検出結果に基づいて運転者支援システムを制御するように構成された制御ユニットとを備えている。
このように、対象物検出器をトレーニングするための改善された制御装置によりトレーニングされた対象物検出器に基づいて運転者支援システムを制御するように構成された、運転者支援システムを制御するための制御装置が提示される。
対象物検出器をトレーニングするための制御装置は、ここでは、特定のセンサに基づいてアノテーションされたデータセットを他のセンサのために使用できるように構成されている。例えば、LiDARセンサに基づいて生成されたアノテーションをレーダ対象物検出器のトレーニングに使用することができる。これにより、既存のデータセットの再利用可能性が高められ、ひいては付加的なアノテーションの需要が低減されて、このことにより時間及びコストが節約される。
なお、また、対象物検出器をトレーニングするための制御装置は、アノテーションの存在から独立しており、ラベリングされていないデータに適用することも可能である。したがって、対象物検出器のトレーニングのために格段に大きいデータ範囲を利用することができ、このことは、対象物検出品質又は対象物検出器の品質にさらにポジティブに作用する。
要約すると、本発明により、最適化された対象物検出器を生成することのできる、対象物検出器をトレーニングするための方法及び制御装置が提示されることが理解される。
記載の各構成及び各発展形態は、任意に相互に組み合わせることができる。
本発明の他の可能な構成、発展形態及び実現形態には、実施例に関して上述した又は下述する本発明の特徴の、明示的には言及しない組合せも含まれる。
添付の図面は、本発明の各実施形態のさらなる理解を提供するためのものである。これらの図面は各実施形態を示しており、本発明の基本方式及びコンセプトの説明に関連して利用される。
他の実施形態及び上述の利点の多くが図面に関連して得られる。図面に示されている各要素は必ずしも相互に縮尺通りに示されていない。
図面の各図において、同一の又は同様の機能を有する要素、部材又は部品には、別段の記載がない限り、同一の符号を付してある。
図1には、第1の実施形態による、対象物検出器1をトレーニングするための方法のフローチャートが示されている。
起点は、センサデータに基づいて少なくとも1つの対象物クラスに関する対象物を検出する対象物検出器である。検出は、この場合、どのような種類の対象物であるかの分類と、対応する対象物パラメータの回帰との双方を含み得る。
第1の実施形態によれば、ここでの目的は、典型的にはアノテーションが存在しないセンサのセンサデータに基づき、こうした対象物検出器をトレーニングすることである。この一例として、反射量を測定データとして利用するレーダセンサが挙げられる。しかし、反射量に基づいて対象物にアノテーションすることは困難であるので、レーダに基づく対象物検出器のトレーニングのために、多くの場合、LiDARに基づくアノテーションが使用される。
ただし、この場合、測定方式、センサ仕様又はセンサの取り付け位置若しくは組み込み位置がそれぞれ異なるため、LiDARに基づくアノテーションを1対1でレーダセンサへ移行させることはできない。したがって、例えば種々の到達距離又は視野領域によって、アノテーションの適性が制限され得る。同様に、アノテーションされたいくつかの対象物特性は、目的のセンサの測定方式、例えばレーダセンサの測定方式によって測定不能となることがある。ここで、典型的には、LiDARに基づくアノテーションはアノテーションされた対象物の高さを含むが、これに対し多くのレーダセンサは制限された高さ分解能しか有さない。
ここで、図1は、方法1を示しており、当該方法は、トレーニングデータを用いて、センサのセンサデータにおける対象物を検出するように構成された対象物検出器をトレーニング又は事前トレーニングするステップ2と、センサの第1のセンサデータを供給するステップ3と、第1のセンサデータに対応付けられた対象物表現を供給するステップ4と、センサのセンサデータに対して対象物表現をマッピングするように構成されているセンサモデルへ対象物表現を伝送するステップ5と、対象物表現を第2のセンサデータに対応付けるステップ6と、第2のセンサデータに基づいて対象物検出器をトレーニングするステップ7と、を有している。
図示されている方法1は、この場合、特定のセンサに基づいてアノテーションされたデータセットを他のセンサのために使用することを可能にする。例えば、LiDARセンサに基づいて生成されたアノテーションを、レーダ対象物検出器のトレーニングに使用することができる。これにより、既存のデータセットの再利用可能性が高められ、ひいては付加的なアノテーションの需要が低減されて、このことによって時間及びコストが節約される。
ただし、図示されている方法1はまた、アノテーションの存在から独立しており、ラベリングされていないデータにも適用可能である。したがって、例えば、第2のセンサ用の対象物検出器のトレーニングのために格段に大きいデータ範囲を利用することができ、このことは、対象物検出品質又は対象物検出器の品質にさらにポジティブに作用する。
このように、全体として図1は、センサ1用の対象物検出器をトレーニングするための改善された方法を示している。
特に図1には、センサモデルが目的のセンサの測定特性を記述し、データセットの既存のアノテーションの伝送を支援する、センサモデルを使用する方法1が示されている。
この場合、センサモデルは特に、供給された対象物表現に基づいて、例えば第1のセンサデータ用の対象物検出器の判別又は供給されたアノテーションに基づいて、センサにつき予測される測定値を算定するように構成されている。この場合、センサモデルは、例えばセンサの測定値の予測される位置にわたって確率密度を供給するように構成可能である。確率密度は、この場合、例えばパラメトリック密度関数、例えば多変量ガウス分布によって記述することができ、必ずしも測定値の予測される位置に限定されない。むしろ、密度関数は、別の次元、例えばレーダセンサの場合の半径方向速度に関するものを含むこともあり得る。
ただし、センサモデルはさらに、例えば離散的な近似によって、例えばグリッド表現によっても記述することができ、又は、センサの対応する測定値に対する具体的な値を算定するように構成することができ、ここで、センサモデルは、例えばレーダセンサの場合において予測される反射量のリスト、又は、LiDARセンサの場合においては3D点群を有し得る。
図1にさらに示されているように、この場合、第2のセンサデータに基づいて対象物検出器をトレーニングするステップ7は、第2のセンサデータと第1のセンサデータとを比較して第1のコスト関数又は第1の損失を算定するステップ8と、第1のコスト関数に基づいて対象物検出器をトレーニングするステップ9とを有する。
第1の実施形態によれば、センサモデルは、ここでは微分可能であり、センサモデルは、供給された対象物表現に基づいて、センサモデルに基づいて予測されるセンサ値と実際の条件又は値とを比較する。対象物検出器による対象物検出におけるエラーによって、実際の値とは異なる予測されるセンサ値が生じる。ここで、当該差に基づいて計算された第1のコスト関数を対象物検出器の出力端へ伝送し、対象物検出器の再トレーニングのために使用することができる。
ここで、センサモデルが人工ニューラルネットワークである場合、対応する損失関数は、例えば現実のセンサ測定値の負の対数尤度である。これに対して、センサモデルが具体的なセンサ測定値を予測する場合には、予測されたセンサ測定値と実際のセンサ測定値との間の距離、例えばユークリッド距離又はマハラノビス距離を損失として用いることができる。
第1の実施形態によれば、ここでの対象物表現はさらに、第1のセンサデータに基づいて対象物検出器によって生成された対象物検出結果であり、方法1はさらに、アノテーションを供給するステップ10と、対象物検出結果と供給されたアノテーションとを比較して第2の損失又は第2のコスト関数を算定するステップ11と、第2のコスト関数に基づいて対象物検出器を再トレーニングするステップ12と、を有する。
このように、対象物検出器のトレーニングのために、対象物検出器の出力と利用可能なアノテーションとが比較される。次いで、この比較に基づいて第2のコスト関数が算定され、この第2のコスト関数が対象物検出器の再トレーニングに使用され、例えば、対象物検出器のネットワーク層によってバックプロパゲーションされて、対応するネットワーク重みの調整のために利用可能となる。
第1の実施形態によれば、さらに、センサモデルは人工ニューラルネットワークである。この場合、センサモデルは、対象物検出器と同時にトレーニングすることができる。ただし、センサモデルを例えば事前トレーニングすることも可能である。
ここで、第1のセンサ用の対象物検出器を、続いて、例えば自動車の運転者支援システムの制御、例えば自律運転型自動車の運転者支援システムの制御のために使用することができる。
また、トレーニングされたセンサモデルを、対象物検出器から独立して、さらに他の用途のために、例えば対象物の追跡のため又はセンサデータのシミュレーションのために、利用することもできる。
図2には、第2の実施形態による対象物検出器20をトレーニングするための方法のフローチャートが示されている。
図2に示されているように、方法20はここでも同様に、トレーニングデータを用いて、センサのセンサデータにおける対象物を検出するように構成された対象物検出器をトレーニングするステップ21と、センサの第1のセンサデータを供給するステップ22と、第1のセンサデータに対応付けられた対象物表現を供給するステップ23と、センサのセンサデータに対して対象物表現をマッピングするように構成されているセンサモデルへ対象物表現を伝送するステップ24と、対象物表現を第2のセンサデータに対応付けるステップ25と、第2のセンサデータに基づいて対象物検出器をトレーニングするステップ26と、を含む。
図2に示されている第2の実施形態による方法と図1に示されている第1の実施形態による方法との間の相違点は、第2の実施形態では対象物表現が供給されたアノテーションであり、そこでは、方法はさらに、供給されたアノテーションが第1のセンサの可視領域内に位置しているかどうかを推定するステップ27を含み、ここで、供給されたアノテーションがセンサの可視領域内に位置していない場合、第1のセンサデータがステップ28において破棄されることにある。
図3には、本発明の実施形態による、対象物検出器30をトレーニングするための制御装置のブロック図が示されている。
対象物検出器は、ここでは特に、センサのセンサデータにおける対象物を検出するように構成されている。
図3に示されているように、対象物検出器をトレーニングするための制御装置は、ここでは、対象物検出器をトレーニングデータに基づいて事前トレーニングするように構成された第1のトレーニングユニット31と、センサの第1のセンサデータを供給するように構成された第1の供給ユニット32と、第1のセンサデータに対応付けられた対象物表現を供給するように構成された第2の供給ユニット33と、センサのセンサデータに対して対象物表現をマッピングするように構成されているセンサモデルへ対象物表現を伝送するように構成された伝送ユニット34と、センサモデルによって対象物表現を第2のセンサデータに対応付ける対応付けユニット35と、第2のセンサデータに基づいて対象物検出器を再トレーニングするように構成された第2のトレーニングユニット36とを含む。
ここで、第1のトレーニングユニット、対応付けユニット、及び、第2のトレーニングユニットは、それぞれ、例えばメモリに格納されプロセッサによって実行可能なコードに基づいて実現することができる。第1の供給ユニットは、例えば、センサにより例えばその時点で検出された、及び/又は、メモリ内に格納されているセンサデータを受信するように構成された受信機に基づいて実現することができる。第2の供給ユニットは、例えば、対象物検出器により第1のセンサデータに基づいて生成された対象物検出結果、及び/又は、例えば他のセンサから供給されるアノテーションを受信するように構成された受信機に基づいて実現することができる。さらに、伝送ユニットは、例えば、相応に構成された送信機あるものとしてよい。
ここで、図3の実施形態によれば、制御装置30はさらに、第2のセンサデータと第1のセンサデータとを比較して第1のコスト関数を算定するように構成された第1の比較ユニット37を備えており、この場合、第2のトレーニングユニット36は、第1のコスト関数に基づいて対象物検出器をトレーニングするように構成されている。
ここで、比較ユニットは、例えば、この場合にもメモリに格納されていてプロセッサによって実行可能なコードに基づいて実現可能である。
さらに、アノテーションを供給するように構成された第3の供給ユニット38も見て取れる。
この場合、制御装置30はさらに、対象物表現が第1のセンサデータに基づいて対象物検出器により生成された場合に、対象物表現と供給されたアノテーションとを比較して第2のコスト関数を算定するように構成された第2の比較ユニット39も備えている。ここで、再トレーニングユニット36は、第2のコスト関数に基づいて対象物検出器をトレーニングするように構成されている。
ここで、第3の供給ユニット38は、第2の供給ユニットに統合されているものとしてもよく、対応する受信機を有するものとしてもよい。第2の比較ユニットはさらに、例えばメモリに格納されプロセッサによって実行可能なコードに基づいて実現可能である。
図示されている制御装置30はさらに、対象物表現として供給されたアノテーションがセンサの可視領域内に位置しているかどうかを推定するように構成された推定ユニット40と、アノテーションがセンサの可視領域内に位置していない場合に第1のセンサデータ又は対応する対象物表現を破棄するように構成された破棄ユニット41とを備えている。
推定ユニット及び破棄ユニットは、ここでもそれぞれ、例えばメモリに格納されプロセッサによって実行可能なコードに基づいて実現することができる。
図3の実施形態によれば、さらに、センサモデルは、人工ニューラルネットワークである。
Claims (10)
- センサのセンサデータにおける対象物を検出するように構成されている対象物検出器をトレーニングするための方法であって、
・前記センサの第1のセンサデータを供給するステップ(3,22)と、
・前記第1のセンサデータに対応付けられた対象物表現を供給するステップ(4,23)と、
・前記センサのセンサデータに対して前記対象物表現をマッピングするように構成されたセンサモデルへ前記対象物表現を伝送するステップ(5,24)と、
・前記センサモデルによって前記対象物表現を第2のセンサデータに対応付けるステップ(6,25)と、
・前記第2のセンサデータに基づいて前記対象物検出器をトレーニングするステップ(7,26)と、
を含む方法。 - 前記第2のセンサデータに基づいて前記対象物検出器を再トレーニングするステップ(7)は、
・前記第2のセンサデータと前記第1のセンサデータとを比較して、第1のコスト関数を算定するステップ(8)と、
・前記第1のコスト関数に基づいて前記対象物検出器をトレーニングするステップ(9)と、
を含む、請求項1に記載の方法。 - 前記対象物表現は、供給されるアノテーションである、請求項1又は2に記載の方法。
- 前記センサモデルは、人工ニューラルネットワークである、請求項1乃至3のいずれか一項に記載の方法。
- 自動車の運転者支援システムを制御するための方法において、
・自動車のセンサ用の対象物検出器を準備するステップであって、前記自動車のセンサ用の対象物検出器は、請求項1乃至4のいずれか一項に記載の対象物検出器をトレーニングするための方法によってトレーニングされている、ステップと、
・前記自動車のセンサ用の対象物検出器によって対象物検出結果を生成するステップと、
・前記対象物検出結果に基づいて運転者支援システムを制御するステップと、
を含む方法。 - センサのセンサデータにおける対象物を検出するように構成されている対象物検出器をトレーニングするための制御装置であって、
前記センサの第1のセンサデータを供給するように構成された第1の供給ユニット(32)と、
前記第1のセンサデータに対応付けられた対象物表現を供給するように構成された第2の供給ユニット(33)と、
前記センサのセンサデータに対して前記対象物表現をマッピングするように構成されているセンサモデルへ前記対象物表現を伝送するように構成された伝送ユニット(34)と、
前記センサモデルによって前記対象物表現を第2のセンサデータに対応付けるように構成された対応付けユニット(35)と、
前記第2のセンサデータに基づいて前記対象物検出器をトレーニングするように構成されたトレーニングユニット(36)と、
を備えている制御装置。 - 前記制御装置はさらに、前記第2のセンサデータと前記第1のセンサデータとを比較して第1のコスト関数を算定するように構成されている第1の比較ユニット(37)を備えており、
前記トレーニングユニット(36)は、前記第1のコスト関数に基づいて前記対象物検出器をトレーニングするように構成されている、
請求項6に記載の制御装置。 - 前記対象物表現は、供給されるアノテーションである、請求項6又は7に記載の制御装置。
- 前記センサモデルは、人工ニューラルネットワークである、請求項6乃至8のいずれか一項に記載の制御装置。
- 自動車の運転者支援システムを制御するための制御装置であって、
請求項6乃至9のいずれか一項に記載の対象物検出器をトレーニングするための制御装置によってトレーニングされた、自動車のセンサ用の対象物検出器を受信するための受信ユニットと、
前記自動車のセンサ用の対象物検出器によって対象物検出結果を生成するように構成されている生成ユニットと、
生成された対象物検出結果に基づいて前記運転者支援システムを制御するように構成されている制御ユニットと、
を備えている制御装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022200735.2 | 2022-01-24 | ||
DE102022200735.2A DE102022200735A1 (de) | 2022-01-24 | 2022-01-24 | Verfahren und Steuergerät zum Trainieren eines Objektdetektors |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023107752A true JP2023107752A (ja) | 2023-08-03 |
Family
ID=87068813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023007955A Pending JP2023107752A (ja) | 2022-01-24 | 2023-01-23 | 対象物検出器をトレーニングするための方法及び制御装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230234610A1 (ja) |
JP (1) | JP2023107752A (ja) |
KR (1) | KR20230114210A (ja) |
CN (1) | CN116486350A (ja) |
DE (1) | DE102022200735A1 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017006155A1 (de) | 2017-06-29 | 2017-12-21 | Daimler Ag | Verfahren zum Betreiben eines Sensorsystems eines Fahrzeugs |
DE102019215903A1 (de) | 2019-10-16 | 2021-04-22 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten eines Sensors insbesondere eines Fahrzeugs, Verfahren zum Trainieren und Verfahren zum Ansteuern |
DE102020200911B3 (de) | 2020-01-27 | 2020-10-29 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Erkennen von Objekten in einer Umgebung eines Fahrzeugs |
-
2022
- 2022-01-24 DE DE102022200735.2A patent/DE102022200735A1/de active Pending
-
2023
- 2023-01-18 KR KR1020230007198A patent/KR20230114210A/ko unknown
- 2023-01-19 CN CN202310107011.9A patent/CN116486350A/zh active Pending
- 2023-01-20 US US18/157,544 patent/US20230234610A1/en active Pending
- 2023-01-23 JP JP2023007955A patent/JP2023107752A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
DE102022200735A1 (de) | 2023-07-27 |
CN116486350A (zh) | 2023-07-25 |
KR20230114210A (ko) | 2023-08-01 |
US20230234610A1 (en) | 2023-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210089895A1 (en) | Device and method for generating a counterfactual data sample for a neural network | |
US20210117787A1 (en) | Method for determining a quality grade of data sets of sensors | |
JP4970408B2 (ja) | 物体特性のロバストな推定を用いる適応型運転者支援システム | |
US20200410364A1 (en) | Method for estimating a global uncertainty of a neural network | |
US20230386167A1 (en) | System for detection and management of uncertainty in perception systems | |
US11816914B2 (en) | Modular predictions for complex human behaviors | |
US11797858B2 (en) | Translation of training data between observation modalities | |
CN111274862A (zh) | 用于产生车辆的周围环境的标签对象的设备和方法 | |
US20220324470A1 (en) | Monitoring of an ai module of a vehicle driving function | |
WO2021200392A1 (ja) | データ調整システム、データ調整装置、データ調整方法、端末装置及び情報処理装置 | |
KR102238472B1 (ko) | 오차 보정 방법 및 센서 시스템 | |
CN113095351A (zh) | 借助于初始标记的改善生成经标记的数据的方法 | |
JP2023107752A (ja) | 対象物検出器をトレーニングするための方法及び制御装置 | |
US20230260259A1 (en) | Method and device for training a neural network | |
CN117592542A (zh) | 用于机器学习模型的具有对比损失的专家引导半监督的系统和方法 | |
US20220219698A1 (en) | Enhanced object detection | |
JP2024521717A (ja) | コンピュータ制御されるシステムの安全な制御/監視 | |
WO2022243337A2 (en) | System for detection and management of uncertainty in perception systems, for new object detection and for situation anticipation | |
US20220405573A1 (en) | Calibration for a distributed system | |
Jha et al. | On detection of out of distribution inputs in deep neural networks | |
US20240135195A1 (en) | Efficient search for data augmentation policies | |
US20240232647A9 (en) | Efficient search for data augmentation policies | |
US20220383146A1 (en) | Method and Device for Training a Machine Learning Algorithm | |
US20240142608A1 (en) | Methods and systems for determining a property of an object | |
US20220092466A1 (en) | System and method for utilizing perturbation in a multimodal environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230331 |