JP7227358B2 - トレーニングデータを取得するためのシステム及び方法 - Google Patents
トレーニングデータを取得するためのシステム及び方法 Download PDFInfo
- Publication number
- JP7227358B2 JP7227358B2 JP2021513897A JP2021513897A JP7227358B2 JP 7227358 B2 JP7227358 B2 JP 7227358B2 JP 2021513897 A JP2021513897 A JP 2021513897A JP 2021513897 A JP2021513897 A JP 2021513897A JP 7227358 B2 JP7227358 B2 JP 7227358B2
- Authority
- JP
- Japan
- Prior art keywords
- classifier
- vehicle
- trigger
- sensor data
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 79
- 238000012549 training Methods 0.000 title description 121
- 238000013528 artificial neural network Methods 0.000 claims description 78
- 238000013527 convolutional neural network Methods 0.000 claims description 35
- 238000013473 artificial intelligence Methods 0.000 claims description 26
- 239000013598 vector Substances 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 22
- 230000001960 triggered effect Effects 0.000 claims description 20
- 230000000717 retained effect Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 7
- 230000001133 acceleration Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 5
- 230000006872 improvement Effects 0.000 claims description 2
- 230000004044 response Effects 0.000 claims description 2
- 239000010410 layer Substances 0.000 description 101
- 238000013135 deep learning Methods 0.000 description 78
- 238000010801 machine learning Methods 0.000 description 62
- 230000008569 process Effects 0.000 description 35
- 238000004458 analytical method Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 21
- 238000010200 validation analysis Methods 0.000 description 9
- 230000001413 cellular effect Effects 0.000 description 8
- 238000012805 post-processing Methods 0.000 description 7
- 238000012706 support-vector machine Methods 0.000 description 7
- 239000000047 product Substances 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000014759 maintenance of location Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000012552 review Methods 0.000 description 3
- 238000002604 ultrasonography Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000011900 installation process Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000004557 technical material Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0129—Traffic data processing for creating historical data or processing based on historical data
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0133—Traffic data processing for classifying traffic situation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Description
本出願は、参照によってその全体が本明細書に組み込まれる、2018年9月14日に出願され、「NEURAL NETWORK TRAINING」と題された、米国仮特許出願第62/731,651号の全体を参照によって本明細書に組み込む。
本明細書は、少なくとも、以下の技術的問題に対処するイノベーションについて説明する。効果的な機械学習手法は、基礎となる機械学習モデルに情報を提供するために使用されるトレーニングデータセットに依存する。たとえば、ニューラルネットワークは、数千、数十万、数百万などの例を使用してトレーニングされ得る。トレーニング中、これらの例は、ニューラルネットワークのパラメータ(たとえば、重み、バイアスなど)を調整するために使用され得る。さらに、これらの例は、ニューラルネットワークのハイパーパラメータ(たとえば、いくつかの層)を調整するために使用され得る。このように、トレーニングデータへのアクセスは、こうした機械学習手法の使用に対する制約である。
特定のユースケースに関連する追加のトレーニングデータを識別するためのニューラルネットワークトレーニング手法が開示される。追加のトレーニングデータ、特に、正しく分析するのが難しいユースケースについてのデータ、を識別及び収集することにより、ディープラーニングシステムが、そのパフォーマンスを改善するように再トレーニングされることができる。たとえば、難しいユースケースが識別されることができ、そのユースケースに基づいてデータが収集されることができる。次いで、古いモデルよりもパフォーマンスがすぐれている新しい機械学習モデルが、新しく収集されたデータを使用してトレーニングされることができる。さまざまな実施形態において、既存の機械学習モデルが、関連するトレーニングデータを識別するためにトリガ分類器と共に利用される。次いで、新しいトレーニングデータを作成するための処理のために、関連するトレーニングデータが返送される。いくつかの実施形態では、ターゲットユースケースを代表する初期データセットが作成され、トリガ分類器を作成するために使用される。
図1Aは、道路に沿って移動し、周囲状況からトレーニングデータを収集する、車両を示す概略図である。例示的なブロック図では、車両102が道路を走行している。車両102は、センサが車両102に関するセンサボリューム104に関する情報をキャプチャするように、カメラ、レーダなどのセンサを含み得る。例示的なセンサ107が図1Aに示されている。たとえば、車両102は、車両102の周囲状況の画像を取得し得る。次いで、これらの取得された画像は、周囲状況を理解しようと分析され得る。たとえば、画像に表されている物体を分類するために画像が分析され得る。この例では、他の車両、道路標示、樹木又は他の植物、道路の障害物、歩行者、標識などを識別するために画像が分析され得る。以下でより詳細に説明されるように、車両102は、センサ情報を分析するために機械学習手法を活用し得る。たとえば、例示的なセンサボリューム104に含まれる物体を分類するために、1又は複数の畳み込みニューラルネットワークが使用され得る。図1B及び図7に関して、車両102によって使用され得るディープラーニングシステム700の例示的な説明が以下に含まれている。
図2は、機械学習モデルの中間結果にトリガ分類器を適用するためのプロセスの実施形態を示すフロー図である。いくつかの実施形態では、図2のプロセスは、自動運転のための機械学習モデルのためにセンサによってキャプチャされ、特定のユースケースを満たす、センサデータを収集及び保持するために利用される。たとえば、特定のユースケースは、特定の特徴、物体、シナリオなど、の識別に関連付けられ得る。いくつかの実施形態では、図2のプロセスは、自動運転制御がイネーブルにされているか否かにかかわらず、自動運転が可能である車両上で実施される。たとえば、センサデータは、自動運転が解除された直後、又は車両が人間の運転者によって運転されているときに収集されることができる。いくつかの実施形態では、図2によって説明される手法は、特に、分析が困難なユースケースについて、トレーニングデータセットを改善するために、自動運転のコンテキスト外の他のディープラーニングシステムに適用されることができる。さまざまな実施形態において、トリガ分類器は、機械学習の層の中間出力、及びユースケースのために設計されたトレーニングデータを使用してトレーニングされている。
Claims (20)
- 車両のフリートの複数の車両に含まれるプロセッサシステムを介して実行される方法であって、
前記車両の周りに配置された複数のセンサからセンサデータを受信することであって、前記センサデータは画像を含む、受信することと、
ニューラルネットワークを前記センサデータに適用することと、
前記センサデータについての分類器スコアを決定するために、トリガ分類器を前記ニューラルネットワークの中間結果に適用することであって、前記トリガ分類器は、前記ニューラルネットワークへの画像のグループの入力に基づいて外部システムを介してトレーニングされたものであり、前記画像のグループは、対象となる1または複数の特徴を描写し、前記ニューラルネットワークの中間結果は、前記トリガ分類器をトレーニングすることに使用され、前記トリガ分類器は、前記車両のフリートの複数の車両に提供されるとともに、前記1または複数の特徴を描写する新しい画像を識別するように構成され、前記車両は、複数のトリガ分類器を前記中間結果に適用するように構成されている、適用することと、
前記分類器スコアに少なくとも部分的に基づいて、前記センサデータの少なくとも一部を前記外部システムにコンピュータネットワークを介して送信するかどうかを決定することと、
を含む方法。 - 前記中間結果は前記ニューラルネットワークの中間層の出力である、請求項1に記載の方法。
- 前記中間結果は、前記ニューラルネットワークの最後から2番目の層の出力である、請求項2に記載の方法。
- 前記ニューラルネットワークは畳み込みニューラルネットワークである、請求項1に記載の方法。
- 前記トリガ分類器は、入力ベクトルを使用してトレーニングされ、該入力ベクトルは、前記ニューラルネットワークの層の出力である、請求項1に記載の方法。
- 前記ニューラルネットワークの前記層は動的に選択される、請求項5に記載の方法。
- 前記外部システムは、前記トリガ分類器を車両に無線で送信する、請求項5に記載の方法。
- 前記トリガ分類器は、前記ニューラルネットワークについての識別された改善の必要性に基づいて生成されている、請求項1に記載の方法。
- 前記トリガ分類器は、以下、すなわち、トンネルの入口、トンネルの出口、道路の分岐点、道路の障害物、道路の車線のライン、又は運転可能なスペースのうちの、1又は複数を識別するために使用される、請求項1に記載の方法。
- 前記分類器スコアに少なくとも部分的に基づいて、前記センサデータの少なくとも前記一部を前記コンピュータネットワークを介して送信するかどうかを前記決定することは、前記分類器スコアを閾値と比較することを含む、請求項1に記載の方法。
- 1又は複数の必要な条件に基づいて前記トリガ分類器を適用するかどうかを決定することをさらに含む、請求項1に記載の方法。
- 前記1又は複数の必要な条件は、以下、すなわち、走行時間、前記トリガ分類器の最後に保持されたセンサデータからの最小時間、自動運転機能に関連付けられた解除イベント、車種、ステアリング角度の閾値、又は道路タイプの要件のうちの、1又は複数に基づく、請求項11に記載の方法。
- 前記トリガ分類器は、そこから前記中間結果を受信する、前記ニューラルネットワークの特定の層を指定する、請求項1に記載の方法。
- 前記センサデータの少なくとも前記一部、及び以下、すなわち、分類器スコア、位置、タイムスタンプ、道路タイプ、以前に送信されたセンサデータからの時間の長さ、又は車種のうちの、1又は複数を識別するメタデータ、を送信することをさらに含む、請求項1に記載の方法。
- 前記センサデータの少なくとも前記一部、及び以下、すなわち、車両の速度、車両の加速度、車両のブレーキング、又は車両のステアリング角度のうちの、1又は複数を識別する、前記車両の動作条件、を送信することをさらに含む、請求項1に記載の方法。
- 前記コンピュータネットワークを介して、重みベクトルによって表される前記トリガ分類器を受信することをさらに含む、請求項1に記載の方法。
- 前記トリガ分類器は、前記重みベクトル及びバイアスによって表される、請求項16に記載の方法。
- 車両のフリートの複数の車両に提供されるコンピュータプログラム製品であって、該コンピュータプログラム製品は、非一時的なコンピュータ可読記憶媒体において具現化され、
車両の周りに配置された複数のセンサから、画像を含むセンサデータを受信し、
ニューラルネットワークを前記センサデータに適用し、
前記センサデータについての分類器スコアを決定するために、トリガ分類器を前記ニューラルネットワークの中間結果に適用し、
前記トリガ分類器は、前記ニューラルネットワークへの画像のグループの入力に基づいて外部システムを介してトレーニングされたものであり、前記画像のグループは、対象となる1または複数の特徴を描写し、前記ニューラルネットワークの中間結果は、前記トリガ分類器をトレーニングすることに使用され、前記トリガ分類器は、前記車両のフリートの複数の車両に提供されるとともに、前記1または複数の特徴を描写する新しい画像を識別するように構成され、前記車両は、複数のトリガ分類器を前記中間結果に適用するように構成され、及び、
前記分類器スコアに少なくとも部分的に基づいて、前記センサデータの少なくとも一部を前記外部システムにコンピュータネットワークを介して送信するかどうかを決定する、
ためのコンピュータ命令を含む、コンピュータプログラム製品。 - 車両のフリートの複数の車両に組み込まれたシステムであって、
車両上のセンサと、
人工知能プロセッサと、
車両制御モジュールと、
画像信号プロセッサであって、
前記センサを使用してキャプチャされた画像を受信し、
該キャプチャされた画像を処理し、
該処理された画像をニューラルネットワークに提供する、ように構成された画像信号プロセッサと、
前記人工知能プロセッサと連結されたメモリであって、該メモリは、実行されたときに前記人工知能プロセッサに対して、
前記処理された画像を受信させ、
前記処理された画像に対して前記ニューラルネットワークを使用して推論を実行させ、
前記ニューラルネットワークの中間結果をトリガ分類器に提供させ、該トリガ分類器は前記キャプチャされた画像に対応する分類器スコアを決定するために使用され、及び、
前記車両を少なくとも部分的に自律的に操作するために、前記ニューラルネットワークの干渉結果を前記車両制御モジュールに提供させる、命令を前記人工知能プロセッサに提供するように構成され、
前記トリガ分類器は、前記ニューラルネットワークへの画像のグループの入力に基づいて外部システムを介してトレーニングされたものであり、前記画像のグループは、対象となる1または複数の特徴を描写し、前記ニューラルネットワークの中間結果は、前記トリガ分類器をトレーニングすることに使用され、前記トリガ分類器は、前記車両のフリートの複数の車両の前記システムに提供されるとともに、前記1または複数の特徴を描写する新しい画像を識別するように構成され、前記システムは、複数のトリガ分類器を前記中間結果に適用するように構成されている、メモリと、
前記分類器スコアに少なくとも部分的に基づいて、前記キャプチャされた画像の少なくとも一部を前記外部システムにコンピュータネットワークを介して送信するように構成されたネットワークインタフェースと、
を備える、システム。 - 前記システムは、前記1又は複数の特徴が現実世界の位置に配置されていることを決定し、前記決定は、前記1又は複数の特徴を描写する画像を送信した前記車両のフリートの複数の車両の位置に基づいており、前記車両は、前記現実世界の位置の閾値距離内にある前記車両の位置に応答して前記トリガ分類器を適用する、請求項1に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023017625A JP2023053031A (ja) | 2018-09-14 | 2023-02-08 | トレーニングデータを取得するためのシステム及び方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862731651P | 2018-09-14 | 2018-09-14 | |
US62/731,651 | 2018-09-14 | ||
PCT/US2019/051121 WO2020056331A1 (en) | 2018-09-14 | 2019-09-13 | System and method for obtaining training data |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023017625A Division JP2023053031A (ja) | 2018-09-14 | 2023-02-08 | トレーニングデータを取得するためのシステム及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021536072A JP2021536072A (ja) | 2021-12-23 |
JP7227358B2 true JP7227358B2 (ja) | 2023-02-21 |
Family
ID=69777876
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021513897A Active JP7227358B2 (ja) | 2018-09-14 | 2019-09-13 | トレーニングデータを取得するためのシステム及び方法 |
JP2023017625A Pending JP2023053031A (ja) | 2018-09-14 | 2023-02-08 | トレーニングデータを取得するためのシステム及び方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023017625A Pending JP2023053031A (ja) | 2018-09-14 | 2023-02-08 | トレーニングデータを取得するためのシステム及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210271259A1 (ja) |
EP (1) | EP3850549A4 (ja) |
JP (2) | JP7227358B2 (ja) |
KR (2) | KR102662474B1 (ja) |
CN (1) | CN112771548A (ja) |
WO (1) | WO2020056331A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3850546A4 (en) | 2018-09-10 | 2022-06-15 | Drisk, Inc. | SYSTEMS AND PROCEDURES FOR GRAPH-BASED AI TRAINING |
IL270540A (en) * | 2018-12-26 | 2020-06-30 | Yandex Taxi Llc | Method and system for training a machine learning algorithm to recognize objects from a distance |
WO2020185234A1 (en) * | 2019-03-14 | 2020-09-17 | Hewlett-Packard Development Company, L.P. | Preprocessing sensor data for machine learning |
ES2905570T3 (es) | 2019-03-19 | 2022-04-11 | 2Hfutura Sa | Técnica para la recuperación eficiente de datos de personalidad |
KR20210050052A (ko) * | 2019-10-25 | 2021-05-07 | 현대모비스 주식회사 | 자동차용 센서 통합 모듈 |
EP3819888B1 (en) * | 2019-11-05 | 2023-12-27 | Valeo Comfort and Driving Assistance | Vehicle system of a vehicle for detecting and validating an event using a deep learning model |
DE102020215656A1 (de) | 2020-12-10 | 2022-06-15 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Generieren von Anomalie-Trainingsdaten für ein künstliches Neuronales Netz |
WO2022146945A1 (en) * | 2020-12-30 | 2022-07-07 | Flir Unmanned Aerial Systems Ulc | Systems and methods for learning and finding objects in-the-wild |
WO2022165525A1 (en) * | 2021-01-28 | 2022-08-04 | Drisk, Inc. | Systems and methods for autonomous vehicle control |
DE102021201539A1 (de) | 2021-02-18 | 2022-08-18 | Zf Friedrichshafen Ag | Erzeugung von Trainingsdaten für einen Algorithmus des maschinellen Lernens |
EP4047515B1 (en) * | 2021-02-19 | 2023-10-11 | Zenseact AB | Platform for perception system development for automated driving systems |
EP4047514B1 (en) * | 2021-02-19 | 2023-10-11 | Zenseact AB | Platform for perception system development for automated driving system |
DE102021204143A1 (de) | 2021-04-26 | 2022-10-27 | Volkswagen Aktiengesellschaft | Gewinnung eines Sensor-Datensatzes eines Fahrzeugs einer Fahrzeugflotte |
EP4082862A1 (en) * | 2021-04-29 | 2022-11-02 | Zenseact AB | Platform for path planning system development for automated driving system |
KR20230021457A (ko) * | 2021-08-05 | 2023-02-14 | 현대모비스 주식회사 | 차량의 장애물 감지 시스템 및 방법 |
GB2611765B (en) * | 2021-10-08 | 2024-01-31 | Samsung Electronics Co Ltd | Method, system and apparatus for monocular depth estimation |
KR102416691B1 (ko) * | 2021-11-24 | 2022-07-06 | 주식회사 마크애니 | 다중 객체 인식용 기계학습을 위한 다중 데이터셋 기반 학습 장치 및 방법 |
DE102021214334B3 (de) | 2021-12-14 | 2023-06-07 | Continental Autonomous Mobility Germany GmbH | Fahrzeugdatensystem und Verfahren zur Ermittlung von relevanten bzw. übertragenswerten Fahrzeugdaten eines Umgebungserfassungssensors |
EP4231196A1 (en) * | 2022-02-17 | 2023-08-23 | Volvo Car Corporation | Methods and apparatus for training a machine learning algorithm |
WO2023173280A1 (en) * | 2022-03-15 | 2023-09-21 | Huawei Technologies Co.,Ltd. | System and method for autonomous vehicle motion planner optimisation |
DE102022111180A1 (de) | 2022-05-05 | 2023-11-09 | Bayerische Motoren Werke Aktiengesellschaft | Computer-implementiertes verfahren und vorrichtung zur auslegung einer datensammelkampagne für ein kraftfahrzeug |
DE102022111325A1 (de) | 2022-05-06 | 2023-11-09 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und vorrichtung zur ermittlung einer fehlfunktion eines kraftfahrzeugs |
WO2024072984A1 (en) | 2022-09-30 | 2024-04-04 | Tesla, Inc. | Actuator and actuator design methodology |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017175282A1 (ja) | 2016-04-04 | 2017-10-12 | オリンパス株式会社 | 学習方法、画像認識装置およびプログラム |
US9875440B1 (en) | 2010-10-26 | 2018-01-23 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
JP2018125777A (ja) | 2017-02-02 | 2018-08-09 | パナソニックIpマネジメント株式会社 | 撮像装置、学習サーバ、撮像システム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7313467B2 (en) * | 2000-09-08 | 2007-12-25 | Automotive Technologies International Inc. | System and method for in-vehicle communications |
CN101599126B (zh) * | 2009-04-22 | 2012-09-19 | 哈尔滨工业大学 | 利用全局互信息加权的支持向量机分类器 |
US9542626B2 (en) * | 2013-09-06 | 2017-01-10 | Toyota Jidosha Kabushiki Kaisha | Augmenting layer-based object detection with deep convolutional neural networks |
CN105320957B (zh) * | 2014-07-10 | 2022-02-15 | 腾讯科技(深圳)有限公司 | 分类器训练方法和装置 |
US20170046510A1 (en) * | 2015-08-14 | 2017-02-16 | Qualcomm Incorporated | Methods and Systems of Building Classifier Models in Computing Devices |
US10289949B2 (en) * | 2015-09-29 | 2019-05-14 | International Business Machines Corporation | Incident prediction and response using deep learning techniques and multimodal data |
US20180004210A1 (en) * | 2016-07-01 | 2018-01-04 | nuTonomy Inc. | Affecting Functions of a Vehicle Based on Function-Related Information about its Environment |
JP2018055259A (ja) * | 2016-09-27 | 2018-04-05 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2018060268A (ja) * | 2016-10-03 | 2018-04-12 | 株式会社日立製作所 | 認識装置および学習システム |
US10748075B2 (en) * | 2016-10-21 | 2020-08-18 | Stmicroelectronics, Inc. | Method and apparatus for energy efficient probabilistic context awareness of a mobile or wearable device user by switching between a single sensor and multiple sensors |
KR20180055708A (ko) * | 2016-11-16 | 2018-05-25 | 삼성전자주식회사 | 이미지를 처리하는 전자 장치 및 방법 |
CN107766876B (zh) * | 2017-09-19 | 2019-08-13 | 平安科技(深圳)有限公司 | 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质 |
CN107818335A (zh) * | 2017-10-09 | 2018-03-20 | 南京航空航天大学 | 一种基于多分类器自适应加权的钢轨裂纹识别方法 |
-
2019
- 2019-09-13 WO PCT/US2019/051121 patent/WO2020056331A1/en unknown
- 2019-09-13 EP EP19859523.3A patent/EP3850549A4/en active Pending
- 2019-09-13 CN CN201980060070.7A patent/CN112771548A/zh active Pending
- 2019-09-13 JP JP2021513897A patent/JP7227358B2/ja active Active
- 2019-09-13 KR KR1020237017871A patent/KR102662474B1/ko active IP Right Grant
- 2019-09-13 KR KR1020217007900A patent/KR102538768B1/ko active IP Right Grant
- 2019-09-13 US US17/250,825 patent/US20210271259A1/en active Pending
-
2023
- 2023-02-08 JP JP2023017625A patent/JP2023053031A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9875440B1 (en) | 2010-10-26 | 2018-01-23 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
WO2017175282A1 (ja) | 2016-04-04 | 2017-10-12 | オリンパス株式会社 | 学習方法、画像認識装置およびプログラム |
JP2018125777A (ja) | 2017-02-02 | 2018-08-09 | パナソニックIpマネジメント株式会社 | 撮像装置、学習サーバ、撮像システム |
Also Published As
Publication number | Publication date |
---|---|
EP3850549A1 (en) | 2021-07-21 |
JP2023053031A (ja) | 2023-04-12 |
US20210271259A1 (en) | 2021-09-02 |
EP3850549A4 (en) | 2022-06-15 |
WO2020056331A1 (en) | 2020-03-19 |
KR20230079505A (ko) | 2023-06-07 |
KR102662474B1 (ko) | 2024-04-30 |
KR20210045454A (ko) | 2021-04-26 |
JP2021536072A (ja) | 2021-12-23 |
KR102538768B1 (ko) | 2023-06-01 |
CN112771548A (zh) | 2021-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7227358B2 (ja) | トレーニングデータを取得するためのシステム及び方法 | |
US20220107651A1 (en) | Predicting three-dimensional features for autonomous driving | |
US11748620B2 (en) | Generating ground truth for machine learning from time series elements | |
KR102618700B1 (ko) | 시각적 이미지 데이터를 사용하는 오브젝트 특성 추정 | |
US10007269B1 (en) | Collision-avoidance system for autonomous-capable vehicle | |
US11501525B2 (en) | Systems and methods for panoptic image segmentation | |
CN114072841A (zh) | 根据图像使深度精准化 | |
KR20240063182A (ko) | 트레이닝 데이터를 획득하기 위한 시스템 및 방법 | |
JP2024062325A (ja) | 情報処理装置及びプログラム | |
JP2024062326A (ja) | 情報処理装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220426 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220722 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7227358 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |