JP2022516288A - 階層型機械学習ネットワークアーキテクチャ - Google Patents
階層型機械学習ネットワークアーキテクチャ Download PDFInfo
- Publication number
- JP2022516288A JP2022516288A JP2021538780A JP2021538780A JP2022516288A JP 2022516288 A JP2022516288 A JP 2022516288A JP 2021538780 A JP2021538780 A JP 2021538780A JP 2021538780 A JP2021538780 A JP 2021538780A JP 2022516288 A JP2022516288 A JP 2022516288A
- Authority
- JP
- Japan
- Prior art keywords
- model
- subclass
- classification
- feature map
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 title claims description 409
- 238000013528 artificial neural network Methods 0.000 claims description 46
- 230000011218 segmentation Effects 0.000 claims description 25
- 241001465754 Metazoa Species 0.000 claims description 5
- 238000000034 method Methods 0.000 abstract description 67
- 238000007670 refining Methods 0.000 abstract 2
- 230000008447 perception Effects 0.000 description 22
- 238000012549 training Methods 0.000 description 22
- 238000004422 calculation algorithm Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 18
- 238000009826 distribution Methods 0.000 description 17
- 238000001514 detection method Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000036961 partial effect Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 241000272165 Charadriidae Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000012628 principal component regression Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 231100000241 scar Toxicity 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
図1は、1つまたは複数のセンサによって収集されたセンサデータから自律車両を取り巻く環境内の複数の物体を検出する自律車両102を含む例示的なシナリオ100を示している。いくつかの例では、自律車両102は、米国運輸省道路交通安全局によって発行されたレベル5分類に従って操作するように構成された自律車両であり得、これは、ドライバー(または乗員)が常に車両を制御することを期待することなく、全体行程のすべての安全上重要な機能を実行可能な車両について説明している。しかしながら、他の例では、自律車両102は、他のレベルまたは分類を有する完全なまたは部分的な自律車両であり得る。本明細書で説明される技術は、自律車両用などのロボット制御以外に対して適用され得ることが企図される。例えば、本明細書で説明される技術は、ビデオゲーム、製造、拡張現実などに適用され得る。
図2は、第1のMLモデル202の例示的なアーキテクチャ200に関する追加の詳細を示している。いくつかの例では、第1のMLモデル202は、1つまたは複数のセンサからセンサデータ204を受信し得る。いくつかの例では、センサデータ204は、例えば、画像206および/またはLIDARデータ、RADARデータ、生体測定データ、環境データなどのような画像を含み得る。画像206は、例えば、二次元空間に投影された、グレースケール画像、赤-緑-青(RGB)画像、飛行時間画像(a time of flight image)、深度画像、赤外線画像、LIDARポイント(および/または他の三次元センサデータポイント)の画像、および/またはそれらの任意の組み合わせなどの画像を含み得る。第1のMLモデル202は、追加的または代替的に、1つまたは複数のセンサ(例えば、LIDARセンサおよび/またはRADARセンサからのポイントクラウド)から他のタイプのセンサデータを受信することを含み得ることが理解される。
図3は、コンピュータビジョンの精度を改善する、および/または知覚システムのトレーニング性を改善するための例示的なアーキテクチャ300のブロック図を示している。いくつかの例では、例示的なアーキテクチャ300は、知覚エンジン110などの知覚エンジンの一部を表し得る。
図4は、センサデータで表される物体のサブ分類を決定するための例示的なプロセス400を示している。いくつかの例では、例示的なプロセス400は、例示的なアーキテクチャ300のコンポーネントによって達成され得る。
図5は、本明細書で説明される技術を実施する例示的なシステムのブロック図を示す。いくつかの例では、システム500は、図1の自律車両102に対応し得る車両502を含み得る。いくつかの例では、車両502は、米国運輸省道路交通安全局によって発行されたレベル5分類に従って操作するように構成された自律車両であり得、これは、ドライバー(または乗員)が車両を常に制御することを期待することなく、全体行程のすべての安全上重要な機能を実行可能な車両について説明している。しかしながら、他の例では、車両502は、他のレベルまたは分類を有する完全なまたは部分的な自律車両であり得る。さらに、いくつかの例では、本明細書に記載の技術は、非自律車両によっても使用可能であり得る。本明細書で説明される技術は、自律車両などのロボット制御以外に対しても適用され得ることが企図される。例えば、本明細書で説明される技術は、ビデオゲーム、製造、拡張現実などに適用され得る。
A.画像を自律車両のセンサから受信することと、前記画像を第1のニューラルネットワークへの入力として提供することと、前記画像内に表現される物体に関連付けられた特徴マップ、関心領域、分類、第1の確率を、前記第1のニューラルネットワークから受信することと、前記関心領域に対応する前記特徴マップの少なくとも一部分を第2のニューラルネットワークへの入力として提供することと、サブ分類およびそれに関連付けられた第2の確率を、前記第2のニューラルネットワークから受信することと、前記分類または前記サブ分類の少なくとも1つに少なくとも部分的に基づいて前記自律車両の操作を制御することと、を含む、方法。
をさらに備える、段落Fから段落Iのいずれか1つに記載のシステム。
Claims (15)
- 1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサによって実行されると、
センサデータを受信することと、
前記センサデータを第1の機械学習(ML)モデルへの入力として提供することと、
前記センサデータ内の物体の表現に関連付けられた分類、前記分類に関連付けられた第1の確率、特徴マップ、前記物体の前記表現に関連付けられた前記センサデータの関心領域を、前記第1のMLモデルから受信することと、
サブ分類および前記サブ分類に関連付けられた第2の確率を、サブクラスMLモデルから受信することと、
を含む操作をシステムに実行させる、プロセッサ実行可能命令を格納するメモリと、
を備える、システム。 - 前記操作は、前記第1のMLモデルの第1の部分から受信した第1の特徴マップの少なくとも第1の部分、および前記第1のMLモデルの第2の部分から受信した第2の特徴マップの少なくとも第2の部分を、前記サブクラスMLモデル内へ入力することをさらに備える、請求項1に記載のシステム。
- 前記第1の部分および前記第2の部分は前記関心領域に少なくとも部分的に基づいている、請求項2に記載のシステム。
- 前記第2の特徴マップは、セマンティックセグメンテーション特徴マップ、インスタンスセグメンテーション特徴マップ、高密度深度特徴マップまたは物体方向特徴マップの少なくとも1つを含む、請求項2に記載のシステム。
- 前記操作は、
前記第1のMLモデルまたは前記サブクラスMLモデルの少なくとも1つへグラウンドトゥルースセンサデータを提供することであって、前記グラウンドトゥルースセンサデータはグラウンドトゥルース分類ラベルおよびグラウンドトゥルースサブ分類ラベルに関連付けられている、提供することと、
前記第1のMLモデルの第1の出力とグラウンドトゥルース分類ラベルとの間の差に少なくとも部分的に基づいて、第1の損失を決定することと、
前記サブクラスMLモデルの第2の出力と前記グラウンドトゥルースサブ分類ラベルとの間の差に少なくとも部分的に基づいて、第2の損失を決定することと、
前記第1のMLモデルの1つまたは複数の第1のパラメータまたは前記サブクラスMLモデルの1つまたは複数の第2のパラメータの少なくとも1つを変更して、前記第1の損失または前記第2の損失の少なくとも1つを最小化することと、
さらに備える、請求項1から請求項4のいずれか1項に記載のシステム。 - 前記MLモデルの前記第2の部分は第1の分類に関連付けられていて、
前記MLモデルの第3の部分は第2の分類に関連付けられていて、
前記第1の分類および前記第2の分類は前記MLモデルの前記第1の部分に関連付けられている候補分類である、
請求項1から請求項5のいずれか1項に記載のシステム。 - 前記第1の分類および前記第2の分類は複数の分類のうちの2つであり、前記複数の分類は
歩行者分類、
車両分類、
自転車分類、
標識分類、
動物分類、
交通障害分類、
の少なくとも2つを含む、請求項6に記載のシステム。 - 前記第1のMLモデルは複数の第1の層を含む第1のニューラルネットワークを含み、
前記サブクラスMLモデルは複数の第2の層を含む第2のニューラルネットワークを含む、
請求項1から請求項7のいずれか1項に記載のシステム。 - 前記第1のMLモデルは、複数の第1の層を含むニューラルネットワークの第1の部分を含み、
前記サブクラスMLモデルは、複数の第2の層を含む前記ニューラルネットワークの第2の部分を含む、
請求項1から請求項8のいずれか1項に記載のシステム。 - 前記操作は、
前記第1の確率が第1の確率閾値を満たすまたは超えると決定することに少なくとも部分的に基づいて、前記物体に関連付けられた前記分類を出力することと、
前記第2の確率が第2の確率閾値を満たすまたは超えると決定することに少なくとも部分的に基づいて、前記物体に伴って前記サブ分類を出力することと、
前記分類または前記サブ分類の少なくとも1つに少なくとも部分的に基づいて、自律車両を制御することと、
をさらに備える、請求項1から請求項9のいずれか1項に記載のシステム。 - 前記自律車両は前記システムを含む、請求項10に記載のシステム。
- 1つまたは複数のプロセッサによって実行されると、
センサデータを受信すること、
前記センサデータを第1の機械学習(ML)モデルの入力として提供することと、
前記センサデータ内の物体の表現に関連付けられた分類、および前記分類に関連付けられた第1の確率を含む第1の出力を、前記第1のMLモデルから、受信することと、
サブ分類および前記サブ分類に関連付けられた第2の確率を、サブクラスMLモデルから、受信することと、
を備える操作を前記1つまたは複数のプロセッサに実行させる、プロセッサ実行可能命令を格納する非一時的コンピュータ可読媒体。 - 前記操作は、
第1の特徴マップを前記第1のMLモデルの第1の部分から受信することと、
第2の特徴マップを前記第1のMLモデルの第2の部分から受信することと、
前記第1の特徴マップの少なくとも一部分および前記第2の特徴マップの少なくとも一部分を、前記サブクラスMLモデル内へ、入力することと、
さらに備え、
前記第1の特徴マップまたは前記第2の特徴マップの少なくとも1つは、前記センサデータ内の前記物体の前記表現に関連付けられた関心領域に関連付けられている、請求項12に記載の非一時的コンピュータ可読媒体。 - MLモデルは、少なくとも前記第1のMLモデルおよび前記サブクラスMLモデルを含み、
ニューラルネットワークは、
前記第1のMLモデルまたは前記サブクラスMLモデルの少なくとも1つへグラウンドトゥルースセンサデータを提供することであって、前記グラウンドトゥルースセンサデータはグラウンドトゥルース分類ラベルおよびグラウンドトゥルースサブ分類ラベルに関連付けられている、提供することと、
前記第1のMLモデルの第1の出力とグラウンドトゥルース分類ラベルとの間の差に少なくとも部分的に基づいて、第1の損失を、決定することと、
前記サブクラスMLモデルの第2の出力と前記グラウンドトゥルースサブ分類ラベルとの間の差に少なくとも部分的に基づいて、第2の損失を、決定することと、
前記第1のMLモデルの1つまたは複数の第1のパラメータまたは前記サブクラスMLモデルの1つまたは複数の第2のパラメータの少なくとも1つを変更して、前記第1の損失または前記第2の損失の少なくとも1つを最小化することと、
に少なくとも部分的に基づいて、トレーニングされる、
請求項12または請求項13に記載の非一時的コンピュータ可読媒体。 - 前記サブクラスMLモデルは第1のサブクラスMLモデルであり、
前記分類は第1の分類であり、
前記操作は、
前記第1の分類に関連付けられた第1の特徴マップを、前記第1のMLモデルから、受信することと、
第2の分類に関連付けられた第2の特徴マップを、前記第1のMLモデルから、受信することと、
前記第1のサブクラスMLモデルに関連付けられている前記第1の分類に少なくとも部分的に基づいて、前記第1の特徴マップの第1の部分を、前記第1のサブクラスMLモデルへの入力として、提供することと、
第2のサブクラスMLモデルに関連付けられている前記第2の分類に少なくとも部分的に基づいて、前記第2の特徴マップの第2の部分を、前記第2のサブクラスMLモデルへの入力として、提供することと、
をさらに備える、請求項12から請求項14のいずれか1項に記載の非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/238,475 | 2019-01-02 | ||
US16/238,475 US10963709B2 (en) | 2019-01-02 | 2019-01-02 | Hierarchical machine-learning network architecture |
PCT/US2019/067669 WO2020142247A1 (en) | 2019-01-02 | 2019-12-19 | Hierarchical machine-learning network architecture |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022516288A true JP2022516288A (ja) | 2022-02-25 |
JPWO2020142247A5 JPWO2020142247A5 (ja) | 2022-10-11 |
Family
ID=69650689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021538780A Pending JP2022516288A (ja) | 2019-01-02 | 2019-12-19 | 階層型機械学習ネットワークアーキテクチャ |
Country Status (5)
Country | Link |
---|---|
US (2) | US10963709B2 (ja) |
EP (1) | EP3906501A1 (ja) |
JP (1) | JP2022516288A (ja) |
CN (1) | CN113261009A (ja) |
WO (1) | WO2020142247A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11155259B2 (en) * | 2018-09-13 | 2021-10-26 | Honda Motor Co., Ltd. | System and method for egocentric-vision based future vehicle localization |
US11520331B2 (en) * | 2018-12-28 | 2022-12-06 | Intel Corporation | Methods and apparatus to update autonomous vehicle perspectives |
US10963709B2 (en) | 2019-01-02 | 2021-03-30 | Zoox, Inc. | Hierarchical machine-learning network architecture |
US11313950B2 (en) * | 2019-01-15 | 2022-04-26 | Image Sensing Systems, Inc. | Machine learning based highway radar vehicle classification across multiple lanes and speeds |
US20210073686A1 (en) * | 2019-09-06 | 2021-03-11 | Yuan Yuan Ding | Self-structured machine learning classifiers |
EP3800581A1 (en) * | 2019-10-03 | 2021-04-07 | Axis AB | A method and apparatus for generating an object classification for an object |
US11354913B1 (en) * | 2019-11-27 | 2022-06-07 | Woven Planet North America, Inc. | Systems and methods for improving vehicle predictions using point representations of scene |
US11450008B1 (en) * | 2020-02-27 | 2022-09-20 | Amazon Technologies, Inc. | Segmentation using attention-weighted loss and discriminative feature learning |
US11798270B2 (en) * | 2020-04-27 | 2023-10-24 | Molecular Devices, Llc | Systems and methods for image classification |
US11989020B1 (en) * | 2020-07-14 | 2024-05-21 | Aurora Operations, Inc. | Training machine learning model(s), in simulation, for use in controlling autonomous vehicle(s) |
US20220067458A1 (en) * | 2020-09-01 | 2022-03-03 | International Business Machines Corporation | Smart metadata mapping for sensor data |
JP7095726B2 (ja) * | 2020-11-16 | 2022-07-05 | 沖電気工業株式会社 | 学習装置、学習方法および学習プログラム |
US20220176998A1 (en) * | 2020-12-08 | 2022-06-09 | Guangzhou Automobile Group Co., Ltd. | Method and Device for Loss Evaluation to Automated Driving |
CN113096136A (zh) * | 2021-03-30 | 2021-07-09 | 电子科技大学 | 一种基于深度学习的全景分割方法 |
CN113361593B (zh) * | 2021-06-03 | 2023-12-19 | 阿波罗智联(北京)科技有限公司 | 生成图像分类模型的方法、路侧设备及云控平台 |
CN114120253B (zh) * | 2021-10-29 | 2023-11-14 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备和存储介质 |
DE102022204623A1 (de) | 2022-05-11 | 2023-11-16 | Psa Automobiles Sa | Objekterkennung durch neuronales Netz mit Unsicherheitsmaß |
EP4357885A1 (en) * | 2022-10-21 | 2024-04-24 | Nokia Technologies Oy | Apparatus, methods and computer programs for classifying objects |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9428186B2 (en) * | 2002-04-09 | 2016-08-30 | Intelligent Technologies International, Inc. | Exterior monitoring for vehicles |
US10747224B2 (en) * | 2018-06-19 | 2020-08-18 | Toyota Research Institute, Inc. | Debugging an autonomous driving machine learning model |
US20190391581A1 (en) * | 2018-06-26 | 2019-12-26 | Uber Technologies, Inc. | Passenger Health Monitoring and Intervention for Autonomous Vehicles |
US10977501B2 (en) * | 2018-12-21 | 2021-04-13 | Waymo Llc | Object classification using extra-regional context |
US10963709B2 (en) | 2019-01-02 | 2021-03-30 | Zoox, Inc. | Hierarchical machine-learning network architecture |
-
2019
- 2019-01-02 US US16/238,475 patent/US10963709B2/en active Active
- 2019-12-19 WO PCT/US2019/067669 patent/WO2020142247A1/en unknown
- 2019-12-19 JP JP2021538780A patent/JP2022516288A/ja active Pending
- 2019-12-19 EP EP19853296.2A patent/EP3906501A1/en active Pending
- 2019-12-19 CN CN201980087531.XA patent/CN113261009A/zh active Pending
-
2021
- 2021-03-29 US US17/215,938 patent/US11450117B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11450117B2 (en) | 2022-09-20 |
WO2020142247A1 (en) | 2020-07-09 |
US20210216793A1 (en) | 2021-07-15 |
EP3906501A1 (en) | 2021-11-10 |
US20200210721A1 (en) | 2020-07-02 |
CN113261009A (zh) | 2021-08-13 |
US10963709B2 (en) | 2021-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11450117B2 (en) | Hierarchical machine-learning network architecture | |
US10627818B2 (en) | Temporal prediction model for semantic intent understanding | |
US11726492B2 (en) | Collision avoidance perception system | |
US10937178B1 (en) | Image-based depth data and bounding boxes | |
US11010907B1 (en) | Bounding box selection | |
US10981567B2 (en) | Feature-based prediction | |
US11169531B2 (en) | Trajectory prediction on top-down scenes | |
US11163990B2 (en) | Vehicle control system and method for pedestrian detection based on head detection in sensor data | |
US11748909B2 (en) | Image-based depth data and localization | |
US10936902B1 (en) | Training bounding box selection | |
US11379998B2 (en) | Detector-tracker architecture | |
US20230051486A1 (en) | Unstructured vehicle path planner | |
US10984543B1 (en) | Image-based depth data and relative depth data | |
CN114901534A (zh) | 对象检测以及跟踪 | |
US11994866B2 (en) | Collision avoidance perception system | |
EP4107042A1 (en) | Combined track confidence and classification model | |
US11789155B2 (en) | Pedestrian object detection training | |
US11537819B1 (en) | Learned state covariances | |
WO2021133582A1 (en) | Pedestrians with objects | |
US20240101157A1 (en) | Latent variable determination by a diffusion model | |
US20240104934A1 (en) | Training a codebook for trajectory determination | |
US20240101150A1 (en) | Conditional trajectory determination by a machine learned model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220929 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230815 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231109 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240419 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240430 |