JPWO2020142247A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2020142247A5 JPWO2020142247A5 JP2021538780A JP2021538780A JPWO2020142247A5 JP WO2020142247 A5 JPWO2020142247 A5 JP WO2020142247A5 JP 2021538780 A JP2021538780 A JP 2021538780A JP 2021538780 A JP2021538780 A JP 2021538780A JP WO2020142247 A5 JPWO2020142247 A5 JP WO2020142247A5
- Authority
- JP
- Japan
- Prior art keywords
- model
- classification
- subclass
- feature map
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001537 neural Effects 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 claims 44
- 230000001052 transient Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000034 method Methods 0.000 description 1
Images
Description
いくつかの例では、第1のMLモデル202は、特徴マップ208、ROI210、ならびに/または、分類および/もしくは確率212を精密化MLモデル226に出力する(例えば、連結、またはその他によって)。精密化MLモデル226は、図3でより詳細に論じられるように、1つまたは複数のサブクラスMLモデルを含み得る。異なるMLモデルとして示されているが、精密化MLモデル226および第1のMLモデル202は、単一のMLモデルの一部であってもよい(例えば、第1のMLモデル202および/または精密化MLモデル226がニューラルネットワークを含む例におけるニューラルネットワークの異なる層のセット)。
図示の例では、例示的なアーキテクチャ300は、第1のMLモデル202、選択コンポーネント302、および/または1つまたは複数のサブクラスMLモデル304(1)~304(p)(総称して「サブクラスMLモデル304」)を含み得る。いくつかの例では、選択コンポーネント302および/またはサブクラスMLモデル304は、精密化MLモデル226の一部であり得る。第1のMLモデル202は、センサデータ204を受信し得、センサデータ204に少なくとも部分的に基づいて、総称して特徴データ306として表される、特徴マップ208、ROI210、ならびに/または、分類および/もしくは確率212を生成し得る。いくつかの例では、特徴データ306は、センサデータ204から検出された物体に関連付けられたデータのセットを含み得る。例えば、特徴データ306は、第1の物体に関連付けられた第1の特徴マップ、第1のROI、ならびに/または第1の分類および/もしくは第1の確率、第2の物体に関連付けられた第2の特徴マップ、第2のROI、ならびに/または第2の分類および/もしくは第2の確率を含み得る。
図示の例では、サブクラスMLモデル304(p)は、分類「歩行者」に関連付けられ得る。第1のMLモデル202からの分類「歩行者」を含む特徴データ306のセットを受信することに少なくとも部分的に基づいて、選択コンポーネント302は、サブクラスMLモデル304(p)を選択して、サブクラスを決定、および/またはセットをさらに処理し得る。選択コンポーネント302は、分類「歩行者」に関連付けられた特徴データ306のセットのいずれかを、「歩行者」特徴セット308として、サブクラスMLモデル304(p)に、送信し得る。例えば、「歩行者」特徴セット308は、歩行者214に関連付けられた第1のMLモデル202によって生成された1つまたは複数の特徴マップ(分類特徴マップ、セグメンテーション特徴マップ、検出特徴マップ、他の特徴マップなど)の少なくとも一部を含み得る。追加または代替の例では、「歩行者」特徴セット308は、追加または代替として、ROI、分類、および/または確率を含み得るが、いくつかの例では、ROIを使用し、検出された物体に関連付けられた特徴マップの部分を決定し得、および分類を使用し、その部分を送信する先のサブクラスMLモデルを決定し得る。
いくつかの例では、出力するサブ分類の1つを決定することに少なくとも部分的に基づいて、サブクラスMLモデル304(p)は、出力サブ分類が確率閾値324を満たすまたは超えるかどうかを決定し得る。例えば、サブ分類が確率分布318内のすべての確率の最大確率に関連付けられ得る場合でも、確率が低すぎて信頼し得ない(例えば、95%未満、90%未満、80%未満、70%未満)。出力サブ分類に関連付けられた確率が確率閾値324よりも小さい場合、サブクラスMLモデル304(p)は、サブ分類の代わりに、第1のMLモデル202から受信した分類を出力し得る。しかしながら、確率が確率閾値を満たすまたは超える場合、サブクラスMLモデル304(p)は、サブ分類を出力し得る。追加または代替の例では、サブクラスMLモデル304(p)は、サブ分類が確率閾値を下回る確率に関連付けられている場合でも、一般的な分類に加えてサブ分類を出力し得るが、いくつかの例では、サブクラスMLモデル304(p)は、サブ分類が確率閾値324未満の確率に関連付けられているという表示を追加または代替的に出力し得る。
図示の例では、サブクラスMLモデル304(p)は、サブ分類「物体を保持している歩行者」312が確率閾値326を満たすまたは超える確率に関連付けられていると、および/または確率が確率分布318の複数の確率の最大確率であると、決定することに少なくとも部分的に基づいて、サブ分類「物体を保持している歩行者」312および/またはそれに関連付けられた確率を出力し得る。しかしながら、サブ分類「物体を保持している歩行者」312が確率閾値326未満の確率に関連付けられていたとしても、サブクラスMLモデル304(p)がそれを決定することになった場合、サブクラスMLモデル304(p)は「物体を保持している歩行者」312の代わりに「歩行者」を出力し得る。
Claims (15)
- 1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサによって実行されると、
センサデータを受信することと、
前記センサデータを第1の機械学習(ML)モデルへの入力として提供することと、
前記センサデータ内の物体の表現に関連付けられた分類、前記分類に関連付けられた第1の確率、特徴マップ、前記物体の前記表現に関連付けられた前記センサデータの関心領域を、前記第1のMLモデルから受信することと、
サブ分類および前記サブ分類に関連付けられた第2の確率を、サブクラスMLモデルから受信することと、
を含む操作をシステムに実行させる、プロセッサ実行可能命令を格納するメモリと、
を備える、システム。 - 前記操作は、前記第1のMLモデルの第1の部分から受信した第1の特徴マップの少なくとも第1の部分、および前記第1のMLモデルの第2の部分から受信した第2の特徴マップの少なくとも第2の部分を、前記サブクラスMLモデル内へ入力することをさらに備える、請求項1に記載のシステム。
- 前記第1の部分および前記第2の部分は前記関心領域に少なくとも部分的に基づいている、請求項2に記載のシステム。
- 前記第2の特徴マップは、セマンティックセグメンテーション特徴マップ、インスタンスセグメンテーション特徴マップ、高密度深度特徴マップまたは物体方向特徴マップの少なくとも1つを含む、請求項2に記載のシステム。
- 前記操作は、
前記第1のMLモデルまたは前記サブクラスMLモデルの少なくとも1つへグラウンドトゥルースセンサデータを提供することであって、前記グラウンドトゥルースセンサデータはグラウンドトゥルース分類ラベルおよびグラウンドトゥルースサブ分類ラベルに関連付けられている、提供することと、
前記第1のMLモデルの第1の出力とグラウンドトゥルース分類ラベルとの間の差に少なくとも部分的に基づいて、第1の損失を決定することと、
前記サブクラスMLモデルの第2の出力と前記グラウンドトゥルースサブ分類ラベルとの間の差に少なくとも部分的に基づいて、第2の損失を決定することと、
前記第1のMLモデルの1つまたは複数の第1のパラメータまたは前記サブクラスMLモデルの1つまたは複数の第2のパラメータの少なくとも1つを変更して、前記第1の損失または前記第2の損失の少なくとも1つを最小化することと、
さらに備える、請求項1から請求項4のいずれか1項に記載のシステム。 - 前記第1のMLモデルの第2の部分は第1の分類に関連付けられていて、
前記第1のMLモデルの第3の部分は第2の分類に関連付けられていて、
前記第1の分類および前記第2の分類は前記第1のMLモデルの第1の部分に関連付けられている候補分類である、
請求項1から請求項5のいずれか1項に記載のシステム。 - 前記第1の分類および前記第2の分類は複数の分類のうちの2つであり、前記複数の分類は
歩行者分類、
車両分類、
自転車分類、
標識分類、
動物分類、
交通障害分類、
の少なくとも2つを含む、請求項6に記載のシステム。 - 前記第1のMLモデルは複数の第1の層を含む第1のニューラルネットワークを含み、
前記サブクラスMLモデルは複数の第2の層を含む第2のニューラルネットワークを含む、
請求項1から請求項7のいずれか1項に記載のシステム。 - 前記第1のMLモデルは、複数の第1の層を含むニューラルネットワークの第1の部分を含み、
前記サブクラスMLモデルは、複数の第2の層を含む前記ニューラルネットワークの第2の部分を含む、
請求項1から請求項8のいずれか1項に記載のシステム。 - 前記操作は、
前記第1の確率が第1の確率閾値を満たすまたは超えると決定することに少なくとも部分的に基づいて、前記物体に関連付けられた前記分類を出力することと、
前記第2の確率が第2の確率閾値を満たすまたは超えると決定することに少なくとも部分的に基づいて、前記物体に関連付けられた前記サブ分類を出力することと、
前記分類または前記サブ分類の少なくとも1つに少なくとも部分的に基づいて、自律車両を制御することと、
をさらに備える、請求項1から請求項9のいずれか1項に記載のシステム。 - 前記自律車両は前記システムを含む、請求項10に記載のシステム。
- 1つまたは複数のプロセッサによって実行されると、
センサデータを受信すること、
前記センサデータを第1の機械学習(ML)モデルの入力として提供することと、
前記センサデータ内の物体の表現に関連付けられた分類、および前記分類に関連付けられた第1の確率を含む第1の出力を、前記第1のMLモデルから、受信することと、
サブ分類および前記サブ分類に関連付けられた第2の確率を、サブクラスMLモデルから、受信することと、
を備える操作を前記1つまたは複数のプロセッサに実行させる、プロセッサ実行可能命令を格納する非一時的コンピュータ可読媒体。 - 前記操作は、
第1の特徴マップを前記第1のMLモデルの第1の部分から受信することと、
第2の特徴マップを前記第1のMLモデルの第2の部分から受信することと、
前記第1の特徴マップの少なくとも一部分および前記第2の特徴マップの少なくとも一部分を、前記サブクラスMLモデル内へ、入力することと、
さらに備え、
前記第1の特徴マップまたは前記第2の特徴マップの少なくとも1つは、前記センサデータ内の前記物体の前記表現に関連付けられた関心領域に関連付けられている、請求項12に記載の非一時的コンピュータ可読媒体。 - MLモデルは、少なくとも前記第1のMLモデルおよび前記サブクラスMLモデルを含み、
ニューラルネットワークは、
前記第1のMLモデルまたは前記サブクラスMLモデルの少なくとも1つへグラウンドトゥルースセンサデータを提供することであって、前記グラウンドトゥルースセンサデータはグラウンドトゥルース分類ラベルおよびグラウンドトゥルースサブ分類ラベルに関連付けられている、提供することと、
前記第1のMLモデルの第1の出力とグラウンドトゥルース分類ラベルとの間の差に少なくとも部分的に基づいて、第1の損失を、決定することと、
前記サブクラスMLモデルの第2の出力と前記グラウンドトゥルースサブ分類ラベルとの間の差に少なくとも部分的に基づいて、第2の損失を、決定することと、
前記第1のMLモデルの1つまたは複数の第1のパラメータまたは前記サブクラスMLモデルの1つまたは複数の第2のパラメータの少なくとも1つを変更して、前記第1の損失または前記第2の損失の少なくとも1つを最小化することと、
に少なくとも部分的に基づいて、トレーニングされる、
請求項12または請求項13に記載の非一時的コンピュータ可読媒体。 - 前記サブクラスMLモデルは第1のサブクラスMLモデルであり、
前記分類は第1の分類であり、
前記操作は、
前記第1の分類に関連付けられた第1の特徴マップを、前記第1のMLモデルから、受信することと、
第2の分類に関連付けられた第2の特徴マップを、前記第1のMLモデルから、受信することと、
前記第1のサブクラスMLモデルに関連付けられている前記第1の分類に少なくとも部分的に基づいて、前記第1の特徴マップの第1の部分を、前記第1のサブクラスMLモデルへの入力として、提供することと、
第2のサブクラスMLモデルに関連付けられている前記第2の分類に少なくとも部分的に基づいて、前記第2の特徴マップの第2の部分を、前記第2のサブクラスMLモデルへの入力として、提供することと、
をさらに備える、請求項12から請求項14のいずれか1項に記載の非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/238,475 | 2019-01-02 | ||
US16/238,475 US10963709B2 (en) | 2019-01-02 | 2019-01-02 | Hierarchical machine-learning network architecture |
PCT/US2019/067669 WO2020142247A1 (en) | 2019-01-02 | 2019-12-19 | Hierarchical machine-learning network architecture |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022516288A JP2022516288A (ja) | 2022-02-25 |
JPWO2020142247A5 true JPWO2020142247A5 (ja) | 2022-10-11 |
Family
ID=69650689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021538780A Pending JP2022516288A (ja) | 2019-01-02 | 2019-12-19 | 階層型機械学習ネットワークアーキテクチャ |
Country Status (5)
Country | Link |
---|---|
US (2) | US10963709B2 (ja) |
EP (1) | EP3906501A1 (ja) |
JP (1) | JP2022516288A (ja) |
CN (1) | CN113261009A (ja) |
WO (1) | WO2020142247A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11155259B2 (en) * | 2018-09-13 | 2021-10-26 | Honda Motor Co., Ltd. | System and method for egocentric-vision based future vehicle localization |
US11520331B2 (en) * | 2018-12-28 | 2022-12-06 | Intel Corporation | Methods and apparatus to update autonomous vehicle perspectives |
US10963709B2 (en) | 2019-01-02 | 2021-03-30 | Zoox, Inc. | Hierarchical machine-learning network architecture |
US11313950B2 (en) * | 2019-01-15 | 2022-04-26 | Image Sensing Systems, Inc. | Machine learning based highway radar vehicle classification across multiple lanes and speeds |
US20210073686A1 (en) * | 2019-09-06 | 2021-03-11 | Yuan Yuan Ding | Self-structured machine learning classifiers |
EP3800581A1 (en) * | 2019-10-03 | 2021-04-07 | Axis AB | A method and apparatus for generating an object classification for an object |
US11354913B1 (en) * | 2019-11-27 | 2022-06-07 | Woven Planet North America, Inc. | Systems and methods for improving vehicle predictions using point representations of scene |
US11450008B1 (en) * | 2020-02-27 | 2022-09-20 | Amazon Technologies, Inc. | Segmentation using attention-weighted loss and discriminative feature learning |
US11798270B2 (en) * | 2020-04-27 | 2023-10-24 | Molecular Devices, Llc | Systems and methods for image classification |
US11989020B1 (en) * | 2020-07-14 | 2024-05-21 | Aurora Operations, Inc. | Training machine learning model(s), in simulation, for use in controlling autonomous vehicle(s) |
US20220067458A1 (en) * | 2020-09-01 | 2022-03-03 | International Business Machines Corporation | Smart metadata mapping for sensor data |
JP7095726B2 (ja) * | 2020-11-16 | 2022-07-05 | 沖電気工業株式会社 | 学習装置、学習方法および学習プログラム |
US20220176998A1 (en) * | 2020-12-08 | 2022-06-09 | Guangzhou Automobile Group Co., Ltd. | Method and Device for Loss Evaluation to Automated Driving |
CN113096136A (zh) * | 2021-03-30 | 2021-07-09 | 电子科技大学 | 一种基于深度学习的全景分割方法 |
CN113361593B (zh) * | 2021-06-03 | 2023-12-19 | 阿波罗智联(北京)科技有限公司 | 生成图像分类模型的方法、路侧设备及云控平台 |
CN114120253B (zh) * | 2021-10-29 | 2023-11-14 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备和存储介质 |
DE102022204623A1 (de) | 2022-05-11 | 2023-11-16 | Psa Automobiles Sa | Objekterkennung durch neuronales Netz mit Unsicherheitsmaß |
EP4357885A1 (en) * | 2022-10-21 | 2024-04-24 | Nokia Technologies Oy | Apparatus, methods and computer programs for classifying objects |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9428186B2 (en) * | 2002-04-09 | 2016-08-30 | Intelligent Technologies International, Inc. | Exterior monitoring for vehicles |
US10747224B2 (en) * | 2018-06-19 | 2020-08-18 | Toyota Research Institute, Inc. | Debugging an autonomous driving machine learning model |
US20190391581A1 (en) * | 2018-06-26 | 2019-12-26 | Uber Technologies, Inc. | Passenger Health Monitoring and Intervention for Autonomous Vehicles |
US10977501B2 (en) * | 2018-12-21 | 2021-04-13 | Waymo Llc | Object classification using extra-regional context |
US10963709B2 (en) | 2019-01-02 | 2021-03-30 | Zoox, Inc. | Hierarchical machine-learning network architecture |
-
2019
- 2019-01-02 US US16/238,475 patent/US10963709B2/en active Active
- 2019-12-19 EP EP19853296.2A patent/EP3906501A1/en active Pending
- 2019-12-19 JP JP2021538780A patent/JP2022516288A/ja active Pending
- 2019-12-19 WO PCT/US2019/067669 patent/WO2020142247A1/en unknown
- 2019-12-19 CN CN201980087531.XA patent/CN113261009A/zh active Pending
-
2021
- 2021-03-29 US US17/215,938 patent/US11450117B2/en active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPWO2020142247A5 (ja) | ||
Wei et al. | Enhanced object detection with deep convolutional neural networks for advanced driving assistance | |
US10474713B1 (en) | Learning method and learning device using multiple labeled databases with different label sets and testing method and testing device using the same | |
US10223614B1 (en) | Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same | |
CN108304882B (zh) | 一种图像分类方法、装置及服务器、用户终端、存储介质 | |
US10210418B2 (en) | Object detection system and object detection method | |
US10204283B2 (en) | Image recognizing apparatus, image recognizing method, and storage medium | |
Xiao et al. | CRF based road detection with multi-sensor fusion | |
US10275719B2 (en) | Hyper-parameter selection for deep convolutional networks | |
US10504027B1 (en) | CNN-based learning method, learning device for selecting useful training data and test method, test device using the same | |
CN108846826B (zh) | 物体检测方法、装置、图像处理设备及存储介质 | |
US20210158699A1 (en) | Method, device, readable medium and electronic device for identifying traffic light signal | |
US10551845B1 (en) | Method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same | |
US20170032247A1 (en) | Media classification | |
US10303981B1 (en) | Learning method and testing method for R-CNN based object detector, and learning device and testing device using the same | |
US10275667B1 (en) | Learning method, learning device for detecting lane through lane model and testing method, testing device using the same | |
JP2018526723A (ja) | 画像中のオブジェクト検出のためのコンテキストベースの事前分布 | |
JP2016062610A (ja) | 特徴モデル生成方法及び特徴モデル生成装置 | |
KR102279399B1 (ko) | 복수의 비디오 프레임을 이용하여 cnn의 파라미터를 최적화하기 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
US20230087292A1 (en) | Data annotation method and apparatus, and fine-grained recognition method and apparatus | |
US9619729B2 (en) | Density measuring device, density measuring method, and computer program product | |
JP7215390B2 (ja) | 路上障害物検知装置、路上障害物検知方法、及び路上障害物検知プログラム | |
US11893766B2 (en) | Neural network system and operating method thereof | |
JP2018010568A (ja) | 画像認識システム | |
Joo et al. | Real‐Time Depth‐Based Hand Detection and Tracking |