JP2022511968A - 開放された車両ドアを検出するための分類器のトレーニング - Google Patents

開放された車両ドアを検出するための分類器のトレーニング Download PDF

Info

Publication number
JP2022511968A
JP2022511968A JP2021533428A JP2021533428A JP2022511968A JP 2022511968 A JP2022511968 A JP 2022511968A JP 2021533428 A JP2021533428 A JP 2021533428A JP 2021533428 A JP2021533428 A JP 2021533428A JP 2022511968 A JP2022511968 A JP 2022511968A
Authority
JP
Japan
Prior art keywords
machine learning
training
sensor
learning classifier
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021533428A
Other languages
English (en)
Other versions
JP7203224B2 (ja
Inventor
マオ,ジュンフア
ポ ツイ,ロ
リ,ツォンツォン
ジュニア,エドワード スティーブン ウォーカー
Original Assignee
ウェイモ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウェイモ エルエルシー filed Critical ウェイモ エルエルシー
Publication of JP2022511968A publication Critical patent/JP2022511968A/ja
Application granted granted Critical
Publication of JP7203224B2 publication Critical patent/JP7203224B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Abstract

開放した車両ドアを検出するように分類器をトレーニングするための、コンピュータ記憶媒体で符号化されたコンピュータプログラムを含む方法、システム、および装置。方法のうちの1つは、複数の初期トレーニング例を取得することであって、各初期トレーニング例は、(i)センサーサンプルのコレクションからのセンサーサンプルと、(ii)開放ドアを有する車両を特徴付けるものとしてセンサーサンプルを分類するデータと、を含む、取得することと、複数の追加のトレーニング例を生成することであって、各初期トレーニング例について、センサーサンプルのコレクションから、初期トレーニング例におけるセンサーサンプルがキャプチャされる前の閾値時間量未満でキャプチャされた1つ以上の追加のセンサーサンプルを識別することと、を含む、生成することと、初期トレーニング例および追加のトレーニング例を含む第1のトレーニングデータ上で機械学習分類器をトレーニングして、機械学習分類器の更新された重みを生成することと、を含む。【選択図】図1

Description

関連出願の相互参照
本出願は、2018年12月21日に出願された米国特許出願第16/231,297号に対する優先権を主張するものであり、その全体が参照により本明細書に組み込まれる。
本明細書は、自律型車両に関する。
自律型車両は、自動運転する車、船舶、および航空機を含む。自律型車両は、さまざまな車載センサーおよびコンピュータシステムを使用して近傍の物体を検出し、その検出を使用して制御およびナビゲーションの決定を行う。
いくつかの自律型車両は、ニューラルネットワーク、他のタイプの機械学習モデル、またはその両方をさまざまな予測タスク、例えば、画像内の物体分類のために実装する車載コンピュータシステムを有する例えば、ニューラルネットワークを使用して、車載カメラでキャプチャされた画像が近傍の車の画像である可能性があると決定することができる。ニューラルネットワーク、または略して、ネットワークは、複数の操作の層を用いて、1つ以上の入力から1つ以上の出力を予測する機械学習モデルである。ニューラルネットワークは、通常、入力層と出力層との間に位置する1つ以上の隠れ層を含む。各層の出力は、ネットワーク内の別の層、例えば、次の隠れ層または出力層への入力として使用される。
ニューラルネットワークの各層は、層への入力に対して実行される1つ以上の変換操作を指定する。一部のニューラルネットワーク層には、ニューロンと呼ばれる操作がある。各ニューロンは1つ以上の入力を受け取り、別のニューラルネットワーク層で受け取られる出力を生成する。たいてい、各ニューロンは他のニューロンから入力を受け取り、各ニューロンは1つ以上の他のニューロンに出力を提供する。
ニューラルネットワークのアーキテクチャは、ネットワークに含まれる層およびその特性、ならびにネットワークの各層のニューロンの接続方法を指定する。換言すれば、アーキテクチャは、どの層がそれらの出力をどの他の層への入力として提供するか、およびどのようにその出力を提供するかを指定する。
各層の変換操作は、変換操作を実装するソフトウェアモジュールがインストールされたコンピュータによって実行される。したがって、操作を実行するとして記述されている層は、層の変換操作を実装するコンピュータが操作を実行することを意味する。
各層は、層の一連のパラメータの現在の値を使用して1つ以上の出力を生成する。したがって、ニューラルネットワークのトレーニングは、入力に対する順方向パスの継続的な実行、勾配値の計算、および計算された勾配値を使用して各層のパラメータセットの現在値を更新することを伴う。ニューラルネットワークがトレーニングされると、パラメータ値の最終セットを使用して、生成システムにおいて予測を行うことができる。
本明細書は、どのようにコンピュータシステムが機械学習モデルをトレーニングすることができるかを記載しており、本明細書では、自律型車両の付近にある物体が特定の状態にあるかどうかの予測を生成するための「機械学習分類器」または「分類器」とも称される。
例えば、機械学習モデルは、自律型車両の付近にある別の車両が開放ドア状態にあるかどうか、つまり、すべてのドアが閉鎖されているのではなく開放ドアを有するかどうかを予測する「開放ドア分類器」とすることができる。つまり、車両を特徴付ける入力が与えられた場合、開放ドア分類器の出力は、車両の1つ以上のドアが開放している可能性を表す確率である。開放ドア分類器がトレーニングされると、トレーニングされた開放ドア分類器を車両に配備することができ、自律的または半自律的な運転決定を行うために車両によって使用することができる。
別の例として、機械学習モデルは、自律型車両の付近のスクールバスが点滅ライト状態にあるかどうか、つまり、スクールバスのライトがオフ(または常にオン)ではなく点滅しているかどうかを予測することができる。
別の例として、機械学習モデルは、自律型車両の付近の別の車両が駐車状態にあるかどうか、つまり、他の車両が動いているか、または一時的に停止しているのではなく駐車しているかどうかを予測することができる。
本開示の一態様では、方法は、特定のタイプの物体を特徴とし、かつ自律型車両の1つ以上のセンサーによってキャプチャされたセンサーデータから生成された、入力センサーサンプルを受け取り、入力センサーサンプルを処理して、物体が特定の状態にあるという予測された可能性を表す特定の状態スコアを生成するように構成された、分類器をトレーニングすることを含む。
分類器をトレーニングするために、システムは、複数の初期トレーニング例であって、各初期トレーニング例は、(i)センサーサンプルのコレクションからのセンサーサンプル、および(ii)特定の状態にある物体を特徴付けるものとしてセンサーサンプルを分類するラベルデータを含む、複数の初期トレーニング例を取得し、複数の追加のトレーニング例であって、各初期トレーニング例について、センサーサンプルのコレクションから、初期トレーニング例におけるセンサーサンプルがキャプチャされる前に閾値時間未満でキャプチャされた1つ以上の追加のセンサーサンプルを識別することと、特定の状態における物体を特徴付けるセンサーサンプルとして各追加のセンサーサンプルを分類することと、を含む、複数の追加のトレーニング例を生成し、初期トレーニング例および追加のトレーニング例を含む第1のトレーニングデータで機械学習分類器をトレーニングして、機械学習分類器のために更新された重みを生成する。
これらのおよび他の実装は、それぞれ任意選択で以下の特徴のうちの1つ以上を含むことができる。
動作は、さらに、機械学習分類器を使用して、更新された重みに従ってさらなるトレーニング例を生成し、さらなるトレーニング例を含む第2のトレーニングデータで機械学習分類器をトレーニングして、機械学習分類器のためにさらに更新された重みを生成することを含む。
さらなるトレーニング例を含む第2のトレーニングデータで機械学習分類器をトレーニングして、機械学習分類器のためにさらに更新された重みを生成することは、第2のトレーニングデータで機械学習分類器をトレーニングして、機械学習分類器の更新された重みから始まる、機械学習のためにさらに更新された重みを生成することを含むことができる。
さらなるトレーニング例を含む第2のトレーニングデータで機械学習分類器をトレーニングして、機械学習分類器のためにさらに更新された重みを生成することは、第2のトレーニングデータで機械学習分類器をトレーニングして、機械学習分類器の初期重みから始まる、機械学習のためにさらに更新された重みを生成することを含むことができる。
機械学習分類器を使用して、更新された重みに従って、さらなるトレーニング例を生成することは、センサーサンプルのコネクションからの複数の候補センサーサンプルのそれぞれを、機械学習分類器を使用して、更新された重みに従って処理して、候補センサーサンプルごとにそれぞれの開放ドアスコアを生成することと、閾値スコアを超える特定のスコアを有する各候補センサーサンプルを、特定の状態の物体を特徴付けるセンサーサンプルとして分類することと、を含むことができる。
複数のセンサーサンプルから、初期トレーニング例におけるセンサーサンプルがキャプチャされる前の閾値時間未満でキャプチャされた1つ以上の追加のセンサーサンプルを識別することは、追加のセンサーサンプルとして、(i)初期トレーニング例におけるセンサーサンプルとして同じ物体を特徴付け、かつ(ii)初期トレーニング例におけるセンサーサンプルがキャプチャされる前の閾値時間未満でキャプチャされた複数のサンプルの各センサーサンプルを識別することを含むことができる。
複数の初期トレーニング例を取得することは、センサーサンプルのコレクションから、候補初期センサーサンプルによって特徴付けられる物体の本体の輪郭の外側にかなりの量の測定値をそれぞれが含む複数の候補初期センサーサンプルを識別することを含むことができる。
本明細書に記載の主題の特定の実施形態は、以下の利点の1つ以上を実現するように実装することができる。
自律型車両または半自律型車両は、車両が環境を走行するときに車両を取り巻く環境に関するデータを収集するセンサーを有する。これらのセンサーによって多くの運転時間にわたって、多くの異なる自律型車両によって収集されたデータ(本明細書では「ログデータ」と呼ばれる)は、機械学習モデルをトレーニングして、自律型車両の操作に関連し得るさまざまな予測、例えば、特定の種類の物体が特定の状態にあるかどうかの予測を行うために使用することができる。
例えば、ナビゲーション中に車両が遭遇する車両のドアが開放しているかどうかを予測する機械学習モデルは、例えば、開放ドアから人が出入りしている場合にブレーキをかけることによって、または車両もしくは車両のオペレーターの将来の挙動を予測することによって、自律運転決定を知らせるために使用することができる(すなわち、車両のドアが開放している場合、これは、ドアが閉鎖されるまで車両は動き始める可能性が低いまたは車両は荷物を積み下ろすために停止しているという合図であり得る)、またはいつ車両のオペレーターに警告を提供するかを決定するために使用することができる。
これらの予測を行う機械学習モデルは、ラベル付けされたトレーニングデータで、すなわち、物体を特徴付けるものとして分類され、かつセンサーデータによって特徴付けられる物体が特定の状態にあるか否かを識別するグラウンドトゥルースラベルに関連したセンサーデータから生成されたセンサーサンプルで、トレーニングすることができる。
ただし、一部のタイプの物体および一部の特定の状態では、収集されたログデータは、そのタイプの物体を特徴付ける大量のセンサーサンプルを含むが、特定の状態にあるのはそれらの物体のごく一部にすぎない。ドアが開放している車両を例にとると、環境内を走行する自律型車両が遭遇する他の車両のごく一部、例えば、およそ1%以下のドアが開放され、自律型車両が運転中に遭遇する大多数の他の車両のドアはすべて閉じられている。
これにより、物体を特定の状態にあるものとして分類するために分類器をトレーニングするための高品質のトレーニングデータを生成することが困難になる。特に、開放ドアの例を再び考えると、ログデータ内のセンサーサンプルのこのようなごく一部が、開放ドアを有するので、トレーニングデータにおける大量の、ノイズのある、不正確にラベル付けされたサンプルを含まずには、開放ドアを有する十分なサンプルを識別することは困難である。説明した技術を使用して開放ドア分類器をトレーニングすることにより、システムはこの問題を効果的に解決し、トレーニングの開始時に正確にラベル付けされたトレーニングデータをほとんどまたはまったく有さずに、収集されたログデータで分類器をトレーニングすることができる。つまり、説明されている技術は、収集されたログデータにおける膨大な数の(ほとんどネガティブな)潜在的な例から、ポジティブな例、例えば、ドアが開放した車両の例を効果的に識別し、識別されたポジティブな例を使用して、機械学習モデルを効果的にトレーニングし、特定の状態にあるものとして物体を正確に分類する。
特に、再び開放ドアの例を考えると、説明した技術を使用して、システムは、センサーデータをキャプチャする車両に非常に近い、開放ドアを備えた車両を特徴付ける比較的少数のポジティブな例を最初に効果的に識別し得る。ただし、ある範囲の距離で適切に機能するように分類器をトレーニングするには、追加のポジティブな例を識別して、分類器のトレーニングで使用する必要がある。説明された技術は、これらの追加のポジティブな例が、自動化された方法で、人間のラベラーを必要とせずに識別されることを可能にし、それによって高精度の開放ドア分類器をもたらす。
本明細書の主題の1つ以上の実施形態の詳細を、添付の図面および以下の説明に記載する。主題の他の特徴、態様、および利点は、説明、図面、および特許請求の範囲から、明らかになるであろう。
例示的なシステムの図である。 開放ドア分類器をトレーニングするための例示的なプロセスのフローチャートである。 開放ドア分類器をトレーニングするための別の例示的なプロセスのフローチャートである。
さまざまな図面の中の同様の参照番号および名称は、同様の要素を示す。
本明細書は、車両の近くの他の車両が開放ドアを有するか否かを予測するために、車両、例えば、自律型または半自律型車両が、本明細書において「開放ドア分類器」または「分類器」と呼ばれるトレーニングされた機械学習モデルをどのように使用することができるかを説明する。本明細書は、予測を正確かつ確実に行うためにこのような開放ドア分類器を効果的にトレーニングするためにどのようにログデータを使用することができるかも説明する。
図1は、例示的なシステム100の図である。システム100は、トレーニングシステム110と搭載システム130とを含む。
搭載システム130は、車両122に物理的に搭載されている。図1の車両122は自動車として図示されているが、搭載システム130は、任意の適切なタイプの車両に搭載することができる。車両122は、環境内をナビゲートするために完全自律運転決定を決定および実行する完全自律型車両とすることができる。車両122はまた、人間の運転手を支援するために予測を使用する、半自律型車両であってもよい。例えば、ある予測が、人間の運転手が別の車両と衝突しそうであることを示す場合、車両122は自律的にブレーキをかけることができる。
搭載システム130は、1つ以上のセンサーサブシステム132を含む。センサーサブシステム132は、電磁放射の反射を受信するコンポーネントの組み合わせ、例えば、レーザー光の反射を検出するライダーシステム、電波の反射を検出するレーダーシステム、および可視光の反射を検出するカメラシステムを含む。
与えられたセンサーによって生成されたセンサーデータは、一般に、反射された放射の距離、方向、および強度を示す。例えば、センサーは特定の方向に電磁放射の1つ以上のパルスを送信でき、任意の反射の強度と、その反射が受信された時間とを測定することができる。距離は、パルスと、その対応する反射との間にかかった時間を決定することによって計算することができる。センサーは、角度、方位角、またはその両方で特定の空間を継続的にスイープすることができる。例えば、方位角をスイープすることにより、センサーが同じ視線に沿って複数の物体を検出することが可能になり得る
車両122のセンサーサブシステム132または他のコンポーネントはまた、1つ以上のセンサーからの1つ以上の生のセンサー測定値のグループを、別の車両の測定値であるとして、分類することもできる。センサー測定値のグループは、キャプチャされたセンサー測定値の種類に応じて、さまざまな方法のうちのいずれかで表すことができる。例えば、生のレーザーセンサー測定値の各グループは、3次元の点群として表すことができ、各点は強度および位置を有する。一部の実装では、位置は、範囲と高さのペアとして表される。カメラセンサー測定値の各グループは、画像パッチ、例えばRGB画像パッチとして表すことができる。
1つ以上の生のセンサー測定値のグループが別の車両の測定値として分類されると、センサーサブシステム132または車両122の他のコンポーネントは、車両を測定するセンサー測定値からセンサーサンプル155を生成する。場合によっては、センサーサンプル155は、1つ以上のセンサーからの測定値を表し、かつそれぞれが同時に同じ車両を特徴付ける3次元テンソルである。例えば、3次元テンソルは、他の車両が所与の時間に位置する環境の領域のカメラセンサーによってキャプチャされた画像のパッチ、1つ以上の投影の一部、例えば、他の車両が所与の時間に位置する環境の領域に対応する1つ以上のレーザーセンサーによってキャプチャされたセンサーデータの上から下への視点の投影、またはその両方、を含むことができる。
センサーサブシステム132または他のコンポーネントは、センサーサンプル155を搭載分類器サブシステム134に提供する。搭載分類器サブシステム134は、センサーサンプル155を使用して、開放ドア予測165を生成する。上記のように、各開放ドア予測は、センサーデータ155によって特徴付けられる車両のドアが開放しているかどうかの予測である。したがって、各予測は、入力センサーサンプルによって特徴付けられる車両のドアが開放しているという予測された可能性を表すスコア、例えば確率である。
搭載分類器サブシステム134は、開放ドア分類器の動作、すなわち、開放ドア予測165を行うようにトレーニングされた機械学習モデルを実装する。
場合によっては、開放ドア分類器は、センサーサンプル155、すなわち、センサーデータから生成された3次元テンソルを受信し、1つ以上の畳み込み層を含む複数の層を介してセンサーサンプル155を処理して、開放ドア予測を生成する、畳み込みニューラルネットワークである。したがって、搭載分類器サブシステム134は、ニューラルネットワークのアーキテクチャに従ってニューラルネットワークの各層のそれぞれの操作を実装するソフトウェアまたはハードウェアモジュールを有する1つ以上のコンピューティングデバイスを含む。
それ以外の場合では、開放ドア分類器は、センサーサンプル155から導出された、より低次元の特徴で動作する異なるタイプの機械学習モデルである。例えば、開放ドア分類器は、センサーサンプルから生成されたより低次元の特徴を入力として受け取り、かつより低次元の特徴から開放ドア予測を生成する、ランダムフォレストモデルまたはサポートベクターマシンモデルとすることができる。したがって、搭載分類器サブシステム134は、より低次元の特徴を生成し、かつモデルの操作を実行するために必要な操作を実装するソフトウェアまたはハードウェアモジュールを有する1つ以上のコンピューティングデバイスを含む。
搭載分類器サブシステム134は、モデル重み値172を決定するために、開放ドア分類器がトレーニングシステム110によってトレーニングされた後にトレーニングシステム110から受け取ったモデル重み値172のコレクションをロードすることによって、開放ドア分類器の動作を実装することができる。論理的に分離されて図示されているが、モデル重み値170および操作を実行するソフトウェアもしくはハードウェアモジュールは、実際には同じコンピューティングデバイス上に位置し得るか、または実行するソフトウェアモジュールの場合は、同じメモリデバイス内に格納され得る。
搭載分類器サブシステム134は、ハードウェア加速または他の専用のコンピューティングデバイスを使用して、開放ドア分類器の動作の一部またはすべてを実装することができる。例えば、ニューラルネットワークの一部の層の一部の操作は、高度に並列化されたハードウェアによって、例えば、グラフィックス処理ユニットまたは別の種類の特殊なコンピューティングデバイスによって実行され得る。換言すれば、各層のすべての操作が搭載分類器サブシステム134の中央処理装置(CPU)によって実行される必要があるわけではない。
搭載分類器サブシステム134は、開放ドア予測165を計画サブシステム136、ユーザインターフェースサブシステム138、またはその両方に提供することができる。
計画サブシステム136が開放ドア予測165を受け取ると、計画サブシステム136は、1つ以上の開放ドア予測165を使用して、完全自律または半自律運転の決定を行うことができる。例えば、開放ドア予測が、別の車両のドアが開放している可能性が高いことを示している場合、人が他の車両の開放ドアから出入りしている場合、計画サブシステム136は、車両122のブレーキをかけるか、または別様に車両122の移動速度を低下させる完全自律計画を生成することができる。別の例として、計画サブシステム136は、開放ドア予測を使用して、物体のありそうな将来の軌道を予測し、このありそうな将来の軌道を使用して、車両122の軌道を計画することができる。別の例として、計画サブシステム136は、他の車両のドアが開放しているとき、人間の運転手がブレーキをかけるための半自律的勧告を生成することができる。
ユーザインターフェースサブシステム138は、開放ドア予測165を受信することができ、他の車両を識別し、かつ他の車両のドアが開放していること、および人々が出入りし得ることを車両122のオペレーターに警告するユーザインターフェースプレゼンテーションを生成することができる。例えば、ユーザインターフェースサブシステム138は、他の車両によって占有される空間の領域の表現を含む画像またはビデオデータを有し、かつ車両のドアが開放していることを識別するユーザインターフェースプレゼンテーションを生成することができる。次いで、搭載ディスプレイデバイスは、車両122の乗員が見るためのユーザインターフェースプレゼンテーションを表示することができる。
搭載分類器サブシステム134はまた、ログデータ127を生成するためにセンサーデータ155を使用することもでき、ログデータ127は、開放ドア分類器をトレーニングするためにトレーニングシステム110によって使用される。搭載システム130は、例えば、それが生成されるときはいつでも継続的に、オフラインバッチまたはオンライン方式で、トレーニングシステム110にログデータ127を提供することができる。
ログデータ127は、車両122の付近の他の車両を特徴付けるものとして分類された、車両122の動作中に生成されたセンサーデータサンプルを含む。
トレーニングシステム110は、通常、1つ以上の場所に数百または数千のコンピュータを有する分散型コンピューティングシステムであり得るデータセンター112内でホストされる。
トレーニングシステム110が車両からログデータ127を受信すると、トレーニングシステム100は、ログデータ127をログデータリポジトリ125に格納する。概して、ログデータリポジトリ125は、多数の車両から受信したログデータを格納し、すなわち、ログデータリポジトリ125は、多数の異なる車両の動作中にキャプチャされたセンサーデータから生成されたセンサーサンプルを格納する。場合によっては、ログデータリポジトリ125はまた、シミュレーションで生成された、すなわち、車両のシミュレートされたバージョンが実世界環境のソフトウェアシミュレーションをナビゲートするときに生成されたログデータを含むことができる。
トレーニングシステム110は、開放ドア予測を行うように構成された分類器の動作を実装することができるトレーニング分類器サブシステム114を含む。例えば、分類器がニューラルネットワークである場合、トレーニング分類器サブシステム114は、ニューラルネットワークのアーキテクチャに従ってニューラルネットワークの各層のそれぞれの操作を実装するソフトウェアまたはハードウェアモジュールを有する複数のコンピューティングデバイスを含む。
トレーニング用の開放ドア分類器は、通常、搭載開放ドア分類器と同じアーキテクチャおよび重みを有する。しかしながら、トレーニングシステム110は、分類器の動作を計算するために、搭載システム134によって使用されるものと同じハードウェアを使用する必要はない。換言すれば、トレーニングシステム110は、CPUのみ、高度に並列化されたハードウェア、またはこれらのいくつかの組み合わせを使用することができる。
トレーニングシステム100は、ログデータリポジトリ125に格納されたセンサーサンプルを使用して、開放ドア分類器をトレーニングするためのトレーニング例123を含むトレーニングデータを生成する。各トレーニング例123には、(i)車両を特徴付けるセンサーサンプルと、(ii)センサーサンプルで車両の車のドアが開放しているかどうかを示すラベル、つまり、センサーサンプルの開放ドア分類器によって生成されるべき、グラウンドトゥルース出力を識別するラベルとが含まれる。トレーニングデータの生成については、図2および図3を参照して以下に説明する。
トレーニング中のいつでも、トレーニングニューラルネットワークサブシステム114は、モデル重み値170のコレクションに格納された現在のモデル重み値115を使用して、開放ドア分類器の動作を計算することができる。論理的に分離されているように図示されているが、モデル重み値170および操作を実行するソフトウェアもしくはハードウェアモジュールは、実際には同じコンピューティングデバイス上か、または同じメモリデバイス上に位置し得る。
トレーニング分類器サブシステム114は、入力としてトレーニング例123を受け取ることができる。トレーニングニューラルネットワークサブシステム114は、各トレーニング例123について、開放ドア予測135を生成することができる。トレーニングエンジン116は、開放ドア予測135を分析し、開放ドア予測をトレーニング例123のラベルと比較する。次いで、トレーニングエンジン116は、適切な更新技術、例えば、バックプロパゲーションを伴う確率的勾配降下法を用いることにより、更新されたモデル重み値145を生成する。次いで、トレーニングエンジン116は、更新されたモデル重み値145を使用して、モデルパラメータ値170のコレクションを更新することができる。
トレーニングが完了した後、トレーニングシステム110は、完全自律または半自律運転の決定のための開放ドア予測165を行う際に使用するために、モデル重み値171の最終セットを搭載システム130に提供することができる。トレーニングシステム110は、搭載システム130への有線または無線接続によってモデル重み値171の最終セットを提供することができる。
図2は、開放ドア分類器をトレーニングするための例示的なプロセス200のフローチャートである。このプロセスは、適切にプログラムされたニューラルネットワークシステムによって実行されるものとして説明される。便宜上、プロセス200は、1つ以上の場所に位置する1つ以上のコンピュータのシステムによって実行されるものとして説明される。例えば、トレーニングシステム、例えば、本明細書に従って適切にプログラムされた図1のトレーニングシステム110は、プロセス200を実行することができる。
システムは、初期ポジティブトレーニングサンプルを取得する(210)。
本明細書では、ポジティブトレーニングサンプルは、車両を特徴付けるセンサーサンプルであって、このセンサーサンプルによって特徴付けられる車両が開放ドアを有することを示すラベルに関連した、センサーサンプルである。
場合によっては、システムは、外部システムから、ログデータリポジトリ内の特定のセンサーサンプルを初期のポジティブトレーニングサンプルとして識別するデータを受信する。その他の場合、システムは、ログデータリポジトリ内の特定のセンサーサンプルをポジティブトレーニングサンプルとして識別する。ログデータリポジトリ内のセンサーサンプルから初期ポジティブトレーニングサンプルを識別するための例示的な技術は、図3を参照して以下に説明される。
システムは、ログデータリポジトリ内のセンサーサンプルから追加のポジティブトレーニングサンプルを識別する(220)。
より具体的には、システムは、それぞれが(i)初期ポジティブトレーニングサンプルのそれぞれのサンプルに対応し、(ii)対応する初期ポジティブトレーニングサンプルと同じ車両を特徴付け、そして(iii)対応する初期トレーニングサンプルの前に閾値時間未満でキャプチャされた、追加のポジティブトレーニングサンプルを識別する。
特に、初期トレーニングサンプルによって特徴付けられる車両の一部またはすべてについて、ログデータは、同じ車両を特徴付けるが、対応する初期トレーニングサンプルとは異なる時間にキャプチャされた他のセンサーサンプルを含む。例として、所与の車両のセンサーが10ミリ秒ごとに1つのサンプルの速度でデータをキャプチャする場合、所与の車両の近くに20ミリ秒を超えて存在する他の各車両は、複数のサンプルによって特徴付けられる。
一部の実装では、初期ポジティブトレーニングサンプルのそれぞれについて、システムは、ポジティブトレーニングサンプルとして、初期ポジティブトレーニングサンプルと同じ車両を特徴付けるものとして分離され、かつ対応する初期トレーニングサンプルの前の閾値時間未満でキャプチャされたログデータにおける任意のサンプルを識別する。閾値時間は、例えば、0.5秒、1秒、1秒半、または2秒とすることができる。
システムは、それぞれの追加の識別されたトレーニングサンプルをポジティブトレーニングサンプルとして指定し、すなわち、それぞれの追加の識別されたトレーニングサンプルを、識別されたトレーニングサンプルが開放ドアを有する車両を特徴付けることを示すラベルに関連付ける。
車のドアはしばらく開放したままになる傾向があり、車両のドアが開放している間、車両は止まっている傾向があるため、追加のポジティブトレーニングサンプルは、通常、初期トレーニングサンプルよりも、サンプルを生成した車両からさらに離れた車両を特徴付けるサンプルを含む。ただし、識別されたトレーニングサンプルは、初期トレーニングサンプルへの時間の近さに基づいて自動的に生成されるため、追加のサンプルはノイズが多いことがあり、すなわち、ポジティブサンプルとして誤って分類されたサンプルが含み得る。
システムは、初期トレーニングサンプルおよび追加のトレーニングサンプルを含むトレーニングデータで開放ドア分類器をトレーニングする(230)。トレーニングデータは、ネガティブトレーニングサンプル、すなわち、識別されたトレーニングサンプルが開放ドアをまったく有さない車両を特徴付けることを示すラベルに関連付けられたトレーニングサンプルも含む。システムは、リポジトリからセンサーサンプルをランダムに選択することにより、ネガティブトレーニングサンプルを生成することができる。すなわち、車両のこのような小さな部分が開放ドアを有するため、リポジトリからセンサーサンプルをランダムに選択することは、非常に正確なネガティブサンプルを生成する可能性が非常に高い。
特に、システムは、開放ドア分類器によって生成された予測と、対応するトレーニングサンプルのためのグラウンドトゥルース予測との誤差を測定する損失関数、例えば、交差エントロピー損失関数または対数尤度損失関数を最小化することによって分類器の重みを調整するように開放ドア分類器をトレーニングすることができる。例えば、分類器がニューラルネットワークの場合、システムは、バックプロパゲーションを伴う勾配降下法を使用して損失を最小限に抑えるように分類器をトレーニングする。
場合によっては、図3を参照して以下に説明するように、システムは、追加のトレーニングデータで分類器をさらにトレーニングすることによって分類器の性能を改善することができる。
図3は、開放ドア分類器をトレーニングするための別の例示的なプロセス300のフローチャートである。プロセスは、適切にプログラムされたニューラルネットワークシステムによって実行されるように説明される。便宜上、プロセス300は、1つ以上の場所に位置する1つ以上のコンピュータのシステムによって実行されるものとして説明される。例えば、トレーニングシステム、例えば、本明細書に従って適切にプログラムされた図1のトレーニングシステム110は、プロセス300を実行することができる。
システムは、ログデータリポジトリ内のセンサーサンプルから、候補初期ポジティブサンプルを識別する(310)。候補初期ポジティブサンプルは、ポジティブトレーニング例に含まれる候補であるセンサーサンプルである。
特に、システムは、1つ以上の基準を満たすログデータリポジトリ内の任意のセンサーサンプルを、候補初期ポジティブサンプルとして識別することができる。
例えば、システムは、各センサーサンプルにおいて、例えば、車両の本体を包含する境界ボックスまたは他の幾何学的形状を使用して、センサーサンプルによって特徴付けられる車両の本体の輪郭を識別するデータを受信することができる。システムは、候補初期ポジティブサンプルとして、車両の本体の輪郭の外側にかなりの量の測定値を含む任意のセンサーサンプルを識別することができる。例えば、センサーサンプルがレーザーデータを含む場合、車両のレーザーポイントを、受信したデータの長方形モデルに一緒に接続することができる。ポイントの閾値部分よりも多く(例えば、20よりも多いポイント)が長方形の外側にあり、長方形の外側にあるポイントが、境界ボックスの外側の閾値距離以上に(例えば、0.5メートル以上)及ぶ場合、システムは、サンプルをポジティブサンプルとして識別する。
別の例として、車両の近くに小さな物体がある場合に基準を満たすことができる。言い換えれば、システムは、センサーサンプルのそれぞれについて、そのセンサーサンプルが、車両および車両に隣接する別の物体を特徴付けるかどうかを識別するデータを受信し、そのセンサーサンプルが車両および別の物体を特徴付ける場合、センサーサンプルをポジティブサンプルとして識別することができる。
システムは、候補初期ポジティブサンプルのサブセットである初期ポジティブサンプルを取得する(320)。
例えば、システムは、ユーザインターフェースにおいて人間の評価者に提示するために、各初期ポジティブサンプルの視覚的表現、例えば、画像またはビデオを提供することができ、これにより、人間の評価者は、候補初期ポジティブサンプルによって特徴付けられた車両のドアのいずれかが開放しているかどうかを示す入力を提出することができる。次に、システムは、初期ポジティブサンプルとして、人間の評価者が開放ドアを描いて示した各候補初期ポジティブサンプルを指定することができる。
システムは、初期ポジティブサンプルを使用して追加のポジティブサンプルを識別し(330)、図2を参照して上述したように、初期ポジティブサンプルおよび追加のポジティブサンプルを含むトレーニングデータで開放ドア分類器をトレーニングする(340)。
任意選択で、分類器がトレーニングされると、システムは、トレーニングされた分類器を使用してトレーニングデータを変更することによって、分類器のモデルの重みをさらに精緻化する(ステップ350)。
特に、システムは、トレーニングされた分類器を使用してログデータリポジトリ内のセンサーサンプルの一部またはすべてを処理し、処理されたセンサーサンプルごとにそれぞれの開放ドア予測、すなわちそれぞれの確率を生成する。次に、システムは、閾値確率を超える確率(例えば、0.7、0.8、0.9、または0.95)を有する各処理済みセンサーサンプルを、ポジティブトレーニングサンプルとしてトレーニングデータに加える。場合によっては、システムは、ユーザインターフェースで人間の評価者に提示するための閾値を超える確率を有するサンプルの一部またはすべての視覚的表現、例えば、画像またはビデオを提供し、これにより、人間の評価者は、候補初期ポジティブサンプルによって特徴付けられる車両のドアのいずれかが開放しているかどうかを示す入力を提出することができる。次に、システムは、初期ポジティブサンプルとして、人間の評価者が開放ドアを描いて示した各候補初期ポジティブサンプルを指定することができる。
場合によっては、システムはまた、トレーニングデータを変更するときに分類器をトレーニングするために以前に使用されたポジティブな例の一部またはすべてを削除する。例えば、一部の実装では、システムは、トレーニングで以前に使用されたすべての追加のポジティブサンプル(初期ポジティブサンプルへの時間的近接性に基づいて識別された)を、閾値を超える確率を有する処理済みセンサーサンプルに置き換える。
システムが変更されたトレーニングデータを生成すると、システムは変更されたトレーニングデータで分類器を再トレーニングする(ステップ360)。
一部の実装では、システムは再トレーニングを使用して分類器のモデルの重みを微調整する。特に、これらの実装では、システムは変更されたトレーニングデータで分類器をトレーニングして、初期トレーニング中と同じ損失関数を最小化するが、初期トレーニングの結果として決定された重みの値から開始する。
それ以外の実装では、システムは変更されたトレーニングデータで分類器を最初から再トレーニングする。特に、これらの実装では、システムは重みを初期値にリセットしてから、変更されたトレーニングデータで分類器をトレーニングして、重みの初期値から始まる損失関数を最小化する。
したがって、これらの任意選択のステップを実行することにより、システムは、トレーニングされた分類器を使用して、トレーニングされた分類器をさらにトレーニングするために使用するログデータリポジトリ内の追加のポジティブサンプルを識別する。そうすることで、システムは、初期トレーニングデータの前にトレーニングデータに追加された潜在的にノイズの多い追加のポジティブサンプルの影響を軽減しながら、広範囲の距離にある車を特徴付けるサンプルを含むトレーニングデータを依然として有することができる。
さらに任意選択で、システムは、ステップ350および360を1回以上回繰り返して、分類器の重みを精緻化し続けることができる。例えば、システムは、センサーサンプルのテストセットでトレーニングされた分類器の精度がある閾値精度を超えるまでステップ350および360を繰り返すことができ、または所定の反復回数の間、ステップ350および360を繰り返すことができる。
図1~図3は、ドアが開放している車両を分類するために分類器をトレーニングするために使用される技術を示す。ただし、説明した技術は、物体が他の特定の状態にある場合に、分類器をトレーニングするために一般的に適用することができる。特に、説明した技術を使用して分類器をトレーニングし、最初は質の高いトレーニングデータが制限されているか、または利用できない場合に、物体を特定の状態にあると分類するためのトレーニングデータを生成できるが、(1)物体が特定の状態にある場合はある程度の時間的持続性が予期され、物体の他の状態は非常に一般的であるが、特定の状態は比較的まれである。他のそのような例のうちの上記の特定の例には、車を駐車状態にあると分類する分類器、またはスクールバスを点滅ライト状態にあると分類する分類器のトレーニングデータの生成が含まれる。
言い換えれば、システムは、特定のタイプの物体を特徴付け、かつ自律型車両の1つ以上のセンサーによってキャプチャされたセンサーデータから生成された、入力センサーサンプルを受け取り、入力センサーサンプルを処理して、物体が特定の状態にあるという予測された可能性を表す特定の状態スコアを生成するように構成された、分類器をトレーニングすることができる。
システムは、複数の初期トレーニング例を取得することであって、各初期トレーニング例は、(i)センサーサンプルのコレクションからのセンサーサンプル、および(ii)特定の状態にある物体を特徴付けるものとしてセンサーサンプルを分類するデータを含む、取得することと、複数の追加のトレーニング例を生成することであって、複数の追加のトレーニング例は、各初期トレーニング例について、センサーサンプルのコレクションから、初期トレーニング例におけるセンサーサンプルがキャプチャされる前に閾値時間未満でキャプチャされた1つ以上の追加のセンサーサンプルを識別することと、特定の状態にある物体を特徴付けるセンサーサンプルとして各追加のセンサーサンプルを分類することと、を含む、生成することと、初期トレーニング例および追加のトレーニング例を含む第1のトレーニングデータで機械学習分類器をトレーニングして、機械学習分類器の更新された重みを生成することとによって、分類器をトレーニングすることができる。
本明細書に記載の主題および機能的動作の実施形態は、デジタル電子回路内、有形的に具現化されたコンピュータソフトウェアもしくはファームウェア内、本明細書に開示された構造体およびそれらの構造上の等価物を含むコンピュータハードウェア内、またはそれらのうちの1つ以上の組み合わせ内に実装することができる。本明細書に記載の主題の実施形態は、1つ以上のコンピュータプログラムとして、すなわち、データ処理装置によって実行するために、またはデータ処理装置の動作を制御するために有形の非一時的記憶媒体に符号化されたコンピュータプログラム命令の1つ以上のモジュールとして実装することができる。コンピュータ記憶媒体は、機械可読記憶デバイス、機械可読記憶基板、ランダムもしくはシリアルアクセスメモリデバイス、またはそれらの1つ以上の組み合わせであり得る。代替的に、または加えて、プログラム命令は、人工的に生成された伝播信号、例えば、データ処理装置によって実行するために適切な受信装置に送信される情報を符号化するために生成された機械生成された電気的、光学的、または電磁的信号に符号化することができる。
「データ処理装置」という用語は、データ処理ハードウェアを指し、データを処理するためのあらゆる種類の装置、デバイス、および機械を包含し、それらには、例として、プログラマブルプロセッサ、コンピュータ、または複数のプロセッサもしくはコンピュータが含まれる。装置はまた、既製またはカスタムメイドの並列処理サブシステム、例えば、GPUもしくは別の種類の専用処理サブシステムであってもよく、またはそれらをさらに含んでいてもよい。装置はまた、専用論理回路、例えば、FPGA(フィールドプログラマブルゲートアレイ)もしくはASIC(特定用途向け集積回路)であってもよく、またはそれらをさらに含んでいてもよい。装置は、ハードウェアに加えて、コンピュータプログラムのための実行環境を作り出すコード、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらの1つ以上の組み合わせを構成するコードを任意選択で含んでいてもよい。
コンピュータプログラムは、プログラム、ソフトウェア、ソフトウェアアプリケーション、アプリケーション、モジュール、ソフトウェアモジュール、スクリプト、もしくはコードとも称されるか、または記載され、コンパイラ型もしくはインタープリタ型言語、または宣言型もしくは手続き型言語を含む、任意の形式のプログラミング言語で記述することができ、独立型プログラムとしてまたはモジュールとして、コンポーネント、サブルーチン、またはコンピューティング環境で使用するために好適な他のユニットを含む任意の形式で配備することができる。プログラムは、ファイルシステム内のファイルに対応する場合もあるが、対応しなくてもよい。プログラムは、他のプログラムもしくはデータ、例えば、マークアップ言語ドキュメントに格納された1つ以上のスクリプトを保持するファイルの一部、当該プログラム専用の単一ファイル、または複数の調整ファイル、例えば、1つ以上のモジュール、サブプログラム、もしくはコードの一部を格納するファイルに格納することができる。コンピュータプログラムは、1つのコンピュータもしくは1つの場所に位置する複数のコンピュータ上で実行されるように配備されるか、または複数の場所に分散されてデータ通信ネットワークで相互接続することができる。
本明細書で使用される場合、「エンジン」または「ソフトウェアエンジン」は、入力とは異なる出力を提供するソフトウェア実装の入出力システムを指す。エンジンは、ライブラリ、プラットフォーム、ソフトウェア開発キット(「SDK」)、またはオブジェクトなどの機能の符号化されたブロックであり得る。各エンジンは、1つ以上のプロセッサとコンピュータ可読媒体を含む、適切なタイプのコンピューティングデバイス、例えば、サーバ、携帯電話、タブレットコンピュータ、ノートブックコンピュータ、音楽プレーヤー、電子書籍リーダ、ラップトップもしくはデスクトップコンピュータ、PDA、スマートフォン、またはその他の据え置き型もしくはポータブルデバイスに実装することができる。さらに、2つ以上のエンジンを、同じコンピューティングデバイス上に、または異なるコンピューティングデバイス上に実装することができる。
本明細書に記載のプロセスおよび論理フローは、1つ以上のプログラマブルコンピュータが1つ以上のコンピュータプログラムを実行して、入力データ上で動作し、かつ出力を生成することで機能を果たすことによって実行することができる。プロセスおよび論理フローはまた、専用論理回路、例えば、FPGAもしくはASICによって、または専用論理回路と1つ以上のプログラムされたコンピュータとの組み合わせによって実行することができる。
コンピュータプログラムの実行に適したコンピュータは、汎用もしくは専用のマイクロプロセッサ、もしくはその両方、または他の種類の中央処理装置に基づくことができる。一般に、中央処理装置は、読み取り専用メモリもしくはランダムアクセスメモリ、またはその両方から命令およびデータを受け取ることになる。コンピュータの本質的な要素は、命令を遂行または実行するための中央処理装置ならびに命令およびデータを格納するための1つ以上のメモリデバイスである。中央処理装置およびメモリは、専用論理回路によって補完されるか、またはその回路に組み込むことができる。一般に、コンピュータはまた、データを格納するための1つ以上の大容量記憶デバイス、例えば、磁気、光磁気ディスク、もしくは、光ディスクを含むか、または、それらからデータを受信する、もしくはそれらにデータを転送する、もしくはその両方を行うように動作可能に結合されることになる。しかしながら、コンピュータはそのようなデバイスを有しなくてもよい。さらに、コンピュータは別のデバイス、例えば、ほんの数例を挙げると、携帯電話、電子手帳(PDA)、モバイルオーディオもしくはビデオプレーヤ、ゲームコンソール、全地球測位システム(GPS)受信機、またはポータブル記憶デバイス、例えば、ユニバーサルシリアルバス(USB)フラッシュドライブに組み込むことができる。
コンピュータプログラム命令およびデータを格納するのに適したコンピュータ可読媒体は、不揮発性メモリ、媒体、およびメモリデバイスのあらゆる形態を含み、例として、EPROM、EEPROM、およびフラッシュメモリデバイスなどの半導体メモリデバイス、内蔵ハードディスクまたは取り外し可能ディスクなどの磁気ディスク、光磁気ディスク、ならびにCD-ROMおよびDVD-ROMディスクを含む。
ユーザとの対話を提供するために、本明細書に記載の主題の実施形態は、コンピュータ上に実装することができ、当該コンピュータは、ユーザに情報を表示するための表示デバイス、例えば、CRT(陰極線管)もしくはLCD(液晶ディスプレイ)モニタ、ならびにキーボードおよびマウス、トラックボールなどのポインティングデバイス、またはユーザがコンピュータに入力を提供できる存在感知ディスプレイもしくは他の表面を有する。他の種類のデバイスを使用して、ユーザとの対話を提供することもでき、例えば、ユーザに提供されるフィードバックは、視覚的フィードバック、聴覚的フィードバック、または触覚的フィードバックなどの任意の形式の感覚的フィードバックであり得、ユーザからの入力は、音響、音声、または触覚入力を含む任意の形式で受け取ることができる。さらに、コンピュータは、ユーザが使用するデバイスとの間でドキュメントを送受信することによって、例えば、ウェブブラウザから受信した要求に応答して、ユーザのデバイス上のウェブブラウザにウェブページを送信することによって、ユーザと対話することができる。また、コンピュータは、テキストメッセージまたは他の形式のメッセージをスマートフォンなどのパーソナルデバイスに送信し、メッセージアプリケーションを実行し、代わりにユーザから応答メッセージを受信することにより、ユーザと対話することができる。
本明細書は多くの特定の実装の詳細を含んでいるが、これらは、いずれかの発明の範囲、または請求され得る事項の範囲を限定するものとして解釈されるべきではなく、むしろ特定の発明の特定の実施形態に特有であり得る特徴に関する説明として解釈されるべきである。別々の実施形態の文脈で本明細書に記載された特定の特徴を、単一の実施形態で組み合わせて実装することもできる。逆に、単一の実施形態の文脈で記載されているさまざまな特徴は、複数の実施形態で別個に、または任意の好適なサブコンビネーションで実施することもできる。さらに、特徴は、特定の組み合わせで作用するものとして上で説明され、当初はそのように特許請求されることさえあり得るが、場合によっては、特許請求された組み合わせからの1つ以上の特徴が、その組み合わせから削除される可能性もあり、特許請求された組み合わせが、サブコンビネーションまたはサブコンビネーションの変形に向けられる場合もある。
同様に、動作が特定の順序で図面に描かれているが、これは、所望の結果を達成するために、かかる動作がその示された特定の順序、もしくは一連の順序で実行されるべきであること、または図示したすべての動作が実行されるべきであることを要求するものとして理解されるべきではない。特定の状況では、マルチタスクおよび並列処理が有利な場合がある。さらに、上述した実施形態におけるさまざまなシステムモジュールおよびコンポーネントの分離は、すべての実施形態においてかかる分離を必要とするものとして理解されるべきではなく、記載されたプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品内に共に一体化されてもよく、または複数のソフトウェア製品にパッケージ化されてもよい。
主題の特定の実施形態を説明してきた。他の実装形態は、以下の特許請求の範囲内に存在する。例えば、特許請求の範囲に列挙された動作は、異なる順序で実行されても、依然として望ましい結果を達成することができる。一例として、添付の図に描かれたプロセスは、望ましい結果を達成するために、必ずしも示された特定の順序、または連続した順序を必要としない。特定の場合によっては、マルチタスクおよび並列処理が有利なことがある。

Claims (20)

  1. 機械学習分類器をトレーニングする、コンピュータ実装方法であって、前記機械学習分類器が、複数の重みを有し、かつ
    第1の車両を特徴付け、第2の車両の1つ以上のセンサーによってキャプチャされたセンサーデータから生成される、入力センサーサンプルを受信し、
    前記入力センサーサンプルを処理して、前記第1の車両が開放ドアを有するという予測された可能性を表す開放ドアスコアを生成するように構成され、
    前記方法が、
    複数の初期トレーニング例を取得することであって、各初期トレーニング例が、(i)センサーサンプルのコレクションからのセンサーサンプルと、(ii)開放ドアを有する車両を特徴付けるものとして前記センサーサンプルを分類するデータと、を含む、取得することと、
    複数の追加のトレーニング例を生成することであって、各初期トレーニング例について、
    前記センサーサンプルのコレクションから、前記初期トレーニング例における前記センサーサンプルがキャプチャされる前の閾値時間量未満でキャプチャされた1つ以上の追加のセンサーサンプルを識別することと、
    開放ドアを有する車両を特徴付けるセンサーサンプルとして各追加のセンサーサンプルを分類することと、を含む、生成することと、
    前記初期トレーニング例および前記追加のトレーニング例を含む第1のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器の更新された重みを生成することと、を含む、方法。
  2. 前記機械学習分類器を使用し、前記更新された重みに従って、さらなるトレーニング例を生成することと、
    前記さらなるトレーニング例を含む第2のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器のさらに更新された重みを生成することと、をさらに含む、請求項1に記載の方法。
  3. 前記さらなるトレーニング例を含む第2のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器のさらに更新された重みを生成することが、
    前記第2のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器の前記更新された重みから始まる、前記機械学習分類器のさらに更新された重みを生成することを含む、請求項2に記載の方法。
  4. 前記さらなるトレーニング例を含む第2のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器のさらに更新された重みを生成することが、
    前記第2のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器の初期重みから始まる、前記機械学習分類器のさらに更新された重みを生成することを含む、請求項2に記載の方法。
  5. 前記機械学習分類器を使用し、前記更新された重みに従って、さらなるトレーニング例を生成することが、
    前記機械学習分類器を使用し、前記更新された重みに従って、前記センサーサンプルのコレクションからの複数の候補センサーサンプルの各々を処理して、各候補センサーサンプルのそれぞれの開放ドアスコアを生成することと、
    閾値スコアを超える開放ドアスコアを有する各候補センサーサンプルを、開放ドアを備えた車両を特徴付けるセンサーサンプルとして分類することと、を含む、請求項2~4のいずれか一項に記載の方法。
  6. 前記複数のセンサーサンプルから、前記初期トレーニング例における前記センサーサンプルがキャプチャされる前の閾値時間量未満でキャプチャされた1つ以上の追加のセンサーサンプルを識別することが、
    追加のセンサーサンプルとして、(i)前記初期トレーニング例における前記センサーサンプルと同じ車両を特徴付け、(ii)前記初期トレーニング例における前記センサーサンプルがキャプチャされる前の閾値時間量未満でキャプチャされた、前記複数のサンプルにおける各センサーサンプルを識別することを含む、請求項1~5のいずれか一項に記載の方法。
  7. 複数の初期トレーニング例を取得することが、
    前記センサーサンプルのコレクションから、複数の候補初期センサーサンプルを識別することであって、前記複数の候補初期センサーサンプルが、各々、前記候補初期センサーサンプルによって特徴付けられる前記車両の本体の輪郭の外側にかなりの量の測定値を含む、識別することを含む、請求項1~6のいずれか一項に記載の方法。
  8. 1つ以上のコンピュータおよび命令を記憶する1つ以上の記憶デバイスを含むシステムであって、前記命令が、前記1つ以上のコンピュータによって実行されたとき、前記1つ以上のコンピュータに、機械学習分類器をトレーニングするための操作を実行させ、前記機械学習分類器が、複数の重みを有し、かつ
    第1の車両を特徴付け、第2の車両の1つ以上のセンサーによってキャプチャされたセンサーデータから生成される、入力センサーサンプルを受信し、
    前記入力センサーサンプルを処理して、前記第1の車両が開放ドアを有するという予測された可能性を表す開放ドアスコアを生成するように構成され、
    前記操作が、
    複数の初期トレーニング例を取得することであって、各初期トレーニング例が、(i)センサーサンプルのコレクションからのセンサーサンプルと、(ii)開放ドアを有する車両を特徴付けるものとして前記センサーサンプルを分類するデータと、を含む、取得することと、
    複数の追加のトレーニング例を生成することであって、各初期トレーニング例について、
    前記センサーサンプルのコレクションから、前記初期トレーニング例における前記センサーサンプルがキャプチャされる前の閾値時間量未満でキャプチャされた1つ以上の追加のセンサーサンプルを識別することと、
    開放ドアを有する車両を特徴付けるセンサーサンプルとして各追加のセンサーサンプルを分類することと、を含む、生成することと、
    前記初期トレーニング例および前記追加のトレーニング例を含む第1のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器の更新された重みを生成することを含む、システム。
  9. 前記操作が、
    前記機械学習分類器を使用し、前記更新された重みに従って、さらなるトレーニング例を生成することと、
    前記さらなるトレーニング例を含む第2のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器のさらに更新された重みを生成することと、をさらに含む、請求項8に記載のシステム。
  10. 前記さらなるトレーニング例を含む第2のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器のさらに更新された重みを生成することが、
    前記第2のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器の前記更新された重みから始まる、前記機械学習分類器のさらに更新された重みを生成することを含む、請求項9に記載のシステム。
  11. 前記さらなるトレーニング例を含む第2のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器のさらに更新された重みを生成することが、
    前記第2のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器の初期重みから始まる、前記機械学習分類器のさらに更新された重みを生成することを含む、請求項9に記載のシステム。
  12. 前記機械学習分類器を使用し、前記更新された重みに従って、さらなるトレーニング例を生成することが、
    前記機械学習分類器を使用し、前記更新された重みに従って、前記センサーサンプルのコレクションからの複数の候補センサーサンプルの各々を処理して、各候補センサーサンプルのそれぞれの開放ドアスコアを生成することと、
    閾値スコアを超える開放ドアスコアを有する各候補センサーサンプルを、開放ドアを備えた車両を特徴付けるセンサーサンプルとして分類することと、を含む、請求項9~11のいずれか一項に記載のシステム。
  13. 前記複数のセンサーサンプルから、前記初期トレーニング例における前記センサーサンプルがキャプチャされる前の閾値時間量未満でキャプチャされた1つ以上の追加のセンサーサンプルを識別することが、
    追加のセンサーサンプルとして、(i)前記初期トレーニング例における前記センサーサンプルと同じ車両を特徴付け、(ii)前記初期トレーニング例における前記センサーサンプルがキャプチャされる前の閾値時間量未満でキャプチャされた、前記複数のサンプルにおける各センサーサンプルを識別することを含む、請求項8~12のいずれか一項に記載のシステム。
  14. 複数の初期トレーニング例を取得することが、
    前記センサーサンプルのコレクションから、複数の候補初期センサーサンプルを識別することであって、前記複数の候補初期センサーサンプルが、各々、前記候補初期センサーサンプルによって特徴付けられる前記車両の本体の輪郭の外側にかなりの量の測定値を含む、識別することを含む、請求項8~13のいずれか一項に記載のシステム。
  15. 命令を記憶する1つ以上のコンピュータ可読記憶媒体であって、前記命令が、前記1つ以上のコンピュータによって実行されたとき、前記1つ以上のコンピュータに機械学習分類器をトレーニングするための操作を実行させ、前記機械学習分類器が、複数の重みを有し、かつ
    第1の車両を特徴付け、第2の車両の1つ以上のセンサーによってキャプチャされたセンサーデータから生成される、入力センサーサンプルを受信し、
    前記入力センサーサンプルを処理して、前記第1の車両が開放ドアを有するという予測された可能性を表す開放ドアスコアを生成するように構成され、
    前記操作が、
    複数の初期トレーニング例を取得することであって、各初期トレーニング例が、(i)センサーサンプルのコレクションからのセンサーサンプルと、(ii)開放ドアを有する車両を特徴付けるものとして前記センサーサンプルを分類するデータと、を含む、取得することと、
    複数の追加のトレーニング例を生成することであって、各初期トレーニング例について、
    前記センサーサンプルのコレクションから、前記初期トレーニング例における前記センサーサンプルがキャプチャされる前の閾値時間量未満でキャプチャされた1つ以上の追加のセンサーサンプルを識別することと、
    開放ドアを有する車両を特徴付けるセンサーサンプルとして各追加のセンサーサンプルを分類することと、を含む、生成することと、
    前記初期トレーニング例および前記追加のトレーニング例を含む第1のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器の更新された重みを生成することと、を含む、1つ以上のコンピュータ可読記憶媒体。
  16. 前記操作が、
    前記機械学習分類器を使用し、前記更新された重みに従って、さらなるトレーニング例を生成することと、
    前記さらなるトレーニング例を含む第2のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器のさらに更新された重みを生成することと、をさらに含む、請求項15に記載のコンピュータ可読記憶媒体。
  17. 前記さらなるトレーニング例を含む第2のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器のさらに更新された重みを生成することが、
    前記第2のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器の前記更新された重みから始まる、前記機械学習分類器のさらに更新された重みを生成することを含む、請求項16に記載のコンピュータ可読記憶媒体。
  18. 前記さらなるトレーニング例を含む第2のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器のさらに更新された重みを生成することが、
    前記第2のトレーニングデータ上で前記機械学習分類器をトレーニングして、前記機械学習分類器の前記初期重みから始まる、前記機械学習分類器のさらに更新された重みを生成することを含む、請求項16に記載のコンピュータ可読記憶媒体。
  19. 前記機械学習分類器を使用し、前記更新された重みに従って、さらなるトレーニング例を生成することが、
    前記機械学習分類器を使用し、前記更新された重みに従って、前記センサーサンプルのコレクションからの複数の候補センサーサンプルの各々を処理して、各候補センサーサンプルのそれぞれの開放ドアスコアを生成することと、
    閾値スコアを超える開放ドアスコアを有する各候補センサーサンプルを、開放ドアを備えた車両を特徴付けるセンサーサンプルとして分類することと、を含む、請求項16~18のいずれか一項に記載のコンピュータ可読記憶媒体。
  20. 前記複数のセンサーサンプルから、前記初期トレーニング例における前記センサーサンプルがキャプチャされる前の閾値時間量未満でキャプチャされた1つ以上の追加のセンサーサンプルを識別することが、
    追加のセンサーサンプルとして、(i)前記初期トレーニング例における前記センサーサンプルと同じ車両を特徴付け、(ii)前記初期トレーニング例における前記センサーサンプルがキャプチャされる前の閾値時間量未満でキャプチャされた、前記複数のサンプルにおける各センサーサンプルを識別することを含む、請求項15~19のいずれか一項に記載のコンピュータ可読記憶媒体。
JP2021533428A 2018-12-21 2019-12-23 開放された車両ドアを検出するための分類器のトレーニング Active JP7203224B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/231,297 2018-12-21
US16/231,297 US11514310B2 (en) 2018-12-21 2018-12-21 Training a classifier to detect open vehicle doors
PCT/US2019/068331 WO2020132676A2 (en) 2018-12-21 2019-12-23 Training a classifier to detect open vehicle doors

Publications (2)

Publication Number Publication Date
JP2022511968A true JP2022511968A (ja) 2022-02-01
JP7203224B2 JP7203224B2 (ja) 2023-01-12

Family

ID=69374376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021533428A Active JP7203224B2 (ja) 2018-12-21 2019-12-23 開放された車両ドアを検出するための分類器のトレーニング

Country Status (5)

Country Link
US (2) US11514310B2 (ja)
EP (1) EP3881247A2 (ja)
JP (1) JP7203224B2 (ja)
KR (1) KR102607725B1 (ja)
WO (1) WO2020132676A2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11514310B2 (en) * 2018-12-21 2022-11-29 Waymo Llc Training a classifier to detect open vehicle doors
DE102019203334A1 (de) * 2019-03-12 2020-09-17 Robert Bosch Gmbh Verfahren zum Durchführen einer Reaktion auf Personen an Fahrzeugen
CN111832496B (zh) * 2020-07-17 2023-11-03 南京康尼机电股份有限公司 一种轨道车门开关状态判断方法、装置及存储介质
US20220024495A1 (en) * 2020-07-24 2022-01-27 Autobrains Technologies Ltd Open door predictor
SE2051397A1 (en) * 2020-12-01 2022-05-24 Swanholm Tech Ab Safety wearable for egress detection from a work vehicle
JP2022104398A (ja) * 2020-12-28 2022-07-08 株式会社Subaru 車両の運転制御システム
CN113111708B (zh) * 2021-03-10 2023-12-29 北京爱笔科技有限公司 车辆匹配样本生成方法、装置、计算机设备和存储介质
US20230243994A1 (en) * 2022-02-02 2023-08-03 Gm Cruise Holdings Llc Use of low frequency electromagnetic signals to detect occluded anomalies by a vehicle
US20230007914A1 (en) * 2022-09-20 2023-01-12 Intel Corporation Safety device and method for avoidance of dooring injuries

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012146142A (ja) * 2011-01-12 2012-08-02 Denso Corp 物体検出装置
US20170262727A1 (en) * 2016-03-11 2017-09-14 Panasonic Intellectual Property Corporation Of America Image processing method, image processing apparatus, and recording medium
JP2017162436A (ja) * 2016-03-11 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像処理方法、画像処理装置およびプログラム
US9987745B1 (en) * 2016-04-01 2018-06-05 Boston Dynamics, Inc. Execution of robotic tasks

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3052951C (en) 2017-02-10 2023-03-14 Nissan North America, Inc. Autonomous vehicle operational management
US11112259B2 (en) * 2017-10-24 2021-09-07 Nissan North America, Inc. Localization determination for vehicle operation
US10955851B2 (en) * 2018-02-14 2021-03-23 Zoox, Inc. Detecting blocking objects
US11514310B2 (en) * 2018-12-21 2022-11-29 Waymo Llc Training a classifier to detect open vehicle doors

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012146142A (ja) * 2011-01-12 2012-08-02 Denso Corp 物体検出装置
US20170262727A1 (en) * 2016-03-11 2017-09-14 Panasonic Intellectual Property Corporation Of America Image processing method, image processing apparatus, and recording medium
JP2017162436A (ja) * 2016-03-11 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像処理方法、画像処理装置およびプログラム
US9987745B1 (en) * 2016-04-01 2018-06-05 Boston Dynamics, Inc. Execution of robotic tasks

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
加藤 ジェーン 外3名: "多くの画像が共有する「一般クラス」に着目した訓練画像の選択", 情報処理学会 論文誌(ジャーナル) VOL.55 NO.1 [ONLINE], vol. 第55巻 第1号, JPN6022035254, 15 January 2014 (2014-01-15), JP, pages 542 - 552, ISSN: 0004856407 *
岡谷 貴之: "画像認識のための深層学習の研究動向 −畳込みニューラルネットワークとその利用法の発展−", 人工知能, vol. 第31巻 第2号, JPN6022035255, 1 March 2016 (2016-03-01), JP, pages 169 - 179, ISSN: 0004856408 *

Also Published As

Publication number Publication date
US20200202209A1 (en) 2020-06-25
JP7203224B2 (ja) 2023-01-12
US20230099920A1 (en) 2023-03-30
KR102607725B1 (ko) 2023-11-30
WO2020132676A2 (en) 2020-06-25
CN113366507A (zh) 2021-09-07
US11514310B2 (en) 2022-11-29
WO2020132676A3 (en) 2020-07-30
KR20210104128A (ko) 2021-08-24
EP3881247A2 (en) 2021-09-22

Similar Documents

Publication Publication Date Title
US11861481B2 (en) Searching an autonomous vehicle sensor data repository
KR102607725B1 (ko) 열린 차량 도어들을 검출하기 위한 분류기의 훈련
JP7459224B2 (ja) アンカー軌道を使用したエージェント軌道予測
JP7239703B2 (ja) 領域外コンテキストを用いたオブジェクト分類
CN113366496A (zh) 用于粗略和精细对象分类的神经网络
JP2021516806A (ja) 物体の検出および特徴付けのためのニューラルネットワーク
US11480963B2 (en) Vehicle intent prediction neural network
US11645518B2 (en) Multi-agent simulations
JP2018173946A (ja) 自動運転車両に用いる畳み込みニューラルネットワークモデルのコンボリューション/デコンボリューション層とバッチ正規化層のオフライン組み合わせ
CN113228040B (zh) 多级对象行进方向估计的系统和方法
CN114580702A (zh) 多模态多代理轨迹预测
US20210150349A1 (en) Multi object tracking using memory attention
US20220164350A1 (en) Searching an autonomous vehicle sensor data repository based on context embedding
US20210101614A1 (en) Spatio-temporal pose/object database
CN113366507B (zh) 训练分类器以检测打开的车门
US20230072020A1 (en) Open vehicle doors prediction using a neural network model
EP3965017A1 (en) Knowledge distillation for autonomous vehicles
CN116882122A (zh) 用于自动驾驶的仿真环境的构建的方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221226

R150 Certificate of patent or registration of utility model

Ref document number: 7203224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150