JP2020524854A - 珍しい事例の分類 - Google Patents

珍しい事例の分類 Download PDF

Info

Publication number
JP2020524854A
JP2020524854A JP2019570802A JP2019570802A JP2020524854A JP 2020524854 A JP2020524854 A JP 2020524854A JP 2019570802 A JP2019570802 A JP 2019570802A JP 2019570802 A JP2019570802 A JP 2019570802A JP 2020524854 A JP2020524854 A JP 2020524854A
Authority
JP
Japan
Prior art keywords
score
input image
classifier
neural network
scores
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019570802A
Other languages
English (en)
Other versions
JP7090105B2 (ja
Inventor
ロ,ワン−イェン
オーガル,アビジット
ガオ,ヤン
Original Assignee
ウェイモ エルエルシー
ウェイモ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウェイモ エルエルシー, ウェイモ エルエルシー filed Critical ウェイモ エルエルシー
Publication of JP2020524854A publication Critical patent/JP2020524854A/ja
Application granted granted Critical
Publication of JP7090105B2 publication Critical patent/JP7090105B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

いくつかの実装形態では、自律または半自律車両の画像分類システムは、稀に存在する物体と考慮される物体の繰り返される不正確な分類を低減することによって、複数の物体の分類を改善することができる。システムは、指定された物体カテゴリに属するように全般の物体(例えば、一般的に存在する物体および稀に存在する物体)を識別および認識するように訓練されている一般事例分類器と、入力画像が一般事例分類器によって正確に分類される可能性を表す1つ以上の珍しさスコアを計算するように訓練されている珍しい事例分類器と、を含み得る。珍しい事例分類器の出力は、入力画像が不正確に分類される可能性が低下するように、一般事例分類器の分類出力を調節するために使用され得る。【選択図】図3A

Description

本明細書は、自律車両に関する。
自律車両は、自動運転車、ボート、および航空機を含む。自律車両は、様々な車載用センサおよびコンピュータシステムを使用して、近くの物体を検出し、かかる検出を使用して、制御およびナビゲーション判断を行う。
いくつかの自律車両は、画像内の物体分類のためのニューラルネットワークを実装するコンピュータシステムを有する。
ニューラルネットワーク、または簡潔にネットワークは、オペレーションの複数の層を用いて、1つ以上の入力から1つ以上の出力を予測する、機械学習モデルである。ニューラルネットワークは、典型的には、入力層と出力層との間に位置する1つ以上の隠れ層を含む。各層の出力は、ネットワーク内の別の層、例えば、次の隠れ層または出力層に対する入力として使用される。
ニューラルネットワークの各層は、層への入力に対して実施される1つ以上の変換オペレーションを指定する。いくつかのニューラルネットワーク層は、ニューロンと称されるオペレーションを有する。各ニューロンは、1つ以上の入力を受信し、別のニューラルネットワーク層によって受信される出力を生成する。多くの場合、各ニューロンは、他のニューロンから入力を受信し、各ニューロンは、1つ以上の他のニューロンに出力を提供する。
ニューラルネットワークのアーキテクチャは、ネットワーク内に含まれる層が何か、およびそれらの特性、ならびにネットワークの各層のニューロンがどのように接続されるか、を指定する。言い換えると、アーキテクチャは、どの層がその出力を入力としてどの他の層に提供するか、および出力がどのように提供されるか、を指定する。
各層の変換オペレーションは、変換オペレーションを実装する、インストールされたソフトウェアモジュールを有するコンピュータによって実施される。したがって、オペレーションを実施するように説明されている層は、層の変換オペレーションを実装するコンピュータがオペレーションを実施することを意味する。
各層は、層のパラメータセットの現在値を使用して1つ以上の出力を生成する。したがって、ネットワークを訓練することは、入力に対する前方パスを断続的に実施し、勾配値を計算し、各層のパラメータセットの現在値を更新することを伴う。一旦、ニューラルネットワークが訓練されると、最終パラメータセットが、プロダクションシステムでの予測を行うために使用され得る。
畳み込みニューラルネットワークは、畳み込みニューラルネットワーク層を含む。畳み込みニューラルネットワーク層は、入力データ内の空間的局所相関の利点を受けるニューロン接続性を有する。そのようにするために、畳み込みニューラルネットワーク層は、スパース接続性を有し、1つの畳み込みニューラルネットワーク層内のニューロンは、前のニューラルネットワーク層内の小さいニューロンサブセットのみから入力を受信する。ニューロンがその入力を受信する他のニューロンは、そのニューロンの受容野を定義する。
畳み込みニューラルネットワーク層は、層のパラメータによって定義される1つ以上のフィルタを有する。畳み込みニューラルネットワーク層は、層の入力を用いて各ニューロンのフィルタの畳み込みを実施することによって出力を生成する。
加えて、各畳み込みニューラルネットワーク層は、奥行、幅、および高さ寸法を含む、3次元配置にニューロンを有し得る。幅および高さ寸法は、層の入力の2次元特徴に対応する。奥行寸法は、ニューロンの1つ以上の奥行副層を含む。一般に、畳み込みニューラルネットワーク層は、奥行副層内の全てのニューロンが同じ重みを有するように重み共有を用いる。これは、入力に特徴を検出するときに移動不変性を提供する。
畳み込みニューラルネットワークはまた、完全に接続された層および他の種類の層を含み得る。完全に接続された層内のニューロンは、前のニューラルネットワーク層内の各ニューロンから入力を受信する。
自律および半自律車両システムは、運転判断を行うための物体検出予測を使用し得る。
自律車両システムは、人間がプログラムした論理を使用して物体検出予測を行い得る。人間がプログラムした論理は、完全物体予測を計算するために、車載用センサの出力がどのように組み合わせられ、変換され、かつ重み付けされるべきかを的確に指定する。
いくつかの実装形態では、自律または半自律車両の画像分類システムは、稀に存在する物体と考慮される物体の繰り返される不正確な分類を低減することによって、複数の物体の分類を改善することができる。システムは、指定された物体カテゴリに属するように全般の物体(例えば、一般的に存在する物体および稀に存在する物体)を識別および認識するように訓練されている一般事例分類器と、入力画像が一般事例分類器によって正確に分類される可能性を表す1つ以上の珍しさスコアを計算するように訓練されている珍しい事例分類器と、を含み得る。珍しい事例分類器の出力は、入力画像が不正確に分類される可能性が低下するように、一般事例分類器の分類出力を調節するために使用され得る。
本明細書に説明される主題の特定の実施形態は、以下の利点のうちの1つ以上を実現するために実装され得る。自律または半自律車両システムは、完全に訓練された分類器サブシステムを使用して、分類器を再訓練せずに稀に存在する物体に対して繰り返されるエラーを急速に低減し得る。システムは、特定の物体を含むように画像の分類の正確さを改善する技術を使用し得る。システムはまた、特定の分類器サブシステムを介して入力画像を処理して、正確な物体予測を生成するために必要とされる計算リソースを低減し得る。
加えて、システムは、一般事例分類器および珍しい事例分類器を並列に適用して、誤分類された稀に存在する物体の画像分類性能を改善し得る。例えば、画像が珍しい物体、または一般事例分類器によって頻繁に誤分類される別の種類の物体の画像を含む高い可能性の決定は、負のフィードバックとして使用されて、画像分類システムによる誤った正の分類を低減し得る。
システムは、異なる種類のセンサ、例えば、LIDAR、およびビデオカメラからのデータを処理するようにさらに適用され得、異なるセンサからのデータを組み合わせて、全体的な画像分類性能を改善し得る。
一概略態様では、方法は、画像を受信することと、一般事例ニューラルネットワークを使用して入力画像を処理することであって、一般事例ニューラルネットワークが、入力画像を処理して、1つ以上の第1の物体カテゴリの各々に対応するそれぞれの第1の物体スコアを含む一般事例出力を生成するように構成されており、各第1の物体スコアは、入力画像が、対応する第1の物体カテゴリに属する物体の画像を含む可能性を表す、処理することと、珍しい事例ニューラルネットワークを使用して入力画像を処理することであって、珍しい事例ニューラルネットワークは、入力画像を処理して、入力画像が一般事例ニューラルネットワークによって不正確に分類されることになる可能性を表す珍しさスコアを含む珍しい事例出力を生成するように構成されている、処理することと、珍しさスコアを使用して入力画像を分類する際に1つ以上のそれぞれの第1の物体スコアに割り当てられるべき重みを決定することと、決定された重みに従って入力画像を分類することと、を含む。
1つ以上の実装形態は、以下の任意の特徴を含み得る。例えば、いくつかの実装形態では、珍しい事例ニューラルネットワークが、一般事例ニューラルネットワークによって誤分類された訓練画像で訓練されている。
いくつかの実装形態では、珍しい事例ニューラルネットワークが、一般事例ニューラルネットワークを訓練するために使用された画像内で稀に起こる物体タイプの画像で訓練されている。
いくつかの実装形態では、珍しい事例出力が、1つ以上の第2の物体カテゴリの各々に対応するそれぞれの第2の物体スコアをさらに含み、各第2の物体スコアは、入力画像が対応する第2の物体カテゴリに属する物体の画像を含む可能性を表し、方法は、重みを決定して、珍しさスコアを使用して入力画像を分類する際の1つ以上の第2の物体スコアを割り当てることをさらに含む。
いくつかの実装形態では、第2の物体カテゴリが、第1の物体カテゴリのうちの1つ以上を含む。
いくつかの実装形態では、重みを決定して、1つ以上の第2の物体スコアを割り当てることが、第2の物体スコアの重みとして珍しさスコアを使用することを含む。
いくつかの実装形態では、重みを決定して、1つ以上の第2の物体スコアおよび1つ以上の第1の物体スコアを割り当てることは、珍しさスコアが所定閾値を満たさないことを決定することと、応答して、入力画像を分類する際に1つ以上のそれぞれの第2の物体スコアに割り当てられた重みを減少させることと、を含む。
いくつかの実装形態では、重みを決定して、1つ以上の第2の物体スコアおよび1つ以上の第1の物体スコアを割り当てることは、珍しさスコアが所定閾値を満たすことを決定することと、珍しさスコアが所定閾値を満たす決定に応答して、入力画像を分類する際に1つ以上のそれぞれの第1の物体スコアに割り当てられた重みを減少させることと、を含む。
いくつかの実装形態では、1つ以上のそれぞれの第1の物体スコアに割り当てられた重みを減少させることは、第1の物体スコアが入力画像を分類する際に使用されないことを示す値に重みを割り当てることを含む。
いくつかの実装形態では、入力画像を分類することは、組み合わせニューラルネットワークを使用して一般事例出力および珍しい事例出力を処理することであって、組み合わせニューラルネットワークが、1つ以上の第1の物体カテゴリの各々に対応するそれぞれの第3の物体スコアを計算するように構成されており、各第3の物体スコアが、1つ以上のそれぞれの第1の物体スコアに割り当てられた決定された重み、および1つ以上のそれぞれの第2の物体スコアに割り当てられた決定された重みに基づいて、計算されている、処理することと、第3の物体スコアのそれぞれの値に基づいて、入力画像を分類することと、を含む。
いくつかの実装形態では、重みを決定して、1つ以上のそれぞれの第1の物体スコアを割り当てることは、珍しさスコアが所定閾値を満たすことを決定することと、珍しさスコアが所定閾値を満たす決定に応答して、入力画像を分類する際に1つ以上のそれぞれの第1の物体スコアに割り当てられた重みを減少させることと、を含む。
本明細書の主題の1つ以上の実施形態の詳細は、添付図面および以下の説明で明らかにされる。主題の他の特徴、態様、および利点は、説明、図面、および特許請求の範囲から明らかになるであろう。
システムの一例のブロック図である。 自律車両の周囲の環境の画像を分類するためのプロセスの一例のフローチャートである。 一般事例分類器および珍しい事例分類器を含むアーキテクチャの一例の模式図である。 珍しい事例分類器が入力画像内の稀に存在する物体を識別するアーキテクチャの一例の模式図である。 珍しい事例分類器が入力画像内の一般的に存在する物体を識別するアーキテクチャの一例の模式図である。 一般事例分類器および珍しい事例分類器の出力を処理する組み合わせニューラルネットワークを含むアーキテクチャの一例の模式図である。
様々な図面の同様の参照番号および呼称は、同様の要素を示す。
本明細書は、どのように車両、例えば、自律または半自律車両が1つ以上の完全に学習された分類器を使用して、稀に存在する物体であると決定される物体を含む画像、または一般事例分類器によって頻繁に誤分類される他の画像の繰り返される不正確な分類を低減することによって、車両のセンサによって検出された物体の分類を改善するかを説明する。例えば、稀に存在する物体は、一般事例分類器を訓練するために使用された訓練データ内に稀に存在する物体を含み得る。他の例では、稀に存在する物体は、車両の周囲の環境内の特定の物体カテゴリに含まれるように稀に分類される物体を含み得る。各物体カテゴリは、車両が走行する際にその周辺に存在し得る物体のタイプを指定し得る。例えば、物体カテゴリは、車両の近接範囲の標識、歩行者、自転車通行者、または他の車両を表し得る。
本明細書全体を通して使用される際、「完全に学習された」機械学習モデルは、所望される予測を計算するように訓練されているモデルである。言い換えると、完全の学習されたモデルは、人間がプログラムした決定ではなく、訓練データで訓練されているもののみに基づいて、出力を生成する。
図1は、例示的なシステム100の図である。システム100は、訓練データ110および車載用システム130を含む。
車載用システム130は、車両122の車上に物理的に位置する。図1の車両122は、自動車として例示されているが、車載用システム130は、任意の適切な車両タイプの車上に位置してもよい。車両122は、物体検出予測を使用して、完全自律運転判断を通知する完全自律車両であり得る。車両122はまた、画像分類予測を使用して人間の運転手を支援する半自律車両であり得る。例えば、車両122は、人間の運転手が検出された物体、例えば、歩行者、自転車通行者、別の車両とぶつかりそうであると完全物体予測が示す場合、ブレーキを自律的に適用し得る。
車載用システム130は、1つ以上のセンササブシステム132を含む。センササブシステムは、電磁放射線の反射を受信する構成要素、例えば、レーザ光の反射を検出するLIDARシステム、電波の反射を検出するレーダシステム、および可視光の反射を検出するカメラシステムの組み合わせを含む。
センササブシステムはまた、短距離および長距離レーザセンサの組み合わせを含み得る。例えば、短距離レーザセンサは、車両122の周囲の地面および車両122から40メートル内の近くの物体を検出するために使用され得る。別の例では、長距離レーザセンサは、車両122の周囲最大200メートルの物体を検出するために使用され得る。
未処理入力センサデータは、距離、方向、および反射された放射線の強度を示す。各センサは、特定方向の電磁放射線の1つ以上のパルスを送信し得、任意の反射の強度および反射が受信された時間を測定し得る。距離は、パルスとその対応する反射との間でどの程度の時間がかかったかを決定することによって計算され得る。各センサは、角度、方位角、または両方で特定空間を断続的に掃引し得る。方位角での掃引は、例えば、センサが同一視野方向に沿って複数の物体を検出することを可能にし得る。
センササブシステム132は、入力センサデータ155を車載用分類器サブシステム134に提供する。入力センサデータ155は、データの複数のチャネルを含み得、各チャネルは、反射された電磁放射線の異なる特質を表す。したがって、入力センサデータ155の複数のチャネルは、同一センサからの測定値から生成され得る。例えば、入力センサデータ155は、車両の周囲の環境のカメラによって取得された画像を含み得る。
センササブシステム132、車載用分類器サブシステム134、または両方のいくつかの組み合わせは、未処理センサデータを入力センサデータ155の複数のチャネルに変換する。そのようにするために、車載用システム130は、未処理センサデータの様々な特質を共通座標系内に投影し得る。
車載用分類器サブシステム134は、画像分類に関する、すなわち、1つ以上の物体カテゴリからの物体を含むように車両の周囲の環境の画像を分類することに関する予測を行うように訓練されている一組の分類器のオペレーションを実装する。車載用分類器サブシステム134は、完全に訓練された一般事例分類器310および完全に訓練された珍しい事例分類器320を含み、これらは、図3A、図3Bおよび図4に図示される。図3Aに示されるように、一般事例分類器310および珍しい事例分類器320は、並列に適用されて、入力センサデータ155内の入力画像302を処理して、画像分類の正確さを改善し得る。例えば、珍しい事例分類器320は、入力画像302が、一般事例分類器310によって誤分類される可能性があるタイプの物体、例えば、稀に存在する物体を含む可能性を表す珍しさスコアを計算する。珍しさスコアは、以下に詳細に説明されるように、入力画像302の分類を調節して、入力画像302を誤認識する可能性を低下させるために使用され得る。
車載用分類器サブシステム134は、訓練システム110から受信されるモデルパラメータ172のコレクションを読み込むことによって分類器のオペレーションを実装し得る。論理的に分離されているように例示されているが、モデルパラメータ170およびオペレーションを実施するソフトウェアまたはハードウェアモジュールは、実際には、同一コンピュータデバイス上に位置し得るか、またはソフトウェアモジュールを実行する場合には、同一メモリデバイス内に記憶され得る。
車載用分類器サブシステム134は、ハードウェアアクセラレーションまたは他の専用コンピューティングデバイスを使用して、分類器のオペレーションを実装し得る。例えば、いくつかの層のいくつかのオペレーションは、高度に並列化されたハードウェア、例えば、グラフィック処理装置または別の種類の専用コンピューティングデバイスによって実施され得る。言い換えると、各層の全てのオペレーションが、車載用分類器サブシステム134の中央演算装置(CPU)によって実施される必要はない。
車載用分類器サブシステム134は、入力センサデータ155を使用して、1つ以上の画像分類予測165を生成する。車載用分類器サブシステム134は、計画サブシステム136、ユーザインターフェースサブシステム138、または両方に1つ以上の画像分類予測165を提供し得る。
計画サブシステム136が1つ以上の画像分類予測165を受信すると、計画サブシステム136は、1つ以上の画像分類予測165を使用して、完全自律または半自律運転判断を行い得る。例えば、計画サブシステム136は、完全自律計画を生成して、自転車通行者および歩行者の回避も行いながら、公道上の他の車両を介してまたはその周囲をナビゲートし得る。別の例として、計画サブシステム136は、人間の運転手に対する半自律推薦を生成して、ブレーキを適用させ得る。
ユーザインターフェースサブシステム138は、画像分類予測165または別の構成要素による画像分類予測165の処理後の結果を受信し得、近くの物体の場所を示すユーザインターフェース提示を生成し得る。例えば、ユーザインターフェースサブシステム138は、物体によって占有される可能性がある空間の領域の表現を含有する画像または映像データを有するユーザインターフェース提示を生成し得る。車載用ディスプレイデバイスは、次いで、車両122の乗員に対するユーザインターフェース提示を表示し得る。
車載用分類器サブシステム134はまた、入力センサデータ155を使用して、訓練データ123を生成し得る。訓練データ123は、入力センサデータの異なるチャネルの投影された表現を含み得る。車載用システム130は、オフラインバッチで、またはオンライン形式で、例えば、生成されると常に断続的に、訓練システム110に訓練データ123を提供し得る。図示されるように、訓練データ123は、一般的に存在する物体および稀に存在する物体の画像をそれぞれ表す訓練例123Aおよび123Bを含む。訓練オペレーション中、訓練例123Aは、一般事例分類器310を訓練するために使用され、訓練例123Bは、珍しい事例分類器320を訓練するために使用される。
いくつかの実装形態では、訓練例123Bは、訓練例123A内に含まれ、一般事例分類器310を訓練するために使用されたが、一般事例分類器310が訓練された後に一般事例分類器310によって誤分類された画像を含む。誤分類された画像は、訓練された一般事例分類器310が異なるカテゴリ、またはカテゴリなしからの物体を含む画像を示す分類出力を生成した画像であり、次いで、画像用の既知のラベルによって示される。
一般事例分類器310によって誤分類された画像は、次いで、珍しい事例分類器320を訓練するために使用され得る。いくつかの実装形態では、訓練例123B内に含まれる誤分類画像は、新たな姿勢、視点などを導入する画像処理技術を使用して修正されてもよい。そのような実装形態では、訓練例123Bは、元の誤分類された画像および誤分類された画像の処理されたバージョンを含む。
言い換えると、訓練データ123は、1つ以上の物体カテゴリからの物体を含むように車両の周囲の環境の画像を分類するために使用される異なる分類器を訓練するために各々使用される複数のセグメントを含む。例えば、訓練例123Aおよび123Bを含む訓練セグメントは、一般事例分類器を訓練するために使用され得、訓練例123Bのみを含む別の訓練セグメントは、珍しい事例分類器を訓練するために使用され得る。
訓練システム110は、典型的には、1つ以上の場所に数百または数千のコンピュータを有する分散コンピューティングシステムであり得る、データセンター112内でホストされる。
訓練システム110は、入力センサデータから画像分類予測を行うように設計される分類器のオペレーションを実装し得る訓練分類器サブシステム114を含む。訓練分類器サブシステム114は、分類器のアーキテクチャによる分類器のそれぞれのオペレーションを実装するソフトウェアまたはハードウェアモジュールを有する複数のコンピューティングデバイスを含む。
訓練分類器は、概して、車載用分類器と同一アーキテクチャを有する。しかしながら、訓練システム110は、各層のオペレーションを計算するために同一ハードウェアを使用する必要がない。言い換えると、訓練システム110は、CPUのみか、高度に並列化されたハードウェアか、またはこれらのいくつかの組み合わせを使用し得る。
訓練分類器サブシステム114は、モデルパラメータ170のコレクション内に記憶されたパラメータ115の現在値を使用して分類器の各層のオペレーションを計算し得る。論理的に分離されているように例示されているが、モデルパラメータ170およびオペレーションを実施するソフトウェアまたはハードウェアモジュールは、実際には、同一コンピュータデバイス上または同一メモリデバイス上に位置し得る。
分類器サブシステム114は、入力として訓練例123Aおよび123Bを受信し得る。訓練例123Aおよび123Bは、概して、自動ラベル化訓練データ、人間によるラベル化訓練データ、またはその2つのいくつかの組み合わせを含み得る。訓練例123Aおよび123Bの各々は、基準物体の画像、および各画像に対する1つ以上のラベルを含む。各ラベルは、画像に対する正確な分類を識別し、すなわち、画像内に描写された1つ以上の物体が属する1つ以上の物体カテゴリを識別する。
訓練例123Aは、車両の周辺の近くの環境内で一般的に検出される異なる物体カテゴリ、例えば、標識、歩行者と関連付けられるように事前決定されている基準物体の画像を含み得る。一般的に存在する物体の例は、停止標識、危険標識、および信号機を含む。
訓練例123Bは、車両の周辺の近くの環境内で一般的に検出されない(例えば、稀に検出される)異なる物体カテゴリと関連付けられるように事前決定されている基準物体の画像を含み得る。稀に存在する物体の例は、場所特有の信号機、小さい会社の広告看板、または一般的に存在する物体の歪んだ表現を含む。いくつかの実装形態では、訓練例123Aおよび123Bは、同一カテゴリに属する異なる物体、例えば、「車両」物体カテゴリに対する自転車および自動車の画像を含む。
訓練分類器サブシステム114は、各訓練例123に対して、1つ以上の画像分類予測135を生成し得る。訓練エンジン116は、画像分類予測135を分析し、画像分離予測を訓練例123内のラベルと比較する。訓練エンジン116は、次いで、適切な訓練技術、例えば、逆伝播を使用することによって、更新されたモデルパラメータ値145を生成する。訓練エンジン116は、次いで、更新されたモデルパラメータ値145を使用してモデルパラメータ170のコレクションを更新し得る。
訓練が完了した後、訓練システム110は、例えば、有線または無線接続によって、完全自律または半自律運転判断を行う際に使用するために、車載用システム130に最終モデルパラメータ値セット171を提供し得る。
図2は、自律車両の周囲の環境の画像を分類するためのプロセス200の一例のフローチャートである。便宜上、プロセス200は、1つ以上の場所に位置する1つ以上のコンピュータのシステムによって実施されているように説明されることになる。例えば、本明細書によって適切にプログラムされた分類器システム、例えば、図1の車載用システム130が、プロセス200を実施し得る。
一般に、分類器システムは、一般事例分類器310および珍しい事例分類器320を含むアーキテクチャ300Aの一例の模式図である図3Aにより詳細に図示される並列ネットワークアーキテクチャを使用して完全に説明される画像分類技術を実施する。一般事例分類器310および珍しい事例分類器320は、図3Aに図示され、以下に詳細に説明されるように、入力画像320を各々処理する。
簡単には、プロセス200は、入力画像を受信すること(210)と、一般事例分類器を使用して入力画像を処理して、それぞれの第1の物体スコアを含む一般事例出力を生成すること(220)と、珍しい事例分類器を使用して入力画像を処理して、珍しさスコアを含む珍しい事例出力を生成すること(230)と、1つ以上のそれぞれの第1の物体スコアに割り当てられるべき重みを決定すること(240)と、決定された重みに従って入力画像を分類すること(250)と、を含み得る。
より詳細には、システムは、入力画像を受信する(210)。入力画像302は、自律車両の周囲の環境の画像である。入力画像302は、センササブシステム132などの車両の車載用センサによって取得され、入力センサデータ155内に含められ得る。
システムは、一般事例分類器を使用して入力画像を処理して、1つ以上の第1の物体スコアを含む一般事例出力を生成する(220)。例えば、一般事例分類器310は、入力画像302を処理して、一般事例出力304Aを生成する。例えば、一般事例分類器310は、画像分類技術を使用して入力画像302を処理して、一般事例出力304A内に含められる、入力画像302に対する1つ以上の第1の物体スコアを計算する。各第1の物体スコアは、画像が、対応する物体カテゴリに属する物体の画像を含む可能性を表し得る。いくつかの実装形態では、一般事例出力304Aは、各々異なる物体カテゴリに対応する複数の物体スコアを含む。システムは、珍しい事例分類器を使用して入力画像を処理して、珍しさスコアを含む珍しい事例出力を生成する(230)。例えば、珍しい事例分類器320が、入力画像302を処理して、珍しい事例出力304Bを生成する。珍しさスコアは、例えば、画像302が稀に存在する物体の画像を含むため、入力画像302が第1の分類器によって誤分類されることになる可能性を表す。例えば、稀に存在する物体は、一般事例分類器を訓練するために使用された訓練データ内に稀に存在する物体を含み得る。他の例では、稀に存在する物体は、一般的に存在する物体とは異なる外観を有する物体であり得、それゆえに、分類された、例えば、他の一般的に存在する停止標識と比較して小さい「停止」文字を有する停止標識によって誤分類される可能性がある。
いくつかの実装形態では、珍しい事例出力304Bは、1つ以上の第2の物体スコアを追加的に含む。一般事例出力304Aに関して上記に説明されたように、各第2の物体スコアは、画像が、対応する物体カテゴリに属する物体の画像を含む可能性を表し得る。珍しい事例出力304Bは、いくつかの事例では、異なる物体カテゴリに各々対応する複数の物体スコアを含み得る。
一般事例出力304Aおよび珍しい事例出力304Bは、同一物体カテゴリについて計算される物体スコアを含み得る。例えば、一般事例出力304Aおよび珍しい事例出力304Bは、「停止標識」および「歩行者」の物体カテゴリについて計算された物体スコアを含み得る。この例では、上記の第1および第2の物体スコアは、同一の物体カテゴリについて、それぞれ、一般事例分類器310および珍しい事例分類器320によって計算されるスコアを表す。
代替的に、一般事例出力304Aおよび珍しい事例出力304Bは、異なる物体カテゴリについて計算される物体スコアを含んでもよい。例えば、一般事例出力304Aは、「停止標識」物体カテゴリについて計算された物体スコアを含んでもよく、これに対して、珍しい事例出力304Bは、「緑色の停止標識」または「八角形の道を譲れ標識」のカテゴリについて計算された物体スコアを含んでもよい。
システムは、珍しさスコアから1つ以上のそれぞれの第1の物体スコアに割り当てられるべき重みを決定する(240)。例えば、システムは、珍しさスコアを使用して、一般事例出力304Aおよび珍しい事例出力304B内に含められる物体スコアに割り当てられるべき重みを決定する。
いくつかの実装形態では、システムは、珍しさスコアを所定閾値と比較し、珍しさスコアが所定閾値を満たすという決定に応答して、システムは、入力画像302が一般事例分類器によって誤分類されている可能性がある、例えば、稀に存在する物体の画像であると決定する。そのような実装形態では、システムは、入力画像302内の物体が誤分類された可能性があるという決定に基づいて、一般事例出力310内の物体スコアを調節する。例えば、一般事例分類器310によって計算された物体スコアは、低下され得る。いくつかの実装形態では、システムは、珍しさスコアを使用して、一般事例出力304Aおよび珍しい事例出力304B内に含められる物体スコアのうちの1つを選択して、入力画像302について計算された全体的な物体スコアとして表す。例えば、珍しさスコアが所定閾値を満たすことに失敗した場合、システムは、全体的な物体スコアとして一般事例出力304A内に含められた物体スコアを選択し、すなわち、一般事例出力304A内の物体スコアを修正しない。代替的に、珍しさスコアが所定閾値を満たす場合、システムは、全体的な物体スコアとして珍しい事例出力304B内に含められた物体スコアを選択し、すなわち、一般事例出力304A内の物体スコアを使用しない。
いくつかの他の実装形態では、物体スコアのうちの1つを選択することに代えて、システムは、それぞれの物体スコアを代わりに組み合わせて、新たな全体的な物体スコアを計算してもよい。例えば、珍しさスコアが所定閾値を満たすという決定に応答して、システムは、それぞれの物体スコアの平均値を計算し得る。いくつかの他の例では、システムは、珍しさスコア値と所定閾値の値との間の差に基づいて重み付けされた平均を計算し得る。
代替的に、システムは、値の対応する範囲内に収まる珍しさスコアの値に基づく所定量によって物体スコアの値を調節してもよい。値の範囲は、珍しさスコアに対する下限値および上限値に基づいて、検出された物体の珍しさを表す、「高」、「中」、および「低」の範囲を含み得る。例えば、「高」範囲内に収まる第1の珍しさスコアを有する第1の検出された物体に対する第1の物体スコアは、「低」範囲内に収まる珍しさスコアを有する検出された物体に対する第2の物体スコアよりも大きい程度に調節され得る。この例では、第1の検出された物体が稀に存在する物体として識別され、それに対して、第2の検出された物体が一般的に存在する物体として識別されるため、第1の物体スコアは、第2の物体スコアよりも高い程度に調節される。
システムは、決定された重みに従って入力画像を分類する(250)。システムは、決定された重みを使用して計算された物体スコアに基づいて、1つ以上の物体カテゴリに対応するように入力画像302の検出された物体を分類する。例えば、システムは、物体カテゴリに属するように、一般的に存在する物体として識別される物体を分類するが、稀に存在する物体として識別される物体の分類を妨げる。この例では、物体に対する珍しさスコアを使用して決定された物体スコアの値は、閾値を満たす物体スコアを有する物体(例えば一般的に存在する物体)を分類し、閾値を満たさない物体スコアを有する別の物体(例えば、稀に存在する物体)の分類を妨げるために使用される。他の例では、物体の分類を妨げる代わりに、システムは、珍しい事例分類器を使用して分類を実施するか、または他の物体カテゴリと関連付けられていない種々雑多のカテゴリとして物体を分類するかのいずれかを行い得る。これに関して、システムは、オペレーション200を使用して、稀に存在する物体として識別される物体の繰り返される不正確な分類の可能性を低下させる。
ここで図3Aを参照すると、一般事例分類器310および珍しい事例分類器320を含むアーキテクチャ300Aの一例の模式図が図示されている。簡単には、一般事例分類器310は、検出された物体302Aを含む入力画像302を受信する。一般事例分類器310は、入力画像302を処理して、物体スコア305を含む一般事例出力304Aを生成する。珍しい事例分類器312は、一般事例分類器310と並列に入力画像302を受信および処理して、物体スコア306および珍しさスコア308を含む珍しい事例ニューラル出力304Bを生成する。
一般事例分類器310および珍しい事例分類器320は、概して、上記に説明され図1に図示されているように、車載用分類器サブシステム134内に実装されるソフトウェアモジュールを表し得る。一般事例分類器310および珍しい事例分類器320は、車載用分類器サブシステム134の単一ハードウェアモジュール上で論理的に分離されてもよく、または代替的に、車載用分類器サブシステム134の別個のハードウェアモジュール上に実装されてもよい。入力画像302は、センササブシステム132によって収集され得る。いくつかの実装形態では、入力画像302は、一般事例分類器310および珍しい事例分類器320に対する入力として入力画像102が提供される前に、物体の存在を検出する物体検出分類器に対する入力として最初に提供される。
いくつかの実装形態では、一般事例分類器310および珍しい事例分類器320は、入力画像302を処理し、1つ以上の物体カテゴリに属する物体を有するように入力画像を分類するために、適切な層アーキテクチャを含むニューラルネットワークであり得る。例えば、一般事例分類器310および珍しい事例分類器320は、入力画像302が、物体スコアと関連付けられた物体カテゴリに属する物体を含む、それぞれの可能性を各々表す物体スコアを計算するように訓練されている畳み込みニューラルネットワークであり得る。
いくつかの実装形態では、珍しい事例ニューラルネットワークは、一般事例ニューラルネットワークよりも少ないパラメータを有し得る。例えば、一般事例ニューラルネットワークは、複数の物体カテゴリに対応する入力画像302に対する複数の物体スコアを計算するように訓練され得るが、それに対して、珍しい事例ニューラルネットワークは、入力画像302に対する単一珍しさスコアのみを計算するように訓練され得る。別の例では、珍しい事例ニューラルネットワークの層は、一般事例ニューラルネットワークの層に対して少ない奥行および計算、例えば、50%少ない奥行および75%少ない計算を有し得る。加えて、いくつかの実装形態では、珍しい事例ニューラルネットワークは、一般事例ニューラルネットワーク内に含められ得る平均プーリングおよび完全に接続された層を除外し得る。
入力画像302は、隆起が車両経路に沿って近くにあることを運転手に指示する交通関連標識に対応する検出された物体302Aの表現を含む。入力画像302は、画像分類技術を使用して物体カテゴリ「停止標識」に対する物体スコア305を計算する、一般事例分類器310に対する入力として提供される。物体スコア305は、この例では、一般事例分類器310によって決定される、入力画像302内の検出された物体302Aが停止標識を表す可能性を表す。
入力画像302は、画像分類技術を使用して検出された物体302Aに対する珍しさスコア308を計算する、珍しい事例分類器312に対する入力として追加的に提供される。珍しさスコア308は、珍しい事例分類器310によって決定される、入力画像302内の検出された物体が、場所特有の交通標識、独特な物体、またはいくつかの他のタイプの物体の歪んだ表現などの稀に存在する物体である可能性を表す。
珍しい事例分類器312は、図示されている例では、物体カテゴリ「停止標識」に対する物体スコア306を追加的に計算する。物体スコア306は、珍しい事例分類器320によって決定される、入力画像302内の検出された物体302Aが停止標識を表す可能性を表す。この例は、同一物体カテゴリ(例えば、「停止標識」)に対するそれぞれの物体スコアを計算する珍しい事例分類器320および一般事例分類器310を図示するが、他の実装態様では、各分類器は、異なる物体カテゴリまたは物体カテゴリグループに対する物体スコアを計算してもよい。そのような実装形態では、珍しい事例分類器320は、検出されたオブジェクトが、稀に存在する物体のみと一般的に関連付けられる物体カテゴリに属するか否かを決定する二次分類器として使用され得る。
図3Aに図示される例に示されるように、一般事例分類器310は、「0.63」の値を有する物体スコアを計算し、珍しい事例分類器310は、「0.23」および「0.85」の値をそれぞれ有する物体スコアおよび珍しさスコアを計算する。この例では、物体スコア305の値は、検出された物体302Aが停止標識を表す高い可能性を一般事例分類器310が決定することを示す。しかしながら、物体スコア306の値は、検出された物体302Aが停止標識を表す低い可能性を珍しい事例分類器320が決定することを示す。珍しさスコア308が高いため、物体スコア306は、画像分類手順中に低い重みを与えられ、入力画像302が「停止標識」カテゴリ内に属する物体を含む画像として分類される可能性を低下させる。システムは、一般事例出力304Aおよび珍しい事例出力304Bの内容に基づいて、検出された物体302Aを分類する。図示されている例では、物体スコア305は、検出された物体305が停止標識である高い可能性を識別するが、システムは、それにもかかわらず、検出された物体302Aが停止標識を表しそうでない稀に存在する物体であることを珍しい事例出力304Bが示すため、検出された物体302Aを停止標識として分類しない。この例では、珍しい事例出力304Bは、それゆえに、一般事例出力304Aの内容に基づいて、検出された物体302Aの停止標識としての不正確な分類を防止するために使用される。珍しい事例出力304Bは、それゆえに、一般的に存在する物体と関連付けられた画像分類技術のみを使用することに基づいて、誤った正の分類を低減するために使用され得る。追加的、または代替的に、珍しい事例出力304Bは、種々雑多の物体カテゴリに属するように稀に存在する物体を分類することによって誤った負の分類を低減するために使用され得る。
いくつかの実装形態では、珍しい事例分類器320は、図3Aに図示され上記に説明されるように一般事例分類器310と並列に動作することとは対照的に、特定の状況で選択的に有効化される。例えば、珍しい事例分類器320は、物体スコア305が閾値を満たさない場合に有効化され得、検出された物体302Aが稀に存在する物体であり得ることを示す。この例では、珍しい事例分類器320は、一般事例分類器310の分類結果を検証および/またはサポートする二次画像分類構成要素である。別の例では、入力画像302は、物体が入力画像302内に存在するか否かを決定する物体検出分類器に最初に提供され得る。この例では、珍しい事例分類器320は、物体検出分類器の検出結果に基づいて、選択的に有効化され得る。例えば、入力画像302が検出された物体を含む可能性を表す物体検出スコアが、所定閾値を満たさない場合、珍しい事例分類器320は、入力画像302が稀に存在する物体を含むかどうかを決定するために選択的に有効化され得る。
いくつかの実装形態では、珍しい事例分類器320は、その入力画像302が一般事例分類器310によって不正確に分類されることになるそれぞれの可能性を表す1つ以上の追加の珍しさスコアを計算し得る。1つ以上の追加の珍しさスコアは、入力画像302が稀に存在する物体を含まないが、別途、一般事例分類器310によって誤分類されることになる可能性を反映するスコアを含み得る。例えば、スコアは、入力画像302が、物体検出に使用される物体の属性を曲解させる画像歪みを含む場合に、誤分類の高い可能性を反映し得る。別の例では、スコアは、入力画像302が物体を実際に含まないが、物体と関連付けられている属性を含む場合、誤分類の高い可能性を反映し得る。
図3Bおよび3Cは、入力画像を分類するように計算するために重み付け技術を使用するアーキテクチャの例の模式図である。これらの例では、一般事例分類器310および珍しい事例分類器320は、入力画像に対する物体スコアを各々計算する。各物体スコアは、入力画像が、「停止標識」物体カテゴリに属する物体を含む可能性を表す。
図示されるように、システムは、重み付け技術を使用して、検出された物体のために計算された珍しさスコアの値に基づいて、入力画像に対する全体的な物体スコアを決定する。システムは、珍しさスコアの値を使用して、それぞれの重みを決定して、各物体スコアに適用し、次いで、重み付けされた物体スコアを組み合わせて、システムが入力画像を分類するために使用する最終物体スコアを計算する。
図3Bに図示される例を最初に参照すると、システムは、珍しい事例分類器320によって計算された珍しさスコア316Bが「0.75」の所定珍しさ閾値を超えるという決定に基づいて、入力画像302Bが稀に存在する物体を含む高い可能性を決定する。この例では、システムは、入力画像302Bが「停止標識」物体カテゴリに属する物体を含む画像として分類されるべきである可能性をより正確に反映する最終物体スコアを計算するために、一般事例出力316A内の第1の物体スコアを下方に重み付け、珍しい事例出力316B内の第2の物体スコアを上方に重み付ける。
ここで、図3Cに図示される例を参照すると、システムは、珍しい事例分類器320によって計算された珍しさスコア326Bが「0.75」の所定珍しさ閾値を超えないという決定に基づいて、入力画像302Cが稀に存在する物体を含む低い可能性を決定する。この例では、システムは、一般事例出力326a内の第1の物体スコアを上方に重み付け、珍しい事例出力326B内の第2の物体スコアを下方に重み付ける。したがって、図3Bに図示されている例示されたものと対照的に、システムは、入力画像302Bが「停止標識」物体カテゴリに属する物体を含む画像として分類されるべきである高い可能性を示す最終物体スコアを計算する。
図示されている例は、システムが適用する重み付けされた分類技術の1つのタイプの例を提供するが、いくつかの実装形態では、システムは、追加または代替の重み付け技術を使用してもよい。例えば、いくつかの実装形態では、各物体スコアと関連付けられるそれぞれの重みを決定することに代えて、システムは、珍しさスコアの値に基づいて、物体スコアの1つ以上の値を代わりに増減させ得る。例えば、珍しい事例分類器が珍しさスコアのみを計算する特定の例では、指定された閾値に対する珍しさスコアの値は、一般事例分類器によって計算される物体スコアを増減させるために使用され得る。別の例では、各物体スコアに対してそれぞれの重みを適用することに代えて、システムは、珍しさスコアの値に基づく所定値によって物体スコアのうちの1つ以上の値を調節してもよい。そのような例では、システムは、珍しさスコアの値が低い場合に一般事例分類器310によって計算された物体スコアの値を増加させるか、珍しさスコアの値が高い場合に珍しい事例分類器によって計算された物体スコアの値を増加させるか、または両方の組み合わせであり得る(例えば、珍しさスコアの値に基づいて、それぞれの物体スコアを同時に増減させる)。
図4は、一般事例分類器310および珍しい事例分類器320の出力を処理する組み合わせ分類器330を含むアーキテクチャ400の一例の模式図である。この例では、一般事例分類器310および珍しい事例分類器320は、図3Aに関して上記に説明されたものと同様の様式で入力画像402を受信および処理する。しかしながら、図3Aに図示されているアーキテクチャ300Aとは対照的に、一般事例出力304Aおよび珍しい事例出力304Bは、組み合わせ分類器330に対する入力として提供される。
組み合わせ分類器330は、一般事例出力304Aおよび珍しい事例出力304B内に含められる物体スコアに対応する1つ以上の物体カテゴリと関連付けられた専用画像分類能力を有する高精度分類器であり得る。例えば、組み合わせ分類器330が単一物体カテゴリと関連付けられている場合、それは、物体カテゴリに属する物体を含む画像として、または物体カテゴリに属する物体を含まない画像としてのいずれかとして入力画像402を分類する。代替的に、組み合わせ分類器330が複数の物体カテゴリと関連付けられる場合、組み合わせ分類器330は、複数の物体カテゴリの各々に対する入力画像402を分類する。
組み合わせ分類器330はまた、図3A〜図3Cに関して上記に説明されるように、物体スコア調節を実施し得る。
いくつかの実装形態では、組み合わせ分類器330は、特定の物体カテゴリに属さない稀に存在する物体として識別される物体と、特定の物体カテゴリに実際に属する稀に存在する物体として識別される物体との間を区別することができる。例えば、組み合わせ分類器330は、交通標識ではない珍しい交通標識(例えば、図3Aに図示される検出された物体302A)と、交通標識の歪んだ画像内の物体(例えば、交通標識の歪んだ物体)との間を区別するように訓練され得る。この例では、組み合わせ分類器330は、稀に存在する物体が、特定の物体カテゴリに属するべきではない実際の物体であるときに、珍しい事例分類器320によって識別された物体を検証することによって、システムの画像分類性能を改善するために使用され得る。
単一組み合わせ分類器330が図4に図示されているが、アーキテクチャ400は、1つ以上の異なる物体カテゴリと各々関連付けられている複数の組み合わせ分類器の使用を可能にする。一般事例分類器310および珍しい事例分類器320が複数の物体の分類を実施する実装形態では、一般事例出力304Aおよび珍しい事例出力304Bは、単一物体カテゴリに関して各々セグメント化され得る。セグメント化された出力は、次いで、対応する物体カテゴリと関連付けられているそれぞれの組み合わせ分類器に対する入力として提供される。例えば、一般事例出力304Aおよび珍しい事例出力304Bが「停止標識」および「車両」の物体カテゴリに対する物体スコアを含む場合、「停止標識」物体カテゴリに対する物体スコアと関連付けられている出力304Aおよび304Bの部分が、第1の組み合わせ分類器に対する入力として提供され、「車両」物体カテゴリに対する物体スコアと関連付けられている出力304Aおよび304Bの部分が、第2の組み合わせ分類器に対する入力として提供される。この例では、複数の組み合わせ分類器の使用は、特定の物体カテゴリに関する画像分類の正確さを改善するために使用され得る。
加えて、一般事例分類器、珍しい事例分類器、および組み合わせ分類器によって実施される機能は、車両内に物理的に配置された車載用システムを動作させる車両の文脈で説明され、分類器は、他の目的で他の種類の画像を分類する1つ以上のコンピュータの他のシステムの一部として追加的に使用され得る。例えば、全体を通して説明されている技術は、資産の外部のセキュリティ映像を取得するカメラによって取得された画像の分類を改善するために、技術を使用して資産の条件を監視するために適用可能であり得る。
説明された特徴は、デジタル電子回路、またはコンピュータハードウェア、ファームウェア、ソフトウェア、もしくはそれらの組み合わせで実装され得る。装置は、情報担体、例えば、プログラマブルプロセッサによる実行のための機械可読記憶デバイス内に実体的に具現化されるコンピュータプログラム製品内で実装され得、方法ステップは、命令のプログラムを実行するプログラマブルプロセッサによって実施されて、入力データを処理し、出力を生成することによって、説明された実装形態の機能を実施し得る。説明された特徴は、有利には、データ記憶システム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受信し、かつそれらにデータおよび命令を送信するために連結された少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能である1つ以上のコンピュータプログラムに実装され得る。コンピュータプログラムは、特定の活動を実施するか、特定の結果をもたらすために、コンピュータ内で直接的または間接的に使用され得る一組の命令である。コンピュータプログラムは、コンパイルまたはインタプリタ言語を含むプログラミング言語の任意の形態で書き込まれ得、スタンドアロンプログラムとして、またはモジュール、コンポーネント、サブルーチン、もしくはコンピューティング環境内での使用のために好適な他のユニットとして含む、任意の形態で展開され得る。
命令のプログラムの実行用の好適なプロセッサは、例として、汎用および専用マイクロプロセッサの両方、および任意の種類のコンピュータの単独のプロセッサまたはマルチプロセッサのうちの1つを含む。一般的に、プロセッサは、読み出し専用メモリもしくはランダムアクセスメモリまたは両方から命令およびデータを受信することになる。コンピュータの本質的な要素は、命令を実行するためのプロセッサ、ならびに命令およびデータを記憶するための1つ以上のメモリである一般的に、コンピュータはまた、データファイルを記憶するための1つ以上の大容量記憶デバイスを含むか、またはそれと通信するように動作可能に連結され、そのようなデバイスは、内部ハードディスクおよびリムーバブルディスクなどの磁気ディスク、光磁気ディスク、ならびに光ディスクを含む。コンピュータプログラム命令およびデータを実体的に用いるために好適な記憶デバイスは、例として、EPROM、EEPROM、およびフラッシュメモリデバイスなどの半導体メモリデバイス、内部ハードディスクおよびリムーバブルディスクなどの磁気ディスク、光磁気ディスク、ならびにCD−ROMおよびDVD−ROMディスクを含む、全ての形態の不揮発性メモリを含む。プロセッサおよびメモリは、ASIC(特定用途向け集積回路)によって補足されてもよく、またはそれに組み込まれてもよい。
ユーザとの対話を提供するために、特徴は、ユーザに情報を表示するためのCRT(ブラウン管)またはLCD(液晶ディスプレイ)モニタなどのディスプレイデバイスと、ユーザがコンピュータに入力を提供することができるキーボードおよびマウスまたはトラックボールなどのポインティングデバイスと、を有するコンピュータ上に実装され得る。加えて、そのような活動は、タッチ画面フラットパネルディスプレイおよび他の適切な機構を介して実施され得る。
特徴は、データサーバなどのバックエンド構成要素を含むか、アプリケーションサーバもしくはインターネットサーバなどのミドルウェア構成要素を含むか、グラフィカルユーザインターフェースもしくはインターネットブラウザを有するクライアントコンピュータなどのフロントエンド構成要素を含むか、またはそれらの任意の組み合わせである、コンピュータシステム内に実装され得る。システムの構成要素は、通信ネットワークなどのデジタルデータ通信の任意の形態または媒体によって接続され得る。通信ネットワークの例としては、ローカルエリアネットワーク(「LAN」)、広域ネットワーク(「WAN」)、ピアツーピアネットワーク(アドホックまたは静的メンバを有する)、グリッドコンピューティング基盤、およびインターネットが挙げられる。
コンピュータシステムは、クライアントおよびサーバを含み得る。クライアントおよびサーバは、概して、互いに遠隔にあり、典型的には、説明されたものなどのネットワークを通して対話する。クライアントおよびサーバの関係は、それぞれのコンピュータ上で動作し、互いにクライアント−サーバ関係を有するコンピュータプログラムによって生じる。
本明細書は、多くの特定の実装の詳細を含有するが、これらは、任意の発明、または特許請求の範囲にあり得るものの範囲に対する限定として解釈されるべきではなく、特定の発明の特定の実装形態に特有の特徴の説明として解釈されるべきである。別個の実装形態の文脈で本明細書に説明されている特定の特徴はまた、単一実装形態に組み合わせて実装されてもよい。反対に、単一実装形態の文脈で説明されている様々な特徴はまた、複数の実装形態に別個に、または任意の好適な部分的組み合わせで実装されてもよい。さらに、特徴は、特定の組み合わせで作用するように上記に説明され、さらに最初にそのように主張されているが、特許請求の範囲の組み合わせからの1つ以上の特徴は、いくつかの場合では、組み合わせから削除されてもよく、特許請求の範囲の組み合わせは、部分的組み合わせまたは部分的組み合わせの変形形態を対象とし得る。
同様に、オペレーションが、特定の順番で図面に図示されているが、これは、そのようなオペレーションが示される特定の順番または順序で実施されること、または全ての例示されたオペレーションが、所望される結果を達成するために実施されることを必要とするように理解されるべきではない。特定の状況では、マルチタスクおよび並列処理が有利であり得る。さらに、上記に説明された実施形態の様々なシステムモジュールおよび構成要素の分離は、全ての実施形態でそのような分離を必要とするように理解されるべきではなく、説明されたプログラム構成要素およびシステムが、概して、単一ソフトウェア製品内に一緒に統合されてもよく、または複数のソフトウェア製品にパッケージ化されてもよいことが理解されるべきである。
主題の特定の実施形態が説明されてきた。他の実施形態は、以下の特許請求の範囲の範囲内である。例えば、特許請求の範囲に記載された作用は、異なる順番で実施されてもよく、依然として所望の結果を達成し得る。一例として、添付図面に図示されたプロセスは、所望の結果を達成するために、示される特定の順番または順序を必ずしも必要としない。特定のいくつかの場合では、マルチタスクおよび並列処理が有利であり得る。

Claims (14)

  1. 方法であって、
    入力画像を受信することと、
    一般事例ニューラルネットワークを使用して前記入力画像を処理することであって、前記一般事例ニューラルネットワークが、前記入力画像を処理して、1つ以上の第1の物体カテゴリの各々に対応するそれぞれの第1の物体スコアを含む一般事例出力を生成するように構成されており、各第1の物体スコアは、前記入力画像が、前記対応する第1の物体カテゴリに属する物体の画像を含む可能性を表す、処理することと、
    珍しい事例ニューラルネットワークを使用して前記入力画像を処理することであって、前記珍しい事例ニューラルネットワークは、前記入力画像を処理して、前記入力画像が前記一般事例ニューラルネットワークによって不正確に分類されることになる可能性を表す珍しさスコアを含む珍しい事例出力を生成するように構成されている、処理することと、
    前記珍しさスコアを使用して前記入力画像を分類する際に前記1つ以上のそれぞれの第1の物体スコアに割り当てられるべき重みを決定することと、
    前記決定された重みに従って前記入力画像を分類することと、を含む、方法。
  2. 前記珍しい事例ニューラルネットワークが、前記一般事例ニューラルネットワークよりも少ないパラメータを有する、請求項1に記載の方法。
  3. 前記珍しい事例ニューラルネットワークが、前記一般事例ニューラルネットワークによって誤分類された訓練画像で訓練されている、請求項1または2に記載の方法。
  4. 前記珍しい事例ニューラルネットワークが、前記一般事例ニューラルネットワークを訓練するために使用された画像内で稀に起こる物体タイプの画像で訓練されている、請求項1〜3のいずれか一項に記載の方法。
  5. 前記珍しい事例出力が、1つ以上の第2の物体カテゴリの各々に対応するそれぞれの第2の物体スコアをさらに含み、各第2の物体スコアは、前記入力画像が前記対応する第2の物体カテゴリに属する物体の画像を含む可能性を表し、
    前記方法は、重みを決定して、前記珍しさスコアを使用して前記入力画像を分類する際の前記1つ以上の第2の物体スコアを割り当てることをさらに含む、請求項1〜4のいずれか一項に記載の方法。
  6. 前記第2の物体カテゴリが、前記第1の物体カテゴリのうちの1つ以上を含む、請求項5に記載の方法。
  7. 重みを決定して、前記1つ以上の第2の物体スコアを割り当てることが、前記第2の物体スコアの前記重みとして前記珍しさスコアを使用することを含む、請求項5または6に記載の方法。
  8. 重みを決定して、前記1つ以上の第2の物体スコアおよび前記1つ以上の第1の物体スコアを割り当てることは、
    前記珍しさスコアが所定閾値を満たさないことを決定することと、
    応答して、前記入力画像を分類する際に前記1つ以上のそれぞれの第2の物体スコアに割り当てられた前記重みを減少させることと、を含む、請求項5または6に記載の方法。
  9. 重みを決定して、前記1つ以上の第2の物体スコアおよび前記1つ以上の第1の物体スコアを割り当てることは、
    前記珍しさスコアが所定閾値を満たすことを決定することと、
    前記珍しさスコアが所定閾値を満たす決定に応答して、前記入力画像を分類する際に前記1つ以上のそれぞれの第1の物体スコアに割り当てられた前記重みを減少させることと、を含む、請求項5または6に記載の方法。
  10. 前記1つ以上のそれぞれの第1の物体スコアに割り当てられた前記重みを減少させることが、前記第1の物体スコアが前記入力画像を分類する際に使用されないことを示す値に重みを割り当てることを含む、請求項9に記載の方法。
  11. 前記入力画像を分類することは、
    組み合わせニューラルネットワークを使用して前記一般事例出力および前記珍しい事例出力を処理することであって、前記組み合わせニューラルネットワークが、前記1つ以上の第1の物体カテゴリの各々に対応するそれぞれの第3の物体スコアを計算するように構成されており、各第3の物体スコアが、前記1つ以上のそれぞれの第1の物体スコアに割り当てられた決定された重み、および前記1つ以上のそれぞれの第2の物体スコアに割り当てられた決定された重みに基づいて、計算されている、処理することと、
    前記第3の物体スコアの前記それぞれの値に基づいて、前記入力画像を分類することと、を含む、請求項5〜10のいずれか一項に記載の方法。
  12. 前記重みを決定して、前記1つ以上のそれぞれの第1の物体スコアを割り当てることは、
    前記珍しさスコアが所定閾値を満たすことを決定することと、
    珍しさスコアが所定閾値を満たす決定に応答して、前記入力画像を分類する際に前記1つ以上のそれぞれの第1の物体スコアに割り当てられた前記重みを減少させることと、を含む、請求項1〜11のいずれか一項に記載の方法。
  13. システムであって、
    1つ以上のコンピュータと、
    命令を記憶する1つ以上の記憶デバイスと、を備え、前記命令が、前記1つ以上のコンピュータによって実行されると、前記1つ以上のコンピュータに、請求項1〜12のいずれか一項に記載のそれぞれの方法のオペレーションを実施させる、システム。
  14. コンピュータプログラム命令を用いてエンコードされた1つ以上のコンピュータ可読記憶媒体であって、前記コンピュータプログラム命令が、1つ以上のコンピュータによって実行されると、前記1つ以上のコンピュータに、請求項1〜12のいずれか一項に記載のそれぞれの方法のオペレーションを実施させる、1つ以上のコンピュータ可読記憶媒体。
JP2019570802A 2017-06-22 2018-06-19 珍しい事例の分類 Active JP7090105B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/630,275 US10346724B2 (en) 2017-06-22 2017-06-22 Rare instance classifiers
US15/630,275 2017-06-22
PCT/US2018/038318 WO2018236895A1 (en) 2017-06-22 2018-06-19 CLASSIFACTORS OF RARE BODIES

Publications (2)

Publication Number Publication Date
JP2020524854A true JP2020524854A (ja) 2020-08-20
JP7090105B2 JP7090105B2 (ja) 2022-06-23

Family

ID=62875320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019570802A Active JP7090105B2 (ja) 2017-06-22 2018-06-19 珍しい事例の分類

Country Status (10)

Country Link
US (2) US10346724B2 (ja)
EP (1) EP3642762A1 (ja)
JP (1) JP7090105B2 (ja)
KR (1) KR102371317B1 (ja)
CN (1) CN110945534B (ja)
AU (1) AU2018288720B2 (ja)
CA (1) CA3068258C (ja)
IL (1) IL271568B2 (ja)
SG (1) SG11201912665RA (ja)
WO (1) WO2018236895A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7508957B2 (ja) 2020-09-09 2024-07-02 トヨタ自動車株式会社 情報管理システムおよびこれに用いられる携帯端末、画像管理サーバ

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10346724B2 (en) 2017-06-22 2019-07-09 Waymo Llc Rare instance classifiers
US10373027B1 (en) * 2019-01-30 2019-08-06 StradVision, Inc. Method for acquiring sample images for inspecting label among auto-labeled images to be used for learning of neural network and sample image acquiring device using the same
JP7162550B2 (ja) * 2019-02-15 2022-10-28 オムロン株式会社 モデル生成装置、予測装置、モデル生成方法、及びモデル生成プログラム
CN110188613A (zh) * 2019-04-28 2019-08-30 上海鹰瞳医疗科技有限公司 图像分类方法及设备
US11507090B2 (en) * 2019-06-19 2022-11-22 Uber Technologies, Inc. Systems and methods for vehicle motion control with interactive object annotation
JP7231511B2 (ja) * 2019-07-29 2023-03-01 株式会社日立製作所 管理装置、管理方法、および管理プログラム
EP3786845A1 (en) * 2019-08-29 2021-03-03 Robert Bosch GmbH Difficulty-adaptive training for machine learning modules
JP7383939B2 (ja) * 2019-09-03 2023-11-21 東ソー株式会社 学習装置、学習方法、細胞判別装置、細胞判別方法、細胞判別学習プログラムおよび細胞判別プログラム
US11557151B2 (en) * 2019-10-24 2023-01-17 Deere & Company Object identification on a mobile work machine
KR20210062477A (ko) * 2019-11-21 2021-05-31 삼성전자주식회사 전자 장치 및 그 제어 방법
CN111114541B (zh) * 2019-12-31 2021-08-20 华为技术有限公司 车辆控制方法、装置、控制器和智能车
US11475304B2 (en) 2020-05-12 2022-10-18 International Business Machines Corporation Variational gradient flow
US10885387B1 (en) * 2020-08-04 2021-01-05 SUPERB Al CO., LTD. Methods for training auto-labeling device and performing auto-labeling by using hybrid classification and devices using the same
US10902291B1 (en) * 2020-08-04 2021-01-26 Superb Ai Co., Ltd. Methods for training auto labeling device and performing auto labeling related to segmentation while performing automatic verification by using uncertainty scores and devices using the same
EP4080239A1 (en) * 2021-04-20 2022-10-26 Robert Bosch GmbH Measuring the performance of radar, ultrasound or audio classifiers
CN113095445B (zh) * 2021-06-08 2021-10-19 中国铁塔股份有限公司湖北省分公司 一种目标识别方法及装置
US11698910B1 (en) * 2022-07-21 2023-07-11 Plusai, Inc. Methods and apparatus for natural language-based safety case discovery to train a machine learning model for a driving system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0363775A (ja) * 1989-07-31 1991-03-19 Omron Corp ニューラルネットワークシステム
WO2017034820A1 (en) * 2015-08-25 2017-03-02 Qualcomm Incorporated Method for improving performance of a trained machine learning model

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1926573A (zh) * 2004-01-30 2007-03-07 思代软件公司 用于将主动表观模型应用于图像分析的系统和方法
US8542928B2 (en) * 2005-09-26 2013-09-24 Canon Kabushiki Kaisha Information processing apparatus and control method therefor
EP2438575A4 (en) * 2009-06-01 2016-06-29 Hewlett Packard Development Co DETERMINATION OF DETECTION CERTAINTY IN A CASCADE CLASSIFIER
KR101307781B1 (ko) * 2011-12-30 2013-09-12 조성제 3차원 패턴 커널을 이용한 객체 검사 방법 및 시스템, 컴퓨터 판독 가능 기록매체 및 컴퓨터 장치
CN103716204B (zh) * 2013-12-20 2017-02-08 中国科学院信息工程研究所 一种基于维纳过程的异常入侵检测集成学习方法及装置
US20150324689A1 (en) * 2014-05-12 2015-11-12 Qualcomm Incorporated Customized classifier over common features
US9418319B2 (en) * 2014-11-21 2016-08-16 Adobe Systems Incorporated Object detection using cascaded convolutional neural networks
CN105938558B (zh) * 2015-03-06 2021-02-09 松下知识产权经营株式会社 学习方法
US9973593B2 (en) * 2015-06-30 2018-05-15 Amazon Technologies, Inc. Device gateway
US9805305B2 (en) 2015-08-07 2017-10-31 Yahoo Holdings, Inc. Boosted deep convolutional neural networks (CNNs)
KR102415503B1 (ko) 2015-08-21 2022-07-01 삼성전자주식회사 분류기 학습 방법 및 객체 검출 방법
WO2017158058A1 (en) * 2016-03-15 2017-09-21 Imra Europe Sas Method for classification of unique/rare cases by reinforcement learning in neural networks
US10664722B1 (en) * 2016-10-05 2020-05-26 Digimarc Corporation Image processing arrangements
US10185880B2 (en) * 2017-03-31 2019-01-22 Here Global B.V. Method and apparatus for augmenting a training data set
US10346724B2 (en) 2017-06-22 2019-07-09 Waymo Llc Rare instance classifiers

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0363775A (ja) * 1989-07-31 1991-03-19 Omron Corp ニューラルネットワークシステム
WO2017034820A1 (en) * 2015-08-25 2017-03-02 Qualcomm Incorporated Method for improving performance of a trained machine learning model

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7508957B2 (ja) 2020-09-09 2024-07-02 トヨタ自動車株式会社 情報管理システムおよびこれに用いられる携帯端末、画像管理サーバ

Also Published As

Publication number Publication date
US11093799B2 (en) 2021-08-17
US20180373963A1 (en) 2018-12-27
CA3068258C (en) 2022-11-08
AU2018288720B2 (en) 2021-02-25
IL271568B2 (en) 2024-03-01
AU2018288720A1 (en) 2020-01-23
SG11201912665RA (en) 2020-01-30
JP7090105B2 (ja) 2022-06-23
WO2018236895A1 (en) 2018-12-27
EP3642762A1 (en) 2020-04-29
CN110945534B (zh) 2024-03-19
CN110945534A (zh) 2020-03-31
US10346724B2 (en) 2019-07-09
KR20200022001A (ko) 2020-03-02
US20190318207A1 (en) 2019-10-17
CA3068258A1 (en) 2018-12-27
KR102371317B1 (ko) 2022-03-07
IL271568B1 (en) 2023-11-01
IL271568A (en) 2020-02-27

Similar Documents

Publication Publication Date Title
JP7090105B2 (ja) 珍しい事例の分類
US11928866B2 (en) Neural networks for object detection and characterization
US11720799B2 (en) Object detection neural networks
US11531894B1 (en) Neural networks for object detection
US11783568B2 (en) Object classification using extra-regional context
CN113366496A (zh) 用于粗略和精细对象分类的神经网络
US20190325746A1 (en) System and method of object-based navigation
US20240232647A9 (en) Efficient search for data augmentation policies
US20240135195A1 (en) Efficient search for data augmentation policies

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210402

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210830

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220323

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220323

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220405

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220613

R150 Certificate of patent or registration of utility model

Ref document number: 7090105

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150