JP2023541967A - 自車両の自動運転及び支援運転における環境特徴の連続適応型検出コンピュータ実装方法 - Google Patents

自車両の自動運転及び支援運転における環境特徴の連続適応型検出コンピュータ実装方法 Download PDF

Info

Publication number
JP2023541967A
JP2023541967A JP2023517795A JP2023517795A JP2023541967A JP 2023541967 A JP2023541967 A JP 2023541967A JP 2023517795 A JP2023517795 A JP 2023517795A JP 2023517795 A JP2023517795 A JP 2023517795A JP 2023541967 A JP2023541967 A JP 2023541967A
Authority
JP
Japan
Prior art keywords
vehicle
server
vehicles
machine learning
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023517795A
Other languages
English (en)
Other versions
JPWO2022063774A5 (ja
JP7511750B2 (ja
Inventor
ニコセヴィッシ・トゥドール
Original Assignee
コンチネンタル・オートナマス・モビリティ・ジャーマニー・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コンチネンタル・オートナマス・モビリティ・ジャーマニー・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング filed Critical コンチネンタル・オートナマス・モビリティ・ジャーマニー・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング
Publication of JP2023541967A publication Critical patent/JP2023541967A/ja
Publication of JPWO2022063774A5 publication Critical patent/JPWO2022063774A5/ja
Application granted granted Critical
Publication of JP7511750B2 publication Critical patent/JP7511750B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本発明は、サーバ及び複数の他車両に接続された自車両の自動運転及び支援運転における環境特徴の連続適応型検出の方法に関する。自車両及び他車両は、互いに類似するそれぞれの機械学習モデルを備える。本方法は、自車両の機械学習モデルに基づいて、画像を含む取得されたセンサデータが特定のシナリオ解釈を生成する、自車両によるデータ収集ステップを含む。シナリオ解釈が誤っているというフィードバックが受信された場合、自車両の対応する画像が符号化され、ハッシュ化され、サーバ固有の類似のシナリオ解釈を通信するように他車両に要求する複数の他車両にそれらをブロードキャストする要求と共に、サーバへ送信される。次に、他車両は、誤ったシナリオ解釈に対応する環境特徴の特定の組み合わせを識別し、抽出、符号化、及びハッシュ化された画像を含む、それらのセンサデータを取得し、それを処理する。他車両は、所与の閾値を超える類似度スコアによって、自車両から受信した画像ハッシュと他車両Viの各々から受信した画像ハッシュとの間の類似度を比較し、これは、構造及び内容に関して、高い類似度スコアが類似データに対応することを意味する。所与の閾値を超えた他車両の画像ハッシュについて、他車両は、特定の類似のシナリオ解釈を識別し、それをサーバに送信する。サーバは、他車両及び自車両の画像ハッシュに対応する他車両のセンサデータを集約し、自車両の機械学習モデルを増分的に再訓練し、増分的に再訓練されたモデルを一緒に自車両に送信する。本発明は更に、訓練された機械学習モデル、方法を実行するためのシステム、及び複数の非一時的コンピュータ可読媒体に関する。

Description

本発明は、自車両の自動運転及び支援運転における環境特徴の検出に使用される連続的且つ適応的なコンピュータ実装方法であって、機械訓練モデルの使用を含む方法と、訓練された機械学習モデルと、方法を実行するためのシステムと、複数の非一時的コンピュータ可読媒体とに関する。
ますます自律的でインテリジェントな輸送により、車両がより良く、より堅牢で、より包括的にその周囲を理解することを可能にするシステムの必要性が要求されている。そのようなシステムの基盤は、車両の環境内の特定の特徴(例えば、道路要素など)を確実に検出、測定、及び分類することができる先進運転支援(ADAS)センサによって表される。
車両の先進運転支援(ADAS)センサは、車両の先進運転支援機能に使用される画像を含む様々な種類のデータを取得する。
これに関連して、ハードウェア及びソフトウェアの両方における最新の開発は、人工知能、すなわち先進運転支援センサ機能における機械学習技術の広範な展開をもたらした。
先進運転支援センサ機能で使用される機械学習モデルの訓練は、通常、機械学習モデルの助けを借りて複数のシナリオを作成することに基づいている。
複数のシナリオからの各特定のシナリオは、環境特徴の特定の組み合わせに関する。シナリオの限定されない例は、木のある直線高速道路、木のない直線高速道路、トンネル内の入口、トンネルからの出口、道路が直線であるときのトンネルの内側、駐車場、高度の変化のないカーブ、高度の変化のあるカーブなどである。機械学習モデルの使用により、車両は、訓練データに対応する限られた数のシナリオ、シナリオからの組み合わせに類似する環境特徴の組み合わせに基づいて識別できることが期待される。
機械学習モデルの出力データは、シナリオ解釈を生成するサーバから取得されたデータの解釈である。
次いで、各シナリオは、運転の安全のために特定のアクションを取る目的で、自車両V1のための関連する命令を有する。命令は、一般に、車両が有人であるときの運転者へのメッセージ、又は車両が自動であるときの運転命令へのメッセージを含む。命令は、本発明の範囲を超える。
従来技術の欠点
非常に強力であるが、機械学習モデルに関連する主な課題の1つは、それらの訓練である。訓練中、例のセットが機械学習モデルに提供され、それらが抽出しようとする特徴の特定の特殊性(テクスチャ、形状、色など)を自動的に学習することを可能にする。最も重要な態様は、機械学習モデルが特定の特徴(例えば、車両の形状及び車輪、歩行者のシルエットなど)に関して何が関連性があり弁別的であるかを真に「理解」するために、訓練中に変動性の高い十分な例を提供する必要があることである。十分に多様な例で訓練が適切に行われない場合、機械学習モデルは、提供された例に適合するが十分に一般化しない、物体及び現象の無関係な属性を抽出する。これはオーバーフィッティングと呼ばれ、この単一の最も重要な欠点であり、機械学習モデルの品質及び堅牢性に影響を及ぼす。
検出、分類、セグメント化、及び位置特定の用途の場合、機械学習モデルの訓練は手動でラベル付けされたデータを必要とし、十分な訓練例を提供するための多大な人的努力につながった。これは、複雑で強力なアーキテクチャが何十万、更には何百万ものパラメータを訓練する必要がある深層ニューラルネットワークの場合に特に当てはまる。そのようなネットワークを訓練するために、オーバーフィッティングを回避し、強力な機械学習モデルを構築するために、数万の訓練例が必要とされる。これは、データの利用可能性及びラベリングに必要な人間の労力が限られているため、実用的ではない。
はるかに効率的な解決策は、偽陽性及び偽陰性、誤った分類、シナリオの誤った解釈など、機械学習モデルが失敗する可能性が高い状況を検出し、通常はコーナケースと呼ばれるこれらのサンプル又は類似のケースを使用して追加の訓練を実行することである。これにより、比較的少量の追加データを使用する機械学習モデルの精度が大幅に向上する。
前述したように、機械学習モデルが失敗する可能性が高いそのようなコーナケースを取得し、それらを機械学習モデルの再訓練にフィードバックして、それらの性能を大幅に改善することが重要である。そのような場合は、訓練されたモデルの制限によって決定されるだけでなく、おそらくより頻繁には環境条件によっても決定される。以下にいくつかの例を示す。
-トンネル、屋内駐車場などに見られるような困難な照明状況は、車線マーカ、交通標識、信号機などの検出及び分類を担当するカメラベースの機械学習モデルの精度を低下させる可能性がある。
-橋梁、ガードレール、及び他の金属構造は、交通参加者、及び静的環境要素を検出及び位置特定する際に、レーダベースの機械学習モデルの性能に悪影響を及ぼす可能性がある。
-更に、交差点及びラウンドアバウトなどの複雑なシナリオは、機械学習モデルにとって困難であることが判明する可能性がある。
現在、機械学習モデルの再訓練は、自車両のレベルで増分的に行われる。シナリオの修正は、そうするための処理能力を有するサーバからオペレータによって手動で実行され、次いで、正しいデータが自車両に送信され、自車両のそれぞれの機械学習モデルを再訓練するために使用される。
この手法の欠点は以下の通りである。
-単一の例を使用した再訓練後の自車両のそれぞれの機械学習モデルの改善は、限界がある、
-補正は手動で行われるため、追加の時間が必要であり、改善が遅い、
-場合によっては、サーバからのオペレータが補正を行うために利用可能な情報を有していない場合、オペレータは、追加コストを伴うそのような情報を見つけるために他のアクションを実行しなければならない。
これらの理由から、解決されるべき技術的課題は、そのような機械学習モデルが故障した状況を検出することだけでなく、機械学習モデルが故障した類似のシナリオに対応するセンサデータ、後に分析されて、自車両の機械学習モデルのための追加の訓練データとして使用され得るセンサデータを抽出することができることである。
したがって、本発明の目的は、従来技術の欠点を解決し、そのようなコーナケースが自車両によって検出された場合に、正しいシナリオを検出するために、及び自車両の機械学習モデルを更新するために、他車両からの類似のケースの自動検索を可能にするように、自車両の自動運転及び支援運転における環境特徴の検出の連続適応方法を提供することである。
「機械学習モデルを再訓練する」及び「機械学習モデルを更新する」という表現は、本発明では互換的に使用される。
本発明の主題は、第1の態様において、自車両の自動運転及び支援運転における環境特徴の連続適応型検出コンピュータ実装方法であって、自車両はサーバに接続され、サーバは複数の他車両に接続され、自車両、他車両及びサーバには機械学習モデルが提供されており、
方法は、
自車両のデータ収集及び処理ユニットによって実行されるデータ収集ステップI、すなわち
-環境特徴を参照する自車両の周囲からセンサデータを自車両のADASセンサによって取得することと、
-特定のシナリオ解釈を生成する機械学習モデルに基づいてセンサデータを解釈することと、
-特定のシナリオ解釈に従って、関連する命令を自車両の実行電子制御ユニットに送信することと、
-誤って解釈された特定のシナリオをもたらす、特定のシナリオ解釈が誤っている場合、実行電子制御ユニットからフィードバックを受信することと、
-誤った特定のシナリオ解釈に対応する取得されたセンサデータからカメラ画像を抽出することと、
-誤って解釈された特定のシナリオに対応するカメラ画像を符号化してハッシュ化し、自車両の画像ハッシュを取得することと、
-誤って解釈された特定のシナリオに対応する自車両の画像ハッシュを、取得されたセンサデータ、及び車両による特定の類似のシナリオを他車両によって識別するための要求と共に、サーバに送信することと、
サーバによって実行されるデータ処理ステップII、すなわち
-自車両による誤った特定のシナリオ解釈に対応する環境特徴の特定の組み合わせを識別することと、
-複数の他車両の各々がサーバに通信することを求めるサーバ要求、すなわち、
-自車両から受信したデータ画像ハッシュに従った車両による特定の類似のシナリオ、
-及び他車両の類似のシナリオにそれぞれ対応する前記他車両に関連付けられた取得されたセンサデータ、
と共に、自車両の画像ハッシュを複数の他車両にブロードキャストすることと、
他車両のそれぞれのデータ収集及び処理ユニットによって実行されるデータ処理ステップIII、すなわち
-サーバからブロードキャストされた自車両の画像ハッシュ及びサーバ要求を受信することと、
-他車両の各々のADASセンサによって、サーバ要求に従って他車両の各々の周囲からセンサデータを取得することと、
-取得されたセンサデータから他車両のカメラ画像を抽出、符号化、及びハッシュ化し、それぞれの他車両の画像ハッシュを取得することを含む、他車両によって取得されたセンサデータを処理することと、
-構造及び内容に関して、所与の閾値を超える類似度スコアによって、自車両から受信した画像ハッシュとそれぞれの他車両との間の類似度を比較することであって、高い類似度スコアが類似画像に対応することを意味する、ことと、
-類似度スコアに基づいて、
-取得されたセンサデータ及び類似度スコアが所与の閾値を超える画像ハッシュに対応する車両による特定の類似のシナリオを検索することと、
-サーバへ、
-自車両から受信したデータ画像ハッシュに従った車両による特定の類似のシナリオと、
-他車両の類似のシナリオに対応する他車両に関連する取得されたセンサデータと
を送信することと、
サーバによって実行されるデータ処理ステップIV、すなわち
-誤って解釈された特定のシナリオに対応する自車両のセンサデータを、
-類似のシナリオにそれぞれ関連付けられた他車両の取得されたセンサデータと
比較することと、
-自車両及び他車両から受信した取得されたセンサデータを集約し、集約されたセンサデータを機械学習モデルの増分再訓練に使用することと、
-増分的に再訓練されたモデルを自車両に送信することと、
を含む、連続適応型検出コンピュータ実装方法である。
本発明の第2の態様では、追加の訓練データに基づいて実施形態のいずれかのステップ4に従ってサーバによって実行される、自車両の自動運転及び支援運転における環境特徴の連続適応型検出のための訓練方法が提示され、追加の訓練データは、自車両の誤ったシナリオ解釈に対応する、それぞれの他車両に関連付けられた取得されたセンサデータである。
本発明の第3の態様では、実施形態のいずれかの方法に従って訓練された、訓練された機械学習モデルが提示される。
本発明の第4の態様では、
-自車両と、
-サーバと、
-複数の他車両と、
サーバに、自車両及び他車両の各々を接続する電気通信ネットワークとを含み、
システムは、実施形態のいずれかの方法のステップを実行するように構成された手段を含む、データ処理システムが提供される。
最後に、本発明の第5の態様では、サーバ、自車両、及び他車両の1つ以上のそれぞれのプロセッサによって実行されると、それぞれの1つ以上のサーバプロセッサに実施形態のいずれかの方法を実行させる命令を記憶する複数の非一時的コンピュータ可読媒体が提示される。
更なる有利な実施形態は、従属請求項の主題である。
本発明による方法を使用する主な利点は以下の通りである。
-類似のシナリオに遭遇した複数の車両によって収集された画像のサブセットを含むセンサデータがあり、訓練データの変動性の程度がはるかに高くなるため、再訓練による自車両のそれぞれの機械学習モデルの改善の程度は、最新技術よりも高い。
-一方でデータ取得プロセスの自動化のため、及び時間の節約のために、改善の時間が大幅に短縮される。
-本発明の方法で説明したアクション以外に、モデルを再訓練するための情報を取得するための他のアクションを実行する必要がないため、財務資源が節約される。
-サーバの追加のコンピューティングリソースが効率的に割り当てられ、比較的少量の追加データを使用して機械学習モデルの精度が大幅に改善される。
-そのような方法は、有利には、車線、交通標識、信号機、道路標示などの交通参加者及び静的環境要素のための機械学習ベースの検出及び分類の継続的な改善を可能にする。
本発明の更なる特別な特徴及び利点は、以下の説明及び添付の図面から得ることができる。
本発明による方法の概略ブロック図である。 コーナケースがある状況に自車両が遭遇したシナリオの概略図である。 他車両Viのうちの1つによって識別される図2aのものと類似のシナリオの概略図である。
ここで図1を参照すると、本発明の例示的な実施形態が示されている。
本発明の方法は、
-自車両V1と、
-サーバと、
-複数の他車両Viと、ここで、i=2,…n、
-自車両V1と他車両Viの各々とをサーバに接続する電気通信ネットワークと、
を備えるシステムにおいて実行される。
自車両V1、他車両Viには、先進運転支援(ADAS)センサが設けられている。
サーバは、物理的に近接して配置されるか、又は電気通信ネットワーク内で通信するかのいずれかである。単一部品のハードウェアサーバ又は複数部品のハードウェアサーバとすることができる。サーバの構成は従来技術によるものである。
自車両V1、他車両Vi及びサーバは、同一の機械学習モデルを備える。当業者が、各車両及び/又はサーバへの機械学習モデルのわずかな適合が必要であると考える場合、そのようなわずかな適合は「同じ機械学習モデル」の範囲内に含まれることを理解されたい。
本発明の理解を容易にするために、図2a及び2bを参照して具体例を考える。図2aの現実世界のシーンでは、トンネルへの入口がある。レーダセンサの性質により、例えば、自車両の知覚システムは、トンネルの壁からのレーダ反射により、自車線上の別の車両の存在を解釈し、突然の車線変更などの望ましくない操作をもたらす可能性がある。自車両の運転者は、自動運転システムのアクションを修正する。
図2bは、ボブキャット、植生の存在などの無関係な違いにもかかわらず、本発明によって、他車両によって検出可能な、車両V1が遭遇するシナリオと類似のシナリオを表す。
現実世界の風景は動的に考慮され、すなわち、それらは、車両が走行時にそれらの位置を変更するにつれて連続的に変化する。図2aは、例示を目的として、ある時点における状況を示す。この現実に基づいて、連続的に適応可能な環境特徴を検出する方法を提供することが必要であり、そのためにはシナリオが連続的に適応可能で豊富であることが必要である。シナリオの適応性は、サーバ上、自車両V1上、及び他車両Vi上で機械学習モデルを使用することによって実行される。
本発明による方法は、5つのステップを有する。
本方法の第1のステップは、自車両V1のデータ収集及び処理ユニットによって実行されるデータ収集ステップIである。
自車両V1は、ADASセンサがカメラ、ライダー、レーダなどを理解することによって、ADASセンサデータを使用する。ADASセンサデータは、自車両V1の周囲の環境特徴をキャプチャするために、前方視カメラ、サラウンドビューカメラシステムなどによって取得されたカメラ画像を含むが、これらに限定されない。
そのようなセンサデータは、交通参加者及び環境特徴、すなわち車線、交通標識、信号機、道路標示などの環境特徴を検出及び分類することができる、自車両V1の機械学習モデルに基づいて処理される。
機械学習モデルを使用することにより、自車両V1のデータ収集及び処理ユニットは、特定のシナリオ解釈を生成するセンサデータを解釈する。
図2a及び図2bからの例では、自車両V1のデータ収集及び処理ユニットは、機械学習モデルの使用によって、図2bに示すシナリオに従って図2aの風景から取得されたセンサデータを解釈し、次いで、特定のシナリオ解釈に従って自車両V1の実行制御ユニットに関連する命令を送信することが期待される。
関連する命令は、自車両V1からの特定の予測された挙動に対応する。
関連する命令の例:減速してライトをオンにすることは、それぞれライトを減速してオンにする特定の予測された挙動に対応する。
センサデータ処理(検出、分類など)の健全性は、信頼度、信憑性スコアを計算することによって、又は運転者の介入によるシステムの解放によって継続的に監視及び検証される。運転者のアクションを解釈することによって実行されるこのような検証は、本発明の目的ではない。
実行制御ユニットがコーナケース、すなわち、機械学習の失敗、コヒーレンスチェック、高い不確実性、運転者からの解放などの任意のデータ不整合を検出したとき、実行制御ユニットは、誤って解釈された特定のシナリオがあることを意味する、特定のシナリオ解釈が誤っているというフィードバックを自車両V1のデータ収集及び処理ユニットに送信する。
自車両V1の予測された挙動と実際の挙動との間に不一致が生じるたびに、フィードバックが自車両V1のデータ収集及び処理ユニットに送信される。
フィードバックを受信した後、自車両V1のデータ収集及び処理ユニットは、センサデータからカメラ画像、好ましくは前方視カメラからの画像を抽出し、カメラ画像は誤って解釈された特定のシナリオに対応する。
次いで、抽出された画像は符号化され、ハッシュ化される。対応する自車両V1の画像ハッシュは、誤った特定のシナリオ解釈に対応する取得されたセンサデータと、他車両Viの各々による特定の類似のシナリオの他車両Viによる識別のために、自車両V1のデータ収集及び処理ユニットによってサーバに行われた要求とを伴って、サーバに送信される。
図2a及び図2bから例を取ると、図2aから抽出された画像は、符号化され、ハッシュ化され、それらに対応する他の全てのセンサデータと共にサーバに送信される。この場合のサーバへの要求は、図2aからの抽出画像と一致する特定の類似のシナリオを識別するように他車両Viに「依頼」することである。
他車両Viの各々には、自車両V1のデータ収集処理ユニットと類似のデータ収集及び処理ユニットがそれぞれ設けられている。データ収集ユニットと処理ユニットとの間の類似度は、それぞれのデータ収集ユニット及び処理ユニットの機能が同一に実行される場合に考慮される。
サーバによって実行されることによって実行されるデータ処理ステップIIでは、まず、誤って解釈された特定のシナリオに対応する環境特徴の特定の組み合わせが、自車両V1によって識別される。
次いで、サーバは、複数の他車両Viの各々がサーバに通信するサーバ要求、すなわち、
-自車両V1から受信したデータ画像ハッシュに従った車両Viによる特定の類似のシナリオ、
-及び
-類似のシナリオで他車両Viに対応する他車両Viに関連する取得されたセンサデータ、
と共に、自車両V1から受信した画像ハッシュをブロードキャストする。
図2aの例では、サーバ要求は、トンネル内の入口、すなわち特定のシナリオの識別に問題があるという事実、及び他車両Viが、類似の特性、すなわち他車両Viの画像ハッシュを有するトンネル内の入口を参照するセンサデータを送信しなければならないという事実を、他車両Viの画像ハッシュ、すなわち、類似の環境特徴を有するトンネル入口、つまり自車両V1が遭遇するものの類似の特性を有するトンネルへの入口に対応する全ての取得されたセンサデータと共に参照する。
データ処理ステップIIIは、他車両Viのそれぞれのデータ収集及び処理ユニットによって実行される。
第一に、他車両Viのデータ収集及び処理ユニットの各々は、サーバから、ブロードキャストされた自車両V1ハッシュ画像及びサーバ要求を受信する。
次いで、他車両ViのADASセンサは、サーバ要求に従って環境特徴の特定の組み合わせを参照して、他の各車両Viの周囲からセンサデータを取得する。この例では、他車両Viのセンサデータは、サーバからの要求の特徴と類似する特性を有するトンネルへの入口に関する情報を取得する。このステップの持続時間は、例えば、利用可能な他車両の数、風景の内容などに応じて、1日又は1週間に予め設定される。
次いで、他車両Viのそれぞれのデータ収集及び処理ユニットは、取得されたセンサデータをリアルタイムで処理し、処理は、センサデータからカメラ画像を抽出することと、抽出された画像をハッシュ化することと、それぞれの他車両Viの画像ハッシュを取得することとを含む。
次いで、他車両Viのそれぞれのデータ収集及び処理ユニットは、所与の閾値を超える類似度スコアによって、自車両V1自体のそれぞれの画像ハッシュから受信した画像ハッシュ間の類似度を比較し、これは、高い類似度スコアが構造及び内容に関して類似のシナリオに対応することを意味する。
サーバからのブロードキャストは、他車両Viの各々によって受信されるが、例えば、複数の他車両Viからの他車両Viの一部が、そのような類似の周囲がない、例えばトンネルがない領域を走行しているため、複数の他車両Viからの全ての他車両Viが、サーバ要求に従って、それぞれの周囲から画像を取得することができる訳ではないことがある。代わりに、それぞれの周囲から画像を取得した他車両Viの各々は、それぞれの画像ハッシュを出力し、自身の画像ハッシュと、自車両V1から受信した画像ハッシュとの間の比較に類似度スコアを適用する。
次いで、類似度スコアに基づいて、他車両Viのそれぞれのデータ収集及び処理ユニットは、取得されたセンサデータ及び類似度スコアが所与の閾値を超える画像ハッシュに対応する車両Viによる特定の類似のシナリオを検索する。
本発明は、他車両Viの少なくとも1つが、上述のように取得されたセンサデータをサーバに送信することができる場合に機能する。
ステップIIIの終わりに、他車両Viのそれぞれのデータ収集及び処理ユニットは、サーバに以下を送信する。
-自車両V1から受信したデータ画像ハッシュに従った車両Viによる特定の類似のシナリオ、
-類似のシナリオに対応する、他車両Viに関連する取得されたセンサデータ。
データ処理ステップIVは、サーバによって実行される。
このステップでは、サーバは以下を比較する。
-V1の誤って解釈されたシナリオに対応する自車両V1センサデータ、

-類似のシナリオに対応する他車両Viに関連する取得されたセンサデータ、
とを比較し、
類似度スコアの定義、及び他車両Viの機械学習モデルが同じであるという事実を考えると、前のステップにおける他車両Viの大多数による特定の類似のシナリオが同じであると予想することが合理的である。この例では、これは図2bに示す画像に対応する。
サーバが自車両V1及び他車両Viによって取得されたセンサデータを受信すると、サーバは、他車両Vi及び自車両V1から受信された取得されたセンサデータを集約する。これは、サーバの機械学習モデルを使用して実行される。
これが、ステップIIでサーバが他車両Viに、他車両Viの画像ハッシュに対応する、関連する取得されたセンサデータを送信するように要求する理由である。実際、他車両Viデータハッシュは、コーナケースを識別するために使用されるが、コーナケースのセンサデータは、センサデータが画像のみよりも環境特徴に関するより多くの情報を提供するので、機械学習モデルの増分再訓練の目的のために集約に使用される。
取得されたセンサデータの集約は、センサデータに適した集約の技術を使用して実行される。
次いで、集約されたセンサデータは、機械学習モデルの増分再訓練のためにサーバによって使用される。
ステップIVの終わりに、サーバは、増分的に再訓練されたモデルを自車両V1に送信する。
サーバによる増分的に再訓練された機械学習モデルの送信は、それだけに限定されないが、無線更新などの更新を自車両V1に送信するための通常の方法で実行される。
次いで、自車両V1のデータ収集及び処理ユニットによって実行されるデータ処理ステップVでは、既存の機械学習モデルをサーバから受信した増分的に再訓練された機械学習モデルで置き換えることによって、自車両V1の機械学習モデルが更新される。
再び例を取ると、図2aの風景に再び直面した場合、自車両V1の機械学習モデルを再訓練することによって、自車両V1のデータ収集及び処理ユニットは、図2bの特定のシナリオに従って取得された画像を正しく解釈し、特定のシナリオは、これらの新しい環境特徴で強化されている。
好ましい実施形態では、サーバによって実行される機械学習モデルの再訓練は、他車両Vi上のそれぞれの機械学習モデルの各々を更新するために複数の他車両Viに送信される。
サーバによる増分的に再訓練された機械学習モデルの送信は、それだけに限定されないが、無線更新などの更新を複数の他車両Viに送信するための通常の方法で実行される。
これには、各車両Viが特定の瞬間に自車両V1の役割を果たすことができ、全ての他車両Viが自車両V1の増分的に再訓練された機械学習モデルを利用することができるという利点がある。
別の好ましい実施形態では、環境特徴の検出及び分類に使用される機械学習モデルの例は、畳み込みニューラルネットワーク(CNN)である。
別の好ましい実施形態では、画像符号化及びハッシュ化は、視覚的語の袋(BoW)表現によって行われる。この技術によれば、画像特徴を抽出することによって生画像から視覚情報が取得される。画像特徴は、高い識別値を有する画像の領域に対応し、それらを画像コンテンツを表すものにする。次いで、画像特徴は、典型的には領域内の勾配分布を考慮して、対応する領域をコンパクトな形式で記述する特徴記述子を使用して表される。古典的な手法は、特徴抽出及び記述のためにスケール不変特徴変換(SIFT)及び高速ロバスト特徴(SURF)技術を使用する。
画像符号化及びハッシュ化のための視覚的語の袋(BoW)表現の使用は、この技術が現実世界の風景の物体の物体カテゴリ化を強化するので有利である。
視覚的語の袋(BoW)表現を使用する別の好ましい実施形態では、バイナリ技術が使用される。バイナリ技術の非限定的な例は、バイナリロバスト独立要素特徴(BRIEF)又は指向及び回転バイナリロバスト独立要素特徴(ORB)であり、よりコンパクトな表現をもたらし、画像特徴の処理、記憶及び送信に関連する計算コストを低減する。
バイナリ技術を使用する利点は、それらが画像ハッシュの現実世界の風景の本質を記述する能力を向上させることにつながる効率的な特徴点記述であることである。
視覚的語の袋処理技術は、一般に3つの段階を含む。
1.訓練段階:この段階では、一連の訓練画像から画像特徴が抽出される。次いで、視覚的に類似した画像特徴が一緒にグループ化され、視覚的単語と呼ばれる一般化された画像特徴のセットを表す、いわゆる視覚的語彙が得られる。特徴グループ化は、k平均及び凝集などのクラスタリング技術を使用して実行される。
2.ハッシュ化(インデックス付け)段階:これにより、画像のコンパクトな表現が可能になる。ここでは、画像から特徴を抽出する。次いで、特徴は、視覚的類似度基準を使用して、訓練段階中に生成された語彙内の単語に関連付けられる。結果は、画像ハッシュを表す、所与の画像に対する視覚的単語発生頻度のヒストグラムである。
3.視覚的類似度の計算:2つの画像間の視覚的類似度を計算するために、それらのハッシュのユークリッド距離又はコサイン類似度のいずれかが計算される。
本発明の第2の態様では、追加の訓練データに基づいて実施形態のいずれかのステップ4に従ってサーバによって実行される、自車両の自動運転及び支援運転における環境特徴の連続適応型検出のための訓練方法が提示され、追加の訓練データは、自車両V1の誤ったシナリオ解釈に対応する、それぞれの他車両Viに関連付けられた取得されたセンサデータである。
機械学習モデルは、初期訓練データを使用して本発明の方法を開始する前にサーバによって既に訓練されている。本発明は、機械学習方法の更新を含む環境特徴の連続適応型検出を扱う。本発明は、方法の開始前の機械学習モデルの初期訓練には対処しない。これが、本発明の訓練方法が、それぞれの他車両Viから受信した追加の訓練データを使用する理由である。
本発明の第3の態様では、実施形態のいずれかの方法に従って訓練された、訓練された機械学習モデルが提示される。
第3の態様の訓練された機械学習モデルは、機械学習方法の各更新から生じ、更新は、実施形態のいずれかにおける本発明の方法の結果である。
本発明の第4の態様では、
-自車両V1と、
-サーバと、
-複数の他車両Viと、
-サーバに、自車両及び他車両の各々を接続する電気通信ネットワークとを含む、データ処理システムが提供され、
本発明のシステムは、方法を参照するセクションにおいて上記で開示されたように、実施形態のいずれかの方法のステップを実行するように構成された手段を備える。
最後に、本発明の第5の態様では、サーバ、自車両、及び他車両の1つ以上のそれぞれのプロセッサによって実行されると、それぞれの1つ以上のサーバプロセッサに実施形態のいずれかの方法を実行させる命令を記憶する複数の非一時的コンピュータ可読媒体が提示される。
本発明の方法が分散システムにおいて実行されるとき、システム要素の各々、すなわちサーバ、自車両V1、及び他車両Viの各々は、命令を記憶するそのそれぞれの非一時的コンピュータ可読媒体を有し、1つ以上のプロセッサを有する。本方法のステップによれば、前述のシステム要素の各々は、本方法を参照するセクションで上述したように、本方法の特定のステップを実行する。
本発明は、サーバ及び車両を備えるシステムがあるときはいつでも産業分野で使用され、車両にはADASセンサが設けられ、サーバと車両の両方に機械学習モデルが設けられ、増分的に再訓練されたモデルを全ての車両に送信する必要があるときはいつでも使用される。
1つの特定の用途は、車両が道路用車両である自動車産業におけるものである。道路用車両のうちの1つが遭遇するコーナケースは、機械学習モデルの増分的な再訓練を開始し、機械学習モデルはその後、全ての車両に送信される。
別の特定の用途は、車両がクレーン、土工機器、トラクタなどであり、全てADASセンサを備えている建設産業の分野である。クレーン、土工機器、トラクタなどのうちの1つが遭遇するコーナケースは、機械学習モデルの増分的な再訓練を開始し、機械学習モデルはその後、全ての車両に送信される。
別の特定の用途は、車両がADASセンサを備えたロボットであるロボット工学の分野である。ロボットのうちの1つが遭遇するコーナケースは、機械学習モデルの増分的な再訓練を開始し、機械学習モデルはその後、全ての車両に送信される。
上記に示された特定の用途の3つの非限定的な例の間の唯一の違いは、現実世界の風景の内容、及びそれに対応してシナリオの内容にある。しかしながら、その内容自体は本発明の目的ではない。
本発明の特定の実施形態を詳細に説明してきたが、本発明が関連する技術に精通した者は、以下の特許請求の範囲によって定義される本発明を実施するための様々な代替の設計及び実施形態を認識するであろう。

Claims (9)

  1. 自車両V1の自動運転及び支援運転における環境特徴の連続適応型検出コンピュータ実装方法であって、前記自車両V1はサーバに接続され、前記サーバは複数の他車両Vi,i=2,…nに接続され、前記自車両V1、前記他車両Vi及び前記サーバには機械学習モデルが提供されており、
    前記方法は、
    前記自車両V1のデータ収集及び処理ユニットによって実行されるデータ収集ステップI、すなわち
    -前記環境特徴を参照する前記自車両V1の周囲からセンサデータを前記自車両V1のADASセンサによって取得することと、
    -特定のシナリオ解釈を生成する前記機械学習モデルに基づいて前記センサデータを解釈することと、
    -前記特定のシナリオ解釈に従って、関連する命令を前記自車両V1の実行電子制御ユニットに送信することと、
    -誤って解釈されたシナリオをもたらす、前記特定のシナリオ解釈が誤っている場合、前記実行電子制御ユニットからフィードバックを受信することと、
    -前記誤った特定のシナリオ解釈に対応する前記取得されたセンサデータからカメラ画像を抽出することと、
    -前記特定の誤って解釈されたシナリオに対応する前記カメラ画像を符号化してハッシュ化し、自車両V1の画像ハッシュを取得することと、
    -前記特定の誤って解釈されたシナリオに対応する前記自車両V1の画像ハッシュを、前記取得されたセンサデータ、及び前記車両Viによる特定の類似のシナリオを前記他車両Viによって識別するための要求と共に、前記サーバに送信することと、
    前記サーバによって実行されるデータ処理ステップII、すなわち
    -前記自車両V1による前記誤った特定のシナリオ解釈に対応する前記環境特徴の特定の組み合わせを識別することと、
    -前記複数の他車両Viの各々が前記サーバに通信することを求めるサーバ要求、すなわち、
    -前記自車両V1から受信した前記データ画像ハッシュに従った前記車両Viによる特定の類似のシナリオ、
    -及び類似のシナリオにおいて他車両Viにそれぞれ対応する前記他車両Viに関連付けられた取得されたセンサデータ、
    と共に、前記自車両V1の画像ハッシュを前記複数の他車両Viにブロードキャストすることと、
    前記他車両Viのそれぞれのデータ収集及び処理ユニットによって実行されるデータ処理ステップIII、すなわち
    -前記サーバから前記ブロードキャストされた自車両V1の画像ハッシュ及び前記サーバ要求を受信することと、
    前記他車両Viの各々のADASセンサによって、前記サーバ要求に従って前記他車両Viの各々の周囲からセンサデータを取得することと、
    -前記取得されたセンサデータから他車両Viのカメラ画像を抽出、符号化、及びハッシュ化し、それぞれの他車両Viの画像ハッシュを取得することを含む、前記他車両Viによって前記取得されたセンサデータを処理することと、
    -構造及び内容に関して、所与の閾値を超える類似度スコアによって、前記自車両V1から受信した前記画像ハッシュと前記それぞれの他車両Viとの間の類似度を比較することであって、高い類似度スコアが類似画像に対応することを意味する、ことと、
    -前記類似度スコアに基づいて、
    -前記取得されたセンサデータ及び前記類似度スコアが前記所与の閾値を超える前記画像ハッシュに対応する前記車両Viによる前記特定の類似のシナリオを検索することと、
    -前記サーバへ、
    -前記自車両V1から受信した前記データ画像ハッシュに従った前記車両Viによる前記特定の類似のシナリオと、
    -他車両Viの類似のシナリオにそれぞれ対応する前記他車両Viに関連する取得されたセンサデータと
    を送信することと、
    前記サーバによって実行されるデータ処理ステップIV、すなわち
    -前記誤って解釈された特定のシナリオに対応する前記自車両V1のセンサデータを、
    -前記類似のシナリオにそれぞれ対応する前記他車両Viに関連する取得されたセンサデータと
    比較することと、
    -前記自車両V1及び前記他車両Viから受信した前記取得されたセンサデータを集約し、前記集約されたセンサデータを前記機械学習モデルの増分再訓練に使用することと、
    -前記増分的に再訓練されたモデルを前記自車両V1に送信することと、
    前記自車両V1の前記データ収集及び処理ユニットによって実行されるデータ処理ステップV、すなわち
    -前記既存の機械学習モデルを前記サーバから受信した前記増分的に再訓練された機械学習モデルで置き換えることによって、前記自車両V1上の前記機械学習モデルを更新することと、
    を含む、連続適応型検出コンピュータ実装方法。
  2. 前記増分的に再訓練された機械学習モデルは、前記他車両Vi上の機械学習モデルを更新するために、前記サーバによって前記複数の他車両Viに送信される、請求項1に記載の方法。
  3. 前記機械学習は畳み込みニューラルネットワークである、請求項1又は2に記載の方法。
  4. 前記画像符号化及びハッシュ化は、視覚的語の袋(BoW)技術によって行われる、請求項1から3のいずれか1項に記載の方法。
  5. 前記好ましい視覚的語の袋技術は、バイナリロバスト独立要素特徴(BRIEF)又は指向及び回転バイナリロバスト独立要素特徴(ORB)などのバイナリ技術である、請求項4に記載の方法。
  6. 追加の訓練データに基づいて請求項1から5のいずれか1項に記載のステップ4に従ってサーバによって実行される、自車両V1の自動運転及び支援運転における環境特徴の連続適応型検出のための訓練方法であって、前記追加の訓練データは、自車両V1の前記誤ったシナリオ解釈に対応する、前記それぞれの他車両Viに関連付けられた取得されたセンサデータである、訓練方法。
  7. 請求項1から5のいずれか1項に記載の方法に従って訓練された、訓練された機械学習モデル。
  8. データ処理システムであって、
    -自車両V1と、
    -サーバと、
    -複数の他車両Viと、ここでi=2,...n、
    -前記サーバに、前記自車両V1及び他車両Viの各々を接続する電気通信ネットワークとを含み、
    前記システムは、請求項1から5のいずれか1項に記載の方法のステップを実行するように構成された手段を備える、データ処理システム。
  9. 前記サーバ、前記自車両V1、及び前記他車両Viの1つ以上のそれぞれのプロセッサによって実行されると、それぞれの1つ以上のサーバプロセッサに請求項1から5のいずれか1項に記載の方法を実行させる命令を記憶する複数の非一時的コンピュータ可読媒体。
JP2023517795A 2020-09-23 2021-09-21 自車両の自動運転及び支援運転における環境特徴の連続適応型検出コンピュータ実装方法 Active JP7511750B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP20465562 2020-09-23
EP20465562.5 2020-09-23
PCT/EP2021/075936 WO2022063774A1 (en) 2020-09-23 2021-09-21 A continuously, adaptive detection computer-implemented method of environment features in autonomous and assisted driving of an ego-vehicle

Publications (3)

Publication Number Publication Date
JP2023541967A true JP2023541967A (ja) 2023-10-04
JPWO2022063774A5 JPWO2022063774A5 (ja) 2024-05-24
JP7511750B2 JP7511750B2 (ja) 2024-07-05

Family

ID=73005550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023517795A Active JP7511750B2 (ja) 2020-09-23 2021-09-21 自車両の自動運転及び支援運転における環境特徴の連続適応型検出コンピュータ実装方法

Country Status (6)

Country Link
US (1) US20230368506A1 (ja)
EP (1) EP4217917A1 (ja)
JP (1) JP7511750B2 (ja)
KR (1) KR20230048434A (ja)
CN (1) CN116420175A (ja)
WO (1) WO2022063774A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230099178A1 (en) * 2021-09-28 2023-03-30 Univrses Ab Managing mobile data gathering agents
CN114722975B (zh) * 2022-06-08 2022-08-30 山东大学 基于模糊理论和大数据分析的驾驶意图识别方法及系统
WO2024065605A1 (en) * 2022-09-30 2024-04-04 Orange Method for sharing data

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3290864A1 (en) 2016-08-30 2018-03-07 Continental Automotive GmbH Driver assistance system for determining a position of a vehicle
US10740658B2 (en) * 2016-09-08 2020-08-11 Mentor Graphics Corporation Object recognition and classification using multiple sensor modalities
US10007269B1 (en) 2017-06-23 2018-06-26 Uber Technologies, Inc. Collision-avoidance system for autonomous-capable vehicle
JP6946812B2 (ja) * 2017-07-20 2021-10-06 株式会社デンソー 学習サーバ及び支援システム
DE102017217444B4 (de) 2017-09-29 2024-03-07 Volkswagen Ag Verfahren und System zum Aktualisieren eines Steuerungsmodells für eine automatische Steuerung zumindest einer mobilen Einheit
EP3820753B1 (en) * 2018-07-14 2023-08-02 Moove.AI Vehicle-data analytics
US10755575B2 (en) * 2018-08-30 2020-08-25 Cisco Technology, Inc. Raw sensor data sharing for enhanced fleet-wide environmental awareness and safety
CN112639913B (zh) 2018-09-06 2022-11-25 本田技研工业株式会社 车辆控制装置及其方法、自动驾驶车开发系统、存储介质

Also Published As

Publication number Publication date
KR20230048434A (ko) 2023-04-11
EP4217917A1 (en) 2023-08-02
JP7511750B2 (ja) 2024-07-05
WO2022063774A1 (en) 2022-03-31
CN116420175A (zh) 2023-07-11
US20230368506A1 (en) 2023-11-16

Similar Documents

Publication Publication Date Title
Fujiyoshi et al. Deep learning-based image recognition for autonomous driving
JP7511750B2 (ja) 自車両の自動運転及び支援運転における環境特徴の連続適応型検出コンピュータ実装方法
US10740654B2 (en) Failure detection for a neural network object tracker
CN107851213B (zh) 神经网络中的转移学习
US10157441B2 (en) Hierarchical system for detecting object with parallel architecture and hierarchical method thereof
KR102565278B1 (ko) 영상 분할 방법, 영상 분할 장치, 및 영상 분할을 위한 학습 방법
WO2020001223A1 (zh) 交通信号灯检测及智能驾驶方法和装置、车辆、电子设备
US11256986B2 (en) Systems and methods for training a neural keypoint detection network
US10964033B2 (en) Decoupled motion models for object tracking
US20210319236A1 (en) Semantically aware keypoint matching
CN111344739A (zh) 时空动作与角色定位
CN106934378B (zh) 一种基于视频深度学习的汽车远光灯识别系统及方法
JP2016062610A (ja) 特徴モデル生成方法及び特徴モデル生成装置
WO2012004553A1 (en) Assisting vehicle guidance over terrain
US20230070439A1 (en) Managing occlusion in siamese tracking using structured dropouts
US20230148091A1 (en) Method and apparatus for determining and classifying at least one object in a sensing area of a sensor
Gökçe et al. Recognition of dynamic objects from UGVs using Interconnected Neuralnetwork-based Computer Vision system
Al Mamun et al. Efficient lane marking detection using deep learning technique with differential and cross-entropy loss.
CN113269821A (zh) 消失点提取装置、提取消失点的方法及自动驾驶装置
CN111210411A (zh) 图像中灭点的检测方法、检测模型训练方法和电子设备
Merugu et al. Multi lane detection, curve fitting and lane type classification
Baek et al. Vehicles lane-changing behavior detection
CN112180913A (zh) 特种车辆识别方法
Kozel et al. Real-Time Traffic Lights Identification using YOLOv3 Algorithm For Autonomous Vehicles
Nayak Development of vision-based response of autonomous vehicles towards emergency vehicles using infrastructure enabled autonomy

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230316

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240221

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20240516

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240625