JP7046119B2 - 視覚ベース知覚システムによる敵対的サンプルの検出 - Google Patents

視覚ベース知覚システムによる敵対的サンプルの検出 Download PDF

Info

Publication number
JP7046119B2
JP7046119B2 JP2020100094A JP2020100094A JP7046119B2 JP 7046119 B2 JP7046119 B2 JP 7046119B2 JP 2020100094 A JP2020100094 A JP 2020100094A JP 2020100094 A JP2020100094 A JP 2020100094A JP 7046119 B2 JP7046119 B2 JP 7046119B2
Authority
JP
Japan
Prior art keywords
image
output
sample
adv
hostile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020100094A
Other languages
English (en)
Other versions
JP2020200033A (ja
Inventor
ユンハン ジャ,
ヂェンユ― ヂョン,
ユーロン チャン,
タオ ウェイ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu USA LLC
Original Assignee
Baidu USA LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu USA LLC filed Critical Baidu USA LLC
Publication of JP2020200033A publication Critical patent/JP2020200033A/ja
Application granted granted Critical
Publication of JP7046119B2 publication Critical patent/JP7046119B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Robotics (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)

Description

本開示の実施形態は、一般に、自律車両を動作させることに関する。より具体的には、本開示の実施形態は、ロボット・システムまたは自律運転車両(ADV)用の視覚ベース知覚システムによって敵対的サンプル(例えば、入力画像)を検出することに関する。
自律モード(例えば、無人)で動作している車両は、乗車者、特にドライバーを運転に関連した責任から解放することができる。自律モードで動作している場合、車両は、車載センサを用いて様々な場所へと航行でき、最低限の人とのやりとりで、あるいは、場合によっては搭乗者なしに、車両が移動できるようになる。
モーション・プランニングおよび制御は自律運転における重要な動作である。しかしながら、従来のモーション・プランニング動作は、異なるタイプの車両に対する特徴の差異を考慮することなく、主に経路の曲率および速度から、与えられた経路を完了することの困難性を推定する。同一のモーション・プランニングおよび制御が、全てのタイプの車両に適用されるが、場合によっては正確かつ滑らかでない可能性がある。
視覚ベースの知覚は、自律車両およびロボット・システムの主要なタスクのうちの1つであり、深層学習ベースのコンピュータ視覚モデルは、このタスクにおける最先端のパフォーマンスを達成しており、広く展開されている。しかしながら、これらの深層ニューラル・ネットワーク(DNN)は、入念に作成された敵対的入力、例えば、「敵対的サンプル」に影響を受けやすいことが指摘されている。例えば、停止標識に入念に作成された小さいステッカーを貼ることによって、敵は、自律車両の視覚ベース知覚システムを騙して、それを速度制限標識として認識させることができることが実証されている。
本開示の実施形態は、同様の参照符号が同様の要素を示す、添付の図面の図中に例として示されており、限定として示されていない。
一実施形態に係るネットワーク化システムを示すブロック図である。 一実施形態に係る自律車両の例を示すブロック図である。 一実施形態による、自律車両とともに使用される知覚およびプランニング・システムの例を示すブロック図である。 一実施形態による、自律車両とともに使用される知覚およびプランニング・システムの例を示すブロック図である。 一実施形態に係る敵対的サンプル・モジュールの例を示すブロック図である。 一実施形態に係る敵対的サンプルを検出するためのワークフローを示すブロック図である。 一実施形態に係る車両用の物体検出システムの出力を示すブロック図である。 一実施形態に係る摂動をもつ車両のための物体検出システムの出力を示すブロック図である。 一実施形態に係る方法を示す流れ図である。 一実施形態に係るデータ処理システムを示すブロック図である。
本開示の様々な実施形態および態様が、以下で論じられる詳細を参照しながら説明され、添付の図面は様々な実施形態を示す。以下の説明および図面は、本開示を例示するものであり、本開示を限定するものとして解釈されるべきではない。本開示の様々な実施形態への完全な理解を与えるために、多数の具体的な詳細について説明する。しかしながら、いくつかの事例では、本開示の実施形態の簡潔な議論を提供するために、よく知られている、あるいは、従来の詳細については説明しない。
本明細書における「一実施形態」または「実施形態」に対する言及は、実施形態に関して説明される特定の特徴、構造または特性が本開示の少なくとも1つの実施形態に含まれ得ることを意味する。本明細書中の様々な個所における「一実施形態では」というフレーズの出現は、必ずしも全てが同じ実施形態を指すとは限らない。
いくつかの実施形態によれば、システムは、ADVの取得デバイスによって取得された第1の画像を受信する。システムは、第2の画像を生成するために第1の画像に画像変換を適用する。システムは、それぞれ、第1の出力および第2の出力を生成するために、第1の画像および第2の画像に物体検出モデルを適用する。システムは、第1の出力と第2の出力との間の類似性メトリックを計算する。システムは、第1の画像と前の画像との間の類似性メトリックの時間的変動が閾値を超える場合、第1の画像を敵対的サンプルとして検出する。
図1は、本開示の一実施形態に係る自律車両ネットワーク構成を示すブロック図である。図1を参照すると、ネットワーク構成100は、ネットワーク102を介して1または複数のサーバ103~104に通信可能に接続され得る自律車両101を備えている。示されている1つの自律車両が示されているが、複数の自律車両が、ネットワーク102を介して互いに、および/または、サーバ103~104に接続されていてもよい。ネットワーク102は、ローカル・エリア・ネットワーク(LAN)、インターネットなどのワイド・エリア・ネットワーク(WAN)、セルラー・ネットワーク、衛星ネットワーク、またはこれらの組合せなど、有線または無線の任意のタイプのネットワークであり得る。サーバ103~104は、ウェブまたはクラウド・サーバ、アプリケーション・サーバ、バックエンド・サーバ、またはそれらの組合せなど、任意の種類のサーバまたはサーバのクラスタであり得る。サーバ103~104は、データ解析サーバ、コンテンツ・サーバ、交通情報サーバ、MPOI(map and point of interest)サーバまたはロケーション・サーバなどであり得る。
自律車両とは、ドライバーからの入力が殆どまたは全くない環境下で車両が航行する自律モードにあるように構成され得る車両をいう。そのような自律車両は、車両が動作する環境についての情報を検出するように構成された1または複数のセンサを有するセンサ・システムを備えることができる。車両およびこれに関連するコントローラは、検出された情報を使用して、この環境下で航行する。自律車両101は、マニュアル・モード、完全自律モードまたは部分自律モードで動作することができる。
一実施形態では、自律車両101は、これに限定されないが、知覚およびプランニング・システム110と、車両制御システム111と、ワイヤレス通信システム112と、ユーザ・インターフェース・システム113と、インフォテインメント・システム114と、センサ・システム115とを備えている。自律車両101は、例えば、加速信号またはコマンド、減速信号またはコマンド、操舵信号またはコマンド、制動信号またはコマンドなど、様々な通信信号および/またはコマンドを使用して、車両制御システム111および/または知覚およびプランニング・システム110によって制御され得る、エンジン、ホイール、ステアリング・ホイール、トランスミッションなど、通常の車両中に備えられるいくつかの一般的な構成要素をさらに備えていてもよい。
構成要素110~115は、相互接続、バス、ネットワークまたはこれらの組合せを介して互いに通信可能に接続され得る。例えば、構成要素110~115は、コントローラ・エリア・ネットワーク(CAN)バスを介して互いに通信可能に接続され得る。CANバスは、マイクロコントローラおよびデバイスが、ホスト・コンピュータなしにアプリケーション内で互いに通信することを可能にするように設計されたビークルバス規格である。CANバスは、元来は、自動車内の多重化電気配線のために設計されたメッセージベースのプロトコルであるが、多くの他の状況においても使用される。
次に図2を参照すると、一実施形態では、センサ・システム115は、これに限定されないが、1または複数のカメラ211と、全地球測位システム(GPS)ユニット212と、慣性測定ユニット(IMU)213と、レーダー・ユニット214と、光検出および測距(LIDAR)ユニット215とを備えている。GPSシステム212は、自律車両の位置に関する情報を与えるように動作可能なトランシーバを備えていてもよい。IMUユニット213は、慣性加速度に基づいて自律車両の位置姿勢の変化を感知し得る。レーダー・ユニット214は、無線信号を利用して、自律車両のローカル環境内の物体を感知するシステムであってもよい。いくつかの実施形態では、物体を感知することに加えて、レーダー・ユニット214は、さらに、物体の速度および/または進路を感知し得る。LIDARユニット215は、自律車両がレーザーを使用して位置される環境中の物体を感知し得る。LIDARユニット215は、いくつかあるシステム構成要素の中でも特に、1または複数のレーザー源、レーザー・スキャナおよび1または複数の検出器を備えることができる。カメラ211は、自律車両を囲む環境の画像を取得する1または複数のデバイスを備えていてもよい。カメラ211はスチール・カメラおよび/またはビデオ・カメラであってもよい。カメラは、例えば、回転するおよび/または傾斜するプラットフォーム上にカメラを取り付けることによって、機械的に移動可能であってもよい。
センサ・システム115は、ソナー・センサ、赤外線センサ、操舵センサ、スロットル・センサ、制動センサ、およびオーディオ・センサ(例えば、マイクロフォン)など、他のセンサをさらに備えてもよい。オーディオ・センサは、自律車両を囲む環境から音を取得するように構成されていてもよい。操舵センサは、車両のステアリング・ホイール、ホイールの操舵角またはこれらの組合せを感知するように構成されていてもよい。スロットル・センサおよび制動センサは、それぞれ、車両のスロットル位置および制動位置を感知する。いくつかの状況では、スロットル・センサおよび制動センサは一体型スロットル/制動センサとして一体化され得る。
一実施形態では、車両制御システム111は、これに限定されないが、ステアリング・ユニット201、(加速ユニットとも呼ばれる)スロットル・ユニット202、および制動ユニット203を備えている。ステアリング・ユニット201は、車両の方向または進路を調整するためのものである。スロットル・ユニット202は、車両の速度および加速度を順に制御するモーターまたはエンジンの速度を制御するためのものである。制動ユニット203は、摩擦を与えることによって車両を減速させ、車両のホイールまたはタイヤを遅くするためのものである。なお、図2に示されている構成要素は、ハードウェア、ソフトウェアまたはこれらの組合せで実装されてもよい。
再び図1を参照すると、ワイヤレス通信システム112は、自律車両101と、デバイス、センサ、他の車両など、外部システムとの間の通信を可能にするためのものである。例えば、ワイヤレス通信システム112は、1または複数のデバイスと直接、またはネットワーク102上のサーバ103~104など、通信ネットワークを介して、ワイヤレスで通信することができる。ワイヤレス通信システム112は、任意のセルラー通信ネットワーク、または、例えば、WiFiを使用するワイヤレス・ローカル・エリア・ネットワーク(WLAN)を使用して、別の構成要素またはシステムと通信することができる。ワイヤレス通信システム112は、例えば、赤外リンク、Bluetoothなどを使用して、デバイス(例えば、車両101内の搭乗者のモバイル・デバイス、ディスプレイ・デバイス、スピーカ)と直接通信することができる。ユーザ・インターフェース・システム113は、例えば、キーボード、タッチ・スクリーン・ディスプレイ・デバイス、マイクロフォンおよびスピーカなどを含む、車両101内に実装された周辺デバイスの一部であり得る。
自律車両101の機能のいくつかまたは全ては、特に、自律運転モードで動作しているとき、知覚およびプランニング・システム110によって制御または管理され得る。知覚およびプランニング・システム110は、センサ・システム115、制御システム111、ワイヤレス通信システム112、および/またはユーザ・インターフェース・システム113から情報を受信し、受信された情報を処理し、出発地点から目的地点までのルートまたは経路を計画し、次いで、プランニングおよび制御情報に基づいて車両101を走らせるために必要なハードウェア(例えば、プロセッサ、メモリ、ストレージ)およびソフトウェア(例えば、オペレーティング・システム、プランニングおよびルーティング・プログラム)を備えている。あるいは、知覚およびプランニング・システム110が車両制御システム111と一体化されていてもよい。
例えば、搭乗者としてのユーザは、例えば、ユーザ・インターフェースを介して、旅程の出発地および目的地を指定し得る。知覚およびプランニング・システム110は旅程関連データを取得する。例えば、知覚およびプランニング・システム110は、サーバ103~104の一部であり得るMPOIサーバから、ロケーションおよびルート情報を取得し得る。ロケーション・サーバはロケーション・サービスを提供し、MPOIサーバはマップ・サービスおよびいくつかのロケーションのPOIを提供する。あるいは、そのようなロケーションおよびMPOI情報は、知覚およびプランニング・システム110の永続性ストレージ・デバイス内にローカルでキャッシュされてもよい。
自律車両101がルートに沿って移動している間、知覚およびプランニング・システム110はまた、交通情報システムまたはサーバ(TIS)からリアルタイム交通情報を取得し得る。なお、サーバ103~104は第三者エンティティによって動作させられてもよい。あるいは、サーバ103~104の機能は知覚およびプランニング・システム110と一体化されていてもよい。リアルタイム交通情報、MPOI情報およびロケーション情報、ならびにセンサ・システム115によって検出または感知されたリアルタイムのローカル環境データ(例えば、障害物、物体、近くの車両)に基づいて、知覚およびプランニング・システム110は、最適ルートを計画し、指定された目的地に安全にかつ効率的に到達するために計画されたルートに従って、例えば、制御システム111を介して車両101を走らせることができる。
サーバ103は、様々なクライアントのためにデータ解析サービスを実行するためのデータ解析システムであってもよい。一実施形態では、データ解析システム103はデータ・コレクタ121と機械学習エンジン122とを備えている。データ・コレクタ121は、自律車両でも人間のドライバーによって運転される通常の車両でも、様々な車両から運転統計123を収集する。運転統計123は、異なる時点において車両のセンサによって取得された、発行された運転コマンド(例えば、スロットル、制動、ステアリング・コマンド)および車両の応答(例えば、速度、加速、減速、方向)を示す情報を含む。運転統計123は、例えば、ルート(出発地および目的地を含む)、MPOI、道路条件、天候条件など、異なる時点における運転環境を記述する情報をさらに含んでいてもよい。
運転統計123に基づいて、機械学習エンジン122は、様々な目的で、ルール、アルゴリズム、および/または予測モデルのセット124を生成するか、またはトレーニングする。一実施形態では、アルゴリズム/モデル124は、障害物を検出するためのモデルと、これに限定されないが、ぼかし、JPEG圧縮、ビット圧縮、色深度低減などを含む様々な画像変換のためのアルゴリズムとを含んでいてもよい。障害物検出モデルは、深層畳み込みニューラル・ネットワーク・モデルなど、深層学習ニューラル・ネットワーク・モデルであってもよい。アルゴリズム/モデル124は、その後、リアルタイムで自律運転中に利用されるように、ADV上にアップロードされ得る。
図3Aおよび図3Bは、一実施形態に係る、自律車両とともに使用される知覚およびプランニング・システムの一例を示すブロック図である。システム300は、これに限定されないが、知覚およびプランニング・システム110、制御システム111、およびセンサ・システム115を備える、図1の自律車両101の一部として実装され得る。図3A~図3Bを参照すると、知覚およびプランニング・システム110は、これに限定されないが、ローカライゼーション・モジュール301、知覚モジュール302、予測モジュール303、決定モジュール304、プランニング・モジュール305、制御モジュール306、ルーティング・モジュール307、および敵対的サンプル・モジュール308を備えている。
モジュール301~308のいくつかまたは全ては、ソフトウェア、ハードウェア、またはこれらの組合せにおいて実装され得る。例えば、これらのモジュールは、永続性ストレージ・デバイス352内にインストールされ、メモリ351にロードされ、1つまたは複数のプロセッサ(図示せず)によって実行され得る。なお、これらのモジュールのいくつかまたは全ては、図2の車両制御システム111のいくつかまたは全てのモジュールに通信可能に接続され得るか、またはそれらのモジュールと一体化されてもよい。モジュール301~308のうちのいくつかは一体型モジュールとして一体化されてもよい。例えば、敵対的サンプル・モジュール308は一体型モジュールとして知覚モジュール302と一体化されてもよい。
ローカライゼーション・モジュール301は、(例えば、GPSユニット212を活用して)自律車両300の現在のロケーションを決定し、ユーザの旅程またはルートに関する任意のデータを管理する。(マップおよびルート・モジュールとも呼ばれる)ローカライゼーション・モジュール301は、ユーザの旅程またはルートに関する任意のデータを管理する。ユーザは、例えば、ユーザ・インターフェースを介して、ログインし、旅程の出発地および目的地を指定し得る。ローカライゼーション・モジュール301は、旅程関連データを取得するために、マップおよびルート情報311など、自律車両300の他の構成要素と通信する。例えば、ローカライゼーション・モジュール301は、ロケーション・サーバおよびMPOI(マップおよびPOI)サーバからロケーションおよびルート情報を取得し得る。ロケーション・サーバはロケーション・サービスを与え、MPOIサーバは、マップおよびルート情報311の一部としてキャッシュされ得る、マップ・サービスおよびいくつかのロケーションのPOIを提供する。自律車両300がルートに沿って移動している間、ローカライゼーション・モジュール301はまた、交通情報システムまたはサーバからリアルタイム交通情報を取得し得る。
センサ・システム115によって提供されたセンサ・データ、およびローカライゼーション・モジュール301によって取得されたローカライゼーション情報に基づいて、周囲環境の知覚が知覚モジュール302によって決定される。知覚情報は、通常のドライバーが、そのドライバーが運転している車両の周囲で知覚するであろうことを表し得る。知覚は、例えば、物体の形態の、車線構成、信号機信号、別の車両の相対位置、歩行者、建築物、横断歩道、または他の交通関係標識(例えば、停止標識、前方優先道路標識)などを含んでいてもよい。車線構成は、例えば、車線の形状(例えば、直線または湾曲)、車線の幅、道路にいくつの車線があるか、一方向車線か両方向車線か、合流車線か分割車線か、出車車線など、車線または複数の車線を記述する情報を含む。
知覚モジュール302は、自律車両の環境における物体および/または特徴を識別するために1または複数のカメラによって取得された画像を処理し、分析するためのコンピュータ視覚システムまたはコンピュータ視覚システムの機能を含み得る。物体は、交通信号、車道境界、他の車両、歩行者および/または障害物などを含むことができる。コンピュータ視覚システムは、物体認識アルゴリズム、ビデオ追跡、および他のコンピュータ視覚技法を使用し得る。いくつかの実施形態では、コンピュータ視覚システムは、環境をマッピングすること、物体を追跡すること、物体の速度を推定することなどが可能である。知覚モジュール302はまた、レーダーおよび/またはLIDARなど、他のセンサによって提供された他のセンサ・データに基づいて物体を検出することができる。
物体の各々について、予測モジュール303は、物体がそのような状況下でどのような挙動をするかを予測する。予測は、マップ/ルート情報311および交通ルール312のセットに鑑みて、その時点における運転環境を知覚する知覚データに基づいて実行される。例えば、物体が反対方向にある車両であり、現在の運転環境が交差点を含む場合、予測モジュール303は、車両が直進しそうなのか、または曲がりそうなのかを予測する。知覚データが、交差点に信号機がないことを示す場合、予測モジュール303は、車両が交差点に入る前に完全に停止しなければならないかもしれないことを予測し得る。知覚データが、車両が現在左折専用車線または右折専用車線にあることを示す場合、予測モジュール303は、それぞれ、車両が左折するまたは右折する可能性がより高いことを予測し得る。
各々の物体について、決定モジュール304は、どのように物体を処理するかに関する決定を行う。例えば、特定の物体(例えば、交差するルートにある別の車両)ならびに物体を記述するその物体のメタデータ(例えば、速度、方向、転向角)について、決定モジュール304は、どのように物体に遭遇するか(例えば、追い越し、道を譲る、停止、通過)を決定する。決定モジュール304は、永続性ストレージ・デバイス352中に記憶され得る交通ルールまたは運転ルール312など、ルールのセットに従ってそのような決定を行い得る。
ルーティング・モジュール307は、出発地点から目的地点までの1または複数のルートまたは経路を提供するように構成される。例えば、ユーザから受信された出発地から目的地までの所与の旅程について、ルーティング・モジュール307は、ルートおよびマップ情報311を取得し、目的地に到達するための出発地からの全ての可能なルートまたは経路を決定する。ルーティング・モジュール307は、ルーティング・モジュール307が決定した、目的地に到達するための出発地からのルートの各々について、地形図の形態の基準線を生成し得る。基準線とは、他の車両、障害物または交通条件など、他からの干渉がない理想的なルートまたは経路をいう。すなわち、道路上に他の車両、歩行者または障害物がない場合、ADVは基準線に正確にまたは厳密に従うべきである。地形図は、次いで、決定モジュール304および/またはプランニング・モジュール305に与えられる。決定モジュール304および/またはプランニング・モジュール305は、ローカライゼーション・モジュール301からの交通条件、知覚モジュール302によって知覚された運転環境、および予測モジュール303によって予測された交通条件など、他のモジュールによって提供された他のデータに鑑みて、最適なルートのうちの1つを選択し、変更するために、すべての可能なルートを検査する。ADVを制御するための実際の経路またはルートは、その時点における特定の運転環境に依存してルーティング・モジュール307によって提供された基準線に近くなり得るか、またはその基準線とは異なり得る。
知覚された物体の各々についての決定に基づいて、プランニング・モジュール305は、基礎としてルーティング・モジュール307によって与えられた基準線を使用して、自律車両のための経路またはルートならびに運転パラメータ(例えば、距離、速度、および/または転向角)を計画する。すなわち、所与の物体について、決定モジュール304は物体にどのように対処するかを決定し、一方、プランニング・モジュール305はその対処をどのように行うかを決定する。例えば、所与の物体について、決定モジュール304は、物体を通過することを決定し得、一方、プランニング・モジュール305は、物体の左側を通るのか、または右側を通るのかを決定し得る。車両300が次の移動サイクル(例えば、次のルート/経路セグメント)中にどのように移動するかを記述する情報を含む、プランニングおよび制御データがプランニング・モジュール305によって生成される。例えば、プランニングおよび制御データは、時速30マイル(mph)の速度で10メートル移動し、次いで、25mphの速度で右側車線に変更するように車両300に命令し得る。
プランニングおよび制御データに基づいて、制御モジュール306は、プランニングおよび制御データによって定義されたルートまたは経路に従って、車両制御システム111に適切なコマンドまたは信号を送ることによって、自律車両を制御し、運転する。プランニングおよび制御データは、経路またはルートに沿って異なる時点における適切な車両設定または運転パラメータ(例えば、スロットル、制動、ステアリング・コマンド)を使用してルートまたは経路の第1のポイントから第2のポイントまで車両を運転するために十分な情報を含む。
一実施形態では、プランニング段階は、例えば、100ミリ秒(ms)の時間間隔ごとなど、運転サイクルとも呼ばれるいくつかのプランニング・サイクル中に実行される。プランニング・サイクルまたは運転サイクルの各々について、1または複数の制御コマンドがプランニングおよび制御データに基づいて発行される。すなわち、100msごとに、プランニング・モジュール305は、例えば、ターゲット位置、およびADVがターゲット位置に到達するために必要とされる時間を含む、次のルート・セグメントまたは経路セグメントを計画する。あるいは、プランニング・モジュール305は、特定の速度、方向、および/または操舵角などをさらに指定し得る。一実施形態では、プランニング・モジュール305は、5秒など、次の事前決定された時間期間のためにルート・セグメントまたは経路セグメントを計画する。各プランニング・サイクルについて、プランニング・モジュール305は、前のサイクル中に計画されたターゲット位置に基づいて現在のサイクル(例えば、次の5秒)のためのターゲット位置を計画する。制御モジュール306は、次いで、現在のサイクルのプランニングおよび制御データに基づいて1または複数の制御コマンド(例えば、スロットル、ブレーキ、ステアリング制御コマンド)を生成する。
なお、決定モジュール304およびプランニング・モジュール305は一体型モジュールとして一体化されてもよい。決定モジュール304/プランニング・モジュール305は、自律車両のための運転経路を決定するためのナビゲーション・システムまたはナビゲーション・システムの機能を含んでいてもよい。例えば、ナビゲーション・システムは、概して、最終目的地に至る車道ベースの経路に沿って自律車両を進めながら、知覚された障害物を実質的に回避する経路に沿って自律車両の動きに影響を及ぼすために、一連の速度および方向進路を決定し得る。目的地は、ユーザ・インターフェース・システム113を介してユーザ入力に従って設定され得る。ナビゲーション・システムは、自律車両が動作中である間、運転経路を動的に更新し得る。ナビゲーション・システムは、自律車両のための運転経路を決定するように、GPSシステムからのデータおよび1または複数のマップを組み込むことができる。
図4は、一実施形態に係る、敵対的サンプル・モジュールの例を示すブロック図である。敵対的サンプル・モジュール308は、いくつかの画像サンプルまたは画像ストリーム(例えば、ビデオ・フィード)中の敵対的サンプルを識別することができる。図4を参照すると、一実施形態では、敵対的サンプル・モジュール308は、画像受信機モジュール401、画像変換モジュール403、物体検出モジュール405、類似性メトリック計算機407、および敵対的サンプル検出モジュール409などのモジュールを備えている。画像受信機モジュール401は、ADV101のセンサ・システム(例えば、カメラ、LIDAR、レーダーまたはこれらの組合せ)から1または複数の画像を受信することができる。画像変換モジュール403は、受信された画像に画像変換を適用して、変換された画像のセットを生成することができる。画像変換の例は、これに限定されないが、ぼかし、ビット低減、カラー低減、JPEG圧縮、様々な空間フィルタ処理などを含む。物体検出モジュール405は、(元の画像と変換された画像の両方について)画像中の物体を検出し、分類することができる。物体検出モジュール405は、物体分類のための関連付けられた信頼度スコアをもつ境界ボックスを用いてマーキングされた物体をもつ出力画像を生成することができる。一実施形態では、物体検出モジュール405は、深層ニューラル・ネットワーク・モデルなど、機械学習または人工知能モデルによって実装される。これらのモデルは、モデル・トレーニング中にデータの過剰適合または過小適合によって引き起こされた敵対的サンプル中の物体を検出しないことがある。類似性メトリック計算機407は、任意の2つの出力画像または物体検出出力について類似性メトリックを計算することができる。類似性メトリックは、2つの画像間の距離に基づいて類似度スコアを生成することができる。例えば、任意の2つの画像について、境界ボックス検出の回数における差分、境界ボックスの重複エリア、物体分類が重複する境界ボックスについて一致するかどうかなど、加重係数に基づいて、距離が計算され得る。敵対的サンプル検出モジュール409は、元の画像と画像の変換の各々との間の類似性メトリックが所定の閾値を超える場合、画像が敵対的サンプルであると決定することができる。敵対的サンプル検出モジュール409はまた、検出における時間的変動に基づいて、サンプルが実際に敵対的であることを確認することができる。
図5は、一実施形態に係る、敵対的サンプルを検出するためのワークフローを示すブロック図である。ワークフロー500は図1のシステム100によって実行され得る。特に、ワークフロー500は図3Bのモジュール308によって実行され得る。図4~図5を参照すると、一実施形態では、ワークフロー500は、入力画像(時間=t0、t1、…tN)501の時間シーケンスを、一度に1または複数の画像で受信する。別の実施形態では、ワークフロー500はビデオ・フィードを受信する。受信された各画像について、ワークフロー500は(画像変換モジュール403を使用して)画像に1または複数の画像変換(T1、T2、…TM)503を適用することができる。画像変換は、ぼかし、フィルタ処理、カラー低減、ビット低減、JPEG圧縮など、またはこれらの組合せを含む。例えば、image0は時刻=0、すなわち基準時刻における画像とする。image0は、JPEG圧縮、例えば、T1(image0)を適用され得る。元の画像およびその画像の変換、例えば、image0およびT1(image0)は、物体検出モジュール405を通され得る。物体検出モジュール405は、物体検出ML/AIモデルまたは画像認識モデルを使用して元の画像513および変換された画像515についての出力を生成する。ワークフロー500は、次いで、image0/T1(image0)ペアについての距離測定を計算するために(類似性メトリック計算機モジュール407を使用して)類似性メトリック計算507を適用する。1つの変換のみが示されているが、image0/T1(image0)、image0/T2(image0)、image0/T3(image0)…image0/TM(image0)など、類似性決定のための1つまたは複数のペアを生成するために複数の変換が適用され得る。
距離測定は、重み係数を有する式に基づいて計算され得る。例えば、元の画像(例えば、image0)および変換された画像(例えば、T1(image0))について、距離についての式(類似性メトリック)は、距離=w_1*(f_1)+w_2*(f_2)+…であり得、上式で、w_xは重みであり、f_xは、元の画像の出力と変換された画像の出力との間の特性における差分を表す係数である。差分係数は、これに限定されないが、物体検出アルゴリズムによって推論された境界ボックスの数についての比、重複する境界ボックスの数についての比、境界ボックスの各々についての一致する物体分類のパーセンテージ、境界ボックスについての信頼度スコアにおける差分、および元の画像と変換された画像との間の重複する境界ボックスについての重複するエリアのパーセンテージを含むことができる。
image0および1または複数の対応する変換画像の各々についての距離測定計算に基づいて、ワークフロー500は、画像image0が敵対的サンプル509であるかどうかを決定する。一実施形態では、差分測定値が第1の事前決定された閾値を超える場合、image0は敵対的である。ここで、敵対的サンプルとは、画像からの物体が物体検出モジュールによって検出されないようにする摂動を有するサンプルをいう。動機は、敵対的サンプルの検出が変換にわたって一貫しておらず、これらの非一貫性が変換された画像によって取得されるので、変換された画像は、この場合も物体が検出されることを可能にするであろうということである。
別の実施形態では、差分測定が2またはそれ以上の時間サンプルについて一貫性がないとき、敵対的画像は時間的変動511によって確認される。例えば、連続する時間フレーム(例えば、t=0およびt=1)間で取得デバイスによって取得された物体は、両方の時間フレーム中に存在すべきである。したがって、物体が1つのフレームから落ち、前のフレームのうちの1または複数が物体を取得している場合、その1つのフレームは敵対的サンプルとして確認され得る。決定は、距離測定における時間的変動についての連続する画像フレームのための距離測定を分析することによって計算され得る。例えば、現在の時間フレームと前の時間フレームとの間の距離測定における差分が第2の事前決定された閾値を超える場合、現在の時間フレームについての画像は敵対的サンプルとして確認される。別の実施形態では、時間的変動分析はML/AIモデルまたは任意の統計モデルによって実行され得る。
一実施形態では、画像フレームが敵対的サンプルとして検出された場合、ADVは、ADVのためのフェイルセーフ機構を有効化することができる。例えば、ADVのセンサ・システムは敵対的フレームなしで済ませることができ、例えば、敵対的サンプルが消滅するまで、1または複数のフレームが一時的に無視される。別の実施形態では、敵対的画像は、ADVの他のカメラ、赤外、LIDAR、レーダー、または他の画像化センサからの別の画像によって増強されるか、または代用される。一実施形態では、敵対的サンプルが検出され、および/または、確認される間、車両が自動運転モードにある場合、ADVは、フェイルセーフ・モードに入り、(ディスプレイ、音、またはハプティック・フィードバック振動などを介して)ADVの操舵を一時的に引き継ぐようにユーザに警告する。いくつかのフェイルセーフ機構のみについて説明したが、他の従来のフェイルセーフ機構を採用することができる。
図6~図7は、障害物検出のためのML/AIモデルが死角を有することを示している。図6は、一実施形態に係る、車両のための物体検出システムの出力を示すブロック図である。図7は、一実施形態に係る、摂動をもつ車両のための物体検出システムの出力を示すブロック図である。図6を参照すると、白いバンが、0.99の信頼度スコアを有する「車」として(境界ボックスを用いて)検出されている。図7は、摂動をもつ同じバンを示しているが、しかしながら、バンは障害物として検出されない。ここでは、両方のシナリオが、物体検出のために同じ物体検出アルゴリズム(例えば、同じML/AIモデル)を使用している。
図8は、一実施形態に係る方法を示す流れ図である。プロセス800は、ソフトウェア、ハードウェア、またはそれらの組合せを含み得る処理ロジックによって実行され得る。例えば、プロセス800は、図1の知覚およびプランニング・システム110または図3Bの敵対的サンプル・モジュール308によって実行され得る。図8を参照すると、ブロック801において、処理ロジックは、ADVの取得デバイスによって取得された第1の画像を受信する。ブロック802において、処理ロジックは、第1の画像に画像変換を適用して第2の画像を生成する。ブロック803において、処理ロジックは、第1の画像および第2の画像に物体検出モデルを適用して、第1の出力および第2の出力をそれぞれ生成する。ブロック808において、処理ロジックは、第1の出力と第2の出力との間の類似性メトリックを計算する。ブロック805において、処理ロジックは、第1の画像と前の画像との間の類似性メトリックの時間的変動が閾値を超える場合、第1の画像を敵対的サンプルとして検出する。
一実施形態では、第1の出力および第2の出力は、境界ボックスのリストと、境界ボックスのロケーションと、入力された画像についての境界ボックスのための各クラス・オブジェクトのアノテーションとを含む。一実施形態では、画像変換は、色深度低減、画像圧縮、またはぼかし変換を含む。一実施形態では、類似性メトリックは、2つの入力間の距離に基づいて計算される。
別の実施形態では、距離は、クラス予測における差分と、境界ボックスの数と、境界ボックスの重複領域とを含む。一実施形態では、処理ロジックは、さらに、敵対的サンプルが識別された場合、ADVのためのフェイルセーフ機構を有効化する。別の実施形態では、フェイルセーフ機構は、ADVが自動運転モードにある場合、敵対的サンプルを無視すること、またはADVのユーザに制御を伝達することとを含む。
なお、上記で図示し、説明したような構成要素のいくつかのまたは全ては、ソフトウェア、ハードウェア、またはこれらの組合せにおいて実装されてもよい。例えば、そのような構成要素は、永続性ストレージ・デバイス中にインストールされ、記憶されるソフトウェアとして実装されてもよく、そのソフトウェアは、本出願全体にわたって説明されるプロセスまたは動作を実行するためのプロセッサ(図示せず)によってメモリにロードされ、実行されてもよい。あるいは、そのような構成要素は、アプリケーションから、対応するドライバおよび/またはオペレーティング・システムを介してアクセスされ得る集積回路(例えば、特定用途向けICまたはASIC)、デジタル信号プロセッサ(DSP)、またはフィールド・プログラマブル・ゲート・アレイ(FPGA)など、専用のハードウェアにプログラムされるか、または埋め込まれる実行可能コードとして実装されてもよい。さらに、そのような構成要素は、1つまたは複数の特定の命令を介してソフトウェア構成要素によってアクセス可能な命令セットの一部としてプロセッサまたはプロセッサ・コア中の特定のハードウェア論理として実装されてもよい。
図9は、本発明の一実施形態とともに使用され得るデータ処理システムの例を示すブロック図である。例えば、システム1500は、上記で説明したように、例えば、ADV101など、上記で説明したプロセスまたは方法のいずれかを実行する上記で説明したデータ処理システム、または、例えばサーバ103など、上記で説明したサーバのいずれかを表し得る。
システム1500は多くの異なる構成要素を備えることができる。これらの構成要素は、集積回路(IC)、集積回路(IC)の部分、個別電子デバイス、またはコンピュータ・システムのマザーボードまたはアドイン・カードなど、回路板に適応される他のモジュールとして、またはコンピュータ・システムのシャーシ内に別段に組み込まれる構成要素として実装されてもよい。
なお、システム1500は、コンピュータ・システムの多くの構成要素の高レベルのビューを示すものである。しかしながら、追加の構成要素がいくつかの実装形態において存在してもよく、さらに、図示された構成要素の異なる構成が他の実装形態において行われてもよいことを理解されたい。システム1500は、デスクトップ、ラップトップ、タブレット、サーバ、モバイル・フォン、メディア・プレーヤ、パーソナル・デジタル・アシスタント(PDA)、スマートウォッチ、パーソナル・コミュニケータ、ゲーム・デバイス、ネットワーク・ルータまたはハブ、ワイヤレス・アクセス・ポイント(AP)またはリピータ、セットトップ・ボックス、またはそれらの組合せを表し得る。さらに、単一のマシンまたはシステムのみが示されているが、「マシン」または「システム」という用語は、本明細書で論じた方法のいずれか1つまたは複数を実行するための命令のセット(または複数のセット)を個々にまたは一緒に実行するマシンまたはシステムの任意の集合を含むようにも取られるものとする。
一実施形態では、システム1500は、バスまたは相互接続1510を介したプロセッサ1501、メモリ1503、およびデバイス1505~1508を備える。プロセッサ1501は、プロセッサ中に含まれる単一のプロセッサ・コアまたは複数のプロセッサ・コアをもつ単一のプロセッサまたは複数のプロセッサを表し得る。プロセッサ1501は、マイクロプロセッサ、中央処理ユニット(CPU)など、1つまたは複数の汎用プロセッサを表し得る。より詳細には、プロセッサ1501は、複合命令セット・コンピューティング(CISC)マイクロプロセッサ、縮小命令セット・コンピューティング(RISC)マイクロプロセッサ、超長命令語(VLIW)マイクロプロセッサ、または他の命令セットを実装するプロセッサ、または命令セットの組合せを実装するプロセッサであり得る。プロセッサ1501はまた、特定用途向け集積回路(ASIC)、セルラーまたはベースバンド・プロセッサ、フィールド・プログラマブル・ゲート・アレイ(FPGA)、デジタル信号プロセッサ(DSP)、ネットワーク・プロセッサ、グラフィックス・プロセッサ、ネットワーク・プロセッサ、通信プロセッサ、暗号プロセッサ、コプロセッサ、埋込みプロセッサ、または命令を処理することが可能な任意の他のタイプの論理など、1または複数の専用プロセッサであってもよい。
プロセッサ1501は、超低電圧プロセッサなど、低電力マルチコア・プロセッサ・ソケットであってもよく、システムの様々な構成要素との通信のための主要な処理ユニットおよび中央ハブとして働き得る。そのようなプロセッサはシステム・オン・チップ(SoC)として実装されてもよい。プロセッサ1501は、本明細書で論じた動作およびステップを実行するための命令を実行するように構成される。システム1500は、ディスプレイ・コントローラ、グラフィックス・プロセッサ、および/またはディスプレイ・デバイスを含み得る随意のグラフィックス・サブシステム1504と通信するグラフィックス・インターフェースをさらに備えてもよい。
プロセッサ1501は、一実施形態では、所与の量のシステム・メモリを与えるための複数のメモリ・デバイスを介して実装され得るメモリ1503と通信してもよい。メモリ1503は、ランダム・アクセス・メモリ(RAM)、ダイナミックRAM(DRAM)、同期DRAM(SDRAM)、スタティックRAM(SRAM)、または他のタイプのストレージ・デバイスなど、1または複数の揮発性ストレージ(またはメモリ)デバイスを含んでいてもよい。メモリ1503は、プロセッサ1501、または任意の他のデバイスによって実行される命令のシーケンスを含む情報を記憶してもよい。例えば、様々なオペレーティング・システムの実行可能コードおよび/またはデータ、デバイス・ドライバ、ファームウェア(例えば、入出力基本システムまたはBIOS)、および/またはアプリケーションは、プロセッサ1501によってメモリ1503にロードされ、実行されてもよい。オペレーティング・システムは、例えば、マイクロソフト(登録商標)製のWindows(登録商標)オペレーティング・システム、アップル製のMac OS(登録商標)/iOS(登録商標)、Google(登録商標)製のAndroid(登録商標)、Linux(登録商標)、Unix(登録商標)、またはVxWorksなど、他のリアルタイムまたは埋込みオペレーティング・システムなど、任意の種類のオペレーティング・システムであってもよい。
システム1500は、ネットワーク・インターフェース・デバイス1505、随意の入力デバイス1506、および他の随意のIOデバイス1507を備える、デバイス1505~1508など、IOデバイスをさらに備えていてもよい。ネットワーク・インターフェース・デバイス1505はワイヤレス・トランシーバおよび/またはネットワーク・インターフェース・カード(NIC)を含み得る。ワイヤレス・トランシーバは、WiFiトランシーバ、赤外線トランシーバ、Bluetoothトランシーバ、WiMaxトランシーバ、ワイヤレス・セルラー・テレフォニー・トランシーバ、衛星トランシーバ(例えば、全地球測位システム(GPS)トランシーバ)、または他の無線周波数(RF)トランシーバ、またはそれらの組合せであり得る。NICはイーサネット・カードであってもよい。
入力デバイス1506は、マウス、タッチパッド、(ディスプレイ・デバイス1504と一体化され得る)タッチ・センシティブ・スクリーン、スタイラスなどのポインタ・デバイス、および/またはキーボード(例えば、物理キーボード、またはタッチ・センシティブ・スクリーンの一部として表示される仮想キーボード)を備えていてもよい。例えば、入力デバイス1506は、タッチ・スクリーンに接続されたタッチ・スクリーン・コントローラを含んでいてもよい。タッチ・スクリーンおよびタッチ・スクリーン・コントローラは、限定はしないが、容量性、抵抗性、赤外、および表面弾性波技術、ならびに他の近接センサ・アレイ、またはタッチ・スクリーンとの1つまたは複数の接触点を決定するための他の要素を含む、いくつかのタッチ・センシティブ技術のいずれかを使用して、例えば、接触および動きまたはそれらの中断を検出することができる。
IOデバイス1507はオーディオ・デバイスを備えていてもよい。オーディオ・デバイスは、音声認識、音声複製、デジタル・レコーディング、および/またはテレフォニー機能など、音声対応機能を可能にするためのスピーカーおよび/またはマイクロフォンを含んでいてもよい。他のIOデバイス1507は、ユニバーサル・シリアル・バス(USB)ポート、パラレル・ポート、シリアル・ポート、プリンタ、ネットワーク・インターフェース、バス・ブリッジ(例えば、PCI-PCIブリッジ)、センサ(例えば、加速度計、ジャイロスコープなどの動きセンサ、磁力計、光センサ、コンパス、近接センサなど)、またはそれらの組合せをさらに備えていてもよい。デバイス1507は、写真およびビデオ・クリップを記録するなど、カメラ機能を可能にするために利用される、電荷結合素子(CCD)または相補型金属酸化物半導体(CMOS)光センサなど、光センサを含み得る画像化処理サブシステム(例えば、カメラ)をさらに備えていてもよい。いくつかのセンサは、センサ・ハブ(図示せず)を介して相互接続1510に接続され得るが、キーボードまたは熱センサなど、他のデバイスは、システム1500の固有の構成または設計に依存する埋込みコントローラ(図示せず)によって制御されてもよい。
データ、アプリケーション、1つまたは複数のオペレーティング・システムなど、情報の永続性記憶を可能にするために、大容量ストレージ(図示せず)もプロセッサ1501に接続してもよい。様々な実施形態では、より薄く、より軽いシステム設計を可能にするために、ならびにシステム反応性を改善するために、この大容量ストレージはソリッド・ステート・デバイス(SSD)によって実装されてもよい。しかしながら、他の実施形態では、システム・アクティビティの再開時に高速電源投入が行われ得るように、電源切断イベント中にコンテキスト状態および他のそのような情報の不揮発性記憶を可能にするために、大容量ストレージは、主に、SSDキャッシュとして働くためのより小さい量のSSDストレージをもつハード・ディスク・ドライブ(HDD)を使用して実装されてもよい。また、フラッシュ・デバイスは、例えば、シリアル・ペリフェラル・インターフェース(SPI)を介してプロセッサ1501に接続されてもよい。このフラッシュ・デバイスは、基本入出力ソフトウェア(BIOS)ならびにシステムの他のファームウェアを含むシステム・ソフトウェアの不揮発性記憶を可能にし得る。
ストレージ・デバイス1508は、(マシン可読記憶媒体またはコンピュータ可読媒体としても知られる)コンピュータアクセス可能記憶媒体1509を備えてもよく、コンピュータアクセス可能記憶媒体1509上に、本明細書で説明した方法または機能のいずれか1つまたは複数を具現化する命令またはソフトウェアの1つまたは複数のセット(例えば、モジュール、ユニット、および/または論理1528)が記憶される。処理モジュール/ユニット/論理1528は、例えば、図1の知覚およびプランニング・システム110または図3Bの敵対的サンプル・モジュール308など、上記で説明した構成要素のいずれかを表し得る。処理モジュール/ユニット/論理1528はまた、データ処理システム1500による処理モジュール/ユニット/論理1528の実行中、メモリ1503内および/またはプロセッサ1501内に完全にまたは少なくとも部分的に常駐してもよく、メモリ1503およびプロセッサ1501はまた、マシンアクセス可能記憶媒体を構成する。処理モジュール/ユニット/論理1528は、さらに、ネットワーク・インターフェース・デバイス1505を介してネットワーク上で送信または受信されてもよい。
コンピュータ可読記憶媒体1509はまた、上記で説明したいくつかのソフトウェア機能を記憶するために永続的に使用されてもよい。コンピュータ可読記憶媒体1509は、例示的な実施形態では、単一の媒体として示されているが、「コンピュータ可読記憶媒体」という用語は、命令の1つまたは複数のセットを記憶する単一の媒体または複数の媒体(例えば、集中または分散データベース、および/または関連付けられたキャッシュおよびサーバ)を含むように取られるべきである。「コンピュータ可読記憶媒体」という用語はまた、マシンによる実行のための命令のセットを記憶することまたは符号化することが可能であり、本発明の方法のいずれか1つまたは複数をマシンに実行させる、任意の媒体を含むように取られるものとする。「コンピュータ可読記憶媒体」という用語は、したがって、限定はしないが、ソリッドステート・メモリ、および光および磁気媒体、または任意の他の非一時的マシン可読媒体を含むように取られるものとする。
本明細書で説明する処理モジュール/ユニット/論理1528、構成要素および他の特徴は、個別ハードウェア構成要素として実装されるか、またはASIC、FPGA、DSPまたは同様のデバイスなど、ハードウェア構成要素の機能に一体化されてもよい。加えて、処理モジュール/ユニット/論理1528は、ハードウェア・デバイス内でファームウェアまたは機能回路として実装されてもよい。さらに、処理モジュール/ユニット/論理1528は、任意の組合せハードウェア・デバイスおよびソフトウェア構成要素中に実装されてもよい。
システム1500はデータ処理システムの様々な構成要素を用いて示されているが、システム1500は、構成要素を相互接続する任意の特定のアーキテクチャまたは様式を表すものではなく、したがって、詳細は本発明の実施形態に密接な関係がないことに留意されたい。また、より少ない構成要素、または場合によってはより多い構成要素を有するネットワーク・コンピュータ、ハンドヘルド・コンピュータ、モバイル・フォン、サーバ、および/または他のデータ処理システムも本発明の実施形態とともに使用され得ることが諒解されよう。
コンピュータ・メモリ内のデータ・ビットに対する動作のアルゴリズムおよび記号表現に関して、上記の詳細な説明のいくつかの部分を提示した。これらのアルゴリズムの説明および表現は、データ処理分野における当業者によって、それらの当業者の作業の要旨を最も効果的に他の当業者に伝達するために使用される方法である。アルゴリズムは、ここでは、一般に、所望の結果につながる動作の自己矛盾のないシーケンスとして想到される。動作は、物理量の物理的操作を必要とする動作である。
しかしながら、すべてのこれらの用語および同様の用語は適切な物理量に関連するものであり、これらの量に付される便宜上のラベルに過ぎないことに留意されたい。上記の説明から明らかなように、別段に明記されていない限り、説明全体にわたって、以下の特許請求の範囲に記載された用語などの用語を利用する議論は、コンピュータ・システムのレジスタおよびメモリ内で物理(電子)量として表されるデータを操作し、コンピュータ・システム・メモリまたはレジスタまたは他のそのような情報ストレージ、送信またはディスプレイ・デバイス内で物理量として同様に表される他のデータに変換する、コンピュータ・システムまたは同様の電子計算デバイスのアクションおよびプロセスを指すことを諒解されたい。
図中に示された技法は、1つまたは複数の電子デバイス上で記憶され、実行されるコードおよびデータを使用して実装され得る。そのような電子デバイスは、非一時的コンピュータ可読記憶媒体(例えば、磁気ディスク、光ディスク、ランダム・アクセス・メモリ、読取り専用メモリ、フラッシュ・メモリ・デバイス、相変化メモリ)および一時的コンピュータ可読伝送媒体(例えば、電気、光、音響、または搬送波、赤外線信号、デジタル信号など、他の形態の伝搬される信号)など、コンピュータ可読媒体を使用して、コードおよびデータを記憶し、(内部でおよび/またはネットワークを介して他の電子デバイスと)通信する。
上記の図に示されたプロセスまたは方法は、ハードウェア(例えば回路、専用論理など)、(例えば、非一時的コンピュータ可読媒体上で具現化される)ファームウェア、ソフトウェア、または両方の組合せを備える処理ロジックによって実行され得る。プロセスまたは方法について、いくつかの逐次動作に関して上記で説明したが、説明した動作のうちのいくつかは異なる順序で実行され得ることを諒解されたい。その上、いくつかの動作は連続的にではなく並行して実行され得る。
上記の明細書では、本発明の実施形態について、本発明の特定の例示的な実施形態を参照しながら説明した。以下の特許請求の範囲に記載されているように、本発明のより広い趣旨および範囲から逸脱することなく本発明の実施形態に様々な変更が行われ得ることが明らかになろう。明細書および図面は、したがって、限定的な意味ではなく、例示的な意味であると見なされるべきである。

Claims (21)

  1. コンピュータが、自律運転車両(ADV)の取得デバイスによって取得された第1の画像を受信することと、
    コンピュータが、画像変換を実行して前記第1の画像を第2の画像に変換することと、
    コンピュータが、前記第1の画像および前記第2の画像に物体検出モデルを適用して、第1の出力および第2の出力をそれぞれ生成することと、
    コンピュータが、前記第1の出力と前記第2の出力との間の類似性メトリックを計算することと、
    コンピュータが、前記第1の出力と前記第2の出力との間の前記類似性メトリックの時間的変動が所定の閾値を超える場合に、前記第1の画像を敵対的サンプルとして検出することと、
    を含み、
    前記敵対的サンプルとは、サンプルからの物体が検出されないようにする摂動を有するサンプルであるコンピュータ実装方法。
  2. 前記第1の出力および前記第2の出力の各々が、境界ボックスのリストと、該境界ボックスのロケーションと、前記物体検出モデルに入力された画像についての前記境界ボックスのための各クラス・オブジェクトのアノテーションと、を含む請求項1に記載の方法。
  3. 前記画像変換が、色深度低減、画像圧縮またはぼかし変換を含む請求項1に記載の方法。
  4. 前記類似性メトリックが、前記物体検出モデルからの複数の出力間の距離に基づいて計算される請求項1に記載の方法。
  5. 前記距離が、クラス予測における差分と、境界ボックスの数と、該境界ボックスの重複領域と、を含む請求項4に記載の方法。
  6. 敵対的サンプルが検出された場合に、コンピュータが、前記ADVのためのフェイルセーフ機構を有効化することを含む請求項1に記載の方法。
  7. 前記フェイルセーフ機構は、前記ADVが自動運転モードの場合に、前記敵対的サンプルを無視すること、または、前記ADVのユーザに制御を伝達することを含む請求項6に記載の方法。
  8. プロセッサによって実行されたとき、該プロセッサに動作を実行させる命令を記憶した非一時的マシン可読媒体であって、前記動作が、
    自律運転車両(ADV)の取得デバイスによって取得された第1の画像を受信することと、
    画像変換を実行して前記第1の画像を第2の画像に変換することと、
    前記第1の画像および前記第2の画像に物体検出モデルを適用して、第1の出力および第2の出力をそれぞれ生成することと、
    前記第1の出力と前記第2の出力との間の類似性メトリックを計算することと、
    前記第1の出力と前記第2の出力との間の前記類似性メトリックの時間的変動が所定の閾値を超える場合に、前記第1の画像を敵対的サンプルとして検出することと、
    を含み、
    前記敵対的サンプルとは、サンプルからの物体が検出されないようにする摂動を有するサンプルである非一時的マシン可読媒体。
  9. 前記第1の出力および前記第2の出力の各々が、境界ボックスのリストと、該境界ボックスのロケーションと、前記物体検出モデルに入力された画像についての前記境界ボックスのための各クラス・オブジェクトのアノテーションと、を含む請求項8に記載の非一時的マシン可読媒体。
  10. 前記画像変換が、色深度低減、画像圧縮またはぼかし変換を含む請求項8に記載の非一時的マシン可読媒体。
  11. 前記類似性メトリックが、前記物体検出モデルからの複数の出力間の距離に基づいて計算される請求項8に記載の非一時的マシン可読媒体。
  12. 前記距離が、クラス予測における差分と、境界ボックスの数と、該境界ボックスの重複領域と、を含む請求項11に記載の非一時的マシン可読媒体。
  13. 前記動作は、敵対的サンプルが識別された場合に、前記ADVのためのフェイルセーフ機構を有効化することを含む請求項8に記載の非一時的マシン可読媒体。
  14. 前記フェイルセーフ機構は、前記ADVが自動運転モードの場合に、前記敵対的サンプルを無視すること、または、前記ADVのユーザに制御を伝達することを含む請求項13に記載の非一時的マシン可読媒体。
  15. プロセッサと、
    該プロセッサによって実行されたとき、前記プロセッサに動作を実行させる命令を記憶するために前記プロセッサに接続されたメモリと、
    を備えるデータ処理システムであって、前記動作が、
    自律運転車両(ADV)の取得デバイスによって取得された第1の画像を受信することと、
    画像変換を実行して前記第1の画像を第2の画像に変換することと
    前記第1の画像および前記第2の画像に物体検出モデルを適用して、それぞれ、第1の出力および第2の出力を生成することと、
    前記第1の出力と前記第2の出力との間の類似性メトリックを計算することと、
    前記第1の出力と前記第2の出力との間の前記類似性メトリックの時間的変動が所定の閾値を超える場合に、前記第1の画像を敵対的サンプルとして検出することと、
    を含み、
    前記敵対的サンプルとは、サンプルからの物体が検出されないようにする摂動を有するサンプルであるデータ処理システム。
  16. 前記第1の出力および前記第2の出力の各々が、境界ボックスのリストと、該境界ボックスのロケーションと、前記物体検出モデルに入力された画像についての前記境界ボックスのための各クラス・オブジェクトのアノテーションと、を含む請求項15に記載のシステム。
  17. 前記画像変換が、色深度低減、画像圧縮またはぼかし変換を含む請求項15に記載のシステム。
  18. 前記類似性メトリックが、前記物体検出モデルからの複数の出力間の距離に基づいて計算される請求項15に記載のシステム。
  19. 前記距離が、クラス予測における差分と、境界ボックスの数と、該境界ボックスの重複領域と、を含む請求項18に記載のシステム。
  20. 前記動作は、敵対的サンプルが識別された場合に、前記ADVのためのフェイルセーフ機構を有効化することを含む請求項15に記載のシステム。
  21. 前記フェイルセーフ機構は、前記ADVが自動運転モードの場合に、前記敵対的サンプルを無視することと、または、前記ADVのユーザに制御を伝達することを含む請求項20に記載のシステム。
JP2020100094A 2019-06-13 2020-06-09 視覚ベース知覚システムによる敵対的サンプルの検出 Active JP7046119B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/440,973 2019-06-13
US16/440,973 US10990855B2 (en) 2019-06-13 2019-06-13 Detecting adversarial samples by a vision based perception system

Publications (2)

Publication Number Publication Date
JP2020200033A JP2020200033A (ja) 2020-12-17
JP7046119B2 true JP7046119B2 (ja) 2022-04-01

Family

ID=70056979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020100094A Active JP7046119B2 (ja) 2019-06-13 2020-06-09 視覚ベース知覚システムによる敵対的サンプルの検出

Country Status (5)

Country Link
US (1) US10990855B2 (ja)
EP (1) EP3751453A1 (ja)
JP (1) JP7046119B2 (ja)
KR (1) KR102398256B1 (ja)
CN (1) CN112084830A (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018212049A1 (de) * 2018-07-19 2020-01-23 Conti Temic Microelectronic Gmbh Verfahren zur dreidimensionalen bildlichen Rekonstruktion eines Fahrzeugs
US11403853B2 (en) * 2019-08-30 2022-08-02 Waymo Llc Occupancy prediction neural networks
US20220114259A1 (en) * 2020-10-13 2022-04-14 International Business Machines Corporation Adversarial interpolation backdoor detection
WO2022092831A1 (ko) 2020-10-30 2022-05-05 주식회사 엘지에너지솔루션 리튬 이차전지용 전해액 및 이를 포함하는 리튬 이차전지
US11776163B1 (en) 2020-12-30 2023-10-03 Waymo Llc Systems, methods, and apparatus for correcting desaturation of images with transformed color values by appling a matrix
WO2022222143A1 (zh) * 2021-04-23 2022-10-27 中国科学院深圳先进技术研究院 人工智能系统的安全性检测方法、装置及终端设备
EP4328813A1 (en) * 2021-05-28 2024-02-28 Nippon Telegraph And Telephone Corporation Detection device, detection method, and detection program
JP7453944B2 (ja) 2021-08-17 2024-03-21 Kddi株式会社 検知装置、検知方法及び検知プログラム
JPWO2023223440A1 (ja) * 2022-05-17 2023-11-23
CN115526055B (zh) * 2022-09-30 2024-02-13 北京瑞莱智慧科技有限公司 模型鲁棒性检测方法、相关装置及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013203335A (ja) 2012-03-29 2013-10-07 Denso It Laboratory Inc 対象認識装置
JP2018063680A (ja) 2016-10-14 2018-04-19 国立大学法人金沢大学 交通信号認識方法および交通信号認識装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5903454A (en) * 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
JP4822099B2 (ja) * 2005-07-11 2011-11-24 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置及びナビゲーション方法
US8350724B2 (en) * 2009-04-02 2013-01-08 GM Global Technology Operations LLC Rear parking assist on full rear-window head-up display
US20130046466A1 (en) * 2011-08-18 2013-02-21 Sermet Yücel Selecting a Route to Optimize Fuel Efficiency for a Given Vehicle and a Given Driver
US11074495B2 (en) * 2013-02-28 2021-07-27 Z Advanced Computing, Inc. (Zac) System and method for extremely efficient image and pattern recognition and artificial intelligence platform
AT514730A2 (de) * 2013-08-20 2015-03-15 Fts Computertechnik Gmbh Verfahren zur Erkennung von Fehlern für zumindest ein Bildverarbeitungssystem
US9165477B2 (en) * 2013-12-06 2015-10-20 Vehicle Data Science Corporation Systems and methods for building road models, driver models, and vehicle models and making predictions therefrom
WO2015160900A1 (en) * 2014-04-15 2015-10-22 Maris, Ltd Assessing asynchronous authenticated data sources for use in driver risk management
US9630318B2 (en) * 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
CN107207010B (zh) * 2015-03-31 2019-10-18 日立汽车系统株式会社 自动驾驶控制装置
US9711050B2 (en) * 2015-06-05 2017-07-18 Bao Tran Smart vehicle
JP6610669B2 (ja) * 2015-08-27 2019-11-27 日本電気株式会社 渋滞予防システム、渋滞予防方法、及び、プログラム
CN112051855A (zh) * 2016-01-05 2020-12-08 御眼视觉技术有限公司 用于主车辆的导航系统、自主车辆及导航自主车辆的方法
US10532268B2 (en) * 2016-05-02 2020-01-14 Bao Tran Smart device
US11102495B2 (en) * 2016-05-17 2021-08-24 Qualcomm Incorporated Methods and systems for generating and processing content color volume messages for video
US10139823B2 (en) * 2016-09-13 2018-11-27 Toyota Motor Engineering & Manufacturing North America, Inc. Method and device for producing vehicle operational data based on deep learning techniques
EP3309721A1 (en) * 2016-09-23 2018-04-18 KPIT Technologies Ltd. Autonomous system validation
IT201600109633A1 (it) * 2016-10-31 2018-05-01 Magneti Marelli Spa Procedimento e sistema di controllo adattivo in un veicolo terrestre per l'inseguimento di un percorso, particolarmente in uno scenario di guida autonoma.
US10031521B1 (en) * 2017-01-16 2018-07-24 Nio Usa, Inc. Method and system for using weather information in operation of autonomous vehicles
US10636141B2 (en) * 2017-02-09 2020-04-28 Siemens Healthcare Gmbh Adversarial and dual inverse deep learning networks for medical image analysis
US10671076B1 (en) * 2017-03-01 2020-06-02 Zoox, Inc. Trajectory prediction of third-party objects using temporal logic and tree search
US10311312B2 (en) * 2017-08-31 2019-06-04 TuSimple System and method for vehicle occlusion detection
CN107133601B (zh) * 2017-05-13 2021-03-23 五邑大学 一种基于生成式对抗网络图像超分辨率技术的行人再识别方法
US10839291B2 (en) * 2017-07-01 2020-11-17 Intel Corporation Hardened deep neural networks through training from adversarial misclassified data
DE102017218889A1 (de) * 2017-10-23 2019-04-25 Robert Bosch Gmbh Unscharf parametriertes KI-Modul sowie Verfahren zum Betreiben
US11250329B2 (en) * 2017-10-26 2022-02-15 Nvidia Corporation Progressive modification of generative adversarial neural networks
KR102015076B1 (ko) * 2017-11-13 2019-08-27 주식회사 소네트 일상 주행 데이터를 이용한 자율 주행 알고리즘 개발 장치 및 그 방법
US10768628B2 (en) * 2017-12-12 2020-09-08 Uatc, Llc Systems and methods for object detection at various ranges using multiple range imagery
US10657391B2 (en) * 2018-01-05 2020-05-19 Uatc, Llc Systems and methods for image-based free space detection
KR102127741B1 (ko) * 2018-03-20 2020-07-01 모빌아이 비젼 테크놀로지스 엘티디. 차량의 항법을 위한 시스템 및 방법
CN109190379B (zh) * 2018-08-03 2020-05-19 清华大学 一种深度学习系统的漏洞检测方法和装置
CN109492582B (zh) * 2018-11-09 2022-02-11 杭州安恒信息技术股份有限公司 一种基于算法对抗性攻击的图像识别攻击方法
CN109543760B (zh) * 2018-11-28 2021-10-19 上海交通大学 基于图像滤镜算法的对抗样本检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013203335A (ja) 2012-03-29 2013-10-07 Denso It Laboratory Inc 対象認識装置
JP2018063680A (ja) 2016-10-14 2018-04-19 国立大学法人金沢大学 交通信号認識方法および交通信号認識装置

Also Published As

Publication number Publication date
JP2020200033A (ja) 2020-12-17
US10990855B2 (en) 2021-04-27
EP3751453A1 (en) 2020-12-16
KR20200143242A (ko) 2020-12-23
CN112084830A (zh) 2020-12-15
KR102398256B1 (ko) 2022-05-13
US20200394472A1 (en) 2020-12-17

Similar Documents

Publication Publication Date Title
JP7046119B2 (ja) 視覚ベース知覚システムによる敵対的サンプルの検出
JP7050025B2 (ja) 自動運転車両のための計画運転感知システム
US10457294B1 (en) Neural network based safety monitoring system for autonomous vehicles
KR102042123B1 (ko) 자율 주행 차량을 위한 속력 제어 파라미터 추정 방법
KR102020163B1 (ko) 자율 주행 차량의 조향률의 동적 조정
KR102048646B1 (ko) 자율 주행 차량 이동을 시뮬레이트하기 위한 물리 모델 및 머신 러닝과 결합된 방법
KR101975728B1 (ko) 자율 주행 차량을 위한 사이드슬립 보상 제어 방법
CN110389580B (zh) 用于规划自动驾驶车辆的路径的漂移校正的方法
JP7108583B2 (ja) 自動運転車両のための曲率補正経路サンプリングシステム
CN111380534B (zh) 用于自动驾驶车辆的基于st图学习的方法
JP2019182399A (ja) 自動運転に用いられる感知と計画のコラボレーションフレームワーク
CN108733046B (zh) 用于自动驾驶车辆的轨迹重新规划的系统和方法
CN110621541B (zh) 用于生成轨迹以操作自动驾驶车辆的方法和系统
CN111176268A (zh) 用于自动驾驶车辆的模仿人类驾驶行为的两步参考线平滑方法
JP7116065B2 (ja) 自律走行車に用いられるトンネルに基づく計画システム
JP2020523552A (ja) 自動運転車両の経路計画のための運転シナリオに基づく車線ガイドライン
CN111824139A (zh) 用于预测与自动驾驶车辆相关的运动对象的运动的方法
CN111615476B (zh) 用于自动驾驶车辆的基于螺旋曲线的竖直停车规划系统
JP7001708B2 (ja) 自動運転車の高速計画のための多項式フィッティングベースの基準線平滑化方法
CN111856923B (zh) 加速对复杂驾驶场景的规划的参数学习的神经网络方法
JP2019137391A (ja) 自動運転車両のための自己位置推定方法、システム及び機械可読媒体
CN111328385A (zh) 用于自动驾驶车辆的基于螺旋路径的三点转弯规划
CN111103876A (zh) 自动驾驶车辆的基于雷达通信的扩展感知
CN111683851B (zh) 用于自动驾驶的自反向车道的相互避开算法
CN111649751B (zh) 一种用于参考线平滑的超自由缝合方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220322

R150 Certificate of patent or registration of utility model

Ref document number: 7046119

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150