JP2019008796A - 自律可能車両用衝突回避システム - Google Patents

自律可能車両用衝突回避システム Download PDF

Info

Publication number
JP2019008796A
JP2019008796A JP2018116988A JP2018116988A JP2019008796A JP 2019008796 A JP2019008796 A JP 2019008796A JP 2018116988 A JP2018116988 A JP 2018116988A JP 2018116988 A JP2018116988 A JP 2018116988A JP 2019008796 A JP2019008796 A JP 2019008796A
Authority
JP
Japan
Prior art keywords
vehicle
image frame
collision avoidance
autonomous vehicle
travelable space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018116988A
Other languages
English (en)
Other versions
JP2019008796A5 (ja
Inventor
グレイ アンドリュー
Gray Andrew
グレイ アンドリュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Uber Technologies Inc
Original Assignee
Uber Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Uber Technologies Inc filed Critical Uber Technologies Inc
Publication of JP2019008796A publication Critical patent/JP2019008796A/ja
Publication of JP2019008796A5 publication Critical patent/JP2019008796A5/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0077Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements using redundant signals or controls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • B60W2050/0088Adaptive recalibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/14Cruise control

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mathematical Physics (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】差し迫った衝突を回避するように車両を制御できる、信頼性が高く、独立した衝突回避システムを提供する。【解決手段】自律可能車両10に使用される衝突回避システム100は、捕捉された道路の画像フレーム106を連続的に受信して、車両10の前方方向の運転可能な空間を決定することができる。システム100は、各々の画像フレーム106について、画像フレーム106の個々の領域が走行可能空間を表しているか否かを決定することができる。システムは106、広範囲の訓練データを使用して生成された、畳み込みニューラルネットワーク等の機械学習画像認識アルゴリズムを使用して、これを行うことができる。かかる技術を使用して、システムは、走行可能空間又は非走行可能空間に対応しているとして、画像フレームの領域にラベル付けすることができる。【選択図】図1

Description

本開示は、自律可能車両用の衝突回避システムに関するものである。
自律車両とは、人間の運転者をセンサーやコンピュータに実装した知能や、センサー、その他の自動化技術に置換した車両を意味する。既存の技術において、自律車両は、高速道路等の道路上において、別の車両との走行を容易に処理することができる。しかし、特定の環境及び気象条件が、特定のセンサー及び自律走行システムの性能に悪影響を及ぼす可能性があり、自律車両に対し課題が突き付けられる可能性がある。
本明細書に記載のように、自律可能車両(略して「車両」)は、自律、半自律、又はマニュアルモードで動作することができる。自律又は半自律動作モードにおいて、車両の制御システムは、人間のオペレータ入力なしで、又は限定された入力で車両を操作することができる。例えば、制御システムは、スロットルを作動させて車両を加速させたり、車両を操縦したり、車両のブレーキを作動させたり、車両の補助機能を作動(例えば、ハザードライトを作動)させたりすることができる。これ等の動作モードにおいて、制御システムは、センサーアレイからセンサー出力を受信し、車両を操作するための車両制御信号を生成する。センサーアレイは、光検出・測距(LIDAR)センサー、1つ以上のカメラ、レーダーセンサー、ソナーセンサー等を含むことができる。センサーアレイのセンサーによって、制御システムが道路上の障害物、車両、歩行者、サイクリスト等を検出することができる。制御システムは、センサーアレイからのセンサー出力に基づいて、例えば、車両を操縦及び減速して、車両の衝突を回避することができる。
しかし、制御システムは、複数のセンサーからのセンサー出力に基づいて、制御信号を生成するため、個々のセンサーによって伝達される、相反する情報に起因する誤りの影響を受け易い。例えば、センサーアレイのカメラが、道路上のサイクリストを検出することができるが、LIDARセンサーが、そのサイクリストを検出することが困難な場合があり得る。カメラ及びLIDARセンサーからの出力に応答して、制御システムは、道路上にサイクリストが存在していないと誤って判定することがあり得る。加えて、特定のセンサーは、特定の条件下において、一貫性のない出力又は信頼できない出力を有する可能性がある。例えば、LIDARセンサーは、悪天候(例えば、雨、雪)下において、不正確になる、又は一貫性がなくなる可能性がある。更に、制御システムそのものが、ハードウェア又はソフトウェア障害によって機能停止する可能性がある。従って、差し迫った衝突を回避するように車両を制御できる、信頼性が高く、独立した衝突回避システムが必要とされている。
本明細書の実施例は、衝突回避システムを備えた自律可能車両を提供するものであって、衝突回避システムは、自律可能車両の他のシステム(例えば、自律車両の動作を制御する車両制御システム)と独立して動作することができるシステムである。衝突回避システムは、車両の前方に向いた1つ以上のカメラによって捕捉された画像フレームの分析に基づいて、ブレーキを作動させることができる。特に、衝突回避システムは、画像フレームを分析して、車両の前方方向における走行可能空間領域を特定してラベル付けすることができる。走行可能空間として特定されなかった画像フレームの領域は、車両が衝突してはいけない非走行可能空間として処理することができる。加えて、画像フレームを分析することによって、衝突回避システムは、非走行可能空間領域の各々から車両までの距離を算出することができる。このようにして、衝突回避システムは、車両の速度及び軌道に基づいて、車両が特定された非走行可能空間領域に衝突する尤度を決定することができる。この決定に基づいて、他の車両システム(例えば、自律動作のための車両制御システム)又は車両のオペレータ入力(例えば、ブレーキペダル入力)とは無関係に、衝突回避システムは、衝突を回避又は衝突の影響を最小限に抑制するために、衝突回避信号を生成することができる。衝突回避信号によって、車両は1つ以上のブレーキ、操縦、及び/又はスロットル調整等を行い、衝突を回避又は衝突の影響を最小限に抑制することができる。
本明細書において、「走行可能空間」という用語は、車両が他の物体に衝突することなく安全に移動できる路面(例えば、舗装路面)を意味することができる。本明細書において、「非走行可能空間」という用語は、車両が安全に移動することができない領域を意味することができる。非走行可能空間には、歩道、縁石、他の車両、歩行者、サイクリスト、壁、道路の中央分離帯、瓦礫等が含まれる。特定の実施例において、非舗装路面が、衝突回避システムによって、非走行可能空間領域として特定され得る。
実施形態によれば、衝突回避システムは、画像フレームを分析し、走行可能空間を表しているとして、画像フレームの適切な画素にラベル付けすることによって、車両の前方方向において、走行可能空間領域を決定することができる。衝突回避システムは、走行可能空間を示す画像の領域(例えば、画素又は画素群)を特定するように訓練された機械学習モデルを使用して、これを行うことができる。一部の実施例において、衝突回避システムは、画像フレームの各々の画素が走行可能空間を表す、対応確率を決定することができる。この確率(例えば、確率が閾値を上回っている又は下回っている)に基づいて、衝突回避システムは、当該画素を走行可能空間としてラベル付けすることができる。ラベル付けされていない画像フレームの領域を特定又は非走行可能空間として処理することができる。衝突回避システムは、非走行可能空間の各々の領域に関連する車両の距離及び方向も決定することができる。
実施形態によれば、訓練データを使用して、機械学習モデルを生成することができる。訓練データは、訓練画像フレームを含むことができる。訓練画像フレームは、車載カメラと同様のカメラによって捕捉することができる。各々の訓練画像フレームの画素に対し、走行可能空間及び/又は非走行可能空間を表しているとして、ラベル付けすることができる。訓練画像フレームのラベル付けは、人間のオペレータの支援の下で、アルゴリズム的に行い、誤り訂正又は分析結果の矛盾を解消することができる。訓練データを使用して、機械学習モデルを生成することができる。画像フレームに表されている走行可能空間を特定する機械学習モデルの精度を向上させるためには、車両が直面し得る種々の道路状況を示す多数の訓練画像フレームを有することが望ましい。
1つ以上のコンピュータによって、機械学習モデルを生成することができ、生成した機械学習モデルに対応するデータを車両に送信することができる。一部の実施例において、車両は無線ネットワーク接続(例えば、セルラー、Wi−Fi等)を介して、データを受信することができる。これに加えて又は代えて、車両は、記憶装置(例えば、フラッシュメモリドライブ、SDカード等)を使用して、又は物理的接続(例えば、USB、有線接続等)を介して、データを受信することができる。車両は記憶装置(例えば、フラッシュメモリ)を備えることによって、機械学習モデルに対応するデータを記憶することができる。記憶装置に記憶したデータは、定期的に更新することができる。このように、更新訓練データを用いて機械学習モデルを更新することによって、衝突回避システムの性能を徐々に向上させることができる。
一部の実施例において、機械学習モデルは、畳み込みニューラルネットワーク(CNN)とすることができる。CNNは、複数のパーセプトロン(例えば、人工ニューロン)を含むことができる。パーセプトロンは層状に配置することができる。CNNには、パーセプトロンの入力層、中間層、及び出力層があり得る。衝突回避システムは、画像フレームに対応するデータをCNNに入力して画像フレームを分析し、その中の走行可能空間を特定することができる。特定の実施形態において、CNNは、特定の画素について、その特定の画素が、走行可能空間を表している尤度を出力することができる。別の実施例において、CNNは、特定の画素について、その特定の画素が、走行可能空間であるか否かを示す2進値を出力することができる。
本明細書に記載の実施例において、衝突回避システムは、車両の速度、軌道、及び加速度に基づいて、非走行可能空間(例えば、障害物、縁石、歩行者等)の領域に衝突する可能性があるか否かを判定することができる。車両の速度、軌道、及び加速度は、車両のシステム(例えば、車両制御システム)又は衝突回避システムによって決定することができる。車両が非走行可能空間領域に衝突する可能性があると判定した場合、衝突回避システムは、車両が非走行可能空間領域に衝突するのを回避させる、衝突回避信号を生成することができる。衝突回避信号はブレーキを作動させることができる。衝突回避システムは、これを、車両制御システム及び/又はオペレータ入力とは独立して行うことができる。換言すれば、衝突回避システムによって生成された衝突回避信号は、車両制御システムの制御出力及び/又はオペレータ入力をオーバーライドして、例えば、車両のブレーキを作動させることができる。
一部の実施例によれば、衝突回避システムは、車両が非走行可能空間領域に衝突する可能性があると判定したとき、車両の他の態様を制御する衝突回避制御信号を生成することができる。例えば、衝突回避システムは、車両の軌道を変更する操縦出力を生成して、非走行可能空間領域に衝突するのを回避することもできる。加えて、衝突回避システムは、スロットル出力及び補助出力(例えば、車両のハザードランプをオンにする)を生成することができる。
特定の実施形態において、衝突回避システムの出力は、制御システムによって生成された車両制御信号をオーバーライドすることができる。例えば、制御システムは、車両を加速するように、車両のスロットルを上げる制御信号を生成することができる。車両が非走行可能空間に衝突する可能性があるという判定に応答して、衝突回避システムは、制御信号をオーバーライド(例えば、スロットルの作動を停止)し、車両のブレーキを作動させる、衝突回避信号を生成することができる。このように、衝突回避システムは、制御システムとは独立して(及び/又は人間のオペレータ入力とは独立して)車両を制御して衝突を回避することができる。
本明細書は、少なくとも操縦、推進力、及び制動が自動化された状態で動作する任意の車両を意味する、自律車両又は自律可能車両に関連した多くの実施例を記載している。自律動作状態で動作している場合、実施例によって、車両制御システムが唯一の車両「運転者」であるように、車両が人又はマニュアル動作入力(アクセル又はブレーキ入力、ハンドル入力)を無視することができる。様々な実施例において説明するように、車両が自律動作状態にあるとき、車両の動作状態を切り替えるための入力、又は安全措置(例えば、緊急ブレーキ)を講じるための入力等、車両が指定された人間の入力に応答することができる場合を除き、車両は人間又はマニュアル動作入力を無視することができる。様々な実施例で説明するように、車両の動作状態を遷移させることができる指定された人間の入力は、車両の動作に使用されないインターフェース(例えば、機械的アクチュエータ)で検出することができる。従って、人間の運転者が自律車両の状態を切り替えることを可能にするインターフェースは、ハンドル、アクセル(例えば、「ガスペダル」)、ブレーキ、又は変速機等の機構とは分離することができる。
本明細書に記載の1つ以上の態様は、コンピューティング装置によって実行される方法、技法、及び措置は、プログラム的に又はコンピュータに実装された方法として実行される。プログラム的とは、コード又はコンピュータ実行可能命令の使用を介することを意味する。プログラム的に実行されるステップは、自動であってもなくてもよい。
本明細書に記載の1つ以上の態様は、プログラムモジュール又はコンポーネントを使用して実行することができる。プログラムモジュール又はコンポーネントは、1つ以上の指定タスク又は機能を実行することができるプログラム、サブルーチン、プログラムの一部、ソフトウェアコンポーネント、又はハードウェアコンポーネントを含むことができる。加えて、モジュール又はコンポーネントは、別のモジュール又はコンポーネントとは独立して、ハードウェアコンポーネント上に存在することができる。あるいは、モジュール又はコンポーネントは、他のモジュール、プログラム、又はマシンの共有要素又はプロセスであってよい。
更に、本明細書に記載の1つ以上の態様は、1つ以上のプロセッサによって実行可能な命令の使用を介して実行することができる。これ等の命令は、コンピュータ可読媒体に担持することができる。以下の図に示す又は説明するマシンは、処理資源及び一部の態様を実行するための命令を担持及び/又は実行するコンピュータ可読媒体の例を示す。特に、一部の実施例に示す多くのマシンは、プロセッサと、データ及び命令を保持する様々な形態のメモリとを備えている。コンピュータ可読媒体の例には、パーソナルコンピュータ又はサーバーのハードドライブ等、固定メモリ記憶媒体が含まれる。コンピュータ記憶媒体の別の例には、CD又はDVDユニット、フラッシュ又は固体メモリ(多くの携帯電話や民生用電子機器に搭載されている)、及び磁気メモリ等の携帯記憶ユニットが含まれる。コンピュータ、端末、ネットワーク対応デバイス(例えば、携帯電話等のモバイルデバイス)が、プロセッサ、メモリ、及びコンピュータ可読媒体に記憶された命令を利用するマシン及びデバイスの例である。加えて、態様はコンピュータプログラムの形態で実装することができる。
本明細書の開示は、同様の要素には同様の参照番号が付してある添付図面に、限定ではなく例として、示してある。
本明細書に記載の実施例による、自律可能車両の一部としての例示的な衝突回避システムを示すブロック図。 本明細書に記載の実施例よる、衝突回避システムの実施形態を含む、例示的な自律可能車両を示す図。 本明細書に記載の実施例による、訓練画像フレーム及び他の訓練データを受信し処理する、例示的な訓練データ処理システムを示すブロック図。 本明細書に記載の実施例による、自律可能車両における例示的な衝突回避システムを動作させる、例示的な方法を説明するフローチャート。 本明細書に記載の実施例による、例示的な訓練データ処理システムを動作させる、例示的な方法を説明するフローチャート。 本明細書に記載の実施例による、衝突回避システムによって受信され、処理される例示的な画像フレームを示す図。 本明細書に記載の実施例を実装することができる、コンピュータシステムを示すブロック図。
システムの説明
図1は本明細書に記載の実施例による、自律可能車両の一部としての例示的な衝突回避システムを示すブロック図である。記載の実施例において、自律的に動作することができる車両は、その機能がなければ車両の操作を行うであろう人間の動作を必要とせずに動作することができる。例えば、自動車の文脈において、自律的に駆動する車両は、操縦、加速、シフト、ブレーキ、及び照明要素を動作させることができる。一部の変形例において、自律可能車両は、自律又はマニュアルのいずれかで操作できることも認識する。
図1の実施例において、自律可能車両10は、車両10を自律、半自律、又はマニュアル動作モードで動作させる制御システムを備えている。加えて、車両10は、車両10の制御システムとは独立して動作する、衝突回避シスシステム100を備えている。特に、実施例は、車両10を制御する一次制御信号を受信する、車両インターフェースシステム90を含むように車両10を提供する。車両10は、例えば、マニュアルモード、半自律モード、及び自律モードを含む、複数の動作モードを有することもできる。マニュアル及び半自律動作モードにおいて、車両インターフェースシステム90は、人間のオペレータ入力83を、車両10を動作させる一次制御信号として受信することができる。車両10の自律及び半自律動作モードにおいて、車両インターフェースシステム90は、AV制御システム180が出力するコマンド入力85を受信して、車両10を動作させることができる。実施例は、車両の1つ以上の動作モードにおいて、衝突回避システム100が、一次制御信号(オペレータ入力83、コマンド入力85等)をオーバーライドするように動作して、車両10のスロットル、制動、操縦、及び補助機能を独立して制御し、障害物、歩行者、縁石、他の車両等に衝突するのを回避することを実現する。衝突回避システム100は、車両10の周囲の空間及び環境を連続的に監視することができ、走行可能空間(例えば、上に何の物体も存在しない舗装道路)の領域を、非走行可能空間(例えば、別の車両、柵、縁石等)の領域から区別することができる。速度、軌道、加速、及び一次制御信号に基づいて、衝突回避システム100は、衝突回避システム100が干渉することなく、車両10が非走行可能空間として決定された領域に衝突する可能性があるか否かを判定することができる。この判定に応じ、衝突回避システム100が介入し、一次制御信号をオーバーライドし、車両10のスロットル、操縦、制動、及び補助機能を独立して制御し、衝突を回避することができる。
車両10は、LIDARセンサー135、レーダーセンサー140、ソナー(SONAR)センサー145、及びカメラ150等、複数種類のセンサーを有するセンサーアレイ130を備えることができる。センサーアレイ130のセンサーを組み合わせて、車両10を囲む空間及び環境の電子化された知覚を与えることができる。特に、カメラ150は、複数のカメラセンサーセット(例えば、ビデオカメラ、立体カメラ対、奥行き知覚カメラ、赤外線カメラ、広角カメラ等)を含み、車両10を囲む環境を監視することができる。加えて、LIDAR135、レーダー140、及びSONAR145は、車両10の周囲の物体、及び車両10までの物体のそれぞれの距離を検出することができる。センサーアレイ130からの出力である、センサーデータ131は、センサーインターフェース170によって受信される。センサーインターフェース170は、センサーアレイ130の各々のセンサーに対し、個別のインターフェース装置を備えることができる。例えば、センサーインターフェース170は、LIDARセンサー135に対し、LIDARインターフェース装置、及びカメラ150に対し、カメラインターフェース装置をそれぞれ備えることができる。センサーインターフェース170は、受信したセンサーデータ131を処理するハードウェア及び/又は他の論理コンポーネントを有することができる。例えば、LIDARセンサー135からLIDARデータを受信する、LIDARインターフェース装置は、受信したLIDARデータを、AV制御システム180が使用できるフォーマットに変換するための論理及び処理資源(例えば、フィールドプログラマブルゲートアレイ(「FPGA」)、)デジタル信号プロセッサ(「DSP」)等)を有することができる。別の例として、カメラ150からカメラデータ(例えば、生の画像データ)を受信する、カメラインターフェース装置は、データをAV制御システム180が使用するフォーマット(例えば、JPEG又は他の圧縮若しくは非圧縮データフォーマット)に変換することができる。特定の実施形態において、センサーインターフェース170は、センサーデータの品質を向上させるための処理を行うことができる。例えば、カメラインターフェース装置は、生の画像データのノイズ低減、露出調整、ガンマ補正、色調整、フォーカス調整、及びその他の処理を行うことができる。処理済みのセンサーデータは、センサーデータ171として出力することができる。
1つの実施形態によれば、車両インターフェースシステム90は、スロットルインターフェース92、操縦インターフェース94、ブレーキインターフェース96、補助インターフェース98を含む、複数の車両インターフェースを備えるか、又は制御することができる。車両インターフェースの各々は、車両10の対応するサブシステムを制御する。例えば、スロットルインターフェース92は、車両10のエンジンのスロットルを制御して、車両10を加速させることができる。操縦インターフェース94は、車両10のステアリングコラムを制御して、車両10を操縦することができる。ブレーキインターフェース96は、車両10の1つ以上のブレーキを制御して、車両10減速させる。補助インターフェース98は、ハザードランプの操作等、車両10の1つ以上の補助機能を制御する。車両インターフェースシステム90は、車両10が正常に動作している間、車両インターフェースを制御する一次制御信号(例えば、オペレータ入力83、コマンド入力85等)を受信するコントローラ84も備えることができる。コントローラ84は、受信した一次制御信号に基づいて、様々な車両インターフェース92〜98を制御することができる。
特定の実施形態において、人間のオペレータが、車両インターフェースシステム90によって受信される一次制御信号を生成する、マニュアル動作モードで車両10を動作させることができる。マニュアルモードにおいて、車両インターフェースシステム90は、人間のオペレータ入力83を受信して、様々な車両サブシステムインターフェース92、94、96、98を制御する制御信号119を生成する。例えば、車両インターフェースシステム90のコントローラ84は、車内のアクセルペダルからスロットル入力を受信することができる。同様に、コントローラ84は、ハンドルから操縦入力、及びブレーキペダルからブレーキ入力をそれぞれ受信することができる。一部の実施例において、車両インターフェースによって、人間のオペレータ入力83を直接受信することができる。例えば、スロットルインターフェース92は、オペレータスロットル入力を直接受信することができ、ブレーキインターフェース96は、オペレータブレーキ入力を直接受信することができる。
一部の実施例において、車両10は自律動作モード及び/又は半自律動作モードでも動作させることができる。これ等の動作モードにおいて、AV制御システム180は、車両を動作させる一次制御信号として、車両インターフェースシステム90によって受信されるコマンド入力を生成することができる。AV制御システム180は、受信した処理済みセンサーデータ171に基づいて、コマンド入力85を生成することができる。コマンド入力85は、ルート情報87、及び車両10の動作状態(例えば、所望の速度、加速等)を指定する、1つ以上の動作パラメータ89を含むことができる。コントローラ84は、コマンド入力85に基づいて、1つ以上の車両インターフェース92、94、96、98に対する制御信号119を生成して、スロットル、操縦、制動、及び補助車両機能を制御する。
1つの実施形態において、AV制御システム180は、半自律動作モードにおいて、車両10の一部のサブシステムを制御することができる。例えば、AV制御システム180は、車両10のスロットルサブシステム91、及びブレーキサブシステム95を制御するコマンド入力85を生成することができる。ステアリングサブシステム93は、車両インターフェースシステム90に対する、車両10の人間のオペレータからのオペレータ入力83によって制御することができる。別の実施形態において、AV制御システム180は、半自律動作モードにおいて、車両10のすべての動作を制御することができるが、人間のオペレータが、車両10の進行を監視していて、必要があれば、AV制御システム180からのコマンド入力をオーバーライドすることを示す、オペレータ入力を定期的に必要とし得る。
実施形態によれば、車両10は、AV制御システム180及び/又は車両10の人間のオペレータから独立して動作する、衝突回避システム100を備えることができる。衝突回避システム100は、車両10が、その経路上の物体に衝突するのを回避するために、AV制御システム180によって生成されたコマンド入力85をオーバーライドすることができる。衝突回避システム100は、車両10の人間のオペレータからのオペレータ入力83もオーバーライドすることができる。
一部の実施形態において、衝突回避システム100は、AV制御システム180と別のハードウェア及びソフトウェアに実装することができる。換言すれば、衝突回避システム100は、衝突回避システム100専用のソフトウェア命令を実行する、1つ以上の専用の処理資源(例えば、CPU、GPU、DSP、FPGA、ASIC等)に実装することができる。ソフトウェア命令も、衝突回避システム100専用のメモリに記憶することができる。このようにして、突回避システム100は機能的であり、AV制御システム180にハードウェア又はソフトウェア障害が発生したとき、安全の冗長性を提供することができる。別の実施形態において、衝突回避システム100は、AV制御システム180と共通のハードウェアに実装することができる。例えば、衝突回避システム100及びAV制御システム180は、センサー、処理資源、記憶資源等を共有することができる。このようにして、衝突回避システム100を車両10に実装するのに伴う、複雑さ及びコストを低減することができる。これ等の実施形態において、車両10の処理資源は、衝突回避システム100の機能に対応する命令を、AV制御システム180に対応する命令に優先して実行することができ、衝突回避システム100が、AV制御システム180によって生成された制御入力83を、確実にオーバーライドすることができる。
特定の実施形態において、カメラ150及びカメラ155は(例えば、毎秒30画像フレーム、毎秒60画像フレーム、毎秒120画像フレーム等)連続的に画像データを生成する、ビデオカメラ及び/又は立体カメラセットであってよい。カメラ150及びカメラ155は、車両10の前方方向の画像フレームを捕捉するように配置することができる。
実施例によれば、衝突回避システム100は、センサーアレイ130のカメラから画像フレーム151を受信するカメラインターフェース105を有することができる。カメラインターフェース105は、追加のカメラ155からの画像フレーム156も受信することができる。追加のカメラ155は、衝突回避システム100専用の1つ以上のカメラ又はカメラセットであってよい。カメラ155は、広角で前方に向いたカメラを含むことができる。カメラ155から画像フレーム156を受信することによって、センサーアレイ130のカメラ150(又はセンサアレイ130自体)が故障した場合でも、衝突回避システム100は、車両10が車両の経路上の物体に衝突するのを回避するように動作することができる。更に、衝突回避システム100の視野を向上させる(例えば、死角の減少、画角の増大等)ために、カメラ155を、カメラ150と比較して、異なる位置(例えば、車両10のフロントバンパー上)に配置することができる。一部の実施形態において、センサーアレイ130のカメラ150は、衝突回避システム100に対し、十分な信頼性及び視野を提供することができる。これ等の実施形態において、追加のカメラ155は必要ないと考えられ、センサーアレイ130の既存のカメラ150を組み合わせて使用することによって、衝突回避システム100を実装するためのコストを低減することができる。
一部の実施例によれば、カメラ150及び155から画像フレーム151及び156を受信及び/又は処理するカメラインターフェース105は、フィールドプログラマブルゲートアレイ(「FPGA」)又はデジタル信号プロセッサ(「DSP」)が備えているような画像処理資源を有することができる。例えば、カメラインターフェース105の画像処理資源は、画像フレーム151と156とを結合する画像処理操作を行うことができる。衝突回避システム100は、結合された画像フレームの画像分析を行って、安全制御出力を生成することができる。別法として、画像フレーム151及び156上で個別の画像分析を行って、個別の画像分析結果を照合して安全制御出力を生成することができる。加えて、カメラインターフェース105の画像処理資源は、生の画像フレーム151及び156を処理する画像処理操作を行って、例えば、生の画像フレーム151及び156の露出、コントラスト、カラーパレットを調整することができる。画像処理資源は、生の画像フレーム151及び156のフィルター処理、ノイズ低減、及びトリムング又はシフトを実施することもできる。画像処理を行って画質を向上させ、衝突回避システム100が、カメラ150及び155によって捕捉された画像フレームの走行可能空間を特定する際における、画像分析性能及び精度を向上させることができる。カメラインターフェース105は処理済み画像フレーム106を出力することができる。
1つの実施形態において、カメラインターフェース105の画像処理資源は、処理済み画像フレーム106が、衝突回避システム100が使用する、機械学習モデルの生成に使用される訓練データの画像フレームにより類似するように、画像フレーム151及び156の特定の特性を補正することができる。例えば、訓練データの画像フレームは、カラーパレット、色相、露出、及びコントラストに関し、特定の特性を示し得る。カメラインターフェース105の画像処理資源は、処理済み画像フレーム106が、訓練データの画像フレームと比較して、特性が類似するように画像処理操作を実行することができる。特に、カメラインターフェース105の画像処理資源は、色相又はカラーフィルターを適用して、処理済み画像フレーム106を生成し、例えば、カメラ150及び155、及び/又は車両環境の照明条件に起因する影響を最小限に抑制することができる。例えば、カメラインターフェース105の画像処理資源は、特定の画像フレーム151又は156のコントラスト(例えば、平均値又は中央値)が、訓練データの画像フレームのコントラストより高いと判定し得る。これに応じ、カメラインターフェース105の画像処理資源は、画像フレーム106のコントラストが、訓練データの画像フレームの平均又は中央コントラスト値に近づくように、コントラストを下げて処理済み画像フレーム106を生成することができる。このようにして、衝突回避システム100による、処理済み画像フレーム106内の走行可能空間の特定に関する精度及び一貫性を向上させることができる。
実施形態によれば、衝突回避システム100は、カメラインターフェース105から処理済み画像フレーム106を受信して分析する、画像分析110を含むことができる。様々な態様において、画像分析110は、処理済み画像フレーム106を分析し、走行可能空間を表しているとして、処理済み画像フレーム106の適切な画素にラベル付けすることによって、処理済み画像フレーム106に表されている走行可能空間を特定することができる。例えば、車両10が走行している舗装道路に対応する画素は、画像分析110によって、走行可能空間としてラベル付けすることができる。これに反し、処理済み画像フレーム106に捕捉された歩行者に対応する画素は、画像分析110によって、走行可能空間とはラベル付けされないであろう。一部の実施形態において、画像フレーム106に捕捉された歩行者、他の車両、物体、又は障害物は、画像分析110によって、非走行可能空間としてラベル付けされるであろう。
一部の実施例において、画像分析110は、機械学習モデル112を使用して、処理済み画像フレーム106を分析することができる。機械学習モデル112は、訓練データに基づいて生成され、通信インターフェース(図示せず)を介して車両10によって受信される。通信インターフェースは、無線接続(例えば、セルラーリンク、Wi−Fiリンク等)又は物理的相互接続(例えば、USB接続)を介して、機械学習モデル112に対応するデータを受信することができる。機械学習モデル112に対応するデータは、車両10の衝突回避システム100にアクセス可能な1つ以上の記憶装置に記憶することができる。モデル112は、更新された訓練データに基づいて、定期的に更新し、車両10によって受信することができる。このようにして、追加の訓練データが収集されるにつれ、画像分析110及び衝突回避システム100の性能を徐々に向上させることができる。
様々な態様において、訓練データは、訓練画像フレームを含むことができる。訓練画像フレームは、実際の道路状況を表すことができ、カメラ150及び155と同様のカメラによって捕捉された画像であってよい。例えば、車両群に搭載されたカメラは、車両が現実の状況下で動作するとき、トレーニング画像フレームを捕捉することができる。訓練画像フレームを分析して、訓練画像フレームの走行可能空間を特定することができる。例えば、走行可能空間を表しているとして、訓練画像フレームの適切な画素にラベル付けすることができる。訓練画像フレームの分析は、人間の指導、補正、及び/又は品質検査を受けて、プログラム的に実行することができる。場合により、訓練データは、センサーデータを含むことができる。例えば、各々の訓練画像フレームを、LIDARセンサーデータのセットに関連付けることができる。LIDARセンサーデータのセットは、関連付けられた訓練画像フレームが捕捉されたときに測定された、LIDAR測定結果を示すことができる。LIDARデータは訓練画像の分析を支援することができる。例えば、LIDAR測定結果を使用して、走行可能空間してラベル付けすべきではない、訓練画像フレームに表されている物体を特定することができる。
実施形態によれば、モデル112は、訓練データを使用して生成された畳み込みニューラルネットワーク(CNN)であってよい。CNNモデル112は、複数の層を含むことができ、各々の層は複数の人工ニューロンを含むことができる。CNNモデル112を使用して、画像分析110は、処理済み画像フレーム106の領域が、走行可能空間を表しているか否かを判定することができる。一部の実施例において、画像分析110は、処理済み画像フレーム106の特定の領域が、走行可能空間を表している尤度(例えば、信頼スコア)を決定することができる。加えて、画像分析110の実施形態に応じ、解像度又は詳細度のレベルが異なる分析を行うことができる。一部の実施形態において、画像分析110は、処理済み画像フレーム106を分析して、処理済み画像フレーム106の個々の画素に対し、走行可能空間を表している尤度を決定することができる。別の実施形態において、画像分析110は、より低い解像度又は詳細度で分析を行い、画素の群(例えば、10画素が連続する群)の走行可能空間を表している尤度を決定することができる。
画像分析110は、処理済み画像フレーム106に表されている走行可能空間を特定するラベル111を生成することができる。一部の実施形態において、ラベル111は、画像分析110によって、マトリクスデータ構造として出力することができる。ラベル111のマトリクスデータ構造における各々の値は、対応する処理済み画像フレーム106の画素(又は画素群)のラベルに対応することができる。例えば、3840×2160画素の解像度を有する処理済み画像フレーム106に対し、画像分析110によって決定された対応するラベル111が、各々が処理済み画像フレーム106の対応する画素について決定された走行可能空間のラベルを示す、3840×2160のデータ値を有するマトリックスデータ構造であり得る。一部の実施形態において、処理済み画像フレーム106及び対応するラベル111を1つのデータ構造(例えば、多次元配列又はマトリックス)として記憶することができる。
衝突回避システム100は、処理済み画像フレーム106のラベル付けにおいて、補正を行う補正ユニット115を有することができる。その際、補正ユニット115は、処理済み画像フレーム106、及び画像分析110によって決定された、対応するラベル111の両方を受信することができる。1つの実施形態において、補正ユニット115は、複数の処理済み画像フレーム106、及びそれに関連付けられたラベルを精査し、処理済み画像フレーム106の外れ値ラベルを除去することができる。例えば、1つの特定の処理済み画像フレーム106は、走行可能空間としてラベル付けされた別の領域に囲まれた、走行可能空間とラベル付けされていない小領域(例えば、1つの画素、小画素群)を有し得る。かかる場合、補正ユニット115は、画像分析110によって、走行可能空間とラベル付けされていない(又は非走行可能空間としてラベル付けされた)小領域を外れ値と判定することができ、衝突回避システム100はこれを無視することができる。かかる外れ値は、画像分析110によって検出された、処理済み画像フレーム106に表されている道路上の小さい(脅威ではない)物体から生じ得る。もう1つの例として、補正ユニット115は、ほぼ同時に捕捉された、複数の処理済み画像フレーム106に対して生成されたラベル111を比較して、衝突回避システム100が無視することができる外れ値を特定することができる。外れ値及び他のラベル付け誤りを除去する際、補正ユニット115は、補正済みラベル116を生成することができる。
実施形態によれば、衝突回避システム100は、車両10が関与する前方方向の衝突が起きる寸前であるか否かを判定する、衝突分析120を含むことができる。衝突分析120は、この判定を、AV制御データ86及び車両データ88を含む、車両10の現在の軌道、速度、及び制御に関する情報、処理済み画像フレーム106、及び/又は補正済みラベル116に基づいて、行うことができる。処理済み画像フレーム106及び/又は補正済みラベル116に基づいて、衝突分析120は、処理済み画像フレーム106の非走行可能空間の各々の領域の空間パラメータを決定することができる。空間パラメータは、車両10に対する相対位置、車両10からの距離、(移動物体の)移動速度、及び(移動物体の)移動方向を含むことができる。衝突が起きる寸前であるという判定に応じ、衝突分析120は、コントローラ125に対し、衝突パラメータを生成することができる。コントローラは、車両10の様々なサブシステムを制御する衝突回避制御124を生成して、非走行可能空間との衝突を回避するか、かかる衝突の影響を最小限に抑制することができる。衝突回避制御124は、スロットル制御126、操縦制御127、ブレーキ制御128、及び補助制御129を含むことができる。
自律可能車両の説明
図2は、本明細書に記載の実施例による、衝突回避システムの実施形態を含む、例示的な自律可能車両を示す図である。以下の図2の説明において、図1に関して説明した機能及び例を参照することができる。例えば、図2に示す車両200は、図1の車両10であってよい。加えて、図2の衝突回避システム250は、図1に示し、同図に関して説明した衝突回避システム100であってよい。
図2に示す実施例において、車両200は、半自律及び/又は完全自律動作モードで車両の動作を制御することができる自律車両(AV)制御システム210を備えている。これ等の動作モードにおいて、AV制御システム210は、車両上のセンサーからセンサー出力を受信して、車両の動作の1つ以上の態様を制御する制御信号を生成する。AV制御システム210は、処理資源211と記憶資源との組み合わせを用いて実現することができ、1つ以上の汎用CPU、専用GPU、及びメモリ要素を有することができる。処理資源211は、集中型、分散型、及び/又は特定の資源に専用の資源を含むことができる。動作において、AV制御システム210の処理資源211は、通常の動作の一部として、モデル、意思決定アルゴリズム、ルーティング及び軌道決定、外部との通信、及び様々な他のプロセスを実行することができる。
車両上のセンサーは、車両の上部に配置されたセンサーアレイ215を含むことができる。センサーアレイ215は、LIDAR測定結果を生成するLIDARセンサー216、及び画像フレームを捕捉する1つ以上のカメラ217を含むことができる。1つ以上のカメラ217は、共同して車両200周囲の360°の視点を示す画像フレームを生成することができる。1つ以上のカメラ217は、立体カメラ対、ビデオカメラ、赤外線カメラ、及び/又は他の特殊な画像捕捉装置を含むことができる。センサーアレイ215は、レーダー、超音波測距センサー等、他の測距センサー又は検出センサーを更に含むことができる。加えて、レーダー、超音波センサー、ソナー、又は他の種類の検出器等の周辺センサーを、車両200の周囲の適切な位置(例えば、フロントバンパー、バンパーの角、側面フェンダー、ミラー、リアバンパー等)に配置して、センサーアレイ215の死角をカバーすることができる。例えば、複数のレーダーセンサー218を車両の外周に分散させることができる。前方に向いたカメラ220も、車両のフロントバンパーに配置することができる。他のカメラは、車両の外部又はフロントガラス内部に配置することができる。
車両200は、車両制御サブシステムと呼ばれる、操作機構(又は装置)202、204、206、208を備えることができる。車両制御サブシステムは、スロットル制御サブシステム202、ステアリング制御サブシステム204、制動制御サブシステム206、及び補助制御サブシステム208を含むことができる。サブシステムは、車両200の制御インターフェース(例えば、図1のインターフェース92、94、96、及び98)によって制御することができる。図示の操作機能は単に例示であって、車両200のこれより多い又は少ない操作機能を、本明細書に記載の実施例の変形に使用することができる。図2の実施例において、操作面は、車両200の個々の制御システムによって指令又は制御することができる、インターフェースによって示されている。
一部の実施例によれば、処理資源211は、1つ以上のプロセッサ、及び/又は車両が自律又は半自律動作する際、図2において制御212として示す、連続的に生成され、車両200の個々の車両制御サブシステム202、204、206、208に伝達される制御パラメータを供給するプログラム及びハードウェアインタフェースを含むことができる。従って、例えば、制御212は、処理資源211(及びAV制御システム210)から、それぞれの車両制御インターフェース202、204、206、208に伝達することができる。処理資源211は、車両に対する1つ以上の軌道を決定した後、制御212を介して軌道を実行に移すことができる。軌道は、所与の今後の間隔に関し、1つ以上の可能な軌道を定義することができる。例えば、軌道は、車両の1つ以上の主要な軌道、及び/又はAV制御システム210に致命的な障害が発生した場合、車両が実行に移すべきフェールセーフ軌道を含むことができる。
図2の実施例において、車両200は、車両200の1つ以上の操作機能を独立して制御する、衝突回避システム250を備えている。その際、衝突回避システム250は、カメラ217及び220から画像フレームを連続的に受信することができる。衝突回避システム250は、受信画像フレームを分析して、車両200が非走行可能空間(例えば、別の車両、縁石、歩行者、サイクリスト等)の領域に衝突する可能性があるか否かを判定することができる。かかる判定に応じ、衝突回避システム250は、衝突回避制御を生成し、かかる衝突を回避又は最小限に抑制することができる。衝突回避システムによって生成された衝突回避制御は、車両の他の制御システム(例えば、AV制御システム210)又は人間のオペレータ入力とは独立して、車両200の1つ以上の操作機能を制御することができる。1つの実施形態において、衝突回避システム250は、衝突が発生する可能性があると判定した場合、制動制御サブシステム206を介し、車両200のブレーキを独立して作動させることができる。別の実施形態において、衝突回避システム250は、ステアリング制御サブシステム204を介し、車両200の操縦を独立して制御し、制動制御サブシステム206を介し、車両のブレーキを独立して作動させることができる。加えて、衝突回避システム250は、衝突が差し迫っている又は発生しそうであると判定した場合、スロットル制御サブシステム202によって受信された制御をオーバーライドして、車両のスロットルを解放することができる。従って、衝突回避システム250によって、人間のオペレータ入力及び/又はAV制御システム210をオーバーライドすることができる。
衝突回避システム250によって実行される機能には、カメラ217、220から画像フレームを連続的に受信する、受信画像フレームを分析して、画像フレームの各々に表されている走行可能空間を特定する、空間分析を行って、非走行可能空間の各々の領域(例えば、走行可能空間として特定されていない領域)の車両200からのそれぞれの距離及び方向を決定する、決定した距離及び方向、並びに車両データ(例えば、速度、軌道、加速等)に基づいて、車両200が非走行可能空間の各々の領域に衝突するそれぞれの確率を決定する、衝突の確率に基づいて、衝突回避制御254を決定し、衝突を軽減、最小限に抑制、又は回避することが含まれる。1つ以上の機械学習モデルを適用することによって、受信した各々の画像フレームの走行可能空間を特定することができる。機械学習モデルを使用して、衝突回避システム250は、各々の画像フレームの各々の画素(又は各々の画素群)が走行可能空間を表す確率を決定することができる。対応確率が閾値を超える画素は「走行可能空間」としてラベル付けすることができる。逆に、対応確率が閾値未満である画素は、「非走行可能空間」としてラベル付けすることができる。
衝突回避システム250は、処理資源251と記憶資源252との組み合わせを用いて実現することができる。処理資源251は、1つ以上の汎用CPU、1つ以上の専用CPU(例えば、GPU)、及び他の局在又は分散された処理資源を含むことができる。記憶資源252を使用して、受信画像フレームの分析及び受信画像フレームの各々に表されている走行可能空間及び非走行可能空間の特定に使用される、1つ以上の機械学習モデルに対応するデータを記憶することができる。記憶資源252は、受信画像フレームを記憶するキャッシュメモリを更に含むことができる。例えば、受信画像フレームを分析して、キャッシュメモリに記憶することができる。このようにして、衝突回避システム250によって、一定期間にわたって受信された複数の画像フレームを必要とする操作(例えば、補正操作)を実行することができる。
一部の実施形態によれば、スロットル202、ステアリング204、制動206、及び補助208は、それぞれ衝突回避システム250の出力(例えば、衝突回避制御254)によって独立して制御することができる。衝突回避制御254は、AV制御システム210によって生成された制御(例えば、AV制御212)又は人間のオペレータ入力等、車両制御サブシステム202、204、206、208に対する、他のすべての入力をオーバーライドすることができる。このように、衝突回避システム250によって差し迫った衝突が検出されない場合、車両200は、車両200の人間のオペレータ又はAV制御システム210によって制御される。衝突回避システム250が差し迫った衝突を検出し、衝突回避制御254を生成すると直ちに、車両の動作の1つ以上の態様が、衝突回避システム250の出力によって制御される。
1つの実施例において、衝突回避システム250が、AV制御システム210に介入してオーバーライドすべきか否かを判定するために、AV制御システム210からリアルタイムデータ及び分析を受信するように構成することができる。例えば、衝突回避システム250は、AV制御システム210によって検出された物体や障害物に関するデータ及び情報を受信するように構成することができる。受信したデータ及び情報が、衝突回避システム250による分析結果と矛盾する場合(例えば、衝突回避システム250が、AV制御システム210が特定しないオブジェクトを差し迫った衝突として検出した場合)、衝突回避システム250は、衝突回避制御254を生成して、AV制御システム210の出力(例えば、AV制御212)をオーバーライドする決定を下すことができる。他方、AV制御システムから受信したデータ及び情報が、衝突回避システム250による分析結果と一致する場合には、衝突回避システム250は、AV制御システム210が、AV制御212を介して、潜在的な衝突を回避するように車両200を制御することができるように決定することができる。加えて、AV制御システム210から受信したデータは、AV制御システム210の健全性に関するデータを含むことができる。例えば、AV制御システム210が、致命的なソフトウェア又はハードウェア障害を体験することを示すデータを受信すると、衝突回避システム250は、車両200の動作の1つ以上の態様を制御するために介入することができる。
実施形態によれば、AV制御システム210は、(例えば、車両200のトランク内に示す)処理資源211を使用して、衝突回避システム250とは分離独立して、実装することができる。同様に、衝突回避システム250の処理資源251は、AV制御システム210の処理資源とは分離独立した資源を意味することができる。従って、例えば、処理資源211及び処理資源251は、別々の(i)プログラミング又は論理プラットフォーム及びアーキテクチャ、(ii)入力センサー(例えば、カメラ)、及び(iii)それぞれのシステム又はユニットによって制御される車両インターフェースを含む、車両200の他の構成要素と通信するための通信バスを利用することができる。例えば、車両200のフロントバンパー上のカメラ220は、衝突回避システム250専用とすることができる。一部の変形例において、AV制御システム210及び衝突回避システム250は、別々のハウジング、及び別々の電源バス又は電源を有することができる。このように、AV制御システム210に影響する、すべてのハードウェア又は電源障害を封じ込めることができ、衝突回避システム250に影響を及ぼすことはない。
別の実施形態において、AV制御システム210及び衝突回避システム250は、物理的な処理資源及び記憶資源を共有することができる。換言すれば、処理資源211及び処理資源251を、1つ以上の共有物理プロセッサ(例えば、CUP、GPU等)に実装することができる。それにも関わらず、かかる実施形態において、AV制御システム210及び衝突回避システム250の機能を実行する、ソフトウェア命令及びモジュールは、別々に維持され、1つ以上の共有物理プロセッサによって実行することができる。1つの実施例において、1つ以上の共有物理プロセッサは、AV制御システム210の機能に対応するソフトウェア命令を実行するための第1の論理コアセット、及び衝突回避システム250の機能に対応するソフトウェア命令を実行するための第2の論理コアセットを実装することができる。このように、AV制御システム210を実行するソフトウェアのソフトウェア又は論理障害は、AV制御システム210そのものの機能に封じ込められ、衝突回避システム250の機能には影響を及ぼさない。別の実施例において、AV制御システム210を含む、1つ以上の共有物理プロセッサを利用する、車両200の他のシステムに対応するソフトウェア命令よりも高い優先レベルで、衝突回避システム250に対応するソフトウェア命令を1つ以上の共有物理プロセッサによって実行することができる。これによって、車両200の移動経路内で検出された物体との潜在的な衝突を回避又は軽減するために、衝突回避システム250によって実行される処理(例えば、画像フレームの分析、走行可能及び非走行可能空間の特定、空間分析、方向分析)が、リアルタイムで実行されることを保証することができる。
加えて、車両200は、衝突回避システム250が実行する分析に使用する、1つ以上の機械学習モデルに対応するデータを受信する、1つ以上の通信インターフェース(図2には図示せず)を有することができる。通信インターフェースは、セルラー(例えば、4G、5G、LTE等)、Wi−Fi、及び有線インターフェース(例えば有線データコネクタ)を含むことができる。このように、更なる訓練データに基づいて、機械−機械学習モデルを定期的に更新することができる。
訓練データ処理システムの説明
図3は、本明細書に記載の実施例による、訓練画像フレーム及び他の訓練データを受信し処理する、例示的な訓練データ処理システムを示すブロック図である。以下の図3の説明において、図1〜2に関して説明した機能及び例を参照することができる。例えば、図3の訓練データ処理システム300と通信する自律可能車両390は、図1の自律可能車両10または図2の自律可能車両200であってよい。
図3において、訓練データ処理システム300は、自律可能車両390の衝突回避システムが使用して、画像フレームの走行可能空間を特定する、機械学習モデルを生成又は更新するための訓練データ376を受信することができる。訓練データ処理システム300は、訓練画像フレーム377、関連するセンサーデータ378、及び関連する位置データ379を含む、訓練データ376を受信するためのデータ収集インターフェース310を有することができる。訓練データ376は、訓練データ収集車両375が移動する際に、訓練画像フレーム377、センサーデータ378、及び位置データ379を連続的に捕捉するための様々なセンサー及びカメラを担持する、複数の訓練データ収集車両375から受信することができる。訓練データ収集車両375は、訓練データ376を使用して生成された機械学習モデルを受信する、自律可能車両390が備えているものと同様のセンサー(例えば、カメラ、LIDAR、レーダー、ソナー、GPS等)を備えることができる。捕捉された各々の訓練画像フレーム377は、センサーデータ378(例えば、LIDAR測定結果、レーダー測定結果、ソナー測定結果等)のセット、及び位置データ379のセット(例えば、GPSデータ)と関連付けることができる。訓練データ376は、セルラーデータネットワーク(例えば、LTE、HSPA)等のネットワーク380を介し、訓練データ収集車両375から訓練データ処理システム300によって受信することができる。別の実施形態において、訓練データ376は、訓練データ収集車両375との物理リンク(例えば、シリアルバス接続)を介し、訓練データ処理システム300によって受信することもできる。訓練データ376は、データ記憶媒体(例えば、フラッシュメモリカード)を介し、オペレータ又は管理者によって訓練データ処理システム300に転送することもできる。
一部の実施例において、訓練データ収集車両375は人間の運転者によって操作される。別の実施例において、訓練データ収集車両375は、自律的又は半自律的に動作することができる自律可能車両であってよい。更に、訓練データ処理システム300によって生成された機械学習モデルを受信する自律可能車両390は、訓練データ処理システム300に訓練データ376を送信することもできる。実際、より多くの自律可能車両390が展開されるにつれて、訓練データ処理システム300が、より多くの訓練データ376を利用することができ、車両の衝突回避システムによって使用される機械学習モデルを向上させることができる。
実施形態によれば、訓練データ処理システム300は、訓練データ376を受信し処理するためのデータ収集インターフェース310を有している。データ収集インターフェース310は、受信した訓練画像フレーム377を前処理するための画像フィルター311を含むことができる。画像フィルター311は、訓練画像フレーム377の色相、色、コントラスト、及び露出の変更を含む、多くの前処理を行い、得られる訓練画像フレーム377のかかる特性が、概して一様になるようにすることができる。画像フィルター311は、露出過剰、破損、又は使用不能な画像フレーム等、機械学習モデルの訓練には適さない、訓練画像フレーム377を検出及びフィルター除去することもできる。
本明細書に記載の実施例において、訓練データ処理システム300は、フィルタリングされた訓練画像フレーム377、並びに関連するセンサーデータ378及び位置データ379を含む、訓練データ376を受信する、監督あり訓練サブシステム330を含むことができる。監督あり訓練サブシステム330が、監督訓練結果331を生成し、それを用いて、訓練データ処理システム300のモデル発生器360が、自律可能車両390の衝突回避システムが使用して画像フレームに表されている走行可能空間を特定する、機械学習モデルを生成又は更新することができる。監督訓練結果331は、走行可能空間であるとラベル付けされた画像フレームを含むことができる。例えば、各々の画像フレームの各々の領域(例えば、画素、画素群等)は、対応する領域が走行可能空間又は非走行可能空間を表していることを特定する関連ラベルを有することができる。監督訓練結果を生成するために、監督あり訓練サブシステム330は、各々が画像フレームの特定の種類の構造物を特定するのに効率的な多数の分析方法を実行することができる。例えば、監督あり訓練サブシステム330は、画像フレーム377に関連するセンサーデータ378に基づいて、訓練画像フレーム377の領域にラベル付けする画像分析器(センサーデータ)335を含むことができる。335による画像分析は、非静止構造物(例えば、歩行者、他の車両等)を特定する際に特に効果的であり得る。監督あり訓練サブシステム330は、画像フレーム377に関連する位置データ379に基づいて、訓練画像フレーム377の領域にラベル付けする画像分析器(位置データ)340を更に含むことができる。340による画像分析は、ロケーションデータベース又はマッピングデータベースに記憶された静止構造物(例えば、歩道、建物、舗装路面)を特定する際に特に効果的であり得る。監督あり訓練サブシステムは、既存の機械学習モデルに基づいて、訓練画像フレームを特定し、ラベル付けする画像分析器(モデル)345を更に含むことができる。加えて、監督あり訓練サブシステム330は、訓練画像フレーム377の領域に対するラベル付け、又は分析器335及び340によって実行されたラベル付けの補正若しくは補足のためのオペレータ入力を受信する、監督モジュール355を更に含むことができる。
特定の実施形態において、画像分析器(センサーデータ)335は、訓練画像フレーム377に関連するセンサーデータ378に基づいて、訓練画像フレーム377に、走行可能空間及び/又は非走行可能空間についてのラベル付けを行うことができる。このプロセスの一部として、画像分析器(センサデータ)335は、関連するラベルマトリクスを有する画像ファイルとすることができる、ラベル付き画像336を生成することができる。訓練データ収集車両375によって捕捉された特定の訓練画像フレーム377について、画像分析器(センサーデータ)335は、その特定の訓練画像フレーム377が捕捉されたときに、訓練データ収集車両375のセンサーによって得られた、LIDAR、ソナー、レーダー測定結果を含むことができる、関連するセンサーデータ378のセットを分析する。センサーデータ378を使用して、画像分析器(センサーデータ)335は、訓練画像フレーム377に表されている物体を特定し、かかる物体に対応する訓練画像フレーム377の領域を非走行可能空間としてラベル付けすることができる。センサーデータ378を使用して検出された物体に対応しない訓練画像フレーム377の領域は、走行可能な空間としてラベル付けすることができる。画像分析器(センサーデータ)335を使用して訓練画像フレームに描画されている歩行者、他の車両、壁、又は道路上を移動している物体を特定することができる。特定の実施例において、画像分析器(センサーデータ)335は、画像認識を行って、訓練画像フレーム377に表されている路面の種別を判定し、判定結果に従って、ラベル付けすることができる。例えば、画像分析器(センサーデータ)335は、歩道(非走行可能空間)と舗装道路(走行可能空間)とを区別することができる。
実施形態によれば、画像分析器(位置データ)340は、訓練画像フレーム377に関連する位置データ379に基づいて、訓練画像フレーム377に、走行可能空間及び/又は非走行可能空間についてのラベル付けを行うことができる。画像分析器(センサーデータ)335と同様に、画像分析器(位置データ)340は、ラベル付き画像341を生成することができる。訓練データ収集車両375によって捕捉された特定の訓練画像フレーム377について、画像分析器(位置データ)340は、その特定の訓練画像フレーム377が捕捉されたときの訓練データ収集車両375の正確な位置を示す、関連位置データセット(例えば、GPSデータ、GLONASSデータ等)を分析する。加えて、位置データ379は、車両の方位情報を更に含むことができる。方位情報は、訓練データ収集車両375のコンパスを使用して、又は訓練データ収集車両375の軌道を決定するために経時的に収集された位置データに基づいて、決定することができる。画像分析器(位置データ)340は、訓練画像収集車両375の正確な位置及び方位を使用して、ロケーション又はマッピングデータベースに照会し、ロケーション又はマッピングデータベースにおいて特定可能な付近の構造物(例えば、舗装路面、歩道、建物、その他の地図化された構造物等)を訓練画像フレーム377に示されている構造物と照合することができる。ロケーション又はマッピングデータベースの構造物は、訓練データ収集車両375に対する相対位置及び方向に基づいて、訓練画像フレーム377の領域に一致させることができる。一例として、訓練データ収集車両375の正確な位置及び方位を使用して、画像分析器(位置データ)340は、ロケーション又はマッピングデータベースに照会することによって、訓練画像フレーム377の領域が、歩道又は壁を表していると判定することができる。かかる判定に応じ、画像分析器(位置データ)340は、その訓練画像フレーム377の領域を非走行可能空間としてラベル付けすることができる。別の例として、訓練データ収集車両375の正確な位置及び方位を使用して、画像分析器(位置データ)340は、訓練画像フレーム377の別の領域が、舗装路面を表していると判定することができ、それに応じ、その訓練画像フレーム377の領域を走行可能空間としてラベル付けすることができる。画像分析器(位置データ)340が利用するロケーション又はマッピングデータベースは、訓練データ処理システム300又は第三者のマッピングサービスによって管理することができる。
実施形態によれば、様々な方法による画像分析及びラベル付けの結果を照合し、合成することができる。図3に示すように、画像分析器(センサーデータ)335、画像分析器(位置情報)340、画像分析器(モデル)345によってそれぞれ生成されたラベル付き画像336、341、及び346は、ラベル照合器350によって照合され合成される。前述のように、画像分析の各々の方法は、訓練画像フレーム377に表されている特定の種類の構造物の特定に有効であるため、ラベル照合器350は、合成の有効性が最大になるように、ラベル付き画像336及び341を合成することができる。図3に示す例において、画像分析器(センサーデータ)335と画像分析器(位置データ)340とで異なる画像分析方法が実行される。画像分析器(位置データ)340によって実行される分析は、訓練画像フレーム377に表されている静止又は地図化された構造物の特定に有効であり得、画像分析器(位置データ)335によって実行される分析は、訓練画像フレーム377に示されている移動する構造物の特定の有効であり得る。従って、ラベル照合器350は、訓練画像フレーム377に示されている静止又は地図化された構造物を特定する、画像分析器(位置データ)340(ラベル付き画像341)の結果から、照合プロセスを開始することができる。次に、ラベル照合器350は、画像分析器(センサーデータ)335(ラベル付き画像336)の結果をオーバーレイして、予備訓練結果351を得ることができる。このように、ラベル照合器350は、舗装路面(走行可能空間)等の静止又は地図化された構造物の描画から開始することができ、続いて、別の車両等、特定された移動する構造物をオーバーレイして予備訓練結果351を得ることができる。一例として、ラベル照合器350は、訓練画像フレーム377の特定の領域が、走行可能空間(例えば、位置データ379を使用して、画像分析器(位置データ)340によって特定された舗装道路)を示している、ラベル付き画像341から開始することができる。ラベル照合器350は、その特定の領域が、非走行可能空間(例えば、センサーデータを使用して、画像分析器(センサーデータ)335によって特定された別の車両)を示している、ラベル付き画像336を精査することができる。得られた予備訓練結果351は、その特定の領域が、舗装道路に対応していても、別の車両に占有されているため、非走行可能空間に対応することを示すであろう。
特定の実施形態において、ラベル照合器350は、画像分析器(センサーデータ)335及び画像分析器(位置データ)340の分析結果を合成する際に、訓練画像フレーム377の特定の領域に対応する問題を特定することができる。例えば、ラベル照合器350は、訓練画像フレーム377の特定の部分に関し、画像分析器(センサーデータ)335(ラベル付き画像336)による分析結果を、画像分析器(位置データ)340(ラベル付き画像341)による分析結果と照合することができない場合がある。それに応じ、ラベル照合器350は、訓練画像フレーム377のその特定の部分を、照合問題を有するとして特定することができる。次に、訓練画像フレーム377のその特定の部分に印を付して、オペレータ370からの監督入力371を要求し、訓練画像フレーム377のその特定の部分を、走行可能空間又は非走行可能空間に対応するとして、手動でラベル付けすることができる。
一部の実施例において、監督あり訓練サブシステム330は、オペレータ370から、監督入力371を受信するための監督モジュール355を更に含むことができる。オペレータ370は、監督入力371を与えて、画像分析器(センサーデータ)335及び画像分析器(位置データ)340によって、訓練画像フレーム377の領域に割り当てられたラベルの照合問題を解決することができる。オペレータ370は、監督あり訓練サブシステム330の前述の機能ブロックによるプログラム的分析に対し、更に補正又は補足を行うことができる。オペレータ370は、訓練画像フレーム377並びに画像分析器(センサーデータ)335及び画像分析器(位置データ)340による、関連分析結果(例えば、予備訓練結果351)を精査することができる。例えば、オペレータ370は、訓練画像フレーム377及び予備訓練結果351に加え、画像分析器(センサーデータ)335及び画像分析器(位置データ)340によって判定された、走行可能空間及び非走行可能空間領域を示す、訓練画像フレーム377に割り当てられたラベルを精査することができる。オペレータ370は、いずれもオペレータユーザーインタフェース(図3には示さず)に表示されている、予備訓練結果351に示されているラベルを、表示された訓練画像フレームと照合することによって、検証することができる。オペレータ370が、ある領域が誤ってラベル付けされていると判定した場合(例えば、車両に対応する画像フレーム377の一部が走行可能空間としてラベル付けされている)、オペレータ370は、誤ったラベルを補正するための監督入力371を与えることができる。予備訓練結果351及び監督入力371に基づいて、監督モジュール355は、予備訓練結果を補正又は補足する際の監督入力371を組み込んだ、監督訓練結果331を生成することができる。
実施形態によれば、訓練データ処理システム300は、捕捉した画像フレームの走行可能空間の特定に使用される機械学習モデルを生成又は更新するためのモデル生成器360を含むことができる。モデル生成器360は、監督訓練結果331に基づいて、機械学習モデル361を生成又は更新することができる。特定の実施例において、モデル生成器360は、機械学習モデル361を畳み込みニューラルネットワークとして生成又は更新することができる。訓練データ処理システム300は、ネットワーク380を介し、機械学習モデル361に対応するモデルデータ321を、自律可能車両390に送信するための車両インターフェース320を更に含むことができる。別の実施例において、モデルデータ321は、直接データリンク(例えば、バス接続)又はリムーバブル記憶装置(例えば、大容量記憶媒体装置)を介して、自律可能車両390に転送することもできる。
特定の実施例において、機械学習モデル361の生成又は更新に使用される仮想訓練画像データ366を、仮想訓練データ生成器365によって生成することもできる。仮想訓練データ生成器365は、訓練データ収集車両375に搭載されたカメラと同様の視点からシミュレートした、道路状況に対応する仮想環境を生成することができる任意のコンピューティングシステムであってよい。かかる仮想環境の画像フレームは、仮想訓練画像フレーム367として、仮想訓練データ生成器365によって生成することができる。仮想環境に関する他のデータは、仮想センサーデータ368及び仮想位置データ369として、仮想訓練データ生成器365によって生成することができる。例として、バーチャルリアリティ又はビデオゲームコンテンツを生成するためのコンピューティングシステムが挙げられる。データ収集インターフェース310及び画像フィルター311は、訓練データ収集車両375のカメラによって捕捉された、訓練画像フレーム377と特性(例えば、色、色相、コントラスト、露出等)が類似するように、仮想訓練画像フレーム367を処理することができる。
衝突回避システムの方法論
図4は、本明細書に記載の実施例による、自律可能車両における例示的な衝突回避システムを動作させる例示的な方法を説明するフローチャートである。図4の以下の説明において、図1〜3に関連して図示及び説明した機能及び例を参照することができる。例えば、図4に示す方法は、図1の例示的な衝突回避システム100又は図2の例示的な衝突回避システム250に実装して実行することができる。
図4において、例示的な衝突回避システムは、車両に搭載されたカメラから画像フレームを受信することができる(410)。カメラは、捕捉した画像が、車両10の前方の道路及び他の物体を示すように、車両の移動方向に配向することができる。カメラは、画像フレームを連続的に捕捉して、衝突回避システム100に送信することができる。例えば、カメラは、毎秒30フレームの速度で画像フレームを捕捉して、衝突回避システムに送信することができる。次に、衝突回避システムは、同じ毎秒30フレームの速度で、受信画像フレームを順次処理することができる。
一部の実施形態において、車両は、衝突回避システムが使用する画像フレームを捕捉する単一のカメラを備えている。別の実施形態において、車両は複数のカメラを備え、衝突回避システム100は、複数の画像フレームを同時に受信することができる。複数のカメラは、視野を向上させるために、又は衝突回避システムの死角を低減するために、車両の異なる位置に配置することができる。加えて、衝突回避システムが奥行を感知できるように、複数のカメラ(例えば、立体カメラ対)を配置することができる。複数のカメラを備えた実施形態において、衝突回避システムは、画像処理を行って、画像を合成又はマージして、衝突回避システムによる分析を行うことができる。例えば、立体カメラ対によって捕捉された画像をマージして三次元画像(例えば、関連する奥行マップを有する画像)を生成して、衝突回避システムによる分析を行うことができる。別の例として、相補視野を有する複数のカメラによって捕捉された画像フレームを合成して合成画像を生成して、衝突回避システムによる分析を行うことができる。
受信した各々の画像フレームについて、衝突回避システムは、画像フレームを分析して、画像フレームの各々の領域が、走行可能空間を表すそれぞれの確率を決定することができる(415)。一部の実施形態において、衝突回避システムは、かかる確率を画素単位で決定することができる。従って、カメラから受信した各々の画像フレームの各々の個別の画素について、衝突回避システムは、個々の画素が走行可能空間(例えば、車両が安全に移動できる路面)を示す対応確率を決定することができる。別の実施例において、ネットワークシステムは、画素群(例えば、30画素のクラスター)について、かかる確率を決定することができる。衝突回避システムは、画像フレームの走行可能空間を認識するための1つ以上の機械学習モデルを利用して、ステップ415を実行することができる。機械学習モデルは、そこに示されている走行可能空間について、予め分析されている多数の訓練画像を含む、広範な訓練データを使用して生成することができる。少なくとも1つの実施例において、衝突回避システムが利用する機械学習モデルは、畳み込みニューラルネットワークである。
決定した確率に基づいて、衝突回避システムは、受信画像フレームの個々の領域を、走行可能空間又は非走行可能空間を表しているとしてラベル付けすることができる(420)。例えば、走行可能空間を表す特定の領域の対応確率が、特定の閾値を超える場合、衝突回避システムは、特定の領域が、走行可能空間を表しているとしてラベル付けすることができる。これに反し、走行可能空間を示す特定の領域の対応確率が、閾値未満の場合、衝突回避システムは、特定の領域が、非走行可能空間を表しているとしてラベル付けすることができる。
受信画像フレームに走行可能空間及び非走行可能空間のラベルを付した後、衝突回避システムは、異常値又は外れ値についてラベルを補正することができる(425)。補正は、画像フレーム単位で行うことができ、画像フレーム及び関連するラベルの異常値又は外れ値について精査される(426)。例えば、他はすべて走行可能空間として一貫してラベル付けされている、より大きい領域内の小領域(例えば、単一画素又は数画素の群)が、非走行可能空間としてラベル付けされている場合があり得る。衝突回避システムは、小領域のラベル付けを外れ値として決定し、対応するラベルを変更して、明らかに誤ったラベル付けを補正することができる。加えて、受信画像フレームと同時又はほぼ同時に記録された、他の画像フレームを精査することによって、時間ベースで補正を行うことができる(427)。衝突回避システムは、同時又はほぼ同時に記録された複数の画像フレームに割り当てられたラベルを比較して、画像フレームの領域を走行可能又は非走行可能空間としてラベル付けする際の異常値又は外れ値を特定することができる。同時に記録された2つの画像フレーム間のラベル付けが食い違っている場合、衝突回避システムは、画像フレームの一部の領域の再ラベル付けを行うことを決定することができる。
受信画像フレームにおいて、非走行可能空間とラベル付けされた各々の領域について、衝突回避システムは、対応する空間パラメータを決定することができる(430)。空間パラメータは、自律可能車両に対する相対位置、自律可能車両からの距離、移動速度、及び移動方向を含むことができる。自律可能車両からの相対位置及び距離等の空間パラメータは、画像フレームの非走行可能領域の位置に基づいて決定することができる。訓練データ及び入力に基づいて、機械学習モデルを更に訓練して、受信画像フレームに表されている物体及び自律可能車両までの距離を特定することができる。移動速度及び移動方向等の空間パラメータは、衝突回避システムが分析した、複数の画像フレームにわたる非走行可能空間領域の動きを追跡することによって算出することができる。
ステップ435において、衝突回避システムは、自律可能車両が非走行可能空間領域に衝突するか否かの確率を決定することができる。この決定は、非走行可能空間に関連する空間パラメータ、及び車両の速度、方向、加速度等の車両データに基づくことができる。受信画像フレームの各々の非走行可能空間の対応確率が閾値未満であれば、衝突回避システムは、カメラから受信した次の画像フレームに移動することができる(410)。
一方、受信画像フレームの非走行可能空間の少なくとも1つの領域について決定された衝突の確率が閾値を超える場合、衝突回避システムは、衝突を回避又は衝突の影響を最小限に抑制する衝突回避信号を生成する(440)。衝突回避信号は、半自律又は自律動作モードの自律可能車両の動作を制御する、車両制御システムによって生成される制御信号等、他の車両制御信号をオーバーライドすることができる。衝突回避信号は、自律可能車両のブレーキを作動させることができる。一部の実施例において、衝突回避システムは、差し迫った衝突を避けるために、非走行可能空間領域から車両を遠ざけるように操縦するステアリング制御を決定することもできる。衝突回避システムは、更に、自律可能車両の車両制御システムからデータを受信することができる。データは、車両制御システムが差し迫った衝突が起きる可能性があると認識したか否かを示すことができる。衝突回避システムは、車両制御システムが、差し迫った衝突が起きようとしていることを検出しなかったことをデータが示している場合にのみ、車両制御システムによって生成された車両制御信号をオーバーライドするように構成することができる。ステップ440で車両制御をオーバーライドした後、衝突回避システムは、カメラからの画像フレームの受信を継続して分析することができる。
訓練データ処理システムの方法論
図5は、本明細書に記載の実施例による、例示的な訓練データ処理システムを動作させる例示的な方法を説明するフローチャートである。図5の以下の説明において、図3に関連して図示及び説明した機能及び例を参照することができる。例えば、図5に示す方法は、図3の例示的な訓練データ処理システム300に実装して実行することができる。
図5において、訓練データ処理システムは訓練データを受信する(510)。訓練データは、道路上を移動する際に、訓練データ収集車両(例えば、図3の375)によって収集することができる。訓練データは訓練画像フレーム511及び関連するセンサーデータ512を含むことができる。各々の訓練画像フレーム511は、訓練画像フレーム511が記録されたときに捕捉された、対応するセンサーデータ512のセットに関連付けることができる。センサーデータ512は、LIDAR、ソナー、及び/又はレーダーデータを含むことができる。訓練データは、リアルタイムの位置データ(例えば、GPSデータ)を更に含むことができる。
実施形態によれば、訓練データ処理システムは、受信した訓練画像フレームに適切な画像フィルターを適用することができる(515)。訓練データ処理システムは、そのようにして、受信した訓練画像フレームの特性(例えば、色、色相、コントラスト、露出等)を変更することができる。そうすることによって、訓練データ処理システムは、機械学習モデルの生成に使用される訓練画像フレームが、特定の特性において一貫していることを保証することができる。これによって、訓練画像フレームを使用して生成された、機械学習モデルの品質及び一貫性を向上させることができる。
訓練データ処理システムは、訓練画像フレーム、関連するセンサーデータ、位置データ、及び訓練画像フレームの走行可能及び非走行可能空間を特定するための他のデータを分析することができる(520)。様々な技術を使用して分析を行うことができる。例えば、訓練データ処理システムは、訓練画像フレームの走行可能空間領域を、その訓練画像フレームが記録されたときに捕捉された、関連するセンサーデータのセットを使用して、特定することができる(521)。例えば、LIDAR測定結果を使用して、かかる分析を行うことができる。LIDAR測定結果に基づいて、訓練データ処理システムは、路面に対応する訓練画像フレームの領域を決定することができる。それに応じ、訓練データ処理システムは、訓練画像フレームのそれらの領域を走行可能空間として特定することができる。加えて、LIDAR測定結果は、車両又は歩行者に対応する訓練画像フレームの領域を更に示すことができる。それに応じ、訓練データ処理システムは、訓練画像フレームのそれらの領域を非走行可能空間として特定することができる。
更に、訓練データ処理システムは、訓練画像フレームが記録された時点で捕捉された、GPSデータ等のリアルタイム位置データを更に分析することができる(522)。リアルタイム位置データを使用して、訓練データ処理システムは、建物、歩道、道路の中央分離帯等の地図化された構造物に対応する、訓練画像フレームの領域を決定することができる。訓練データ処理システムは、ロケーション又はマッピングデータベースに照会することによって、これを行うことができる。訓練画像フレームの特定の領域が道路の中央分離帯等の地図化された構造物に対応するという判定に基づいて、訓練データ処理システムは、訓練画像フレームの特定の領域を非走行可能空間として特定し、ラベル付けすることができる。特定の実施例において、訓練画像フレームは、機械学習モデルの既存のバージョンによって分析し、訓練画像フレームの走行可能空間及び/又は非走行可能空間を特定することもできる(523)。既存のモデルによる分析結果を他の分析結果と結合及び照合して、機械学習モデルの既存のバージョンを改善することができる。
実施形態によれば、訓練データ処理システムは、様々な分析を結合及び照合して、訓練画像フレームの領域を走行可能又は非走行可能空間としてプログラム的に特定する。結合結果は管理者の端末に提示され、管理者が精査することができる。次に、訓練データ処理システムは、訓練画像フレームの走行可能又は非走行可能空間を特定する、管理者からの監督入力を受信することができる(525)。管理者端末における提示は、様々なプログラム的分析が照合できない又は互いに一致しない、従って監督入力を必要とする訓練画像フレームの特定の領域を強調することができる。例えば、管理者端末における提示は、訓練画像フレームの残りの部分と比較して、異なる色又は視覚パターン使用して、訓練画像フレームの特定の領域を強調することができる。管理者は、管理者端末に表示された提示を介し、特定の領域を走行可能又は非走行可能空間として特定した監督入力を与えることができる。このようにして、車載カメラによって取得された画像フレームの走行可能空間を特定する機械学習モデルを生成する訓練データを分析する際に、管理者は、訓練データ処理システムによるプログラム的分析を照合、補正、又は補足するための監督入力を与えることができる。従って、監督入力は、受信された訓練画像フレームの一部のみについて受信することができる。別の実施例において、管理者は、走行可能空間の訓練画像フレーム全体にラベル付けすることに責任を負うことができる。従って、管理者は、訓練データ処理システムが、その後、追加の訓練データを使用して改善することができる、初期機械学習モデルの生成を可能にするのに十分なデータポイントを有する、ラベル付き訓練画像の集合を「シード」する責任を負うことができる。
ステップ510において受信した訓練データに基づいて、ステップ530において、機械学習モデルを生成又は更新することができる。特定の実施形態において、機械学習モデルは、畳み込みニューラルネットワークである。更に、機械学習モデルは、分類器の集合を含むことができる。生成又は更新した機械学習モデルは、自律可能車両に転送又は送信し(535)、自律可能車両に配置された衝突回避システムと共に使用することができる。機械学習モデルに対応するデータは、自律可能車両の記憶装置に記憶して、衝突回避システムによるアクセスを可能にすることができる。
例示的な画像フレーム
図6は、本明細書に記載の実施例による、衝突回避システムによって受信され、処理された例示的な画像フレームを示す図である。図6の以下の説明において、図1に関連して図示及び説明した機能及び例を参照することができる。例えば、図6に示す例示的な画像フレームは、図1の衝突回避システム100によって分析し、処理することができる。
図6において、図示の例示的な画像フレーム600は、自律可能車両(例えば、図1の車両10)の1つ以上のカメラによって捕捉することができる。1つ以上のカメラは、自律可能車両の前方の環境を示す画像フレーム600を捕捉するように、配置することができる。衝突回避システムは、訓練データを使用して生成された機械学習モデルを使用して、画像フレーム600を分析して、画像フレーム600の様々な領域を走行可能空間又は非走行可能空間を表しているとして、ラベル付けすることができる。明らかなように、画像フレーム600は、単なる例示であって、画像フレーム600に示された様々な構造物は、説明のために簡略化されている。
図示のように、領域610は舗装路面を示している。衝突回避システムは、機械学習モデルを使用して、画像フレーム600を分析し、領域610を走行可能空間としてラベル付けすることができる。画像フレーム600の領域620は、舗装道路上を歩行している歩行者を示している。衝突回避システムは、機械学習モデルを使用して、画像フレーム600を分析し、非走行可能空間を表しているとして、領域620にラベル付けすることができる。同様に、歩道を表している領域630及び635、並びに壁を表している領域640及び645について、衝突回避システムは、これ等の領域を非走行可能空間として、ラベル付けすることができる。
一部の実施形態において、衝突回避システムは、画像フレーム600の領域を、水平線655より上側の画像フレーム600の領域として認識するように構成することができる。衝突回避システムは、衝突回避信号を生成するか否かを決定する際に、重要ではない領域を無視することができる。更に、領域660は、画像フレーム600内の異常に対応させることができる。異常は、カメラのイメージセンサーの誤りによるもの又は照明効果であり得る。別の実施例において、異常は、衝突回避信号が、安全に無視することができる道路上の小物体であり得る。前述のように、衝突回避システムは、機械学習モデルを適用することによって、領域660を当初非走行可能空間としてラベル付けし得る。しかし、誤り訂正技術を使用して、異常を検出し、走行可能空間として再度ラベル付けすることができる。このようにして、衝突回避システムは、異常領域に対する衝突を回避するための衝突回避信号を、必要以上に生成することはない。
画像フレーム600を分析する際、衝突回避システムは、歩行者及び車両データ(例えば、速度、進行方向、加速度等)に対応する、非走行可能空間領域620について決定された空間パラメータに基づいて、領域620に衝突する寸前である否かを判定することができる。これに応じ、衝突回避システムは、歩行者に衝突することを回避するために、衝突回避信号を生成して車両のブレーキを作動させることができる。
ハードウェア図
図7は、本明細書に記載の実施例を実装することができる、コンピュータシステムのブロック図である。図1の文脈において、図7に示すコンピュータシステム700等のシステムを使用して、衝突回避システム100を実行することができる。衝突回避システム100は、図7に関連して説明する、複数のコンピュータシステムの組み合わせを使用して実行することもできる。
1つの実施形態において、コンピュータシステム700は、処理資源710、主記憶装置720、読み取り専用メモリ(ROM)730、記憶装置740、及び通信インターフェース750を備えている。コンピュータシステム700は、主記憶装置720に記憶された情報を処理するための少なくとも1つのプロセッサ710を有し、主記憶装置は、ランダムアクセスメモリ(RAM)又は他の動的記憶装置等によって構成され、プロセッサ710によって実行可能な情報及び命令を記憶するものである。主記憶装置720は、プロセッサ710によって実行される命令の実行中、一時変数又は他の中間情報の記憶にも使用することができる。コンピュータシステム700は、静的情報及びプロセッサ710用の命令を記憶するためのROM730、又は他の静的記憶装置を有することもできる。磁気ディスク又は光ディスク等、情報及び命令を記憶するための記憶装置740を備えている。
通信インターフェース750によって、コンピュータシステム700が、ネットワークリンク(無線又は有線)の使用を介し、1つ以上のネットワーク780(例えば、セルラーネットワーク)と通信することができる。ネットワークリンクを使用して、コンピュータシステム700は、1つ以上のコンピューティング装置及び1つ以上のサーバーと通信することができる。実施例によれば、コンピュータシステム700は、ネットワーク780を介し、1つ以上のサーバー(例えば、図3の訓練データ処理システム300)から、画像フレームの走行可能及び非走行可能空間を特定するための機械学習モデルに対応する、モデルデータ781を受信する。モデルデータ781を受信して、コンピュータシステム700の主記憶装置に記憶されている、既存の機械学習モデル721を更新することができる。主記憶装置720に記憶されている実行可能命令は、ラベル付けされた画像フレームに対し誤り訂正を実行する命令、非走行可能空間とラベル付けされた画像フレームの領域に対応する空間パラメータを決定する命令、空間パラメータ及び車両データに基づいて、非走行空間領域に衝突する寸前であるか否かを判定する命令、及び車両を制御し、差し迫った衝突を回避する衝突回避信号を生成する命令を更に含むことができる。例として、主記憶装置720に記憶された命令及びデータが、プロセッサ710によって実行されることによって、図1の例示的な衝突回避システム100を実現することができる。プロセッサ710は、ソフトウェア及び/又は他の論理で構成され、図1〜6で説明した実装形態、及び本出願の他の場所で説明されている、1つ以上のプロセス、ステップ、及び他の機能を実行する。
本明細書に記載の実施例は、本明細書に記載の技術を実施するためのコンピュータシステム700の使用に関連している。1つの実施例によれば、これらの技術は、主記憶装置720に含まれている1つ以上の命令の1つ以上のシーケンスを実行しているプロセッサ710に応答して、コンピュータシステム700によって実行される。かかる命令は、記憶装置740等の別の機械可読媒体から、主記憶装置720に読み込むことができる。主記憶装置720に含まれている一連の命令を実行することによって、本明細書に記載の処理ステップをプロセッサ710に実行させる。別の実施形態において、ソフトウェア命令の代わりに又はそれと組み合わせて、ハードワイヤード回路を使用して、本明細書に記載の実施例を実施することができる。従って、記述されている実施例は、ハードウェア回路とソフトウェアとの如何なる特定の組み合わせに限定されるものではない。
本明細書に記載の実施例は、他の概念、着想、又はシステムとは無関係に、本明細書に記載の個々の要素及びシステムに拡張されると共に、本出願のいずれかに列挙された要素の組み合わせを含むことを意図するものである。本明細書において、添付図面を参照して、実施例が詳細に説明されているが、概念はそれ等の明確な実施例に限定されるものではないことを理解されたい。従って、当業者には多くの改良及び変更が明らかであろう。従って、概念の範囲は、以下の特許請求の範囲及びその均等物によって定義されるべきことを意図するものである。更に、個別又は実施例の一部として記載されている特定の機能は、その特定の機能に言及していない他の個別に記述された機能又は実施例の一部であっても、それ等と組み合わせることができることを意図するものである。従って、組み合わせが記述されていないことによって、かかる組み合わせに対する権利の主張が妨げられるべきものではない。
10、200、390 自律可能車両
84、125 コントローラ
90 車両インターフェースシステム
100、250 衝突回避システム
130、215 センサーアレイ
180、210 AV制御システム
211、251 処理資源
212 AV制御
216 LIDARセンサー
217、220 カメラ
218 レーダーセンサー
252 記憶資源
254 衝突回避制御
300 訓練データ処理システム
330 監督あり訓練サブシステム
375 訓練データ収集車両
600 画像フレーム
610 舗装路面
620 歩行者
630、635 歩道
640、645 壁
655 水平線
660 領域
700 コンピュータシステム

Claims (20)

  1. 自律可能車両であって、
    前記自律可能車両の前方方向の画像フレームを捕捉するためのカメラを含む、複数のセンサーと、
    前記自律可能車両を制御するための車両制御システムであって、(i)前記複数のセンサーからセンサー入力を受信し、(ii)前記センサー入力に基づいて、車両制御信号を生成するように構成されたシステムと、
    前記車両制御システムと独立して動作する衝突回避システムであって、
    前記カメラから画像フレームを受信するステップ、
    前記受信画像フレームに対して画像分析を行って、走行可能空間又は非走行可能空間を表しているとして、前記画像フレームの領域にラベル付けするステップ、
    車両データの少なくとも一部に基づいて、前記自律可能車両が、前記受信画像フレームに表されている、非走行可能空間領域に衝突する可能性があるか否かを判定するステップ、及び
    前記自律可能車両が、前記受信画像に表されている非走行可能空間領域に衝突する可能性があると判定した場合、衝突回避信号を生成するステップであって、前記衝突回避信号によって、前記自律可能車両が、前記非走行可能空間領域に衝突するのを回避させる、ステップ
    を実行するように構成されたシステムと、
    を備えたことを特徴とする車両。
  2. 前記受信画像フレームの画像分析を行うステップが、機械学習画像認識モデルを使用して、前記画像フレームに表されている走行可能空間領域又は非走行可能空間領域を特定することを特徴とする、請求項1記載の自律可能車両。
  3. 前記機械学習画像認識モデルが、畳み込みニューラルネットワークであることを特徴とする、請求項2記載の自律可能車両。
  4. 前記機械学習画像認識モデルが、訓練画像フレームを含む、訓練データを使用して生成されることを特徴とする、請求項2記載の自律可能車両。
  5. 前記訓練データが、センサーデータを更に含み、各々の訓練画像フレームが、該フレームと同時に捕捉された、対応するセンサーデータのセットに関連付けられていることを特徴とする、請求項4記載の自律可能車両。
  6. 前記センサーデータが、LIDAR測定結果を含むことを特徴とする、請求項5記載の自律可能車両。
  7. 前記機械学習モデルが、管理者から受信した監督入力に基づいて生成され、前記監督入力が、訓練画像フレームの部分を、走行可能空間又は非走行可能空間を表しているとして特定することを特徴とする、請求項4記載の自律可能車両。
  8. 前記受信画像フレームに対して画像分析を行うステップが、
    前記画像フレームの特定の領域について、前記特定の領域が走行可能空間を表す対応確率を決定するステップと、
    前記走行可能空間を表す対応確率が第1の閾値を超える場合、走行可能空間を表しているとして、前記特定の領域にラベル付けするステップと、
    を含んでいることを特徴とする、請求項1記載の自律可能車両。
  9. 前記受信画像フレームに対して画像分析を行うステップが、前記走行可能空間を表す対応確率が第2の閾値未満である場合、非走行可能空間を表しているとして、前記特定の領域にラベル付けするステップを更に備えたことを特徴とする、請求項8記載の自律可能車両。
  10. 前記画像分析が画素単位で行われることを特徴とする、請求項8記載の自律可能車両。
  11. 前記車両データが、前記自律可能車両の方向ベクトル、速度、及び加速度を含んでいることを特徴とする、請求項1記載の自律可能車両。
  12. 前記自律可能車両が、前記受信画像フレームに表されている、非走行可能空間領域に衝突する可能性があるか否かを判定するステップが、
    前記自律可能車両に対する相対位置、及び前記自律可能車両からの距離を含む、前記非走行可能空間領域の空間パラメータを決定するステップと、
    前記非走行可能空間領域の前記空間パラメータに基づいて、前記非走行可能空間領域に衝突する確率を決定するステップと、
    を含むことを特徴とする、請求項1記載の自律可能車両。
  13. 前記非走行可能空間領域の前記空間パラメータが、移動方向及び移動速度を更に含むことを特徴とする、請求項12記載の自律可能車両。
  14. 前記衝突回避信号が、前記車両制御システムによって生成された、前記車両制御信号をオーバーライドすることを特徴とする、請求項1記載の自律可能車両。
  15. 前記衝突回避信号が、前記自律可能車両に、1つ以上のブレーキを作動させることを特徴とする、請求項1記載の自律可能車両。
  16. 前記衝突回避システム及び前記車両制御システムが、共有記憶資源及び少なくとも1つの共有プロセッサを含む、共有ハードウェア資源のセットを利用することを特徴とする、請求項1記載の自律可能車両。
  17. 前記衝突回避システム及び前記車両制御システムが、個別のハードウェア資源のセットを利用することを特徴とする、請求項1記載の自律可能車両。
  18. 前記衝突回避信号が、前記車両制御システムによって生成された又は前記車両のオペレータから受信した、他の車両制御信号をオーバーライドすることを特徴とする、請求項17記載の自律可能車両。
  19. 車両上の衝突回避システムであって、
    1つ以上のプロセッサと、
    前記1つ以上のプロセッサによって実行されると、前記衝突回避システムに、
    前記車両のカメラから画像フレームを受信させ、
    前記受信画像フレームに対して画像分析を行って、走行可能空間又は非走行可能空間を表しているとして、前記画像フレームの領域にラベル付けさせ、
    車両データの少なくとも一部に基づいて、前記自律可能車両が、前記受信画像フレームに表されている、非走行可能空間領域に衝突する可能性があるか否かを判定させ、
    前記自律可能車両が、前記受信画像に表されている非走行可能空間領域に衝突する可能性があると判定した場合、衝突回避信号を生成させ、前記衝突回避信号によって、前記自律可能車両が、前記非走行可能空間領域に衝突するのを回避させる、
    命令を記憶する1つ以上の記憶資源と、
    を備えたことを特徴とするシステム。
  20. 車両上の衝突回避システムを動作させる、コンピュータに実装された方法であって、
    前記車両のカメラから画像フレームを受信するステップと、
    前記受信画像フレームに対して画像分析を行って、走行可能空間又は非走行可能空間を表しているとして、前記画像フレームの領域にラベル付けするステップと、
    車両データの少なくとも一部に基づいて、前記自律可能車両が、前記受信画像フレームに表されている、非走行可能空間領域に衝突する可能性があるか否かを判定するステップと、
    前記自律可能車両が、前記受信画像に表されている非走行可能空間領域に衝突する可能性があると判定した場合、衝突回避信号を生成するステップであって、衝突回避信号によって、前記自律可能車両が、前記非走行可能空間領域に衝突するのを回避させる、ステップと、
    を備えたことを特徴とする方法。
JP2018116988A 2017-06-23 2018-06-20 自律可能車両用衝突回避システム Pending JP2019008796A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/631,990 US10007269B1 (en) 2017-06-23 2017-06-23 Collision-avoidance system for autonomous-capable vehicle
US15/631,990 2017-06-23

Publications (2)

Publication Number Publication Date
JP2019008796A true JP2019008796A (ja) 2019-01-17
JP2019008796A5 JP2019008796A5 (ja) 2019-07-11

Family

ID=62623921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018116988A Pending JP2019008796A (ja) 2017-06-23 2018-06-20 自律可能車両用衝突回避システム

Country Status (7)

Country Link
US (3) US10007269B1 (ja)
EP (2) EP3418841B1 (ja)
JP (1) JP2019008796A (ja)
KR (1) KR101963422B1 (ja)
CN (1) CN109117709B (ja)
CA (1) CA3008091C (ja)
IL (1) IL260106B (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020110227A1 (ja) * 2018-11-28 2020-06-04 三菱電機株式会社 衝突回避学習装置及び衝突回避学習方法
JP2020126642A (ja) * 2019-01-31 2020-08-20 株式会社ストラドビジョンStradvision,Inc. 自律走行車両のユーザに対してキャリブレーションされた車両特化型及び適応型ディープラーニングモデルを提供する方法及び装置{method and device for providing personalized and calibrated adaptive deep learning model for the user of an autonomous vehicle}
JP2020129241A (ja) * 2019-02-08 2020-08-27 株式会社ダイヘン 移動体、画像補正装置、及び学習器
JP2020142769A (ja) * 2019-03-08 2020-09-10 マツダ株式会社 自動車用演算システム
KR20210010388A (ko) * 2019-07-19 2021-01-27 유아이패스, 인크. 로봇 프로세스 자동화를 위한 컴퓨터 비전 모델의 리트레이닝
JP2021012043A (ja) * 2019-07-03 2021-02-04 株式会社日立製作所 機械学習用情報処理装置、機械学習用情報処理方法、および機械学習用情報処理プログラム
WO2021044486A1 (ja) * 2019-09-02 2021-03-11 三菱電機株式会社 自動運転制御装置および自動運転制御方法
WO2021076929A1 (en) * 2019-10-18 2021-04-22 Zenosol, Corp. Uni-body multimodal mobility chassis and autonomous vehicle system
JP2021160531A (ja) * 2020-03-31 2021-10-11 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
WO2021210134A1 (ja) * 2020-04-16 2021-10-21 日本電信電話株式会社 映像配信装置、映像配信方法及びプログラム
JP2022003508A (ja) * 2020-06-30 2022-01-11 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 軌道計画モデルの訓練方法と装置、電子機器、コンピュータ記憶媒体及びコンピュータプログラム
JP2022512271A (ja) * 2019-11-20 2022-02-03 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 音声パケット記録機能のガイド方法、装置、デバイス、プログラム及びコンピュータ記憶媒体
DE112020005642T5 (de) 2020-01-30 2022-09-01 Hitachi Astemo, Ltd. Informationsverarbeitungsvorrichtung
US11443526B2 (en) 2019-10-10 2022-09-13 Toyota Jidosha Kabshiki Kaisha Road obstacle detection device, road obstacle detection method, and recording medium storing a road obstacle detection program
JP2023525106A (ja) * 2020-05-11 2023-06-14 華為技術有限公司 車両走行可能領域検出方法、システム、及びそのシステムを使用する自律車両
US11704828B2 (en) 2019-10-18 2023-07-18 Toyota Jidosha Kabushiki Kaisha Road obstacle detection device, road obstacle detection method, and computer-readable storage medium
JP7511750B2 (ja) 2020-09-23 2024-07-05 コンチネンタル・オートナマス・モビリティ・ジャーマニー・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 自車両の自動運転及び支援運転における環境特徴の連続適応型検出コンピュータ実装方法
JP7529462B2 (ja) 2019-07-23 2024-08-06 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング 機械学習に基づく運転支援システムの検出能力を改善する方法およびシステム
JP7539575B2 (ja) 2020-11-10 2024-08-23 エヌイーシー ラボラトリーズ アメリカ インク 車線考慮型多様な軌道予測のための分割統治

Families Citing this family (146)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10735902B1 (en) * 2014-04-09 2020-08-04 Accuware, Inc. Method and computer program for taking action based on determined movement path of mobile devices
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US10007269B1 (en) 2017-06-23 2018-06-26 Uber Technologies, Inc. Collision-avoidance system for autonomous-capable vehicle
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US10891694B1 (en) * 2017-09-06 2021-01-12 State Farm Mutual Automobile Insurance Company Using vehicle mode for subrogation on a distributed ledger
US11416942B1 (en) 2017-09-06 2022-08-16 State Farm Mutual Automobile Insurance Company Using a distributed ledger to determine fault in subrogation
US11386498B1 (en) 2017-09-06 2022-07-12 State Farm Mutual Automobile Insurance Company Using historical data for subrogation on a distributed ledger
US10872381B1 (en) 2017-09-06 2020-12-22 State Farm Mutual Automobile Insurance Company Evidence oracles
US11080537B2 (en) * 2017-11-15 2021-08-03 Uatc, Llc Autonomous vehicle lane boundary detection systems and methods
US11178133B2 (en) * 2017-12-19 2021-11-16 Micron Technology, Inc. Secure vehicle control unit update
US10944950B2 (en) * 2017-12-21 2021-03-09 Texas Instruments Incorporated Transmitting functional safety statistics via transmitted video
US11328210B2 (en) 2017-12-29 2022-05-10 Micron Technology, Inc. Self-learning in distributed architecture for enhancing artificial neural network
CN110248861B (zh) 2018-01-07 2023-05-30 辉达公司 在车辆操纵过程中使用机器学习模型来引导车辆
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
DE112019000065T5 (de) 2018-02-02 2020-03-05 Nvidia Corporation Sicherheitsprozeduranalyse zur hindernisvermeidung in einem autonomen fahrzeug
DE112019000049T5 (de) 2018-02-18 2020-01-23 Nvidia Corporation Für autonomes fahren geeignete objekterfassung und erfassungssicherheit
US11282389B2 (en) * 2018-02-20 2022-03-22 Nortek Security & Control Llc Pedestrian detection for vehicle driving assistance
US10997433B2 (en) 2018-02-27 2021-05-04 Nvidia Corporation Real-time detection of lanes and boundaries by autonomous vehicles
CN110494863B (zh) 2018-03-15 2024-02-09 辉达公司 确定自主车辆的可驾驶自由空间
US11749111B2 (en) 2018-03-19 2023-09-05 Derq Inc. Early warning and collision avoidance
WO2019182974A2 (en) 2018-03-21 2019-09-26 Nvidia Corporation Stereo depth estimation using deep neural networks
WO2019191306A1 (en) * 2018-03-27 2019-10-03 Nvidia Corporation Training, testing, and verifying autonomous machines using simulated environments
US10906536B2 (en) 2018-04-11 2021-02-02 Aurora Innovation, Inc. Control of autonomous vehicle based on determined yaw parameter(s) of additional vehicle
US11550061B2 (en) 2018-04-11 2023-01-10 Aurora Operations, Inc. Control of autonomous vehicle based on environmental object classification determined using phase coherent LIDAR data
US10522038B2 (en) 2018-04-19 2019-12-31 Micron Technology, Inc. Systems and methods for automatically warning nearby vehicles of potential hazards
CN112106126B (zh) 2018-05-10 2022-02-25 巴斯蒂安·比彻姆 车辆与行人碰撞避免的方法和系统
US10705208B2 (en) * 2018-06-11 2020-07-07 Augmented Radar Imaging, Inc. Vehicle location determination using synthetic aperture radar
US11966838B2 (en) 2018-06-19 2024-04-23 Nvidia Corporation Behavior-guided path planning in autonomous machine applications
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US10457294B1 (en) * 2018-06-27 2019-10-29 Baidu Usa Llc Neural network based safety monitoring system for autonomous vehicles
CN109131277A (zh) * 2018-07-13 2019-01-04 金龙联合汽车工业(苏州)有限公司 一种自动紧急制动系统的人机协调控制系统
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US10632992B2 (en) * 2018-07-30 2020-04-28 GM Global Technology Operations LLC Autonomous vehicle that includes sensor output batching system
BR112021001746A2 (pt) 2018-08-08 2021-04-27 Abyssal S.A sistema e método de operação para veículos operados remotamente para detecção automática de ameaças à integridade estrutural
WO2020030951A1 (en) 2018-08-08 2020-02-13 Abyssal S.A. System and method of operation for remotely operated vehicles for simultaneous localization and mapping
CA3108593A1 (en) * 2018-08-08 2020-02-13 Abyssal S.A. System and method of operation for remotely operated vehicles leveraging synthetic data to train machine learning models
WO2020030948A1 (en) 2018-08-08 2020-02-13 Abyssal S.A. System and method of operation for remotely operated vehicles with improved position estimation
US10782691B2 (en) 2018-08-10 2020-09-22 Buffalo Automation Group Inc. Deep learning and intelligent sensing system integration
WO2020033967A1 (en) 2018-08-10 2020-02-13 Buffalo Automation Group Inc. Training a deep learning system for maritime applications
US10974720B2 (en) 2018-08-13 2021-04-13 Kingman Ag, Llc Vehicle sliding bumper and system for object contact detection and responsive control
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
CN109284699A (zh) * 2018-09-04 2019-01-29 广东翼卡车联网服务有限公司 一种适用车辆碰撞的深度学习方法
WO2020077117A1 (en) 2018-10-11 2020-04-16 Tesla, Inc. Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11648951B2 (en) 2018-10-29 2023-05-16 Motional Ad Llc Systems and methods for controlling actuators based on load characteristics and passenger comfort
US11186273B2 (en) * 2018-10-30 2021-11-30 Toyota Motor North America, Inc. Vehicle data processing systems and methods using one or more local processors
US11256263B2 (en) 2018-11-02 2022-02-22 Aurora Operations, Inc. Generating targeted training instances for autonomous vehicles
US11403492B2 (en) 2018-11-02 2022-08-02 Aurora Operations, Inc. Generating labeled training instances for autonomous vehicles
US11209821B2 (en) 2018-11-02 2021-12-28 Aurora Operations, Inc. Labeling autonomous vehicle data
US11163312B2 (en) 2018-11-02 2021-11-02 Aurora Operations, Inc. Removable automotive LIDAR data collection POD
US11086319B2 (en) 2018-11-02 2021-08-10 Aurora Operations, Inc. Generating testing instances for autonomous vehicles
US11829143B2 (en) 2018-11-02 2023-11-28 Aurora Operations, Inc. Labeling autonomous vehicle data
WO2020102733A1 (en) 2018-11-16 2020-05-22 Nvidia Corporation Learning to generate synthetic datasets for training neural networks
JP7469846B2 (ja) * 2018-11-20 2024-04-17 株式会社Subaru 車両制御装置
US11835948B2 (en) * 2018-12-03 2023-12-05 Motional Ad Llc Systems and methods for improving vehicle operations using movable sensors
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
KR102636739B1 (ko) * 2018-12-18 2024-02-15 현대자동차주식회사 차량 및 그 제어방법
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11308338B2 (en) 2018-12-28 2022-04-19 Nvidia Corporation Distance to obstacle detection in autonomous machine applications
WO2020140049A1 (en) 2018-12-28 2020-07-02 Nvidia Corporation Distance to obstacle detection in autonomous machine applications
US11170299B2 (en) 2018-12-28 2021-11-09 Nvidia Corporation Distance estimation to objects and free-space boundaries in autonomous machine applications
JP7176415B2 (ja) * 2019-01-15 2022-11-22 トヨタ自動車株式会社 衝突前制御装置
US10919543B2 (en) * 2019-01-30 2021-02-16 StradVision, Inc. Learning method and learning device for determining whether to switch mode of vehicle from manual driving mode to autonomous driving mode by performing trajectory-based behavior analysis on recent driving route
WO2020154973A1 (en) * 2019-01-30 2020-08-06 Baidu.Com Times Technology (Beijing) Co., Ltd. Lidar localization using rnn and lstm for temporal smoothness in autonomous driving vehicles
US10890916B2 (en) * 2019-01-30 2021-01-12 StradVision, Inc. Location-specific algorithm selection for optimized autonomous driving
JP7029479B2 (ja) * 2019-01-30 2022-03-03 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド 自動運転車のためのポイントクラウドゴースト効果検出システム
US11410475B2 (en) 2019-01-31 2022-08-09 Micron Technology, Inc. Autonomous vehicle data recorders
US11373466B2 (en) 2019-01-31 2022-06-28 Micron Technology, Inc. Data recorders of autonomous vehicles
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11520345B2 (en) 2019-02-05 2022-12-06 Nvidia Corporation Path perception diversity and redundancy in autonomous machine applications
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
MA55272A (fr) * 2019-02-14 2022-01-19 Saint Gobain Procédé de fourniture d'une quantité d'ensembles de données d'entraînement, procédé d'entraînement d'un classificateur, procédé de commande d'un véhicule, support d'enregistrement lisible par ordinateur
CN109808588A (zh) * 2019-02-19 2019-05-28 百度在线网络技术(北京)有限公司 显示自动驾驶车辆行驶行为的方法和装置
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
CN109800773B (zh) * 2019-02-19 2021-01-22 北京大学 基于三维激光雷达的越野路面提取方法
EP3703029A1 (en) * 2019-02-26 2020-09-02 Ningbo Geely Automobile Research & Development Co. Ltd. Mitigating collision risk with an obscured object
CN109919067A (zh) * 2019-02-27 2019-06-21 智慧海派科技有限公司 一种影像辨识方法及安全的自动驾驶方法
KR20210148109A (ko) * 2019-03-08 2021-12-07 올라코 프로덕츠 비.브이. 에고 부분 제외를 포함하는 충돌 검출 훈련 세트를 생성하기 위한 방법
US11648945B2 (en) 2019-03-11 2023-05-16 Nvidia Corporation Intersection detection and classification in autonomous machine applications
KR102162646B1 (ko) 2019-03-11 2020-10-07 주식회사 에스더블유엠 자율주행차의 주행 제어방법
US10992860B2 (en) * 2019-03-29 2021-04-27 Nio Usa, Inc. Dynamic seam adjustment of image overlap zones from multi-camera source images
EP3948647A4 (en) * 2019-04-01 2022-11-16 INTEL Corporation GENERATION OF AUTONOMOUS DRIVING DATA SET WITH AUTOMATIC OBJECT LABELING METHODS AND DEVICES
CN110046569B (zh) * 2019-04-12 2022-04-12 北京百度网讯科技有限公司 一种无人驾驶数据处理方法、装置及电子设备
US11472291B2 (en) * 2019-04-25 2022-10-18 Motional Ad Llc Graphical user interface for display of autonomous vehicle behaviors
GB2607172B (en) * 2019-04-25 2023-11-01 Motional Ad Llc Graphical user interface for display of autonomous vehicle behaviors
US11249184B2 (en) 2019-05-07 2022-02-15 The Charles Stark Draper Laboratory, Inc. Autonomous collision avoidance through physical layer tracking
KR102060567B1 (ko) * 2019-05-13 2019-12-30 호서대학교 산학협력단 심층신경망을 이용한 선박 주변 객체 인식 방법 및 시스템
US11772643B1 (en) * 2019-05-20 2023-10-03 Zoox, Inc. Object relevance determination
US11209824B1 (en) 2019-06-12 2021-12-28 Kingman Ag, Llc Navigation system and method for guiding an autonomous vehicle through rows of plants or markers
DE102019209292A1 (de) * 2019-06-26 2020-12-31 Robert Bosch Gmbh Verfahren zum Betreiben einer Umfeldsensorik eines Fahrzeugs und Umfeldsensorik
US10916152B2 (en) * 2019-07-01 2021-02-09 Honeywell International Inc. Collision awareness system for ground operations
KR102281588B1 (ko) * 2019-07-08 2021-07-26 씨제이올리브네트웍스 주식회사 운송 로봇의 실내자율주행 시스템
US11447063B2 (en) * 2019-07-18 2022-09-20 GM Global Technology Operations LLC Steerable scanning and perception system with active illumination
WO2021026768A1 (zh) * 2019-08-13 2021-02-18 深圳鲲云信息科技有限公司 基于数据流的自动驾驶方法、装置、电子设备及存储介质
CN110472571A (zh) * 2019-08-14 2019-11-19 广州小鹏汽车科技有限公司 一种车距确定方法、装置和车辆
KR102212217B1 (ko) * 2019-08-14 2021-02-04 엘지전자 주식회사 충돌을 효과적으로 방지하는 자율 주행 차량 및 이를 제어하는 제어 장치 및 방법
US11392796B2 (en) 2019-08-20 2022-07-19 Micron Technology, Inc. Feature dictionary for bandwidth enhancement
US11755884B2 (en) 2019-08-20 2023-09-12 Micron Technology, Inc. Distributed machine learning with privacy protection
US11636334B2 (en) 2019-08-20 2023-04-25 Micron Technology, Inc. Machine learning with feature obfuscation
JP2022546320A (ja) 2019-08-29 2022-11-04 ディーイーアールキュー インコーポレイテッド 高度車載機器
CN114667437A (zh) 2019-08-31 2022-06-24 辉达公司 用于自主驾驶应用的地图创建和定位
WO2021063486A1 (en) * 2019-10-01 2021-04-08 Huawei Technologies Co., Ltd. Automatic root cause analysis of failures in autonomous vehicle
US20220383748A1 (en) * 2019-10-29 2022-12-01 Sony Group Corporation Vehicle control in geographical control zones
CN111027633B (zh) * 2019-12-16 2020-12-08 乐清市芮易经济信息咨询有限公司 基于大数据的自动驾驶车辆碰撞分析系统的碰撞分析方法
WO2021133384A1 (en) * 2019-12-23 2021-07-01 A^3 By Airbus, Llc Systems and methods for efficently sensing collison threats
KR102246706B1 (ko) * 2020-03-16 2021-04-30 포티투닷 주식회사 자율 주행 장치 및 이상 도로 상황에서 자율 주행 장치 운용 방법
KR102391771B1 (ko) 2020-04-02 2022-04-27 함영국 이진화된 3차원 공간맵 기반의 자율 이동체 운영 방법
WO2021206793A1 (en) 2020-04-06 2021-10-14 B&H Licensing Inc. Method and system for detecting jaywalking of vulnerable road users
KR102330909B1 (ko) * 2020-04-16 2021-11-25 장종환 인공지능용 영상을 제공하는 영상처리방법 및 장치와 인공지능 기기를 위한 정보제공시스템
US12077190B2 (en) 2020-05-18 2024-09-03 Nvidia Corporation Efficient safety aware path selection and planning for autonomous machine applications
CN111680730A (zh) * 2020-06-01 2020-09-18 中国第一汽车股份有限公司 一种地理围栏的生成方法、装置、计算机设备和存储介质
US11823458B2 (en) 2020-06-18 2023-11-21 Embedtek, LLC Object detection and tracking system
JP7527884B2 (ja) * 2020-07-31 2024-08-05 株式会社東芝 注意喚起システム、注意喚起方法及びプログラム
WO2022036139A1 (en) * 2020-08-12 2022-02-17 Autonomous Solutions, Inc. Autonomous safety rider
CN112115822B (zh) * 2020-09-04 2022-03-15 西北工业大学 一种水下移动目标智能融合感知方法
CN112156474B (zh) * 2020-09-25 2023-01-24 努比亚技术有限公司 一种载具控制方法、设备及计算机可读存储介质
CN112172670B (zh) * 2020-10-19 2022-10-04 广州优创电子有限公司 基于图像识别的后视图像显示方法及装置
US11978266B2 (en) 2020-10-21 2024-05-07 Nvidia Corporation Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications
CN112329670B (zh) * 2020-11-11 2021-10-19 上海伯镭智能科技有限公司 无人驾驶车辆路况不规则障碍物的识别方法、计算机程序及存储介质
CN114633743B (zh) * 2020-12-16 2024-05-28 宇通客车股份有限公司 一种自动驾驶车辆及其碰撞事故检测方法和系统
KR102614256B1 (ko) 2021-02-02 2023-12-15 우석대학교 산학협력단 자율주행을 위한 3차원 벡터좌표시스템
JP7472832B2 (ja) * 2021-03-16 2024-04-23 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
JP2023527599A (ja) * 2021-04-20 2023-06-30 バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッド 自動運転車両を動作させるためのコンピュータ実施方法、非一時的機械可読媒体、データ処理システムおよびコンピュータプログラム
EP4330917A1 (en) * 2021-04-30 2024-03-06 Visionary Machines Pty Ltd Systems and methods for generating and/or using 3-dimensional information with one or more cameras
US11875548B2 (en) * 2021-07-22 2024-01-16 GM Global Technology Operations LLC System and method for region of interest window generation for attention based perception
US12049236B2 (en) * 2021-07-29 2024-07-30 Ford Global Technologies, Llc Complementary control system detecting imminent collision of autonomous vehicle in fallback monitoring region
US12012097B2 (en) 2021-07-29 2024-06-18 Ford Global Technologies, Llc Complementary control system for an autonomous vehicle
US12091042B2 (en) 2021-08-02 2024-09-17 Ford Global Technologies, Llc Method and system for training an autonomous vehicle motion planning model
US11608084B1 (en) * 2021-08-27 2023-03-21 Motional Ad Llc Navigation with drivable area detection
KR102600238B1 (ko) * 2021-09-30 2023-11-10 서울대학교산학협력단 비-구조화된 주행 환경을 위한 자율 주행 방법 및 장치
US11851068B2 (en) * 2021-10-25 2023-12-26 Ford Global Technologies, Llc Enhanced target detection
US20230150544A1 (en) * 2021-11-18 2023-05-18 Motional Ad Llc Generating notifications indicative of unanticipated actions
WO2023212123A1 (en) * 2022-04-26 2023-11-02 Motional Ad Llc Managing efficiency of image processing
US11551459B1 (en) * 2022-06-27 2023-01-10 Plusai, Inc. Ambiguous lane detection event miner
CN114973208B (zh) * 2022-08-02 2022-11-29 所托(杭州)汽车智能设备有限公司 车辆盲区监测预警方法及相关设备
JP2024048048A (ja) * 2022-09-27 2024-04-08 トヨタ自動車株式会社 車両制御装置
US20240202577A1 (en) * 2022-12-14 2024-06-20 Zoox, Inc. Modifying driving logs for training models
CO2023001801A1 (es) * 2023-02-17 2024-08-20 Centro De Innovacion Anfibio Sirculab Método y aparato de obtención de datos de colisión entre un objeto y un vehículo
WO2024194707A1 (en) * 2023-03-20 2024-09-26 C.R.F. Società Consortile Per Azioni Driver-assistance system of a motor vehicle, and corresponding method
CN117215316B (zh) * 2023-11-08 2024-02-13 四川大学 基于协同控制与深度学习的驾驶环境感知的方法和系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007328630A (ja) * 2006-06-08 2007-12-20 Fujitsu Ten Ltd 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置および車両制御装置
JP2010225105A (ja) * 2009-03-25 2010-10-07 Toshiba Corp 物体検出装置、物体検出方法、及び、プログラム
JP2010231556A (ja) * 2009-03-27 2010-10-14 Toyota Motor Corp データ処理装置
JP2012118683A (ja) * 2010-11-30 2012-06-21 Daihatsu Motor Co Ltd 歩行者認識装置
WO2014076759A1 (ja) * 2012-11-13 2014-05-22 トヨタ自動車 株式会社 運転支援装置及び運転支援方法
WO2014083649A1 (ja) * 2012-11-29 2014-06-05 トヨタ自動車 株式会社 運転支援装置及び運転支援方法
JP2014106685A (ja) * 2012-11-27 2014-06-09 Osaka Univ 車両周辺監視装置
JP2017095100A (ja) * 2014-01-29 2017-06-01 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. 車両用の衝突回避システム、自律式車両コントロールシステム、および、車両をコントロールする方法

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785280B2 (ja) 1992-08-04 1995-09-13 タカタ株式会社 神経回路網による衝突予測判定システム
US7202776B2 (en) * 1997-10-22 2007-04-10 Intelligent Technologies International, Inc. Method and system for detecting objects external to a vehicle
KR19980068399A (ko) * 1997-02-19 1998-10-15 김영환 차량 자율 주행 장치 및 제어 방법
US9373149B2 (en) * 2006-03-17 2016-06-21 Fatdoor, Inc. Autonomous neighborhood vehicle commerce network and community
US8605947B2 (en) * 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
US8060271B2 (en) * 2008-06-06 2011-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Detecting principal directions of unknown environments
KR101002666B1 (ko) 2008-07-14 2010-12-21 삼성모바일디스플레이주식회사 박막트랜지스터, 그의 제조방법, 및 이를 포함하는유기전계발광표시장치
US8126642B2 (en) 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
US9292471B2 (en) * 2011-02-18 2016-03-22 Honda Motor Co., Ltd. Coordinated vehicle response system and method for driver behavior
DE102012009555A1 (de) * 2012-05-12 2012-11-29 Daimler Ag Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs und Fahrerassistenzsystem
DE102012208712A1 (de) * 2012-05-24 2013-11-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Vermeiden oder Abmildern einer Kollision eines Fahrzeugs mit einem Hindernis
US20130321627A1 (en) * 2012-05-31 2013-12-05 John C. Turn, JR. Road departure sensing and intelligent driving systems and methods
US9638537B2 (en) * 2012-06-21 2017-05-02 Cellepathy Inc. Interface selection in navigation guidance systems
US9421908B2 (en) * 2012-06-22 2016-08-23 GM Global Technology Operations LLC Alert systems and methods for a vehicle with improved actuator placement
US8972061B2 (en) * 2012-11-02 2015-03-03 Irobot Corporation Autonomous coverage robot
US9751534B2 (en) * 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
DE102013213171A1 (de) * 2013-07-04 2015-01-08 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Kraftfahrzeugs in einem automatisierten Fahrbetrieb
JP6429368B2 (ja) * 2013-08-02 2018-11-28 本田技研工業株式会社 歩車間通信システムおよび方法
DE102013013867A1 (de) * 2013-08-20 2015-03-12 Audi Ag Kraftfahrzeug und Verfahren zur Steuerung eines Kraftfahrzeugs
US9336436B1 (en) * 2013-09-30 2016-05-10 Google Inc. Methods and systems for pedestrian avoidance
CN104773177A (zh) 2014-01-09 2015-07-15 株式会社理光 辅助驾驶方法和装置
US10124800B2 (en) * 2014-05-30 2018-11-13 The Boeing Company Variably controlled ground vehicle
US9229453B1 (en) 2014-08-29 2016-01-05 GM Global Technology Operations LLC Unified motion planner for autonomous driving vehicle in avoiding the moving obstacle
CN104182756B (zh) 2014-09-05 2017-04-12 大连理工大学 一种基于单目视觉的车辆前方障碍物检测方法
US10571911B2 (en) * 2014-12-07 2020-02-25 Toyota Motor Engineering & Manufacturing North America, Inc. Mixed autonomous and manual control of a vehicle
US9959624B2 (en) * 2014-12-22 2018-05-01 Volkswagen Ag Early detection of turning condition identification using perception technology
EP3045936A1 (en) * 2015-01-13 2016-07-20 XenomatiX BVBA Surround sensing system with telecentric optics
JP5979259B2 (ja) 2015-01-20 2016-08-24 トヨタ自動車株式会社 衝突回避制御装置
KR102534792B1 (ko) * 2015-02-10 2023-05-19 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
EP3295422B1 (en) * 2015-05-10 2020-01-01 Mobileye Vision Technologies Ltd. Road profile along a predicted path
US10496766B2 (en) * 2015-11-05 2019-12-03 Zoox, Inc. Simulation system and methods for autonomous vehicles
US9983591B2 (en) * 2015-11-05 2018-05-29 Ford Global Technologies, Llc Autonomous driving at intersections based on perception data
KR102137213B1 (ko) * 2015-11-16 2020-08-13 삼성전자 주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
US10556600B2 (en) * 2015-12-09 2020-02-11 Toyota Motor Engineering & Manufacturing North America, Inc. Assessment of human driving performance using autonomous vehicles
US9672446B1 (en) * 2016-05-06 2017-06-06 Uber Technologies, Inc. Object detection for an autonomous vehicle
US10133273B2 (en) * 2016-09-20 2018-11-20 2236008 Ontario Inc. Location specific assistance for autonomous vehicle control system
CN106553655B (zh) 2016-12-02 2019-11-15 深圳地平线机器人科技有限公司 危险车辆检测方法和系统以及包括该系统的车辆
US10012993B1 (en) * 2016-12-09 2018-07-03 Zendrive, Inc. Method and system for risk modeling in autonomous vehicles
US10259452B2 (en) * 2017-01-04 2019-04-16 International Business Machines Corporation Self-driving vehicle collision management system
US10752239B2 (en) * 2017-02-22 2020-08-25 International Business Machines Corporation Training a self-driving vehicle
US10095234B2 (en) * 2017-03-07 2018-10-09 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
US10234864B2 (en) * 2017-03-07 2019-03-19 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
US10518770B2 (en) * 2017-03-14 2019-12-31 Uatc, Llc Hierarchical motion planning for autonomous vehicles
US10324469B2 (en) * 2017-03-28 2019-06-18 Mitsubishi Electric Research Laboratories, Inc. System and method for controlling motion of vehicle in shared environment
US10007269B1 (en) * 2017-06-23 2018-06-26 Uber Technologies, Inc. Collision-avoidance system for autonomous-capable vehicle
US11256983B2 (en) * 2017-07-27 2022-02-22 Waymo Llc Neural networks for vehicle trajectory planning
WO2019033025A1 (en) * 2017-08-10 2019-02-14 Patroness, LLC SYSTEMS AND METHODS FOR IMPROVED AUTONOMOUS OPERATIONS OF A MOTORIZED MOBILE SYSTEM
US20200379458A1 (en) * 2017-12-13 2020-12-03 Evexia Research, Llc Autonomous safety for pedestrians
EP3842304B1 (en) * 2018-08-14 2024-09-18 Mobileye Vision Technologies Ltd. Systems and methods for navigating with safe distances
US10948915B2 (en) * 2018-08-30 2021-03-16 Intel Corporation Computer-assisted or autonomous driving vehicle incident management method and apparatus
US11104332B2 (en) * 2018-12-12 2021-08-31 Zoox, Inc. Collision avoidance system with trajectory validation
US20200211394A1 (en) * 2018-12-26 2020-07-02 Zoox, Inc. Collision avoidance system
US11170299B2 (en) * 2018-12-28 2021-11-09 Nvidia Corporation Distance estimation to objects and free-space boundaries in autonomous machine applications
WO2020140049A1 (en) * 2018-12-28 2020-07-02 Nvidia Corporation Distance to obstacle detection in autonomous machine applications
US11648945B2 (en) * 2019-03-11 2023-05-16 Nvidia Corporation Intersection detection and classification in autonomous machine applications
CN114008685A (zh) * 2019-06-25 2022-02-01 辉达公司 用于自主机器应用的路口区域检测和分类
WO2021016596A1 (en) * 2019-07-25 2021-01-28 Nvidia Corporation Deep neural network for segmentation of road scenes and animate object instances for autonomous driving applications
US11500385B2 (en) * 2019-09-30 2022-11-15 Zoox, Inc. Collision avoidance perception system
US11726492B2 (en) * 2019-10-02 2023-08-15 Zoox, Inc. Collision avoidance perception system
US11994866B2 (en) * 2019-10-02 2024-05-28 Zoox, Inc. Collision avoidance perception system
US20210125036A1 (en) * 2019-10-29 2021-04-29 Nvidia Corporation Determining object orientation from an image with machine learning
KR20210050925A (ko) * 2019-10-29 2021-05-10 엘지전자 주식회사 차량 충돌 회피 장치 및 방법
US11487968B2 (en) * 2019-12-16 2022-11-01 Nvidia Corporation Neural network based facial analysis using facial landmarks and associated confidence values
US11592570B2 (en) * 2020-02-25 2023-02-28 Baidu Usa Llc Automated labeling system for autonomous driving vehicle lidar data
US11568655B2 (en) * 2020-03-26 2023-01-31 Intel Corporation Methods and devices for triggering vehicular actions based on passenger actions
US11886968B2 (en) * 2020-03-27 2024-01-30 Intel Corporation Methods and devices for detecting objects and calculating a time to contact in autonomous driving systems

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007328630A (ja) * 2006-06-08 2007-12-20 Fujitsu Ten Ltd 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置および車両制御装置
JP2010225105A (ja) * 2009-03-25 2010-10-07 Toshiba Corp 物体検出装置、物体検出方法、及び、プログラム
JP2010231556A (ja) * 2009-03-27 2010-10-14 Toyota Motor Corp データ処理装置
JP2012118683A (ja) * 2010-11-30 2012-06-21 Daihatsu Motor Co Ltd 歩行者認識装置
WO2014076759A1 (ja) * 2012-11-13 2014-05-22 トヨタ自動車 株式会社 運転支援装置及び運転支援方法
JP2014106685A (ja) * 2012-11-27 2014-06-09 Osaka Univ 車両周辺監視装置
WO2014083649A1 (ja) * 2012-11-29 2014-06-05 トヨタ自動車 株式会社 運転支援装置及び運転支援方法
JP2017095100A (ja) * 2014-01-29 2017-06-01 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. 車両用の衝突回避システム、自律式車両コントロールシステム、および、車両をコントロールする方法

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020110227A1 (ja) * 2018-11-28 2020-06-04 三菱電機株式会社 衝突回避学習装置及び衝突回避学習方法
JP7086217B2 (ja) 2018-11-28 2022-06-17 三菱電機株式会社 衝突回避学習装置及び衝突回避学習方法
JPWO2020110227A1 (ja) * 2018-11-28 2021-04-30 三菱電機株式会社 衝突回避学習装置及び衝突回避学習方法
JP2020126642A (ja) * 2019-01-31 2020-08-20 株式会社ストラドビジョンStradvision,Inc. 自律走行車両のユーザに対してキャリブレーションされた車両特化型及び適応型ディープラーニングモデルを提供する方法及び装置{method and device for providing personalized and calibrated adaptive deep learning model for the user of an autonomous vehicle}
JP2020129241A (ja) * 2019-02-08 2020-08-27 株式会社ダイヘン 移動体、画像補正装置、及び学習器
JP7237625B2 (ja) 2019-02-08 2023-03-13 株式会社ダイヘン 移動体、及び画像補正装置
WO2020184297A1 (ja) * 2019-03-08 2020-09-17 マツダ株式会社 自動車用演算システム
JP2020142769A (ja) * 2019-03-08 2020-09-10 マツダ株式会社 自動車用演算システム
JP2021012043A (ja) * 2019-07-03 2021-02-04 株式会社日立製作所 機械学習用情報処理装置、機械学習用情報処理方法、および機械学習用情報処理プログラム
JP7300331B2 (ja) 2019-07-03 2023-06-29 株式会社日立製作所 機械学習用情報処理装置、機械学習用情報処理方法、および機械学習用情報処理プログラム
KR20210010388A (ko) * 2019-07-19 2021-01-27 유아이패스, 인크. 로봇 프로세스 자동화를 위한 컴퓨터 비전 모델의 리트레이닝
KR102580080B1 (ko) * 2019-07-19 2023-09-18 유아이패스, 인크. 로봇 프로세스 자동화를 위한 컴퓨터 비전 모델의 리트레이닝
US11688192B2 (en) 2019-07-19 2023-06-27 UiPath, Inc. Retraining a computer vision model for robotic process automation
US11487973B2 (en) 2019-07-19 2022-11-01 UiPath, Inc. Retraining a computer vision model for robotic process automation
JP7529462B2 (ja) 2019-07-23 2024-08-06 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング 機械学習に基づく運転支援システムの検出能力を改善する方法およびシステム
WO2021044486A1 (ja) * 2019-09-02 2021-03-11 三菱電機株式会社 自動運転制御装置および自動運転制御方法
US11443526B2 (en) 2019-10-10 2022-09-13 Toyota Jidosha Kabshiki Kaisha Road obstacle detection device, road obstacle detection method, and recording medium storing a road obstacle detection program
WO2021076929A1 (en) * 2019-10-18 2021-04-22 Zenosol, Corp. Uni-body multimodal mobility chassis and autonomous vehicle system
US11704828B2 (en) 2019-10-18 2023-07-18 Toyota Jidosha Kabushiki Kaisha Road obstacle detection device, road obstacle detection method, and computer-readable storage medium
JP7225380B2 (ja) 2019-11-20 2023-02-20 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 音声パケット記録機能のガイド方法、装置、デバイス、プログラム及びコンピュータ記憶媒体
JP2022512271A (ja) * 2019-11-20 2022-02-03 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 音声パケット記録機能のガイド方法、装置、デバイス、プログラム及びコンピュータ記憶媒体
US11976931B2 (en) 2019-11-20 2024-05-07 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for guiding voice-packet recording function, device and computer storage medium
DE112020005642T5 (de) 2020-01-30 2022-09-01 Hitachi Astemo, Ltd. Informationsverarbeitungsvorrichtung
JP2021160531A (ja) * 2020-03-31 2021-10-11 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
JP7464425B2 (ja) 2020-03-31 2024-04-09 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
WO2021210134A1 (ja) * 2020-04-16 2021-10-21 日本電信電話株式会社 映像配信装置、映像配信方法及びプログラム
JPWO2021210134A1 (ja) * 2020-04-16 2021-10-21
JP7416219B2 (ja) 2020-04-16 2024-01-17 日本電信電話株式会社 映像配信装置、映像配信方法及びプログラム
JP2023525106A (ja) * 2020-05-11 2023-06-14 華為技術有限公司 車両走行可能領域検出方法、システム、及びそのシステムを使用する自律車両
JP7511673B2 (ja) 2020-05-11 2024-07-05 華為技術有限公司 車両走行可能領域検出方法、システム、及びそのシステムを使用する自律車両
US11940803B2 (en) 2020-06-30 2024-03-26 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus and computer storage medium for training trajectory planning model
JP2022003508A (ja) * 2020-06-30 2022-01-11 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 軌道計画モデルの訓練方法と装置、電子機器、コンピュータ記憶媒体及びコンピュータプログラム
JP7245275B2 (ja) 2020-06-30 2023-03-23 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 軌道計画モデルの訓練方法と装置、電子機器、コンピュータ記憶媒体及びコンピュータプログラム
JP7511750B2 (ja) 2020-09-23 2024-07-05 コンチネンタル・オートナマス・モビリティ・ジャーマニー・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 自車両の自動運転及び支援運転における環境特徴の連続適応型検出コンピュータ実装方法
JP7539575B2 (ja) 2020-11-10 2024-08-23 エヌイーシー ラボラトリーズ アメリカ インク 車線考慮型多様な軌道予測のための分割統治

Also Published As

Publication number Publication date
EP3825803B1 (en) 2024-03-20
US10007269B1 (en) 2018-06-26
US20180373263A1 (en) 2018-12-27
CA3008091C (en) 2019-09-24
CN109117709B (zh) 2020-09-01
KR101963422B1 (ko) 2019-03-28
CA3008091A1 (en) 2018-08-15
EP3418841B1 (en) 2021-01-20
EP3825803A1 (en) 2021-05-26
US20200272164A1 (en) 2020-08-27
CN109117709A (zh) 2019-01-01
IL260106A (en) 2018-11-29
US11402848B2 (en) 2022-08-02
US10649464B2 (en) 2020-05-12
EP3418841A1 (en) 2018-12-26
IL260106B (en) 2020-09-30
KR20190000843A (ko) 2019-01-03

Similar Documents

Publication Publication Date Title
JP2019008796A (ja) 自律可能車両用衝突回避システム
CN112166304B (zh) 传感器数据的误差检测
EP3602220B1 (en) Dynamic sensor selection for self-driving vehicles
US10489686B2 (en) Object detection for an autonomous vehicle
CN113496201A (zh) 物体状态识别装置、方法、物体状态识别用计算机程序及控制装置
US11900257B2 (en) Method for representing an environment of a mobile platform
JP2023527599A (ja) 自動運転車両を動作させるためのコンピュータ実施方法、非一時的機械可読媒体、データ処理システムおよびコンピュータプログラム
JP7363118B2 (ja) 外部環境認識装置
US11810371B1 (en) Model-based localization on high-definition maps
CN116674593A (zh) 用于自主车辆的具有异常检测的安全增强规划系统
Siddiqui et al. Object/Obstacles detection system for self-driving cars
JP7400222B2 (ja) 外部環境認識装置
US20220237899A1 (en) Outside environment recognition device
US12033399B1 (en) Turn and brake action prediction using vehicle light detection
US20230415766A1 (en) Lane segment clustering using hybrid distance metrics
EP4381466A1 (en) System and method for training a self-supervised ego vehicle
US20230025721A1 (en) Driving assistance device and driving assist method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190603

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190603

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190604

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190604

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190717

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191016

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200115

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200311