JP6693587B2 - 情報処理方法および情報処理システム - Google Patents
情報処理方法および情報処理システム Download PDFInfo
- Publication number
- JP6693587B2 JP6693587B2 JP2019065433A JP2019065433A JP6693587B2 JP 6693587 B2 JP6693587 B2 JP 6693587B2 JP 2019065433 A JP2019065433 A JP 2019065433A JP 2019065433 A JP2019065433 A JP 2019065433A JP 6693587 B2 JP6693587 B2 JP 6693587B2
- Authority
- JP
- Japan
- Prior art keywords
- state
- vehicle
- merging
- states
- section
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 32
- 238000003672 processing method Methods 0.000 title claims description 26
- 238000000034 method Methods 0.000 claims description 40
- 230000033001 locomotion Effects 0.000 claims description 34
- 238000010801 machine learning Methods 0.000 claims description 31
- 230000000694 effects Effects 0.000 claims description 19
- 230000001133 acceleration Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 15
- 238000011144 upstream manufacturing Methods 0.000 claims description 12
- 230000009471 action Effects 0.000 description 48
- 230000015654 memory Effects 0.000 description 24
- 230000006399 behavior Effects 0.000 description 23
- 230000006870 function Effects 0.000 description 22
- 238000012549 training Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000011664 nicotinic acid Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/025—Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
- B62D15/0255—Automatic changing of lane, e.g. for passing another vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Atmospheric Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Description
本出願は、「MACHINE LEARNING ENHANCED VEHICLE MERGING」と題し、2018年4月
9日に出願された米国特許出願第15/949,067号の優先権を主張する。これらの特許出願は、その全体が参照によって本願明細書に援用される。
びトレーニング済みの後方時間距離に基づいて、過去の時間範囲を判定することと、一連の状態から、過去の時間範囲内の複数の第2のタイムスタンプに関連付けられた複数の第2の状態を判定することとを含む。1つまたは複数の合流動作は、1つまたは複数の目標合流速度への1つまたは複数の速度調節、1つまたは複数の目標加速度への1つまたは複数の加速度調節、および1つまたは複数の目標操舵角に対する1つまたは複数の角度調節を含む。合流車両の制御ユニットを使用して、第1の合流動作を含む合流命令を処理することと、合流区域内で第1の合流動作を実行するように、合流車両の制御ユニットを使用して、合流車両を制御すること。合流区域は、入口ランプ区間、上り側高速道路区間、および下り側高速道路区間を含み、第1の画像セットは、合流区域に位置する1つまたは複数の路側機、入口ランプ区間に位置する1つまたは複数の合流車両、上り側高速道路区間に位置する1つまたは複数の上り側本線車両、および下り側高速道路区間に位置する1つまたは複数の下り側本線車両から受信した、第1のスタンプに関連付けられた1つまたは複数の第1の画像を含む。合流区域は、入口ランプ区間、上り側高速道路区間、および下り側高速道路区間を含み、トレーニング済みの第1の機械学習ロジックを使用して、一連のタイムスタンプにおける対応するタイムスタンプに関連付けられた一連の状態におけるそれぞれの状態を、対応するタイムスタンプに関連付けられた画像セットを使用して、判定し、画像セットは、合流区域に位置する1つまたは複数の路側機、入口ランプ区間に位置する1つまたは複数の合流車両、上り側高速道路区間に位置する1つまたは複数の上り側本線車両、および下り側高速道路区間に位置する1つまたは複数の下り側本線車両から受信した、対応するタイムスタンプに関連付けられた1つまたは複数の画像を含む。一連の状態および第1の状態における各状態は、合流区域の1つまたは複数の車道構成要素を示す車道データと、1つまたは複数の合流車両の第1の車両動作データ、1つまたは複数の上り側本線車両の第2の車両動作データ、および1つまたは複数の下り側本線車両の第3の車両動作データと、入口ランプ区間の第1の区間通行データ、上り側高速道路区間の第2の区間通行データ、および下り側高速道路区間の第3の区間通行データとを含む。1つまたは複数の合流車両、1つまたは複数の上り側本線車両、および1つまたは複数の下り側本線車両に含まれる各車両の車両動作データは、車両に関連付けられた車両位置、車両速度、および加速度パターンのうちの1つまたは複数を指定し、入口ランプ区間、上り側高速道路区間、および下り側高速道路区間のうちの各道路区間の区間通行データは、道路区間に関連付けられた通行流量、車両密度、平均車両速度、および平均追従距離のうちの1つまたは複数を指定する。
本開示に係る情報処理方法において、前記一連の状態から前記1つまたは複数の第2の状態を決定することは、前記第1の状態の前記第1のタイムスタンプおよび前記トレーニング済みの後方時間距離に基づいて、過去の時間範囲を決定することと、前記一連の状態から、前記過去の時間範囲内の複数の第2のタイムスタンプに関連付けられた複数の第2の状態を決定することと、を含み得る。
本開示に係る情報処理方法において、前記1つまたは複数の合流動作は、1つまたは複数の目標合流速度への1つまたは複数の速度調節、1つまたは複数の目標加速度への1つまたは複数の加速度調節、および1つまたは複数の目標操舵角への1つまたは複数の角度調節を含み得る。
本開示に係る情報処理方法は、前記合流車両の制御ユニットにおいて前記合流命令を処理することで、前記合流区域内で前記第1の合流動作を実行するように前記合流車両を制御することをさらに含み得る。
本開示に係る情報処理方法において、前記合流区域は、入口ランプ区間、上り側高速道路区間、および下り側高速道路区間を含み得る。また、前記第1の画像セットは、前記合流区域に位置する1つまたは複数の路側機、前記入口ランプ区間に位置する1つまたは複数の合流車両、前記上り側高速道路区間に位置する1つまたは複数の上り側本線車両、および前記下り側高速道路区間に位置する1つまたは複数の下り側本線車両から受信した、前記第1のタイムスタンプに関連付けられた前記1つまたは複数の第1の画像を含み得る。
本開示に係る情報処理方法は、前記一連のタイムスタンプにおける対応するタイムスタンプに関連付けられた前記一連の状態におけるそれぞれの状態を、前記トレーニング済み
の第1の機械学習ロジックと、前記対応するタイムスタンプに関連付けられた画像セットと、を使用して決定することを含み得る。このとき、前記画像セットは、前記合流区域に位置する1つまたは複数の路側機、前記入口ランプ区間に位置する1つまたは複数の合流車両、前記上り側高速道路区間に位置する1つまたは複数の上り側本線車両、および前記下り側高速道路区間に位置する1つまたは複数の下り側本線車両から受信した、前記対応するタイムスタンプに関連付けられた1つまたは複数の画像を含み得る。
本開示に係る情報処理方法において、前記一連の状態および前記第1の状態における各状態は、前記合流区域の1つまたは複数の車道構成要素を示す車道データと、1つまたは複数の合流車両の第1の車両動作データ、1つまたは複数の上り側本線車両の第2の車両動作データ、および1つまたは複数の下り側本線車両の第3の車両動作データと、入口ランプ区間の第1の区間通行データ、上り側高速道路区間の第2の区間通行データ、および下り側高速道路区間の第3の区間通行データと、を含み得る。
本開示に係る情報処理方法において、前記1つまたは複数の合流車両、前記1つまたは複数の上り側本線車両、および前記1つまたは複数の下り側本線車両に含まれる各車両の前記第1の車両動作データ、前記第2の車両動作データ、または前記第3の車両動作データは、各車両に関連付けられた車両位置、車両速度、および加速度パターンのうちの1つまたは複数を指定し得る。また、前記入口ランプ区間、前記上り側高速道路区間、および前記下り側高速道路区間のうちの各道路区間の前記第1の区間通行データ、前記第2の区間通行データ、または前記第3の区間通行データは、前記道路区間に関連付けられた通行流量、速度密度、平均車両速度、および平均追従距離のうちの1つまたは複数を指定し得る。
本開示に係る情報処理方法において、前記第3の状態を決定することは、前方時間距離に基づいて、前記一連の状態から、前記第1の状態の前記第1のタイムスタンプに続く前記第3のタイムスタンプに関連付けられた前記第3の状態を決定することを含み得る。このとき、本開示に係る情報処理方法は、前記フィードバック値に基づいて前記前方時間距離を調節することをさらに含み得る。
本開示に係る情報処理方法において、前記前方時間距離に基づいて前記第3の状態を決定することは、前記第1の状態の前記第1のタイムスタンプおよび前記前方時間距離に基づいて、前記第3のタイムスタンプを決定することと、前記一連の状態から、前記第3のタイムスタンプに関連付けられた前記第3の状態を決定することと、を含み得る。
本開示に係る情報処理方法において、機械学習ロジックを使用して、前記第1の状態、前記1つまたは複数の第2の状態、および前記合流動作に基づいて前記合流動作の前記影響指標が決定され、前記合流動作の前記目標影響指標が、前記第3の状態に含まれる1つまたは複数の通行状況態様に基づいて決定され得る。このとき、前記第3の状態に含まれる前記1つまたは複数の通行状況態様は、1つまたは複数の合流車両の第1の車両動作データおよび入口ランプ区間の第1の区間通行データと、1つまたは複数の上り側本線車両の第2の車両動作データおよび上り側高速道路区間の第2の区間通行データと、1つまたは複数の下り側本線車両の第3の車両動作データおよび下り側高速道路区間の第3の区間
通行データと、前記第1の合流車両の合流時間長さと合流点位置とを含み得る。
本開示に係る情報処理方法において、前記合流動作の前記目標影響指標は、前記第3の状態に含まれる1つまたは複数の通行状況態様と、前記1つまたは複数の通行状況態様に割り当てられた1つまたは複数の重み値と、に基づいて決定され得る。
、WAVE、802.11p、3G、4G、5G+ネットワーク、WiFiTM、衛星ネットワーク、車両−車両(V2V)ネットワーク、車両−インフラストラクチャ/インフラストラクチャ−車両(V2I/I2V)ネットワーク、または他の任意の無線ネットワークのような接続を使用する無線ネットワークである。図1は、サーバ101および車両プラットフォーム103に結合するネットワーク105のための単一ブロックを例示しているが、ネットワーク105は、実際には、上述のように任意の数のネットワークの組合せを含み得ることが理解されるべきである。
は、プロセッサは、車のような車両プラットフォーム103において実施された電子制御ユニット(ECU)であり得るが、他の種類のプラットフォームも可能であり企図される。ECUは、合流アプリケーション120によるアクセスおよび/または検索のために、センサデータを車両操作データとして受信し、車両データストア121に記憶する。いくつかの実施では、プロセッサ115は、電子表示信号を生成して入力/出力デバイスへ提供し、画像の表示をサポートし、画像をキャプチャおよび送信し、様々なタイプの通行状況分析および機械学習実施等を含む複雑なタスクを実行することができる。いくつかの実施では、プロセッサ115は、データおよび命令にアクセスし、そこにデータを記憶するために、バス154を介してメモリ117へ結合される。バス154は、プロセッサ115を、たとえばセンサ113、メモリ117、通信ユニット119、および/または、車両データストア121を含む、車両プラットフォーム103の他の構成要素に結合する。
る。通信ユニット119は、ネットワーク105に結合し、他の車両プラットフォーム103、路側機107、および/または、サーバ101等のような、システム100の他のエンティティと通信する。通信ユニット119は、上記で論じられたように、標準的な通信方法を使用して他のコンピューティングノードとデータを交換する。
System:全地球測位システム)座標)等を含んでもよい。いくつかの実施形態において、車両データは、車両プラットフォーム103の1つまたは複数の画像センサ113によってキャプチャされた多数の道路シーン画像、およびこれらの画像に関連付けられた画像データをも含む。いくつかの実施形態において、画像データは、画像の画像識別子(たとえば、画像ID)、画像のデータサイズを示す画像データサイズ、画像がキャプチャされた日時を示す画像タイムスタンプ等を含んでもよい。
プ区間804、上り側高速道路区間806、および下り側高速道路区間808は、それらの車道に沿って位置し、対応する通行の画像をキャプチャする複数の路側機107を備える。
動作は、第1の画像セットである唯一の入力を用いて決定され得る。
道構成要素を示す車道データを決定する。いくつかの実施形態において、合流区域の車道構成要素は、入口ランプ区間、上り側高速道路区間、および下り側高速道路区間を含む。合流区域の各道路区間について、車道データは、道路区間に関連付けられた車線数、各車線のステータス(たとえば、追越し車線、通行可能車線、閉鎖車線等)、形状および長さ、車道構造等を含む。いくつかの実施形態において、車道データは、第1の画像セット内の第1のタイムスタンプに関連付けられたキャプチャされた画像と、他の画像セット内の他のタイムスタンプに関連付けられたキャプチャされた画像とから経時的に学習される。例として、図8に描写される合流区域800について、状態生成器202は、入口ランプ区間804が、区間長400mの1車線を有し、高速道路区間802へ35°の角度を形成することを学習する。状態生成器202はまた、高速道路区間802が3つの通行可能車線を含み、上り側高速道路区間806および下り側高速道路区間808は、通行状況が、入口ランプ区間804上の合流車両の合流動作によって影響を受ける可能性があることをも学習する。この例では、状態生成器202は、上り側高速道路区間806の区間長さが750mであること、および下り側高速道路区間808の区間長さが450mであることを学習する。
い。いくつかの実施形態において、状態生成器202は、車両プラットフォーム103の合流点位置を、入口ランプ区間に対する合流点の位置(たとえば、300/400m)と決定してもよい。
的な方法400のフローチャートである。ブロック402において、状態マネジャ204は、一連のタイムスタンプにおける合流区域の通行状況を示す一連の状態を検索する。いくつかの実施形態において、状態マネジャ204は、車両データストア121から、合流区域の一連の状態を検索する。
3aの合流動作を示す状態560のタイムスタンプt=t5であると決定することができる。したがって、状態マネジャ204は、過去の時間範囲の上限しきい値tpast_upper=t5=14:00:05を決定することができる。この例では、車両データストア121から検索された後方時間距離の現在の値が3秒であると仮定する。したがって、状態マネジャ204は、過去の時間範囲の下限しきい値tpast_lower=(状態560のタイムスタンプ−後方時間距離)=14:00:05−00:00:03=14:00:02を決定することができる。状態マネジャ204は、その後、一連の状態500から、過去の時間範囲[14:00:02、14:00:05)内の第2のタイムスタンプに関連付けられた第2の状態を決定することができる。この例では、第2の状態は、タイムスタンプt=t2=14:00:02に関連付けられた状態554、タイムスタンプt=t3=14:00:03に関連付けられた状態556、およびタイムスタンプt=t4=14:00:04に関連付けられた状態558を含む。したがって、この例では、状態554、状態556、および状態558は、状態560における車両プラットフォーム103aによって実行される合流動作の影響を評価するために必要であると決定された一連の状態における状態560の前の合流区域の3つの後方状態である。
3の状態を決定し得る。この例では、第3の状態は、タイムスタンプt=t6=14:00:06に関連付けられた状態562と、タイムスタンプt=t7=14:00:07に関連付けられた状態564とを含む。これらの実施形態において、状態562および状態564は、状態560において車両プラットフォーム103aによって実行される合流動作の影響を反映していると決定される一連の状態における状態560に続く合流区域の将来の2つの状態である。
じられるように、後方時間距離は、合流区域の第2の状態が合流動作の影響を評価するために必要である第1の状態で示される合流動作の前の時間距離を指定する。前方時間距離は、合流区域の1つまたは複数の第3の状態が、合流動作の影響を反映する、第1の状態で示される合流動作の後の時間距離を指定する。いくつかの実施形態において、状態マネジャ204は、調節された後方時間距離および調節された前方時間距離を、車両データストア121に記憶する。
みの後方時間距離を使用して、一連のタイムスタンプにおける合流区域の通行状態を示す一連の状態から、第1の状態の第1のタイムスタンプの前の、1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定する。いくつかの実施形態において、トレーニング済みの状態マネジャ204は、車両データストア121から、合流区域の一連の状態を検索する。一連の状態における各状態は、一連のタイムスタンプにおける対応するタイムスタンプに関連付けられ、トレーニング済みの状態生成器202によって、対応するタイムスタンプに関連付けられた画像セットを使用して決定される。第1の画像セットと同様に、各画像セットは、対応するタイムスタンプに関連付けられた1つまたは複数の画像を含み、1つまたは複数の画像は、合流区域に位置する路側機107から、入口ランプ区間に位置する合流車両から、上り側高速道路区間に位置する上り側本線車両から、および下り側高速道路区間に位置する下り側本線車両から受信される。
つかの実施形態において、トレーニング済みの影響計算機206は、最も低い影響指標を有する合流動作を、第1の合流動作として選択する。いくつかの実施形態において、トレーニング済みの影響計算機206は、最も高い影響指標を有する合流動作を、第1の合流動作として選択する。いくつかの実施形態において、トレーニング済みの影響計算機206は、あらかじめ定義された影響指標しきい値を満たす影響指標を有する合流動作のサブセットを決定し、合流動作のサブセットから、第1の合流動作をランダムに選択する。いくつかの実施形態において、トレーニング済みの影響計算機206は、影響指標に基づいて、合流車両のための複数の第1の合流動作を選択する。たとえば、トレーニング済みの影響計算機206は、「車両速度を30m/sの目標合流速度に調節する」(たとえば、67mph)という合流動作と、「操舵角を35°の目標操舵角に調節する」という合流動作とを、合流車両のための第1の合流動作として選択してもよい。いくつかの実施形態において、第1のタイムスタンプにおける合流区域の第1の状態を考慮して、第1の合流動作は、第1のタイムスタンプにおいて高速道路区間に合流するために合流車両によって実行されるべき最適な合流動作として決定される。
の論理的な手順を意味する。処理のステップは、物理量を物理的に操作するものである。必ずしも必須ではないが、通常は、これらの量は記憶・伝送・結合・比較およびその他の処理が可能な電気的または磁気的信号の形式を取る。通例にしたがって、これらの信号をビット・値・要素・エレメント・シンボル・キャラクタ・項・数値などとして称することが簡便である。
さらに、ある実施形態は、コンピュータが利用あるいは読み込み可能な記憶媒体からアクセス可能なコンピュータプログラムプロダクトの形態を取る。この記憶媒体は、コンピュータや任意の命令実行システムによってあるいはそれらと共に利用されるプログラムコードを提供する。コンピュータが利用あるいは読み込み可能な記憶媒体とは、命令実行システムや装置によってあるいはそれらと共に利用されるプログラムを、保持、格納、通信、伝搬および転送可能な任意の装置を指す。
に過ぎない。プライベートネットワークおよびパブリックネットワークは、任意の数の構成および/またはトポロジを有しうる。データは、たとえば、様々なインターネットレイヤ、トランスポートレイヤ、またはアプリケーションレイヤのプロトコルを含む、様々な異なる通信プロトコルを使用して、ネットワークを介してこれらのデバイス間で送信されうる。たとえば、データは、伝送制御プロトコル/インターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、伝送制御プロトコル(TCP)、ハイパーテキスト転送プロトコル(HTTP)、セキュアハイパーテキスト転送プロトコル(HTTPS)、動的適応ストリーミングオーバーHTTP(DASH)、リアルタイムストリーミングプロトコル(RTSP)、リアルタイムトランスポートプロトコル(RTP)およびリアルタイムトランスポート制御プロトコル(RTCP)、ボイスオーバーインターネットプロトコル(VOIP)、ファイル転送プロトコル(FTP)、ウェブソケット(WS)、ワイヤレスアクセスプロトコル(WAP)、様々なメッセージングプロトコル(SMS、MMS、XMS、IMAP、SMTP、POP、WebDAVなど)、または他の既知のプロトコルを使用して、ネットワークを介して送信されうる。
101 サーバ
103 車両プラットフォーム
103a〜103n 車両プラットフォーム
105 ネットワーク
107 路側機
107a〜107n 路側機
113 センサ
115 プロセッサ
117 メモリ
119 通信ユニット
120 合流アプリケーション、構成要素
120a〜120n インスタンス
121 車両データストア
141 信号線
145 信号線
147 信号線
147a〜147n 信号線
152 コンピューティングデバイス
154 バス
202 状態生成器、構成要素
204 状態マネジャ、構成要素
206 影響計算機
300 ブロック図
302 トレーニング段階
304 実施段階
400 方法
402 ブロック
404 ブロック
406 ブロック
408 ブロック
410 ブロック
412 ブロック
500 状態
502 画像セット
504 画像セット
506 画像セット
508 画像セット
510 画像セット
512 画像セット
514 画像セット
516 画像セット
518 画像セット
552 状態
554 状態
556 状態
558 状態
560 状態
562 状態
564 状態
566 状態
568 状態
600 方法
700 方法
800 合流区域
802 高速道路区間
804 入口ランプ区間
806 上り側高速道路区間
808 下り側高速道路区間
Claims (15)
- 第1のタイムスタンプに関連付けられた1つまたは複数の第1の画像を含む第1の画像セットであって、合流区域を描写する第1の画像セットを受信することと、
トレーニング済みの第1の機械学習ロジックと前記第1の画像セットとを使用して、前記第1のタイムスタンプにおける前記合流区域の通行状況を示す第1の状態を決定することと、
トレーニング済みの第2の機械学習ロジックとトレーニング済みの後方時間距離とを使用して、一連のタイムスタンプにおける前記合流区域の前記通行状況を示す一連の状態から、前記第1の状態の前記第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定することと、
トレーニング済みの第3の機械学習ロジックと、前記第1の状態および前記1つまたは複数の第2の状態と、を使用して、複数の合流動作についての1つまたは複数の影響指標を計算することと、
前記1つまたは複数の影響指標に基づいて、前記複数の合流動作から第1の合流動作を選択することと、
前記合流区域内で前記第1の合流動作を実行するように命令する合流命令を合流車両に提供することと、を含む、情報処理方法。 - 前記一連の状態から前記1つまたは複数の第2の状態を決定することは、
前記第1の状態の前記第1のタイムスタンプおよび前記トレーニング済みの後方時間距離に基づいて、過去の時間範囲を決定することと、
前記一連の状態から、前記過去の時間範囲内の複数の第2のタイムスタンプに関連付けられた複数の第2の状態を決定することと、を含む、請求項1に記載の情報処理方法。 - 前記1つまたは複数の合流動作は、1つまたは複数の目標合流速度への1つまたは複数の速度調節、1つまたは複数の目標加速度への1つまたは複数の加速度調節、および1つまたは複数の目標操舵角への1つまたは複数の角度調節を含む、請求項1に記載の情報処理方法。
- 前記合流車両の制御ユニットにおいて前記合流命令を処理することで、前記合流区域内で前記第1の合流動作を実行するように前記合流車両を制御することをさらに含む、
請求項1に記載の情報処理方法。 - 前記合流区域は、入口ランプ区間、上り側高速道路区間、および下り側高速道路区間を含み、
前記第1の画像セットは、前記合流区域に位置する1つまたは複数の路側機、前記入口ランプ区間に位置する1つまたは複数の合流車両、前記上り側高速道路区間に位置する1つまたは複数の上り側本線車両、および前記下り側高速道路区間に位置する1つまたは複数の下り側本線車両から受信した、前記第1のタイムスタンプに関連付けられた前記1つまたは複数の第1の画像を含む、
請求項1に記載の情報処理方法。 - 前記合流区域は、入口ランプ区間、上り側高速道路区間、および下り側高速道路区間を含み、
前記情報処理方法は、
前記一連のタイムスタンプにおける対応するタイムスタンプに関連付けられた前記一連の状態におけるそれぞれの状態を、前記トレーニング済みの第1の機械学習ロジックと、前記対応するタイムスタンプに関連付けられた画像セットと、を使用して決定することを含み、
前記画像セットは、前記合流区域に位置する1つまたは複数の路側機、前記入口ランプ区間に位置する1つまたは複数の合流車両、前記上り側高速道路区間に位置する1つまたは複数の上り側本線車両、および前記下り側高速道路区間に位置する1つまたは複数の下り側本線車両から受信した、前記対応するタイムスタンプに関連付けられた1つまたは複数の画像を含む、請求項1に記載の情報処理方法。 - 前記一連の状態および前記第1の状態における各状態は、
前記合流区域の1つまたは複数の車道構成要素を示す車道データと、
1つまたは複数の合流車両の第1の車両動作データ、1つまたは複数の上り側本線車両の第2の車両動作データ、および1つまたは複数の下り側本線車両の第3の車両動作データと、
入口ランプ区間の第1の区間通行データ、上り側高速道路区間の第2の区間通行データ、および下り側高速道路区間の第3の区間通行データと、を含む、請求項1に記載の情報処理方法。 - 前記1つまたは複数の合流車両、前記1つまたは複数の上り側本線車両、および前記1つまたは複数の下り側本線車両に含まれる各車両の前記第1の車両動作データ、前記第2の車両動作データ、または前記第3の車両動作データは、各車両に関連付けられた車両位置、車両速度、および加速度パターンのうちの1つまたは複数を指定し、
前記入口ランプ区間、前記上り側高速道路区間、および前記下り側高速道路区間のうちの各道路区間の前記第1の区間通行データ、前記第2の区間通行データ、または前記第3の区間通行データは、前記道路区間に関連付けられた通行流量、速度密度、平均車両速度、および平均追従距離のうちの1つまたは複数を指定する、
請求項7に記載の情報処理方法。 - 一連のタイムスタンプにおける合流区域の通行状況を示す一連の状態を取得することと、
前記一連の状態のうち、第1のタイムスタンプに関連付けられた第1の状態が、第1の合流車両の合流動作を示すと決定することと、
後方時間距離に基づいて、前記一連の状態から、前記第1の状態の前記第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定することと、
前記一連の状態から、前記第1の状態の前記第1のタイムスタンプに続く第3のタイムスタンプに関連付けられた第3の状態を決定することと、
前記第1の状態、前記1つまたは複数の第2の状態、および前記合流動作に基づいて決定された前記合流動作の影響指標と、前記第3の状態に基づいて決定された前記合流動作の目標影響指標と、を使用して計算されたフィードバック値を受信することと、
前記フィードバック値に基づいて前記後方時間距離を調節することと、を含む、情報処理方法。 - 前記第3の状態を決定することは、
前方時間距離に基づいて、前記一連の状態から、前記第1の状態の前記第1のタイムスタンプに続く前記第3のタイムスタンプに関連付けられた前記第3の状態を決定することを含み、
前記情報処理方法は、
前記フィードバック値に基づいて前記前方時間距離を調節することをさらに含む、請求項9に記載の情報処理方法。 - 前記前方時間距離に基づいて前記第3の状態を決定することは、
前記第1の状態の前記第1のタイムスタンプおよび前記前方時間距離に基づいて、前記
第3のタイムスタンプを決定することと、
前記一連の状態から、前記第3のタイムスタンプに関連付けられた前記第3の状態を決定することと、を含む、請求項10に記載の情報処理方法。 - 機械学習ロジックを使用して、前記第1の状態、前記1つまたは複数の第2の状態、および前記合流動作に基づいて前記合流動作の前記影響指標が決定され、
前記合流動作の前記目標影響指標が、前記第3の状態に含まれる1つまたは複数の通行状況態様に基づいて決定され、
前記第3の状態に含まれる前記1つまたは複数の通行状況態様は、
1つまたは複数の合流車両の第1の車両動作データおよび入口ランプ区間の第1の区間通行データと、
1つまたは複数の上り側本線車両の第2の車両動作データおよび上り側高速道路区間の第2の区間通行データと、
1つまたは複数の下り側本線車両の第3の車両動作データおよび下り側高速道路区間の第3の区間通行データと、
前記第1の合流車両の合流時間長さと合流点位置とを含む、
請求項9に記載の情報処理方法。 - 前記合流動作の前記目標影響指標は、前記第3の状態に含まれる1つまたは複数の通行状況態様と、前記1つまたは複数の通行状況態様に割り当てられた1つまたは複数の重み値と、に基づいて決定される、
請求項9に記載の情報処理方法。 - 第1のタイムスタンプに関連付けられた1つまたは複数の第1の画像を含む第1の画像セットであって、合流区域を描写する第1の画像セットを受信することと、
トレーニング済みの第1の機械学習ロジックと前記第1の画像セットとを使用して、前記第1のタイムスタンプにおける前記合流区域の通行状況を示す第1の状態を決定することと、
トレーニング済みの第2の機械学習ロジックとトレーニング済みの後方時間距離とを使用して、一連のタイムスタンプにおける前記合流区域の前記通行状況を示す一連の状態から、前記第1の状態の前記第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定することと、
トレーニング済みの第3の機械学習ロジックと、前記第1の状態および前記1つまたは複数の第2の状態と、を使用して、複数の合流動作についての1つまたは複数の影響指標を計算することと、
前記1つまたは複数の影響指標に基づいて、前記複数の合流動作から第1の合流動作を選択することと、
前記合流区域内で前記第1の合流動作を実行するように命令する合流命令を合流車両に提供することと、を実行する制御部を備える情報処理システム。 - 一連のタイムスタンプにおける合流区域の通行状況を示す一連の状態を取得することと、
前記一連の状態のうち、第1のタイムスタンプに関連付けられた第1の状態が、第1の合流車両の合流動作を示すと決定することと、
後方時間距離に基づいて、前記一連の状態から、前記第1の状態の前記第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定することと、
前記一連の状態から、前記第1の状態の前記第1のタイムスタンプに続く第3のタイムスタンプに関連付けられた第3の状態を決定することと、
前記第1の状態、前記1つまたは複数の第2の状態、および前記合流動作に基づいて決
定された前記合流動作の影響指標と、前記第3の状態に基づいて決定された前記合流動作の目標影響指標と、を使用して計算されたフィードバック値を受信することと、
前記フィードバック値に基づいて前記後方時間距離を調節することと、を実行する制御部を備える情報処理システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/949,067 US10725475B2 (en) | 2018-04-09 | 2018-04-09 | Machine learning enhanced vehicle merging |
US15/949,067 | 2018-04-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019185770A JP2019185770A (ja) | 2019-10-24 |
JP6693587B2 true JP6693587B2 (ja) | 2020-05-13 |
Family
ID=68097136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019065433A Active JP6693587B2 (ja) | 2018-04-09 | 2019-03-29 | 情報処理方法および情報処理システム |
Country Status (3)
Country | Link |
---|---|
US (2) | US10725475B2 (ja) |
JP (1) | JP6693587B2 (ja) |
CN (1) | CN110364006B (ja) |
Families Citing this family (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018176000A1 (en) | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
WO2019005547A1 (en) * | 2017-06-28 | 2019-01-03 | Panasonic Intellectual Property Corporation Of America | MOBILE BODY CONTROL APPARATUS, MOBILE BODY CONTROL METHOD, AND LEARNING METHOD |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US10757485B2 (en) | 2017-08-25 | 2020-08-25 | Honda Motor Co., Ltd. | System and method for synchronized vehicle sensor data acquisition processing using vehicular communication |
US10916135B2 (en) * | 2018-01-13 | 2021-02-09 | Toyota Jidosha Kabushiki Kaisha | Similarity learning and association between observations of multiple connected vehicles |
US10963706B2 (en) | 2018-01-13 | 2021-03-30 | Toyota Jidosha Kabushiki Kaisha | Distributable representation learning for associating observations from multiple vehicles |
US10586118B2 (en) | 2018-01-13 | 2020-03-10 | Toyota Jidosha Kabushiki Kaisha | Localizing traffic situation using multi-vehicle collaboration |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
DE102019202090A1 (de) * | 2018-03-14 | 2019-09-19 | Robert Bosch Gmbh | Verfahren zum Erzeugen eines Trainingsdatensatzes zum Trainieren eines Künstlichen-Intelligenz-Moduls für eine Steuervorrichtung eines Roboters |
US10725475B2 (en) * | 2018-04-09 | 2020-07-28 | Toyota Jidosha Kabushiki Kaisha | Machine learning enhanced vehicle merging |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
EP3588211A1 (de) * | 2018-06-27 | 2020-01-01 | Siemens Aktiengesellschaft | Steuereinrichtung zum steuern eines technischen systems und verfahren zum konfigurieren der steuereinrichtung |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11181929B2 (en) | 2018-07-31 | 2021-11-23 | Honda Motor Co., Ltd. | System and method for shared autonomy through cooperative sensing |
US11163317B2 (en) | 2018-07-31 | 2021-11-02 | Honda Motor Co., Ltd. | System and method for shared autonomy through cooperative sensing |
US10788841B2 (en) * | 2018-08-24 | 2020-09-29 | Baidu Usa Llc | Hardware centralized time synchronization hub for an autonomous driving vehicle |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US20240177536A9 (en) * | 2018-09-30 | 2024-05-30 | Strong Force Tp Portfolio 2022, Llc | Intelligent transportation systems including digital twin interface for a passenger vehicle |
KR20210072048A (ko) | 2018-10-11 | 2021-06-16 | 테슬라, 인크. | 증강 데이터로 기계 모델을 훈련하기 위한 시스템 및 방법 |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11242050B2 (en) * | 2019-01-31 | 2022-02-08 | Honda Motor Co., Ltd. | Reinforcement learning with scene decomposition for navigating complex environments |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
US11145197B2 (en) * | 2019-03-13 | 2021-10-12 | Mitsubishi Electric Research Laboratories, Inc. | Joint control of vehicles traveling on different intersecting roads |
US20210221377A1 (en) * | 2020-01-21 | 2021-07-22 | Here Global B.V. | Method, apparatus, and computer program product for dynamically detecting dangerous merging situations |
CN111341125B (zh) * | 2020-02-07 | 2021-09-03 | 中国联合网络通信集团有限公司 | 车辆通行方法及装置 |
US11468774B2 (en) * | 2020-03-17 | 2022-10-11 | Honda Motor Co., Ltd. | Systems and methods for cooperative ramp merge |
US11400934B2 (en) | 2020-03-17 | 2022-08-02 | Honda Motor Co., Ltd. | Systems and methods for cooperative ramp merge |
US11485360B2 (en) * | 2020-04-03 | 2022-11-01 | Baidu Usa Llc | Dynamic speed limit adjustment system based on perception results |
KR20210132496A (ko) * | 2020-04-27 | 2021-11-04 | 한국전자기술연구원 | 영상 기반 차선 검출 및 주행 차로 인식 방법 및 장치 |
US11433924B2 (en) | 2020-04-30 | 2022-09-06 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for controlling one or more vehicles with one or more controlled vehicles |
JP7235015B2 (ja) | 2020-07-17 | 2023-03-08 | トヨタ自動車株式会社 | 自動操舵システム |
CN112590792B (zh) * | 2020-12-18 | 2024-05-10 | 的卢技术有限公司 | 一种基于深度强化学习算法的车辆汇合控制方法 |
CN112885088B (zh) * | 2021-01-25 | 2022-05-17 | 浙江工业大学 | 一种基于动态交通流的多匝道协调控制方法 |
JP2022121103A (ja) * | 2021-02-08 | 2022-08-19 | パナソニックIpマネジメント株式会社 | 合流支援装置、合流支援システム、及び合流支援方法 |
CN113223324B (zh) * | 2021-03-25 | 2022-05-24 | 东南大学 | 高速匝道入口合流的控制方法 |
JP7487709B2 (ja) | 2021-06-02 | 2024-05-21 | トヨタ自動車株式会社 | 車両駆動ユニットの制御装置及び制御方法 |
CN114023067B (zh) * | 2021-11-08 | 2022-09-16 | 河海大学 | 一种车联网环境稳健性导向的道路行程时间预测方法 |
CN114708734B (zh) * | 2022-05-07 | 2023-01-10 | 合肥工业大学 | 一种入口匝道网联人工驾驶车辆汇入主线协同控制方法 |
CN118430252B (zh) * | 2024-04-30 | 2024-10-11 | 浙江省交通运输科学研究院 | 基于强化学习和事件触发预测的高速公路匝道管控方法 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08263793A (ja) * | 1995-03-23 | 1996-10-11 | Honda Motor Co Ltd | 車両制御装置 |
JPH10105893A (ja) * | 1996-09-30 | 1998-04-24 | Mitsubishi Motors Corp | 合流制御システム |
JPH1153685A (ja) | 1997-07-31 | 1999-02-26 | Toyota Motor Corp | 合流支援装置 |
US7146345B2 (en) * | 2000-08-24 | 2006-12-05 | Weik Iii Martin Herman | Parking barrier with accident event logging and self-diagnostic control system |
DE10358034A1 (de) * | 2003-12-11 | 2005-07-14 | Daimlerchrysler Ag | Adaption einer automatischen Folgeführung an potentiell auf die eigene Fahrspur einscherende Verkehrsteilnehmer |
JP2007323178A (ja) * | 2006-05-30 | 2007-12-13 | Nissan Motor Co Ltd | 合流支援装置及び合流支援方法 |
WO2008086293A2 (en) * | 2007-01-05 | 2008-07-17 | Nestor, Inc. | A system and method for measuring the speed of vehicles or other objects |
CA2742126A1 (en) * | 2007-10-30 | 2009-05-07 | Allen E. Webster | Vehicle safety camera system |
CA2712576C (en) * | 2009-08-11 | 2012-04-10 | Certusview Technologies, Llc | Systems and methods for complex event processing of vehicle-related information |
US9047781B2 (en) * | 2011-05-31 | 2015-06-02 | Georgia Tech Research Corporation | Safety zone detection, enforcement and alarm system and related methods |
JP2015052902A (ja) * | 2013-09-06 | 2015-03-19 | 株式会社デンソー | 合流情報提供装置 |
US9738280B2 (en) | 2013-10-03 | 2017-08-22 | Robert Bosch Gmbh | Adaptive cruise control with on-ramp detection |
US9002647B1 (en) * | 2014-06-27 | 2015-04-07 | Google Inc. | Generating turn-by-turn direction previews |
CN104464317B (zh) * | 2014-12-03 | 2016-05-11 | 武汉理工大学 | 高速公路入口匝道合流区引导控制系统和方法 |
US20160191945A1 (en) * | 2014-12-24 | 2016-06-30 | Sony Corporation | Method and system for processing video content |
JP6422812B2 (ja) * | 2015-04-09 | 2018-11-14 | 三菱電機株式会社 | 運転支援装置および運転支援方法 |
JP6606369B2 (ja) * | 2015-07-21 | 2019-11-13 | 株式会社Soken | 物体検出装置及び物体検出方法 |
US9996756B2 (en) * | 2015-08-31 | 2018-06-12 | Lytx, Inc. | Detecting risky driving with machine vision |
JP2018537794A (ja) * | 2015-12-17 | 2018-12-20 | コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. | 支援付きの交通合流 |
CN105654754B (zh) | 2016-01-20 | 2018-11-27 | 深圳前海达闼云端智能科技有限公司 | 一种车辆控制方法及装置 |
CN105912814A (zh) * | 2016-05-05 | 2016-08-31 | 苏州京坤达汽车电子科技有限公司 | 智能驾驶车辆换道决策模型 |
CN106981193B (zh) * | 2017-04-20 | 2020-05-01 | 西南交通大学 | 基于车辆间相互作用势的入口匝道交通流模型仿真方法 |
CN109591817A (zh) * | 2017-09-30 | 2019-04-09 | 上海欧菲智能车联科技有限公司 | 车道偏离预警系统的测试装置和测试方法 |
US10725475B2 (en) * | 2018-04-09 | 2020-07-28 | Toyota Jidosha Kabushiki Kaisha | Machine learning enhanced vehicle merging |
-
2018
- 2018-04-09 US US15/949,067 patent/US10725475B2/en active Active
-
2019
- 2019-03-29 JP JP2019065433A patent/JP6693587B2/ja active Active
- 2019-04-09 CN CN201910278033.5A patent/CN110364006B/zh active Active
-
2020
- 2020-05-01 US US16/864,171 patent/US11294388B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN110364006B (zh) | 2022-01-07 |
CN110364006A (zh) | 2019-10-22 |
JP2019185770A (ja) | 2019-10-24 |
US20200257303A1 (en) | 2020-08-13 |
US10725475B2 (en) | 2020-07-28 |
US11294388B2 (en) | 2022-04-05 |
US20190310648A1 (en) | 2019-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6693587B2 (ja) | 情報処理方法および情報処理システム | |
US10867404B2 (en) | Distance estimation using machine learning | |
JP6741107B2 (ja) | 交通状況のリアルタイム検出 | |
US11151868B2 (en) | Remote vehicle control at intersections | |
US10916135B2 (en) | Similarity learning and association between observations of multiple connected vehicles | |
US12128901B2 (en) | Virtualized driver assistance | |
US11232705B2 (en) | Mitigation of traffic oscillation on roadway | |
JP6642745B2 (ja) | 複数のコネクティッド車両による観測値を関連付けるための学習方法 | |
US11451974B2 (en) | Managing regionalized vehicular communication | |
US20210389133A1 (en) | Systems and methods for deriving path-prior data using collected trajectories | |
US11482109B2 (en) | Cooperative vehicle monitoring | |
US20220375345A1 (en) | Hierarchical Computing Architecture for Traffic Management |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190329 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200317 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200330 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6693587 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |