JP6693587B2 - 情報処理方法および情報処理システム - Google Patents

情報処理方法および情報処理システム Download PDF

Info

Publication number
JP6693587B2
JP6693587B2 JP2019065433A JP2019065433A JP6693587B2 JP 6693587 B2 JP6693587 B2 JP 6693587B2 JP 2019065433 A JP2019065433 A JP 2019065433A JP 2019065433 A JP2019065433 A JP 2019065433A JP 6693587 B2 JP6693587 B2 JP 6693587B2
Authority
JP
Japan
Prior art keywords
state
vehicle
merging
states
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019065433A
Other languages
English (en)
Other versions
JP2019185770A (ja
Inventor
ヤン,ハオ
ゴ,レイ
尾口 健太郎
健太郎 尾口
リウ,リウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JP2019185770A publication Critical patent/JP2019185770A/ja
Application granted granted Critical
Publication of JP6693587B2 publication Critical patent/JP6693587B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • B62D15/0255Automatic changing of lane, e.g. for passing another vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Atmospheric Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

(関連出願への相互参照)
本出願は、「MACHINE LEARNING ENHANCED VEHICLE MERGING」と題し、2018年4月
9日に出願された米国特許出願第15/949,067号の優先権を主張する。これらの特許出願は、その全体が参照によって本願明細書に援用される。
本開示は、車両ナビゲーションのための情報処理方法および情報処理システムに関し、より具体的な例では、強化された車両車線合流に関する。
高速道路への合流は複雑な運転タスクであり、多くの場合、入口ランプ上の合流車両と、高速道路上の本線車両との間の協調を必要とする。高速道路通行の流れを妨げたり低下させたりすることなく、合流車両が、最小の遅れで安全に高速道路に合流できるように、合流車両の合流挙動を規制することは困難である。今日、いくつかの現代のシステムは、合流車両の合流挙動を容易にするために車両動作監視に依存している。しかしながら、これらのシステムは一般に、合流車両の本線通行の交通容量に対する合流挙動の影響を制限しながら、合流車両の合流行為を改善することはできない。それに加えて、これらの既存の技術はしばしば、合流車両および本線車両が、システムの制御と通信し、それに適合できることを必要とする。したがって、道路を走行する1つまたは複数の車両に、これらの機能が備えられていない場合、これらのシステムが動作することは通常不可能である。
特開平11−053685号公報
本開示に記述される主題は、合流車両が、本線通行に合流するための最適な合流動作を決定するための新規な技術を提供することによって、既存の解決策の欠点および制限を克服する。
本開示に記述された主題の1つの革新的な態様によれば、コンピュータによって実施される方法は、合流区域を描写する第1の画像セットを受信することであって、第1の画像セットは、第1のタイムスタンプに関連付けられた1つまたは複数の第1の画像を含む、受信することと、トレーニング済みの第1の機械学習ロジックを使用して、第1の画像セットを使用して第1のタイムスタンプにおける合流区域の通行状況を示す第1の状態を判定することと、トレーニング済みの第2の機械学習ロジックを使用して、一連のタイムスタンプにおける合流区域の通行状況を示す一連の状態から、トレーニング済みの後方時間距離を使用して、第1の状態の第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を判定することと、トレーニング済みの第3の機械学習ロジックを使用して、第1の状態、1つまたは複数の第2の状態、および1つまたは複数の合流動作を使用して、1つまたは複数の合流動作についての1つまたは複数の影響指標を計算することと、1つまたは複数の影響指標に基づいて、1つまたは複数の合流動作から、第1の合流動作を選択することと、合流車両に、第1の合流動作を含む合流命令を提供することであって、合流命令は、合流車両に対して、合流区域内で第1の合流動作を実行するように命令する、提供することとを含む。
一般に、本開示に記述されている主題の別の革新的な態様は、一連のタイムスタンプにおける合流区域の通行状況を示す一連の状態を取得することと、一連の状態のうち、第1のタイムスタンプに関連付けられた第1の状態が、第1の合流車両の合流動作を示すと判定することと、一連の状態から、後方時間距離を使用して、第1の状態の第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を判定することと、一連の状態から、第1の状態の第1のタイムスタンプに続く第3のタイムスタンプに関連付けられた第3の状態を判定することと、合流動作の影響指標および合流動作の目標影響指標を使用して計算されたフィードバック値を受信することであって、合流動作の影響指標は、第1の状態、1つまたは複数の第2の状態、および合流動作に基づいて判定され、合流動作の目標影響指標は、第3の状態に基づいて判定される、受信することと、フィードバック値に基づいて後方時間距離を調節することとを含む、コンピュータによって実施される方法において具体化され得る。
一般に、本開示に記述されている主題の別の革新的な態様は、1つまたは複数のプロセッサと、1つまたは複数のプロセッサによって実行された場合、システムに対して、合流区域を描写する第1の画像セットを受信することであって、第1の画像セットは、第1のタイムスタンプに関連付けられた1つまたは複数の第1の画像を含む、受信することと、トレーニング済みの第1の機械学習ロジックを使用して、第1の画像セットを使用して第1のタイムスタンプにおける合流区域の通行状況を示す第1の状態を判定することと、トレーニング済みの第2の機械学習ロジックを使用して、一連のタイムスタンプにおける合流区域の通行状況を示す一連の状態から、トレーニング済みの後方時間距離を使用して、第1の状態の第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を判定することと、トレーニング済みの第3の機械学習ロジックを使用して、第1の状態、1つまたは複数の第2の状態、および1つまたは複数の合流動作を使用して、1つまたは複数の合流動作についての1つまたは複数の影響指標を計算することと、1つまたは複数の影響指標に基づいて、1つまたは複数の合流動作から、第1の合流動作を選択することと、合流車両に、第1の合流動作を含む合流命令を提供することであって、合流命令は、合流車両に対して、合流区域内で第1の合流動作を実行するように命令する、提供することとをさせる命令を記憶した1つまたは複数のメモリとを備える、システムにおいて具体化され得る。
一般に、本開示に記述されている主題の別の革新的な態様は、1つまたは複数のプロセッサと、1つまたは複数のプロセッサによって実行された場合、システムに対して、一連のタイムスタンプにおける合流区域の通行状況を示す一連の状態を検索することと、一連の状態のうち、第1のタイムスタンプに関連付けられた第1の状態が、第1の合流車両の合流動作を示すと判定することと、一連の状態から、後方時間距離を使用して、第1の状態の第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を判定することと、一連の状態から、第1の状態の第1のタイムスタンプに続く第3のタイムスタンプに関連付けられた第3の状態を判定することと、合流動作の影響指標および合流動作の目標影響指標を使用して計算されたフィードバック値を受信することであって、合流動作の影響指標は、第1の状態、1つまたは複数の第2の状態、および合流動作に基づいて判定され、合流動作の目標影響指標は、第3の状態に基づいて判定される、受信することと、フィードバック値に基づいて後方時間距離を調節することとをさせる命令を記憶した1つまたは複数のメモリとを備える、システムにおいて具体化され得る。
これらおよび他の実施はそれぞれ、オプションで、以下の特徴のうちの1つまたは複数を含み得る。1つまたは複数の第2の状態が、複数の第2の状態を含み、一連の状態から1つまたは複数の第2の状態を判定することは、第1の状態の第1のタイムスタンプおよ
びトレーニング済みの後方時間距離に基づいて、過去の時間範囲を判定することと、一連の状態から、過去の時間範囲内の複数の第2のタイムスタンプに関連付けられた複数の第2の状態を判定することとを含む。1つまたは複数の合流動作は、1つまたは複数の目標合流速度への1つまたは複数の速度調節、1つまたは複数の目標加速度への1つまたは複数の加速度調節、および1つまたは複数の目標操舵角に対する1つまたは複数の角度調節を含む。合流車両の制御ユニットを使用して、第1の合流動作を含む合流命令を処理することと、合流区域内で第1の合流動作を実行するように、合流車両の制御ユニットを使用して、合流車両を制御すること。合流区域は、入口ランプ区間、上り側高速道路区間、および下り側高速道路区間を含み、第1の画像セットは、合流区域に位置する1つまたは複数の路側機、入口ランプ区間に位置する1つまたは複数の合流車両、上り側高速道路区間に位置する1つまたは複数の上り側本線車両、および下り側高速道路区間に位置する1つまたは複数の下り側本線車両から受信した、第1のスタンプに関連付けられた1つまたは複数の第1の画像を含む。合流区域は、入口ランプ区間、上り側高速道路区間、および下り側高速道路区間を含み、トレーニング済みの第1の機械学習ロジックを使用して、一連のタイムスタンプにおける対応するタイムスタンプに関連付けられた一連の状態におけるそれぞれの状態を、対応するタイムスタンプに関連付けられた画像セットを使用して、判定し、画像セットは、合流区域に位置する1つまたは複数の路側機、入口ランプ区間に位置する1つまたは複数の合流車両、上り側高速道路区間に位置する1つまたは複数の上り側本線車両、および下り側高速道路区間に位置する1つまたは複数の下り側本線車両から受信した、対応するタイムスタンプに関連付けられた1つまたは複数の画像を含む。一連の状態および第1の状態における各状態は、合流区域の1つまたは複数の車道構成要素を示す車道データと、1つまたは複数の合流車両の第1の車両動作データ、1つまたは複数の上り側本線車両の第2の車両動作データ、および1つまたは複数の下り側本線車両の第3の車両動作データと、入口ランプ区間の第1の区間通行データ、上り側高速道路区間の第2の区間通行データ、および下り側高速道路区間の第3の区間通行データとを含む。1つまたは複数の合流車両、1つまたは複数の上り側本線車両、および1つまたは複数の下り側本線車両に含まれる各車両の車両動作データは、車両に関連付けられた車両位置、車両速度、および加速度パターンのうちの1つまたは複数を指定し、入口ランプ区間、上り側高速道路区間、および下り側高速道路区間のうちの各道路区間の区間通行データは、道路区間に関連付けられた通行流量、車両密度、平均車両速度、および平均追従距離のうちの1つまたは複数を指定する。
これらおよび他の実施はそれぞれ、オプションで、以下の特徴のうちの1つまたは複数を含み得る。第3の状態を判定することは、一連の状態から、前方時間距離を使用して第1の状態の第1のタイムスタンプに続く第3のタイムスタンプに関連付けられた第3の状態を判定することを含み、フィードバック値に基づいて前方時間距離を調節する。前方時間距離を使用して第3の状態を判定することは、第1の状態の第1のタイムスタンプおよび前方時間距離に基づいて、第3のタイムスタンプを判定することと、一連の状態から、第3のタイムスタンプに関連付けられた第3の状態を判定することとを含む。機械学習ロジックを使用して、第1の状態、1つまたは複数の第2の状態、および合流動作に基づいて、合流動作の影響指標が判定され、合流動作の目標影響指標が、第3の状態に含まれる1つまたは複数の通行状況態様に基づいて判定され、第3の状態に含まれる1つまたは複数の通行状況態様は、1つまたは複数の合流車両の第1の車両動作データおよび入口ランプ区間の第1の区間通行データと、1つまたは複数の上り側本線車両の第2の車両動作データおよび上り側高速道路区間の第2の区間通行データと、1つまたは複数の下り側本線車両の第3の車両動作データおよび下り側高速道路区間の第3の区間通行データと、第1の合流車両の合流時間長さおよび合流点位置とを含む。合流動作の目標影響指標は、第3の状態に含まれる1つまたは複数の通行状況態様と、1つまたは複数の通行状況態様に割り当てられた1つまたは複数の重み値とに基づいて判定される。
これらの態様および他の態様のうちの1つまたは複数の他の実施は、非一時的コンピュータ記憶デバイス上に符号化された方法の動作を実行するように構成された対応するシステム、装置、およびコンピュータプログラムを含む。
本開示に提示される合流車両のための最適な合流動作を判定するための新規な技術は、いくつかの観点において特に有利である。たとえば、本明細書に記述された技術は、合流動作の影響指標を使用して、最適な合流動作を学習し得る。合流動作の影響指標は、入口ランプ上の合流車両および高速道路上の本線車両に対する合流動作の影響を示し得る。したがって、本技術は、合流車両の合流行為と本線通行の交通容量との両方を改善する最適な合流動作を学習することができ、それによって通行ネットワークの全体的な性能を最適化する。さらなる例として、本技術は、入力として合流区域のキャプチャされた画像のみを必要とする。したがって、本技術は、通行に参加している車両が、無反応の車両を含む場合でも有利に適用可能である。さらに、本明細書に記述された技術は、最適な合流動作を判定するために、合流区域の過去の通行状況と、合流動作の将来の影響とを、トレーニングプロセスに組み込む。このようにして、最適な合流動作が、包括的に判定され得る。
本開示に係る情報処理方法は、第1のタイムスタンプに関連付けられた1つまたは複数の第1の画像を含む第1の画像セットであって、合流区域を描写する第1の画像セットを受信することと、トレーニング済みの第1の機械学習ロジックと前記第1の画像セットとを使用して、前記第1のタイムスタンプにおける前記合流区域の通行状況を示す第1の状態を決定することと、トレーニング済みの第2の機械学習ロジックとトレーニング済みの後方時間距離とを使用して、一連のタイムスタンプにおける前記合流区域の前記通行状況を示す一連の状態から、前記第1の状態の前記第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定することと、トレーニング済みの第3の機械学習ロジックと、前記第1の状態および前記1つまたは複数の第2の状態と、を使用して、複数の合流動作についての1つまたは複数の影響指標を計算することと、前記1つまたは複数の影響指標に基づいて、前記複数の合流動作から第1の合流動作を選択することと、前記合流区域内で前記第1の合流動作を実行するように命令する合流命令を合流車両に提供することと、を含む。
本開示に係る情報処理方法において、前記一連の状態から前記1つまたは複数の第2の状態を決定することは、前記第1の状態の前記第1のタイムスタンプおよび前記トレーニング済みの後方時間距離に基づいて、過去の時間範囲を決定することと、前記一連の状態から、前記過去の時間範囲内の複数の第2のタイムスタンプに関連付けられた複数の第2の状態を決定することと、を含み得る。
本開示に係る情報処理方法において、前記1つまたは複数の合流動作は、1つまたは複数の目標合流速度への1つまたは複数の速度調節、1つまたは複数の目標加速度への1つまたは複数の加速度調節、および1つまたは複数の目標操舵角への1つまたは複数の角度調節を含み得る。
本開示に係る情報処理方法は、前記合流車両の制御ユニットにおいて前記合流命令を処理することで、前記合流区域内で前記第1の合流動作を実行するように前記合流車両を制御することをさらに含み得る。
本開示に係る情報処理方法において、前記合流区域は、入口ランプ区間、上り側高速道路区間、および下り側高速道路区間を含み得る。また、前記第1の画像セットは、前記合流区域に位置する1つまたは複数の路側機、前記入口ランプ区間に位置する1つまたは複数の合流車両、前記上り側高速道路区間に位置する1つまたは複数の上り側本線車両、および前記下り側高速道路区間に位置する1つまたは複数の下り側本線車両から受信した、前記第1のタイムスタンプに関連付けられた前記1つまたは複数の第1の画像を含み得る。
本開示に係る情報処理方法は、前記一連のタイムスタンプにおける対応するタイムスタンプに関連付けられた前記一連の状態におけるそれぞれの状態を、前記トレーニング済み
の第1の機械学習ロジックと、前記対応するタイムスタンプに関連付けられた画像セットと、を使用して決定することを含み得る。このとき、前記画像セットは、前記合流区域に位置する1つまたは複数の路側機、前記入口ランプ区間に位置する1つまたは複数の合流車両、前記上り側高速道路区間に位置する1つまたは複数の上り側本線車両、および前記下り側高速道路区間に位置する1つまたは複数の下り側本線車両から受信した、前記対応するタイムスタンプに関連付けられた1つまたは複数の画像を含み得る。
本開示に係る情報処理方法において、前記一連の状態および前記第1の状態における各状態は、前記合流区域の1つまたは複数の車道構成要素を示す車道データと、1つまたは複数の合流車両の第1の車両動作データ、1つまたは複数の上り側本線車両の第2の車両動作データ、および1つまたは複数の下り側本線車両の第3の車両動作データと、入口ランプ区間の第1の区間通行データ、上り側高速道路区間の第2の区間通行データ、および下り側高速道路区間の第3の区間通行データと、を含み得る。
本開示に係る情報処理方法において、前記1つまたは複数の合流車両、前記1つまたは複数の上り側本線車両、および前記1つまたは複数の下り側本線車両に含まれる各車両の前記第1の車両動作データ、前記第2の車両動作データ、または前記第3の車両動作データは、各車両に関連付けられた車両位置、車両速度、および加速度パターンのうちの1つまたは複数を指定し得る。また、前記入口ランプ区間、前記上り側高速道路区間、および前記下り側高速道路区間のうちの各道路区間の前記第1の区間通行データ、前記第2の区間通行データ、または前記第3の区間通行データは、前記道路区間に関連付けられた通行流量、速度密度、平均車両速度、および平均追従距離のうちの1つまたは複数を指定し得る。
本開示に係る情報処理方法は、一連のタイムスタンプにおける合流区域の通行状況を示す一連の状態を取得することと、前記一連の状態のうち、第1のタイムスタンプに関連付けられた第1の状態が、第1の合流車両の合流動作を示すと決定することと、後方時間距離に基づいて、前記一連の状態から、前記第1の状態の前記第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定することと、前記一連の状態から、前記第1の状態の前記第1のタイムスタンプに続く第3のタイムスタンプに関連付けられた第3の状態を決定することと、前記第1の状態、前記1つまたは複数の第2の状態、および前記合流動作に基づいて決定された前記合流動作の影響指標と、前記第3の状態に基づいて決定された前記合流動作の目標影響指標と、を使用して計算されたフィードバック値を受信することと、前記フィードバック値に基づいて前記後方時間距離を調節することと、を含む。
本開示に係る情報処理方法において、前記第3の状態を決定することは、前方時間距離に基づいて、前記一連の状態から、前記第1の状態の前記第1のタイムスタンプに続く前記第3のタイムスタンプに関連付けられた前記第3の状態を決定することを含み得る。このとき、本開示に係る情報処理方法は、前記フィードバック値に基づいて前記前方時間距離を調節することをさらに含み得る。
本開示に係る情報処理方法において、前記前方時間距離に基づいて前記第3の状態を決定することは、前記第1の状態の前記第1のタイムスタンプおよび前記前方時間距離に基づいて、前記第3のタイムスタンプを決定することと、前記一連の状態から、前記第3のタイムスタンプに関連付けられた前記第3の状態を決定することと、を含み得る。
本開示に係る情報処理方法において、機械学習ロジックを使用して、前記第1の状態、前記1つまたは複数の第2の状態、および前記合流動作に基づいて前記合流動作の前記影響指標が決定され、前記合流動作の前記目標影響指標が、前記第3の状態に含まれる1つまたは複数の通行状況態様に基づいて決定され得る。このとき、前記第3の状態に含まれる前記1つまたは複数の通行状況態様は、1つまたは複数の合流車両の第1の車両動作データおよび入口ランプ区間の第1の区間通行データと、1つまたは複数の上り側本線車両の第2の車両動作データおよび上り側高速道路区間の第2の区間通行データと、1つまたは複数の下り側本線車両の第3の車両動作データおよび下り側高速道路区間の第3の区間
通行データと、前記第1の合流車両の合流時間長さと合流点位置とを含み得る。
本開示に係る情報処理方法において、前記合流動作の前記目標影響指標は、前記第3の状態に含まれる1つまたは複数の通行状況態様と、前記1つまたは複数の通行状況態様に割り当てられた1つまたは複数の重み値と、に基づいて決定され得る。
本開示に係る情報処理システムは、第1のタイムスタンプに関連付けられた1つまたは複数の第1の画像を含む第1の画像セットであって、合流区域を描写する第1の画像セットを受信することと、トレーニング済みの第1の機械学習ロジックと前記第1の画像セットとを使用して、前記第1のタイムスタンプにおける前記合流区域の通行状況を示す第1の状態を決定することと、トレーニング済みの第2の機械学習ロジックとトレーニング済みの後方時間距離とを使用して、一連のタイムスタンプにおける前記合流区域の前記通行状況を示す一連の状態から、前記第1の状態の前記第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定することと、トレーニング済みの第3の機械学習ロジックと、前記第1の状態および前記1つまたは複数の第2の状態と、を使用して、複数の合流動作についての1つまたは複数の影響指標を計算することと、前記1つまたは複数の影響指標に基づいて、前記複数の合流動作から第1の合流動作を選択することと、前記合流区域内で前記第1の合流動作を実行するように命令する合流命令を合流車両に提供することと、を実行する制御部を備える。
本開示に係る情報処理システムは、一連のタイムスタンプにおける合流区域の通行状況を示す一連の状態を取得することと、前記一連の状態のうち、第1のタイムスタンプに関連付けられた第1の状態が、第1の合流車両の合流動作を示すと決定することと、後方時間距離に基づいて、前記一連の状態から、前記第1の状態の前記第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定することと、前記一連の状態から、前記第1の状態の前記第1のタイムスタンプに続く第3のタイムスタンプに関連付けられた第3の状態を決定することと、前記第1の状態、前記1つまたは複数の第2の状態、および前記合流動作に基づいて決定された前記合流動作の影響指標と、前記第3の状態に基づいて決定された前記合流動作の目標影響指標と、を使用して計算されたフィードバック値を受信することと、前記フィードバック値に基づいて前記後方時間距離を調節することと、を実行する制御部を備える。
前述の利点は、例として提供されていること、および本技術は、他の多数の利点および利益を有し得ることが理解されるべきである。
本開示は、同一の参照番号が、類似の要素を指すために使用されている添付図面における図において、例として、限定ではなく例示されている。
図1は、強化された車両合流のための例示的なシステムのブロック図である。 図2は、例示的な合流アプリケーションのブロック図である。 図3は、合流アプリケーションの例示的なトレーニング段階および例示的な実施段階のブロック図である。 図4は、合流アプリケーションの状態マネジャをトレーニングするための例示的な方法のフローチャートである。 図5は、例示的な一連の状態を例示する。 図6は、合流車両のための最適な合流動作を決定するための例示的な方法のフローチャートである。 図7は、合流区域のキャプチャされた画像から合流区域の状態を決定するための例示的な方法のフローチャートである。 図8は、例示的な合流区域を例示する図である。
本明細書に記述される技術は、自動的に、効率的に、そして安全に車両を本線通行に合流させるための最適な合流動作を決定することができる。以下でさらに詳細に記述されるように、本技術は、他の態様の中でも、車両合流方法、システム、コンピューティングデバイス、コンピュータプログラム製品、および装置のような様々な態様を含む。
例示的な車両合流システムは、キャプチャされた画像から様々なタイムスタンプにおける合流区域の通行状況を示す多数の状態を決定し、合流動作の影響を評価するために必要な一連の状態における1つまたは複数の状態を決定し、関連する通行および合流車両の合流行為に対する合流動作の影響を示す影響指標を計算するようにトレーニングされる。結果として、実施段階において、トレーニング済みの車両合流システムは、様々な合流動作についての影響指標を計算し、それにしたがって、合流車両によって実行されるべき最適な合流動作を決定することができる。
図1は、強化された車両合流のための例示的なシステム100のブロック図である。図示されるように、システム100は、ネットワーク105を介した電子通信のために結合されたサーバ101、1つまたは複数の車両プラットフォーム103a・・・103n、および1つまたは複数の路側機107a・・・107nを含む。図1および残りの図において、参照番号の後の文字、たとえば「103a」は、その特定の参照番号を有する要素への参照を表す。後続する文字のない参照番号、たとえば「103」は、その参照番号を有する要素の一般的な参照を表す。図1に描写されるシステム100は例として提供され、システム100および/または本開示によって企図されるさらなるシステムは、追加の、および/または、より少ない構成要素を含み得るか、構成要素を組み合わせ得るか、および/または、構成要素のうちの1つまたは複数を、追加の構成要素へ分割し得ること等が理解されるべきである。たとえば、システム100は、任意の数の車両プラットフォーム103、路側機107、ネットワーク105、またはサーバ101を含み得る。
ネットワーク105は、有線および/または無線の従来式であり、スター構成、トークンリング構成、または他の構成を含む多数の異なる構成を有し得る。たとえば、ネットワーク105は、1つまたは複数のローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)(たとえば、インターネット)、パーソナルエリアネットワーク(PAN)、公衆ネットワーク、プライベートネットワーク、仮想ネットワーク、仮想プライベートネットワーク、ピアツーピアネットワーク、近距離無線ネットワーク(たとえば、Bluetooth(登録商標)、NFC等)、車両ネットワーク、および/または、多数のデバイスが通信し得る他の相互接続されたデータパスを含み得る。
ネットワーク105はまた、様々な異なる通信プロトコルでデータを送信するために電気通信ネットワークの一部に結合されるか、または、含む。例示的なプロトコルは、限定されないが、伝送制御プロトコル/インターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、伝送制御プロトコル(TCP)、ハイパーテキスト転送プロトコル(HTTP)、セキュアハイパーテキスト転送プロトコル(HTTPS)、ダイナミックアダプティブストリーミングオーバHTTP(DASH)、リアルタイムストリーミングプロトコル(RTSP)、リアルタイム伝送プロトコル(RTP)、リアルタイム伝送制御プロトコル(RTCP)、ボイスオーバーインターネットプロトコル(VOIP)、ファイル転送プロトコル(FTP)、WebSocket(WS)、無線アクセスプロトコル(WAP)、様々なメッセージングプロトコル(SMS、MMS、XMS、IMAP、SMTP、POP、WebDAV等)、または他の適切なプロトコルを含む。いくつかの実施形態において、ネットワーク105は、DSRC(専用短距離通信)
、WAVE、802.11p、3G、4G、5G+ネットワーク、WiFiTM、衛星ネットワーク、車両−車両(V2V)ネットワーク、車両−インフラストラクチャ/インフラストラクチャ−車両(V2I/I2V)ネットワーク、または他の任意の無線ネットワークのような接続を使用する無線ネットワークである。図1は、サーバ101および車両プラットフォーム103に結合するネットワーク105のための単一ブロックを例示しているが、ネットワーク105は、実際には、上述のように任意の数のネットワークの組合せを含み得ることが理解されるべきである。
サーバ101は、プロセッサ、メモリ、およびネットワーク通信機能(たとえば、通信ユニット)を含むハードウェアおよび/または仮想サーバを含む。信号線145によって示されるように、サーバ101は、ネットワーク105に通信可能に結合される。いくつかの実施形態において、サーバは、システム100の他のエンティティ、たとえば車両プラットフォーム103および/または路側機107との間でデータを送受信する。描写されるように、サーバ101は、本明細書の他の箇所でさらに論じられるように、合流アプリケーション120のインスタンス120aを含む。
路側機107a・・・107nは、プロセッサ、メモリ、およびネットワーク通信機能(たとえば、通信ユニット)を含むハードウェアおよび/または仮想サーバを含む。路側機107は、信号線147a・・・147nによって反映されるように、ネットワーク105に通信可能に結合される。いくつかの実施形態において、路側機107は、高い位置に取り付けられたインフラストラクチャであるか、および/または、合流区域のように、車両が合流する区域内の様々な道路区間の路側に位置される。合流区域は、別の車線と合流する車線、車両が左折もしくは右折して、通過通行と合流する交差点、または車両が同じ通行流に合流する他の任意の合流点を含む。いくつかの実施形態において、路側機107は、センサ範囲内の合流区域内の道路区間の画像をキャプチャするように構成された1つまたは複数の画像センサ(たとえば、監視カメラ)を含む。いくつかの実施形態において、路側機107は、合流区域の道路区間を描写するキャプチャされた画像を、システム100の他のエンティティ、たとえば車両プラットフォーム103および/またはサーバ101に送る。
車両プラットフォーム103は、センサ113、プロセッサ115、メモリ117、通信ユニット119、車両データストア121、および合流アプリケーション120を有するコンピューティングデバイス152を含む。コンピューティングデバイス152の例は、1つまたは複数のセンサ113、1つまたは複数のアクチュエータ、1つまたは複数のモチベータ等のような車両プラットフォーム103の他の構成要素に結合された仮想または物理的コンピュータプロセッサ、制御ユニット、マイクロコントローラ等を含む。車両プラットフォーム103は、信号線141を介してネットワーク105に結合され、他の車両プラットフォーム103、路側機107、および/またはサーバ101との間でデータを送受信する。いくつかの実施形態において、車両プラットフォーム103は、ある地点から別の地点へ移動することができる。車両プラットフォーム103の非限定的な例は、車両、自動車、バス、ボート、飛行機、バイオニックインプラント、ロボット、または、非一時的コンピュータ電子機器(たとえば、プロセッサ、メモリ、または非一時的コンピュータ電子機器の任意の組合せ)を有する他の任意のプラットフォームを含み得る。車両プラットフォーム103は、本明細書では車両と称され得る。
プロセッサ115は、様々な入力/出力、論理的、および/または、数学的演算を実行することによってソフトウェア命令(たとえば、タスク)を実行する。プロセッサ115は、データ信号を処理するための様々なコンピューティングアーキテクチャを有する。プロセッサ115は、物理的および/または仮想的であり得、単一のコアまたは複数の処理ユニットおよび/またはコアを含み得る。車両プラットフォーム103のコンテキストで
は、プロセッサは、車のような車両プラットフォーム103において実施された電子制御ユニット(ECU)であり得るが、他の種類のプラットフォームも可能であり企図される。ECUは、合流アプリケーション120によるアクセスおよび/または検索のために、センサデータを車両操作データとして受信し、車両データストア121に記憶する。いくつかの実施では、プロセッサ115は、電子表示信号を生成して入力/出力デバイスへ提供し、画像の表示をサポートし、画像をキャプチャおよび送信し、様々なタイプの通行状況分析および機械学習実施等を含む複雑なタスクを実行することができる。いくつかの実施では、プロセッサ115は、データおよび命令にアクセスし、そこにデータを記憶するために、バス154を介してメモリ117へ結合される。バス154は、プロセッサ115を、たとえばセンサ113、メモリ117、通信ユニット119、および/または、車両データストア121を含む、車両プラットフォーム103の他の構成要素に結合する。
合流アプリケーション120は、車両を合流するための最適な合流動作を決定するために実行可能なソフトウェアおよび/またはハードウェアロジックを含む。図1に例示されるように、サーバ101および車両プラットフォーム103a・・・103nは、合流アプリケーション120のインスタンス120a、120b・・・120nを含む。いくつかの実施形態において、各インスタンス120a、120b・・・120nは、図2に描写される合流アプリケーション120の1つまたは複数の構成要素を備え、インスタンスが存在する場所に応じて、本明細書に記述された機能を完全または部分的に実行するように構成される。いくつかの実施形態において、合流アプリケーション120は、1つまたは複数のコンピュータデバイスの1つまたは複数のプロセッサによって実行可能なソフトウェアを使用して、限定されないが、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)等のハードウェア、および/または、ハードウェアとソフトウェアとの組合せ等を使用して、実施される。合流アプリケーション120は、センサデータおよび/または車両データを受信および処理し、メモリ117、通信ユニット119、車両データストア121、および様々なアクチュエータおよび/またはモチベータ等のような車両プラットフォーム103の他の要素と、バス154を介して通信する。たとえば、合流アプリケーション120は、車両プラットフォーム103によって実行される合流動作を制御するために、車両プラットフォーム103の1つまたは複数の操舵アクチュエータおよび1つまたは複数の速度アクチュエータに合流命令を通信する。合流アプリケーション120は、少なくとも図2〜図8を参照して以下に詳細に記述される。
メモリ117は、非一時的コンピュータ使用可能(たとえば、読取可能、書込可能等)媒体を含む。これは、プロセッサ115による、またはプロセッサ115に関連した処理のための命令、データ、コンピュータプログラム、ソフトウェア、コード、ルーチン等を格納、記憶、通信、伝播、または伝送できる任意の有形の非一時的な装置またはデバイスである。たとえば、メモリ117は、合流アプリケーション120を記憶する。いくつかの実施では、メモリ117は、揮発性メモリおよび不揮発性メモリのうちの1つまたは複数を含む。たとえば、メモリ117は、限定されないが、ダイナミックランダムアクセスメモリ(DRAM)デバイス、スタティックランダムアクセスメモリ(SRAM)デバイス、ディスクリートメモリデバイス(たとえば、PROM、FPROM、ROM)、ハードディスクドライブ、光ディスクドライブ(CD、DVD、Blu−ray(登録商標)等)のうちの1つまたは複数を含み得る。メモリ117は、単一のデバイスであり得るか、または多種類のデバイスおよび構成を含み得ることが理解されるべきである。
通信ユニット119は、無線接続および/または有線接続を使用して(たとえば、ネットワーク105を介して)通信可能に結合されている他のコンピューティングデバイスとの間でデータを送信および受信する。通信ユニット119は、データを送信および受信するための1つまたは複数の有線インタフェースおよび/または無線トランシーバを含み得
る。通信ユニット119は、ネットワーク105に結合し、他の車両プラットフォーム103、路側機107、および/または、サーバ101等のような、システム100の他のエンティティと通信する。通信ユニット119は、上記で論じられたように、標準的な通信方法を使用して他のコンピューティングノードとデータを交換する。
センサ113は、車両プラットフォーム103のために適切な任意の種類のセンサを含む。センサ113は、車両プラットフォーム103および/またはその内部および外部環境の特性を決定するために適切な任意の種類の信号データを収集するように構成される。センサ113の非限定的な例は、様々な光学センサ(CCD、CMOS、2D、3D、光検出および測距(LIDAR)、カメラ等)、オーディオセンサ、モーション検出センサ、気圧計、高度計、熱電対、湿度センサ、赤外線(IR)センサ、レーダセンサ、他の光センサ、ジャイロスコープ、加速度計、スピードメータ、操舵センサ、ブレーキセンサ、スイッチ、車両インジケータセンサ、フロントガラスワイパセンサ、ジオロケーションセンサ、方位センサ、ワイヤレストランシーバ(たとえば、セルラ、WiFiTM、近接場等)、ソナーセンサ、超音波センサ、タッチセンサ、近接センサ、距離センサ等を含む。いくつかの実施形態において、1つまたは複数のセンサ113は、車両プラットフォーム103を囲む状況的なコンテキストをキャプチャするために、車両プラットフォーム103の前面、後面、右側、および/または、左側に提供された外向きセンサを含む。
いくつかの実施形態において、センサ113は、ビデオ画像および静止画像を含む画像を記録するように構成された1つまたは複数の画像センサ(たとえば、光センサ)を含み、任意の適用可能なフレームレートを使用してビデオストリームのフレームを記録し、任意の適用可能な方法を使用してキャプチャされたビデオおよび静止画像を符号化および/または処理する。いくつかの実施形態において、画像センサ113は、それらのセンサ範囲内の周囲環境の画像をキャプチャする。たとえば、車両プラットフォームのコンテキストでは、画像センサ113は、道路、路側構造物、建物、静的道路物体(たとえば、車線、道路標示、通行標識、通行コーン、バリケード等)、および/または、動的道路物体(たとえば、周囲の車両プラットフォーム103、道路作業者、建設車両等)等を含む車両プラットフォーム103の周囲の環境をキャプチャする。いくつかの実施形態において、画像センサ113は、車両プラットフォーム103の移動方向に対して任意の方向(前方、後方、側方、上方、下方等)で感知するために、車両の屋根の上および/または車両プラットフォーム103の内部に取り付けられてもよい。いくつかの実施形態において、画像センサ113は、多方向的(たとえば、LIDAR)である。
車両データストア121は、各種のデータを記憶する非一時的記憶媒体を含む。たとえば、車両データストア121は、コントローラエリアネットワーク(CAN)バスのようなバスを使用して、所与の車両プラットフォーム103の異なる構成要素間で通信されている車両データを記憶する。いくつかの実施形態において、車両データは、たとえば変速、速度、加速度、減速度、車輪速度(Revolutions Per Minute:毎分回転数−RPM)、操舵角、ブレーキ力等のような車両プラットフォーム103の異なる構成要素の操作状態を監視するために、車両プラットフォーム103の異なる構成要素に結合された多数のセンサ113から収集された車両操作データを含む。いくつかの実施形態において、車両データは、移動方向、車両プラットフォーム103の地理的位置を示す車両ジオロケーション(たとえば、GPS(Global Positioning
System:全地球測位システム)座標)等を含んでもよい。いくつかの実施形態において、車両データは、車両プラットフォーム103の1つまたは複数の画像センサ113によってキャプチャされた多数の道路シーン画像、およびこれらの画像に関連付けられた画像データをも含む。いくつかの実施形態において、画像データは、画像の画像識別子(たとえば、画像ID)、画像のデータサイズを示す画像データサイズ、画像がキャプチャされた日時を示す画像タイムスタンプ等を含んでもよい。
いくつかの実施形態において、車両データストア121は、各合流区域についての一連のタイムスタンプに関連付けられた一連の状態を記憶する。いくつかの実施形態において、一連の状態における各状態は、一連のタイムスタンプ内の対応するタイムスタンプにおける合流区域の通行状況を示す。いくつかの実施形態において、合流区域は、多数の道路区間(たとえば、入口ランプ区間、上り側高速道路区間、下り側高速道路区間等)を含んでもよい。各道路区間について、合流区域の状態は、車両動作データと、その状態の対応するタイムスタンプにおけるその特定の道路区間上の通行状況を示す区間通行データとを含んでもよい。車両動作データの非限定的な例は、限定されないが、道路区間上に位置する1つまたは複数の車両に関連付けられた車両位置、車両速度、加速度パターン等を含む。区間通行データの非限定的な例は、限定されないが、道路区間に関連付けられた通行流、車両密度、平均車両速度、平均追従距離等を含む。いくつかの実施形態において、状態はまた、合流区域の車道構成要素を示す車道データを含んでもよい。たとえば、車道データは、各道路区間に関連付けられた車線数、車線のステータス(たとえば、閉鎖車線、通行可能車線等)、形状および長さ、車道構造等を含んでもよい。いくつかの実施形態において、状態はまた、状態の対応するタイムスタンプにおいて、入口ランプ区間から高速道路区間へ合流するための合流行為を完了する各合流車両に関連付けられた合流時間長さおよび合流点位置をも含んでもよい。いくつかの実施形態において、状態はまた、状態の対応するタイムスタンプ、状態が決定される1つまたは複数の画像の画像ID等をも含んでもよい。他の種類の状態データもまた可能であり、企図される。
いくつかの実施形態において、車両データストア121は、合流アプリケーション120の学習/トレーニングデータを記憶する。いくつかの実施形態において、合流アプリケーション120は、トレーニングデータが、分類されラベル付けされた特徴を含む教師あり学習を実行し得るが、他の変形も可能であり、企図される。いくつかの実施形態において、学習データは、逆伝播される変数を備え得る。他の多くの変形もまた可能であり、企図される。
いくつかの実施形態において、合流アプリケーション120の学習データは、後方時間距離、前方時間距離、影響指標関数等を含む。いくつかの実施形態において、後方時間距離は、合流区域の状態が合流動作の影響を評価するために必要であり得る合流動作の前の時間距離を指定する。前方時間距離は、合流区域の1つまたは複数の状態が、合流動作の影響を反映し得る合流動作に続く時間距離を指定する。いくつかの実施形態において、影響指標関数は、特定のタイムスタンプにおいて合流車両によって実行される合流動作、特定のタイムスタンプにおける合流区域の状態、および合流動作の影響指標の間の関係を指定する。したがって、特定のタイムスタンプにおける合流区域の状態を考慮して合流車両によって合流動作が実行される場合、影響指標関数は、合流動作の影響指標を計算するために使用される。いくつかの実施形態において、合流動作の影響指標は、合流区域内の道路区間の通行状況および合流車両の合流行為に対する合流動作の影響を示す。他の種類の学習データもまた可能であり、企図考慮される。
いくつかの実施形態において、車両データストア121は、合流車両によって潜在的に実行される多数の合流動作を含む合流動作データベースを記憶する。合流動作の非限定的な例は、限定されないが、1つまたは複数の目標合流速度への1つまたは複数の速度調節(たとえば、車両速度を25m/sへ調節する、車両速度を30m/sへ調節する等)、1つまたは複数の目標加速度への1つまたは複数の加速度調節(たとえば、加速度を5m/sへ調節する、加速度を10m/sへ調節する等)、1つまたは複数の目標操舵角への1つまたは複数の角度調節(たとえば、操舵角を20°へ調節する、操舵角を35°へ調節する等)等を含み得る。他の種類の合流動作もまた可能であり、企図される。
いくつかの実施形態において、車両データストア121は、データを記憶し、データへのアクセスを提供するためのデータストレージシステム(たとえば、標準的なデータまたはデータベース管理システム)の一部であり得る。車両データストア121に記憶された他の種類のデータもまた可能であり、企図される。
他の変形および/または組合せも可能であり、企図される。図1に例示されるシステム100は、例示的なシステムを表しており、様々な異なるシステム環境および構成が企図され、本開示の範囲内にあることが理解されるべきである。たとえば、様々な動作および/または機能が、サーバからクライアントに、あるいはその逆に、移動され得、データが、単一のデータストアへ統合され得るか、または、さらに、追加のデータストアへ区分化され得、いくつかの実施は、追加の、または、より少数のコンピューティングデバイス、サービス、および/または、ネットワークを含み得、様々な機能を、クライアントまたはサーバ側において実施し得る。さらに、システムの様々なエンティティは、単一のコンピューティングデバイスまたはシステムに統合され得るか、または追加のコンピューティングデバイスまたはシステム等に分割され得る。
図2は、例示的な合流アプリケーション120のブロック図である。図2に描写されるように、合流アプリケーション120は、状態生成器202、状態マネジャ204、および影響計算機206を含む。合流アプリケーション120は、限定されないが、構成エンジン、他のトレーニングエンジン、暗号化/復号エンジン等のような追加の構成要素を含み得るか、および/または、これらの様々な構成要素は、単一のエンジンに結合され得るか、または、追加のエンジンに分割され得ることが理解されるべきである。
状態生成器202、状態マネジャ204、および影響計算機206は、ソフトウェア、ハードウェア、またはこれらの組合せとして実施される。いくつかの実施形態において、状態生成器202、状態マネジャ204、および影響計算機206は、バス154および/またはプロセッサ115によって、互いに、および/または、コンピューティングデバイス152の他の構成要素に、通信可能に結合される。いくつかの実施形態において、構成要素120、202、204、および/または206のうちの1つまたは複数は、それらの機能を提供するためにプロセッサ115によって実行可能な命令のセットである。さらなる実施形態において、120、202、204、および/または206のうちの1つまたは複数は、メモリ117に記憶可能であり、それらの機能を提供するためにプロセッサ115によってアクセス可能および実行可能である。前述した実施形態のいずれにおいても、これらの構成要素120、202、204、および/または206は、プロセッサ115およびコンピューティングデバイス152の他の構成要素との協調および通信のために適合される。合流アプリケーション120、およびその構成要素202、204、および206は、少なくとも図3〜図8を参照して、以下にさらに詳細に記述される。
本明細書の他の箇所で論じられるように、合流アプリケーション120は、合流車両が、合流区域内の合流道路区間から本線通行に合流するための、最適な合流動作を決定するために実行可能なロジックを含む。例として、一般的な合流区域800が、図8に例示される。図8に描写されるように、合流区域は、多数の道路区間を含む。特に、合流区域800は、高速道路区間802と、合流車両が高速道路区間802に入ることができる入口ランプ区間804とを含む。いくつかの実施形態において、高速道路区間802は、上り側高速道路区間806および下り側高速道路区間808を含み、上り側高速道路区間806および下り側高速道路区間808の通行状況は、入口ランプ区間804における合流車両の合流動作によって影響される。いくつかの実施形態において、上り側高速道路区間806は、高速道路区間802上の通行流れの移動方向における入口ランプ区間804の上り側に位置し、下り側高速道路区間808は、そのような移動方向における入口ランプ区間804に対応して、および/または、下り側に位置する。図示されるように、入口ラン
プ区間804、上り側高速道路区間806、および下り側高速道路区間808は、それらの車道に沿って位置し、対応する通行の画像をキャプチャする複数の路側機107を備える。
いくつかの実施形態において、多数の車両プラットフォーム103は、特定のタイムスタンプにおいて、合流区域の道路区間上を移動する。特定のタイムスタンプにおいて合流区域内に存在する車両プラットフォーム103は、入口ランプ区間上に位置する1つまたは複数の合流車両、上り側高速道路区間に位置する1つまたは複数の上り側本線車両、および下り側高速道路区間に位置する1つまたは複数の下り側本線車両を含む。図8に描写されるように、合流車両は、入口ランプ区間804に位置する車両プラットフォーム103a、103bを含み、上り側本線車両は、上り側高速道路区間806に位置する車両プラットフォーム103c、103dを含み、下り側本線車両は、下り側高速道路区間808に位置する車両プラットフォーム103e・・・103jを含む。
いくつかの実施形態において、合流アプリケーション120は、合流車両のための最適な合流動作を決定するために実施される前に、トレーニングプロセスを受ける。図3は、合流アプリケーション120の例示的なトレーニング段階および例示的な実施段階のブロック図300を例示する。描写されるように、トレーニング段階302において、状態生成器202は、合流区域のキャプチャされた画像から、合流区域の状態を決定することを学習する。いくつかの実施形態において、合流区域の各状態は、対応するタイムスタンプに関連付けられ、対応するタイムスタンプにける合流区域の通行状況を示す。合流区域の画像が連続的にキャプチャされ、合流アプリケーション120に順次提供されるので、状態生成器202は、一連のタイムスタンプにおける合流区域の通行状況を示す一連の状態を決定する。
図3に描写されるように、トレーニング段階302において、状態マネジャ204は、一連の状態から、合流動作に関連する1つまたは複数の状態を決定することを学習する。特に、状態マネジャ204は、合流動作の影響を評価するために必要な一連の状態における1つまたは複数の後方状態、および合流動作の影響を反映する一連の状態における1つまたは複数の前方状態を決定することを学習する。いくつかの実施形態において、状態マネジャ204は、後方状態を決定するための後方時間距離と、前方状態を決定するための前方時間距離とを学習する。図3に描写されるように、同様にトレーニング段階302において、影響計算機206は、合流区域の状態を考慮して合流車両によって合流動作が実行される場合に、合流動作の影響指標を計算するために使用され得る影響指標関数を学習する。いくつかの実施形態において、影響計算機206は、合流動作の影響指標と、合流動作の目標影響指標とから、フィードバック値を生成する。フィードバック値は、影響計算機206が影響指標関数を学習するために、状態マネジャ204が関連する状態を決定するために後方時間距離および前方時間距離を学習するために使用される。
いくつかの実施形態において、トレーニングプロセスが完了されると、状態生成器202、状態マネジャ204、および影響計算機206は、合流車両のための最適な合流動作を決定するために、それらの対応する機能を実行する。特に、実施段階304において、状態生成器202は、第1の画像セットを使用して、第1のタイムスタンプにおける合流区域の第1の状態を決定する。状態マネジャ204は、たとえば、トレーニング済みの後方時間距離を使用して、第1のタイムスタンプにおける合流動作の影響を評価するために必要な1つまたは複数の後方状態を、合流区域の一連の状態から決定する。影響計算機206は、トレーニング済みの影響指標関数を使用して、第1の状態、1つまたは複数の後方状態、および対応する合流動作に基づいて、様々な合流動作についての影響指標を計算する。影響計算機206は、その後、影響指標に基づいて、様々な合流動作から最適な合流動作を選択する。したがって、図3に描写されるように、合流車両のための最適な合流
動作は、第1の画像セットである唯一の入力を用いて決定され得る。
状態生成器202、状態マネジャ204、および影響計算機206は、少なくとも図4〜図7を参照して、以下にさらに詳細に記述される。
いくつかの実施形態において、状態生成器202は、本明細書の他の箇所で論じられるように、合流区域のキャプチャされた画像から、合流区域の通行状況を示す1つまたは複数の状態を決定するためにトレーニングされる機械学習ロジックである。いくつかの実施形態において、状態生成器202は、畳み込みニューラルネットワーク、サポートベクターマシン等の形態で実施され得る。様々な種類の教師付き学習アルゴリズムおよび/または教師なし学習アルゴリズムを用いて機械学習ロジックを実施するための他のシステムアーキテクチャも可能であり、企図される。
例示として、図7は、合流区域のキャプチャされた画像から合流区域の状態を決定するための例示的な方法700のフローチャートである。ブロック702において、状態生成器202は、合流区域の様々な道路区間に位置する路側機107および車両プラットフォーム103から、合流区域のキャプチャされた画像を受信する。いくつかの実施形態において、合流区域に位置する車両プラットフォーム103の画像センサ113は、車両プラットフォーム103がその道路区間に沿って移動すると、合流区域の画像をキャプチャし得、合流区域に位置する路側機107の画像センサは、それらのセンサ範囲内の合流区域の画像をキャプチャする。いくつかの実施形態において、これらの画像は、あらかじめ定義された速度/間隔(たとえば1秒毎、3秒毎等)でキャプチャされ、それらの画像タイムスタンプにしたがって、合流アプリケーション120に順次送信される。したがって、状態生成器202は、合流区域に位置する路側機107および車両プラットフォーム103から、連続するタイムスタンプにおける合流区域の様々な道路区間を描写するキャプチャされた画像を受信する。本明細書の他の箇所で論じられるように、合流区域に位置する車両プラットフォーム103は、入口ランプ区間に位置する1つまたは複数の合流車両、上り側高速道路区間に位置する1つまたは複数の上り側本線車両、および下り側高速道路区間に位置する1つまたは複数の下り側本線車両を含む。
ブロック704において、状態生成器202は、1つまたは複数の画像セットを生成し、各画像セットは、タイムスタンプに関連付けられる。いくつかの実施形態において、状態生成器202は、キャプチャされた画像の画像タイムスタンプに基づいて、路側機107および車両プラットフォーム103から受信したキャプチャされた画像を集約し、各画像セットのタイムスタンプが、画像セットに含まれるキャプチャされた画像の画像タイムスタンプであると決定する。その結果、状態生成器202は、一連のタイムスタンプに関連付けられた一連の画像セットを生成し、各画像セットは、一連のタイムスタンプ内の対応するタイムスタンプにおいてキャプチャされ、対応するタイムスタンプにおける合流区域の様々な道路区間上の通行状況を描写する1つまたは複数の画像を含む。
いくつかの実施形態において、一連のタイムスタンプにおける第1のタイムスタンプに関連付けられた一連の画像セットにおける任意の第1の画像セットについて、状態生成器202は、第1の画像セットを使用して、第1のタイムスタンプにおける合流区域の通行状況を示す第1の状態を決定する。特に、状態生成器202は、様々な通行状況態様を決定するために、第1の画像セット内の第1のタイムスタンプに関連付けられたキャプチャされた画像、および/または、他の画像セット内の他のタイムスタンプに関連付けられたキャプチャされた画像を分析し、これら通行状況態様は、第1のタイムスタンプにおける合流区域の様々な道路区間上の通行状況を示す。
特に、ブロック706において、状態生成器202は、合流区域の1つまたは複数の車
道構成要素を示す車道データを決定する。いくつかの実施形態において、合流区域の車道構成要素は、入口ランプ区間、上り側高速道路区間、および下り側高速道路区間を含む。合流区域の各道路区間について、車道データは、道路区間に関連付けられた車線数、各車線のステータス(たとえば、追越し車線、通行可能車線、閉鎖車線等)、形状および長さ、車道構造等を含む。いくつかの実施形態において、車道データは、第1の画像セット内の第1のタイムスタンプに関連付けられたキャプチャされた画像と、他の画像セット内の他のタイムスタンプに関連付けられたキャプチャされた画像とから経時的に学習される。例として、図8に描写される合流区域800について、状態生成器202は、入口ランプ区間804が、区間長400mの1車線を有し、高速道路区間802へ35°の角度を形成することを学習する。状態生成器202はまた、高速道路区間802が3つの通行可能車線を含み、上り側高速道路区間806および下り側高速道路区間808は、通行状況が、入口ランプ区間804上の合流車両の合流動作によって影響を受ける可能性があることをも学習する。この例では、状態生成器202は、上り側高速道路区間806の区間長さが750mであること、および下り側高速道路区間808の区間長さが450mであることを学習する。
ブロック708において、状態生成器202は、入口ランプ区間に位置する1つまたは複数の合流車両の第1の車両動作データ、上り側高速道路区間に位置する1つまたは複数の上り側本線車両の第2の車両動作データ、および下り側高速道路区間に位置する1つまたは複数の下り側本線車両の第3の車両動作データを決定する。いくつかの実施形態において、合流車両、上り側本線車両、および下り側本線車両に含まれる各車両プラットフォーム103の車両動作データは、車両プラットフォーム103の車両動作を示し、車両プラットフォーム103に関連付けられた車両位置、車速、および/または加速度パターン等を指定する。いくつかの実施形態において、状態生成器202は、第1のタイムスタンプにおける各車両プラットフォーム103の車両動作データを決定するために、第1の画像セット内の第1のタイムスタンプに関連付けられたキャプチャされた画像、および他の画像セット内の他のタイムスタンプに関連付けられたキャプチャされた画像を分析する。たとえば、第1のタイムスタンプにおける車両プラットフォーム103の車両位置(たとえば、地理的座標)を決定するために、状態生成器202は所与の地理的座標(たとえば、GPS座標)を有する基準点に対する車両プラットフォーム103の相対位置を決定してもよい。いくつかの実施形態において、状態生成器202は、第1のタイムスタンプにおける、車両プラットフォーム103の車両速度(たとえば、27m/s)、速度変化率(たとえば±2m/s)、および加速/減速パターンを決定するために、多数のタイムスタンプに関連付けられた多数のキャプチャされた画像内の車両プラットフォーム103の車両位置を監視してもよい。
ブロック710において、状態生成器202は、第1のタイムスタンプにおいて合流行為を完了する1つまたは複数の合流車両の合流時間長さおよび合流点位置を決定し得る。いくつかの実施形態において、これらの車両プラットフォーム103の合流時間長さおよび合流点位置は、入口ランプ区間の車道データ(たとえば、形状および長さ等)、および入口ランプ区間に位置する車両プラットフォーム103の第1の車両動作データ(たとえば、車両位置等)に基づいて決定される。特に、状態生成器202は、第1のタイムスタンプにおいて、車両プラットフォーム103が、入口ランプ区間を離れ、高速道路区間に入るか否かを決定するために、入口ランプ区間上に位置する車両プラットフォーム103の車両位置を監視する。第1のタイムスタンプにおいて、車両プラットフォーム103が高速道路区間に入った場合、状態生成器202は、車両プラットフォーム103が合流行為を完了したと決定し、第1のタイムスタンプにおける車両プラットフォーム103の車両位置を、合流点と決定する。いくつかの実施形態において、状態生成器202は、車両プラットフォーム103の合流時間長さを、車両プラットフォーム103が合流行為を完了するために入口ランプ区間上に留まる時間の長さ(たとえば、45秒)と決定してもよ
い。いくつかの実施形態において、状態生成器202は、車両プラットフォーム103の合流点位置を、入口ランプ区間に対する合流点の位置(たとえば、300/400m)と決定してもよい。
ブロック712において、状態生成器202は、入口ランプ区間の第1の区間通行データ、上り側高速道路区間の第2の区間通行データ、および下り側高速道路区間の第3の区間通行データを決定する。いくつかの実施形態において、入口ランプ区間、上り側高速道路区間、および下り側高速道路区間の間の各道路区間の区間通行データは、道路区間上の通行状況を示し、道路区間に関連付けられた通行流、車両密度、平均車両車速、および/または、平均追従距離等を指定する。いくつかの実施形態において、状態生成器202は、道路区間の車道データ(たとえば、道路区間の形状および長さ等)、および道路区間に位置する車両プラットフォーム103の車両動作データ(たとえば、車両プラットフォーム103の車両速度、車両位置等)に基づいて、第1のタイムスタンプにおける各道路区間の区間通行データを決定してもよい。いくつかの実施形態において、状態生成器202は、第1のタイムスタンプにおいて道路区間に関連付けられた通行流量(たとえば、毎秒3台)、車両密度(たとえば2.1車両/100m/車線)、平均車両速度(たとえば、30m/s)、および/または、平均追従距離(たとえば45m)を決定するために、各道路区間に位置する多数の車両プラットフォーム103の車両位置および車両速度を、経時的に監視してもよい。
ブロック714において、状態生成器202は、車道データ、車両動作データ、および区間通行データに基づいて、合流区域の状態を生成する。特に、第1のタイムスタンプにおける合流区域の通行状況を示す第1の状態を生成するために、状態生成器202は、第1のタイムスタンプと、合流区域の様々な道路区間を示す車道データとを、第1の状態に集約する。状態生成器202はまた、第1のタイムスタンプにおける合流車両、上り側本線車両、および下り側本線車両の車両動作を示す第1の車両動作データ、第2の車両動作データ、および第3の車両動作データを、第1の状態に集約し得る。状態生成器202はまた、第1のタイムスタンプにおいて合流行為を完了した合流車両の合流時間長さおよび合流点位置を、第1状態に集約する。状態生成器202はまた、第1のタイムスタンプにおける入口ランプ区間、上り側高速道路区間、および下り側高速道路区間上の通行状態を示す第1の区間通行データ、第2の区間通行データ、および第3の区間通行データを、第1の状態に集約する。したがって、第1の状態は、合流区域の各道路区間上の通行状況の様々な態様を示すことができ、したがって、第1のタイムスタンプにおける合流区域の通行状況を包括的に示すことができる。いくつかの実施形態において、第1の状態は、上記の通行状況態様を指定する多数のベクトル要素を有する状態ベクトルの形態で生成され得る。いくつかの実施形態において、状態生成器202は、車両データストア121に一連の状態内の第1のタイムスタンプに関連する第1の状態を記憶する。
いくつかの実施形態において、状態マネジャ204は、一連の状態に含まれる状態を管理する。いくつかの実施形態において、状態マネジャ204は、本明細書の他の箇所で論じられるように、合流車両の合流動作に関連する一連の状態における1つまたは複数の後方状態および1つまたは複数の前方状態を決定するようにトレーニングされる機械学習ロジックである。いくつかの実施形態において、状態マネジャ204は、リカレントニューラルネットワーク、ロングショートタームメモリ(LSTM)ネットワーク等の形態で実施され得る。様々な種類の強化学習アルゴリズムを用いて機械学習ロジックを実施するための他のシステムアーキテクチャもまた可能であり、企図される。
例示として、図4は、合流動作の影響を評価するために必要な一連の状態における1つまたは複数の後方状態を決定し、合流動作の影響を反映する一連の状態における1つまたは複数の前方状態を決定するために、状態マネジャ204をトレーニングするための例示
的な方法400のフローチャートである。ブロック402において、状態マネジャ204は、一連のタイムスタンプにおける合流区域の通行状況を示す一連の状態を検索する。いくつかの実施形態において、状態マネジャ204は、車両データストア121から、合流区域の一連の状態を検索する。
例として、図5は、図8に描写される合流区域800の通行状態を示す一連の状態500の一部を例示する。図示されるように、一連の状態500は、一連のタイムスタンプにおいて、9つの連続するタイムスタンプt=t、t=t、t=t、t=t、t=t、t=t、t=t、t=t、およびt=tに関連付けられた9つの連続する状態552、554、556、558、560、562、564、566、および568を含む。この例では、一連のタイムスタンプにおける2つの連続するタイムスタンプ間の時間間隔が1秒であると仮定する。本明細書の他の箇所で記述されるように、対応するタイムスタンプに関連付けられた各状態は、対応するタイムスタンプに関連付けられた画像セットから決定され、対応するタイムスタンプにおける合流区域の様々な道路区間上の通行状況を包括的に示す。この例では、9つの対応する画像セット502、504、506、508、510、512、514、516、および518から、9つの連続する状態552、554、556、558、560、562、564、566、および568が決定され、9つの対応するタイムスタンプt=t、t=t、t=t、t=t、t=t、t=t、t=t、t=t、およびt=tにおける、合流区域800の入口ランプ区間804、上り側高速道路区間806、および下り側高速道路区間808上の通行状況を包括的に示す。
ブロック404において、状態マネジャ204は、一連の状態における第1の状態が、第1の合流車両の合流動作を示すと決定し、一連の状態における第1の状態が、一連のタイムスタンプにおける第1のタイムスタンプと関連付けられる。いくつかの実施形態において、状態マネジャ204は、多数の状態に含まれる合流車両の第1の車両動作データを分析し、一連の状態における第1の状態が、第1の合流車両の合流動作を示すと決定する。上記の例を続けると、状態マネジャ204は、タイムスタンプt=t=14:00:05に対応する状態560が、入口ランプ区間804に位置する車両プラットフォーム103aの合流動作を示すと決定する。この例では、車両プラットフォーム103aは、タイムスタンプt=tにおいて、その車両速度を、30m/sの目標合流速度に調節する合流動作を実行する。
ブロック406において、状態マネジャ204は、後方時間距離を使用して、一連の状態から、第1の状態の第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定する。本明細書の他の箇所で論じられるように、後方時間距離は、合流区域の状態が合流動作の影響を評価するために必要である合流動作の前の時間距離を指定する。いくつかの実施形態において、状態マネジャ204は、車両データストア121から、後方時間距離を検索する。いくつかの実施形態において、状態マネジャ204は、第1の状態の第1のタイムスタンプおよび後方時間距離に基づいて、過去の時間範囲を決定する。特に、状態マネジャ204は、過去の時間範囲の上限しきい値tpast_upper=合流動作を示す第1の状態の第1のタイムスタンプを決定し得る。状態マネジャ204は、過去の時間範囲の下限しきい値tpast_lower=(第1の状態の第1のタイムスタンプ−後方時間距離)を決定する。いくつかの実施形態において、状態マネジャ204は、過去の時間範囲[tpast_lower、tpast_upper)内の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を、一連の状態から決定する。
上記の例を続けると、状態マネジャ204は、過去の時間範囲の上限しきい値を、(たとえば、車両速度を、30m/sの目標合流速度に調節する)車両プラットフォーム10
3aの合流動作を示す状態560のタイムスタンプt=tであると決定することができる。したがって、状態マネジャ204は、過去の時間範囲の上限しきい値tpast_upper=t=14:00:05を決定することができる。この例では、車両データストア121から検索された後方時間距離の現在の値が3秒であると仮定する。したがって、状態マネジャ204は、過去の時間範囲の下限しきい値tpast_lower=(状態560のタイムスタンプ−後方時間距離)=14:00:05−00:00:03=14:00:02を決定することができる。状態マネジャ204は、その後、一連の状態500から、過去の時間範囲[14:00:02、14:00:05)内の第2のタイムスタンプに関連付けられた第2の状態を決定することができる。この例では、第2の状態は、タイムスタンプt=t=14:00:02に関連付けられた状態554、タイムスタンプt=t=14:00:03に関連付けられた状態556、およびタイムスタンプt=t=14:00:04に関連付けられた状態558を含む。したがって、この例では、状態554、状態556、および状態558は、状態560における車両プラットフォーム103aによって実行される合流動作の影響を評価するために必要であると決定された一連の状態における状態560の前の合流区域の3つの後方状態である。
ブロック408において、状態マネジャ204は、前方時間距離を使用して、一連の状態から、第1の状態の第1のタイムスタンプに続く1つまたは複数の第3のタイムスタンプに関連付けられた1つまたは複数の第3の状態を決定する。本明細書の他の箇所で論じられるように、前方時間距離は、合流区域の1つまたは複数の状態が、合流動作の影響を反映する合流動作に続く時間距離を指定する。いくつかの実施形態において、状態マネジャ204は、車両データストア121から前方時間距離を検索する。いくつかの実施形態において、状態マネジャ204は、第1の状態の第1のタイムスタンプと、前方時間距離とに基づいて、将来の時間範囲を決定する。特に、状態マネジャ204は、将来の時間範囲の下限しきい値tfuture_lower=合流動作を示す第1の状態の第1のタイムスタンプを決定する。状態マネジャ204は、将来の時間範囲の上限しきい値tfuture_upper=(第1の状態の第1のタイムスタンプ+前方時間距離)を決定する。いくつかの実施形態において、状態マネジャ204は、第3のタイムスタンプをtfuture_upperであると決定し、一連の状態から、第3のタイムスタンプに関連付けられた1つの第3の状態を決定する。いくつかの実施形態において、状態マネジャ204は、一連の状態から、将来の時間範囲(tfuture_lower、tfuture_upper]内の1つまたは複数の第3のタイムスタンプに関連付けられた1つまたは複数の第3の状態を決定する。
上記の例を続けると、状態マネジャ204は、将来の時間範囲の下限しきい値が、車両プラットフォーム103aの合流動作を示す状態560のタイムスタンプt=tとなることを決定することができる。したがって、状態マネジャ204は、将来の時間範囲の下限しきい値tfuture_lower=t=14:00:05を決定することができる。この例では、車両データストア121から検索された前方時間距離の現在の値が2秒であると仮定する。したがって、状態マネジャ204は、将来の時間範囲の上限しきい値tfuture_upper=(状態560のタイムスタンプ+前方時間距離)=14:00:05+00:00:02=14:00:07を決定することができる。いくつかの実施形態において、状態マネジャ204は、その後、第3のタイムスタンプ=tfuture_upper=14:00:07を決定することができる、一連の状態から、14:00:07である第3のタイムスタンプに関連付けられた第3の状態(たとえば、状態564)を決定することができる。これらの実施形態において、状態564は、状態560において車両プラットフォーム103aによって実行される合流動作の影響を反映していると決定される一連の状態における状態560に続く合流区域の将来の状態である。他の実施形態において、状態マネジャ204は、一連の状態500から(14:00:05、14:00:07)である将来の時間範囲内の第3のタイムスタンプに関連付けられた第
3の状態を決定し得る。この例では、第3の状態は、タイムスタンプt=t=14:00:06に関連付けられた状態562と、タイムスタンプt=t=14:00:07に関連付けられた状態564とを含む。これらの実施形態において、状態562および状態564は、状態560において車両プラットフォーム103aによって実行される合流動作の影響を反映していると決定される一連の状態における状態560に続く合流区域の将来の2つの状態である。
いくつかの実施形態において、状態マネジャ204は、第1の状態、1つまたは複数の第2の状態、および1つまたは複数の第3の状態を、影響計算機206に提供する。いくつかの実施形態において、影響計算機206は、合流動作の影響指標を決定するようにトレーニングされる機械学習ロジックであり、影響指標は、本明細書の他の箇所で論じられるように、合流区域の関連する通行および合流車両の合流行為に対する合流動作の影響を示す。いくつかの実施形態において、影響計算機206は、Q学習ネットワーク、ディープQラーニングネットワーク等の形態で実施され得る。様々な種類の強化学習アルゴリズムを用いて機械学習ロジックを実施するための他のシステムアーキテクチャもまた可能であり、企図される。
いくつかの実施形態において、影響計算機206は、状態マネジャ204から、第1の状態、1つまたは複数の第2の状態、および1つまたは複数の第3の状態を、入力として受信する。上述したように、第2の状態は、第1の状態において示された合流動作の影響を評価するために必要として決定された合流区域の後方状態であり、第3の状態は、第1の状態に示されている合流動作の影響を反映するとして決定された合流区域の前方状態である。いくつかの実施形態において、複数の第3の状態が影響計算機206に提供される場合、各第3の状態は、後述する状態マネジャ204および影響計算機206の1つの学習サイクルのために個別に使用される。いくつかの実施形態において、影響計算機206は、車両データストア121から、第1の状態、1つまたは複数の第2の状態、および1つまたは複数の第3の状態を検索する。
いくつかの実施形態において、影響計算機206は、第1の状態、1つまたは複数の第2の状態、および第1の状態において示される合流動作に基づいて、第1の状態において示される合流動作の影響指標を決定する。いくつかの実施形態において、合流動作の影響指標は、影響指標関数を使用して、第1の状態、1つまたは複数の第2の状態、および合流動作に基づいて計算する。本明細書の他の箇所で論じられるように、影響指標関数は、特定のタイムスタンプにおいて合流車両によって実行される合流動作、特定のタイムスタンプにおける合流区域の状態、および合流動作の影響指標との間の関係を指定する。いくつかの実施形態において、特定のタイムスタンプの前の合流区域の後方状態は、影響指標を計算するために影響指標関数に組み込まれる。いくつかの実施形態において、影響指標関数は、フィードバック値を使用してトレーニングプロセスから学習されるべき1つまたは複数の影響パラメータを含む。
いくつかの実施形態において、影響計算機206は、1つまたは複数の第3の状態に含まれる第3の状態を使用して、第1の状態に示される合流動作のための目標影響指標を決定する。いくつかの実施形態において、影響計算機206は、第3の状態に含まれる合流区域の通行状況を示す1つまたは複数の通行状況態様を決定するために、第3の状態を分析する。影響計算機206は、その後、第3の状態に含まれる通行状態態様に基づいて、第1の状態に示される合流動作の目標影響指標を決定する。たとえば、いくつかの実施形態において、影響計算機206は、第1の状態において示された合流動作の目標影響指標を、下り側高速道路区間の通行流量に正比例する、および/または、第3の状態に含まれる上り側高速道路区間の車両密度に反比例するとして決定してもよい。
上記例を続けると、影響計算機206は、(たとえば、車両速度を、30m/sの目標合流速度に調節する)タイムスタンプt=tに関連付けられた状態560において示される車両プラットフォーム103aの合流動作のための目標影響指標を、タイムスタンプt=tに関連付けられた状態564に含まれる通行状況態様に基づいて決定することができる。本明細書の他の箇所で論じられるように、状態564は、タイムスタンプt=tにおいて、合流区域の様々な道路区間上の通行状況を包括的に示す様々な通行状況態様を含む。いくつかの実施形態において、これらの通行状況態様は、合流車両の第1の車両動作データ、および入口ランプ区間804の第1の区間通行データと、上り側本線車両の第2の車両動作データ、および上り側高速道路区間806の第2の区間通行データと、下り側本線車両の第3の車両動作データ、および下り側高速道路区間808の第3の区間通行データとを含む。いくつかの実施形態において、車両プラットフォーム103aがタイムスタンプt=tにおいてその合流行為を完了した場合、状態564に含まれる通行状況態様はまた、車両プラットフォーム103aの合流時間長さと合流点位置とを含む。この例では、影響計算機206は、車両プラットフォーム103aの合流動作のための目標影響指標を、入口ランプ区間804、上り側高速道路区間806、および下り側高速道路区間808の平均車両速度および通行流量に正比例するとして計算する。この例では、車両プラットフォーム103aの合流動作のための目標影響指標はまた、車両プラットフォーム103aの合流時間長さと、合流車両、上り側本線車両、および下り側本線車両の速度変化率とに反比例する。
いくつかの実施形態において、影響計算機206は、合流動作のための目標重み値を決定する際に、異なる通行状況態様に、異なる重み値を割り当てる。上記の例では、車両プラットフォーム103aの合流時間長さは、上り側本線車両の速度変化率よりも高い重み値を割り当てられる。なぜなら、車両プラットフォーム103aの合流時間長さは、上り側本線車両の速度変化率よりも、合流動作の影響を評価するために、より重要だからである。いくつかの実施形態において、影響計算機206は、第3の状態に含まれる通行状況態様と、通行状況態様に割り当てられた重み値に基づいて、第1の状態において示される合流動作の目標影響指標を決定する。いくつかの実施形態において、影響計算機206は、フィードバック値に基づいて通行状況態様に割り当てられた重み値を調節する。
いくつかの実施形態において、影響計算機206は、第1の状態に示されている合流動作の影響指標および目標影響指標を使用して、フィードバック値を計算する。上記で論じたように、合流動作の影響指標は、影響指標関数を使用して、第1の状態、1つまたは複数の第2の状態、および合流動作に基づいて決定される。合流動作の目標影響指標は、1つまたは複数の第3の状態に含まれる第3の状態に基づいて決定される。いくつかの実施形態において、フィードバック値は、合流動作の影響指標と、合流動作の目標影響指標との間の二乗誤差であってもよい。いくつかの実施形態において、影響計算機206は、フィードバック値に基づいて影響指標関数の影響パラメータを調節する。いくつかの実施形態において、影響計算機206はまた、フィードバック値に基づいて、状態に含まれる通行状況態様に割り当てられた重み値を調節する。いくつかの実施形態において、影響計算機206は、調節された影響パラメータ、および/または、通行状況態様に関連付けられた調節された重み値とともに、調節された影響指標関数を、車両データストア121に記憶する。
いくつかの実施形態において、影響計算機206は、フィードバック値を状態マネジャ204に提供する。図4に戻って参照すると、ブロック410において、状態マネジャ204は、影響計算機206からフィードバック値を受信する。上記で論じたように、フィードバック値は、第1の状態に示される合流動作の影響指標および目標影響指標を使用して計算される。ブロック412において、状態マネジャ204は、フィードバック値に基づいて、後方時間距離および/または前方時間距離を調節する。本明細書の他の箇所で論
じられるように、後方時間距離は、合流区域の第2の状態が合流動作の影響を評価するために必要である第1の状態で示される合流動作の前の時間距離を指定する。前方時間距離は、合流区域の1つまたは複数の第3の状態が、合流動作の影響を反映する、第1の状態で示される合流動作の後の時間距離を指定する。いくつかの実施形態において、状態マネジャ204は、調節された後方時間距離および調節された前方時間距離を、車両データストア121に記憶する。
いくつかの実施形態において、影響計算機206および/または状態マネジャ204は、それらの学習データ(たとえば、影響指標関数の影響パラメータ、状態に含まれる通行状況態様の重み値、後方時間距離、前方時間距離等)が十分に調節されているか否かを判定する。いくつかの実施形態において、影響計算機206は、フィードバック値が、あらかじめ定義されたフィードバック値しきい値を満たすか否かを判定する。いくつかの実施形態において、影響計算機206は、フィードバック値が、あらかじめ定義された数のトレーニングサイクルの間、不変であるか否かを判定する。フィードバック値が、あらかじめ定義されたフィードバック値しきい値を満たすことを判定すること、および/または、フィードバック値が、あらかじめ定義されたトレーニングサイクル数の間、不変であることを判定することに応じて、影響計算機206は、影響計算機206および状態マネジャ204の学習データが、十分に調節されていることを判定する。影響計算機206および状態マネジャ204の学習データが十分に調節されると、影響計算機206は、影響計算機206および状態マネジャ204のトレーニングプロセスが完了されたと判定する。影響計算機206および状態マネジャ204の学習データは、ここで、トレーニング済みのデータ(たとえば、トレーニング済みの影響指標関数、通行状況態様のトレーニング済みの重み値、トレーニング済みの後方時間距離、トレーニング済みの前方時間距離等)とみなされ、影響計算機206および状態マネジャ204は、実施段階のための準備ができる。
図6は、合流車両のための最適な合流動作を決定するための例示的な方法600のフローチャートである。いくつかの実施形態において、方法600は、実施段階において合流アプリケーション120によって実行される。実施段階において、状態生成器202、状態マネジャ204、および影響計算機206は、十分にトレーニングされる。ブロック602において、トレーニング済みの状態生成器202は、合流区域を描写する第1の画像セットを受信する。たとえば、トレーニング済みの状態生成器202は、第1のタイムスタンプにおける合流車両の車両位置に関連付けられた合流区域を描写する第1の画像セットを受信する。第1の画像セットは、第1のタイムスタンプに関連付けられ、第1のタイムスタンプにおける合流区域の様々な道路区間上の通行状況を描写する1つまたは複数の第1の画像を含む。本明細書の他の箇所で論じられるように、1つまたは複数の第1の画像は、合流区域に位置する路側機107、入口ランプ区間に位置する合流車両、上り側高速道路区間に位置する上り側本線車両、および下り側高速道路区間に位置する下り側本線車両から受信される。
ブロック604において、トレーニング済みの状態生成器202は、第1の画像セットを使用して、第1のタイムスタンプに関連付けられた第1の状態を決定する。第1の状態は、第1のタイムスタンプにおける合流区域の様々な道路区間上の通行状況を示す様々な通行状況態様を含む。いくつかの実施形態において、第1の状態に含まれる通行状況態様は、合流区域の道路区間を示す道路区間データと、合流車両の第1の車両動作データ、および入口ランプ区間の第1の区間通行データと、上り側本線車両の第2の車両動作データ、および上り側高速道路区間の第2の区間通行データと、下り側本線車両の第3の車両動作データ、および下り側高速道路区間の第3の区間通行データとを含む。
ブロック606において、トレーニング済みの状態マネジャ204は、トレーニング済
みの後方時間距離を使用して、一連のタイムスタンプにおける合流区域の通行状態を示す一連の状態から、第1の状態の第1のタイムスタンプの前の、1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定する。いくつかの実施形態において、トレーニング済みの状態マネジャ204は、車両データストア121から、合流区域の一連の状態を検索する。一連の状態における各状態は、一連のタイムスタンプにおける対応するタイムスタンプに関連付けられ、トレーニング済みの状態生成器202によって、対応するタイムスタンプに関連付けられた画像セットを使用して決定される。第1の画像セットと同様に、各画像セットは、対応するタイムスタンプに関連付けられた1つまたは複数の画像を含み、1つまたは複数の画像は、合流区域に位置する路側機107から、入口ランプ区間に位置する合流車両から、上り側高速道路区間に位置する上り側本線車両から、および下り側高速道路区間に位置する下り側本線車両から受信される。
いくつかの実施形態において、第1のタイムスタンプに関連付けられた第1の状態と同様に、一連の状態内における各状態は、対応するタイムスタンプにおける合流区域の様々な道路区間上の通行状況を示す様々な通行状況態様を含む。各状態に含まれる通行状況態様は、合流区域の道路区間を示す道路区間データと、合流車両の第1の車両動作データ、および入口ランプ区間の第1の区間通行データと、上り側本線車両の第2の車両動作データ、および上り側高速道路区間の第2の区間通行データと、下り側本線車両の第3の車両動作データ、および下り側高速道路区間の第3の区間通行データとを含む。各状態に含まれる通行状況態様は、対応するタイムスタンプにおいて合流行為を完了する合流車両の合流時間長さおよび合流点位置をさらに含み得る。
いくつかの実施形態において、トレーニング済みの状態マネジャ204は、第1の状態の第1のタイムスタンプおよびトレーニング済みの後方時間距離に基づいて、過去の時間範囲を決定する。特に、トレーニング済みの状態マネジャ204は、過去の時間範囲の上限しきい値tpast_upper=第1の状態の第1のタイムスタンプと、過去の時間範囲の下限しきい値tpast_lower=(第1の状態の第1のタイムスタンプ−トレーニング済みの後方時間距離)を決定する。トレーニング済みの状態マネジャ204は、その後、一連の状態から、過去の時間範囲[tpast_lower、tpast_upper)内の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定する。いくつかの実施形態において、1つまたは複数の第2の状態は、複数の第2の状態を含み得る。したがって、第2の状態は、第1のタイムスタンプにおいて合流車両によって実行されるべき合流動作の影響を評価するために必要な一連の状態における第1の状態の第1のタイムスタンプの前の合流区域の後方状態である。
ブロック608において、トレーニング済みの影響計算機206は、第1の状態、1つまたは複数の第2の状態、および1つまたは複数の合流動作を使用して、1つまたは複数の合流動作のための1つまたは複数の影響指標を計算する。いくつかの実施形態において、トレーニング済みの影響計算機206は、車両データストア121内の合流動作データベースから、1つまたは複数の合流動作を検索する。合流動作データベース内の各合流動作(たとえば、様々な目標合流速度への様々な速度調節、様々な目標操舵角に対する様々な角度調節等)について、トレーニング済みの影響計算機206は、トレーニング済みの影響指標関数を使用して、第1の状態、1つまたは複数の第2の状態、および合流動作に基づいて、合流動作のための影響指標を計算する。本明細書の他の箇所で論じられるように、合流動作の影響指標は、合流区域の関連通行(たとえば、上り側本線車両の速度変化率、下り側高速道路区間の車両密度等)、および合流車両の合流行為(たとえば、合流車両の合流時間長さ、合流車両の合流点位置等)に対する合流動作の影響を示す。
ブロック610において、トレーニング済みの影響計算機206は、1つまたは複数の影響指標に基づいて、1つまたは複数の合流動作から第1の合流動作を選択し得る。いく
つかの実施形態において、トレーニング済みの影響計算機206は、最も低い影響指標を有する合流動作を、第1の合流動作として選択する。いくつかの実施形態において、トレーニング済みの影響計算機206は、最も高い影響指標を有する合流動作を、第1の合流動作として選択する。いくつかの実施形態において、トレーニング済みの影響計算機206は、あらかじめ定義された影響指標しきい値を満たす影響指標を有する合流動作のサブセットを決定し、合流動作のサブセットから、第1の合流動作をランダムに選択する。いくつかの実施形態において、トレーニング済みの影響計算機206は、影響指標に基づいて、合流車両のための複数の第1の合流動作を選択する。たとえば、トレーニング済みの影響計算機206は、「車両速度を30m/sの目標合流速度に調節する」(たとえば、67mph)という合流動作と、「操舵角を35°の目標操舵角に調節する」という合流動作とを、合流車両のための第1の合流動作として選択してもよい。いくつかの実施形態において、第1のタイムスタンプにおける合流区域の第1の状態を考慮して、第1の合流動作は、第1のタイムスタンプにおいて高速道路区間に合流するために合流車両によって実行されるべき最適な合流動作として決定される。
ブロック612において、合流アプリケーション120は、第1の合流動作を含む合流命令を合流車両に提供し、合流命令は、合流車両に対して、合流区域において第1の合流動作を実行するように命令する。いくつかの実施形態において、合流アプリケーション120は、合流車両の1つまたは複数の出力デバイスを介して、第1の合流動作を含む合流ガイダンスメッセージを生成し、運転者に表示する。たとえば、合流アプリケーション120は、入口ランプ区間に対する合流車両の車両位置を表す動的グラフィック地図と、合流ガイダンスメッセージ(たとえば、車両速度を67mphに調節し、操舵角を35°に調節せよ)とを、合流車両のタッチスクリーンに表示してもよい。別の例では、合流ガイダンスメッセージは、運転者がそれにしたがい合流を実行するための音声命令の形態で提供されてもよい。
いくつかの実施形態において、合流アプリケーション120は、第1の合流動作を含む合流命令を、合流車両の制御ユニット(たとえば、ECU)に通信する。いくつかの実施形態において、合流車両の制御ユニットは、合流アプリケーション120の合流命令を処理し、合流区域内で合流動作を実行するように合流車両を制御する。たとえば、制御ユニットは、合流命令にしたがって、自動的に合流車両の車両速度を67mphに調節し、合流車両の操舵角を35°に調節するために、合流車両の速度アクチュエータおよび操舵アクチュエータを作動させる。その結果、合流車両は、第1のタイムスタンプにおける合流区域の第1の状態を与えられた最適な合流動作として決定された第1の合流動作を自動的に実行し得、それによって、人手の介入なしに、自動的に入口ランプ区間から高速道路区間へ合流する。
以上の説明では、本発明を十分に理解できるように、多くの詳細について説明した。しかしながら、各実施形態はこれらの具体的な詳細無しでも実施できることは当業者にとって明らかであろう。また、説明が不明瞭になることを避けるために、構造や装置をブロック図の形式で表すこともある。たとえば、一実施形態は、ユーザインタフェースおよび特定のハードウェアとともに説明される。しかし、本実施形態は、データおよびコマンドを受信する任意のタイプのコンピュータシステム、および、サービスを提供する任意の周辺機器について適用できる。
以上の詳細な説明の一部は、非一時的(non-transitory)なコンピュータ可読記憶媒体に記憶されたデータビットに対する動作のアルゴリズムおよび記号的表現として提供される。これらのアルゴリズム的な説明および表現は、データ処理技術分野の当業者によって、他の当業者に対して自らの成果の本質を最も効果的に説明するために用いられるものである。なお、本明細書において(また一般に)アルゴリズムとは、所望の結果を得るため
の論理的な手順を意味する。処理のステップは、物理量を物理的に操作するものである。必ずしも必須ではないが、通常は、これらの量は記憶・伝送・結合・比較およびその他の処理が可能な電気的または磁気的信号の形式を取る。通例にしたがって、これらの信号をビット・値・要素・エレメント・シンボル・キャラクタ・項・数値などとして称することが簡便である。
なお、これらの用語および類似する用語はいずれも、適切な物理量と関連付いているものであり、これら物理量に対する簡易的なラベルに過ぎないということに留意する必要がある。以下の説明から明らかなように、特に断らない限りは、本明細書において「処理」「計算」「コンピュータ計算(処理)」「判断」「表示」等の用語を用いた説明は、コンピュータシステムや類似の電子的計算装置の動作および処理であって、コンピュータシステムのレジスタやメモリ内の物理的(電子的)量を、他のメモリやレジスタまたは同様の情報ストレージや通信装置、表示装置内の物理量として表される他のデータへ操作および変形する動作および処理を意味する。
本発明は、本明細書で説明される動作を実行する装置にも関する。この装置は要求される目的のために特別に製造されるものであっても良いし、汎用コンピュータを用いて構成しコンピュータ内に格納されるプログラムによって選択的に実行されたり再構成されたりするものであっても良い。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な、例えばフロッピー(登録商標)ディスク・光ディスク・CD−ROM・磁気ディスクなど任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気または光学式カード、USBキーを含む不揮発性フラッシュメモリ、電子的命令を格納するために適した任意のタイプの媒体などの、非一時的なコンピュータ可読記憶媒体に記憶される。
発明の具体的な実施形態は、完全にハードウェアによって実現されるものでも良いし、完全にソフトウェアによって実現されるものでも良いし、ハードウェアとソフトウェアの両方によって実現されるものでも良い。好ましい実施形態は、ソフトウェアによって実現される。ここでソフトウェアとは、ファームウェア、常駐ソフトウェア、マイクロコードやその他のソフトウェアを含むものである。
さらに、ある実施形態は、コンピュータが利用あるいは読み込み可能な記憶媒体からアクセス可能なコンピュータプログラムプロダクトの形態を取る。この記憶媒体は、コンピュータや任意の命令実行システムによってあるいはそれらと共に利用されるプログラムコードを提供する。コンピュータが利用あるいは読み込み可能な記憶媒体とは、命令実行システムや装置によってあるいはそれらと共に利用されるプログラムを、保持、格納、通信、伝搬および転送可能な任意の装置を指す。
プログラムコードを格納・実行するために適したデータ処理システムは、システムバスを介して記憶素子に直接または間接的に接続された少なくとも1つのプロセッサを有する。記憶素子は、プログラムコードの実際の実行に際して使われるローカルメモリや、大容量記憶装置や、実行中に大容量記憶装置からデータを取得する回数を減らすためにいくつかのプログラムコードを一時的に記憶するキャッシュメモリなどを含む。入力/出力(I/O)装置は、例えばキーボード、ディスプレイ、ポインティング装置などであるが、これらはI/Oコントローラを介して直接あるいは間接的にシステムに接続される。
データ処理システムが、介在するプライベートネットワークおよび/またはパブリックネットワークを介して、他のデータ処理システム、ストレージデバイス、リモートプリンタなどに結合されるようになることを可能にするために、ネットワークアダプタもシステムに結合されうる。ワイヤレス(たとえば、Wi−Fi(登録商標))トランシーバ、イーサネット(登録商標)アダプタ、およびモデムは、ネットワークアダプタのほんの数例
に過ぎない。プライベートネットワークおよびパブリックネットワークは、任意の数の構成および/またはトポロジを有しうる。データは、たとえば、様々なインターネットレイヤ、トランスポートレイヤ、またはアプリケーションレイヤのプロトコルを含む、様々な異なる通信プロトコルを使用して、ネットワークを介してこれらのデバイス間で送信されうる。たとえば、データは、伝送制御プロトコル/インターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、伝送制御プロトコル(TCP)、ハイパーテキスト転送プロトコル(HTTP)、セキュアハイパーテキスト転送プロトコル(HTTPS)、動的適応ストリーミングオーバーHTTP(DASH)、リアルタイムストリーミングプロトコル(RTSP)、リアルタイムトランスポートプロトコル(RTP)およびリアルタイムトランスポート制御プロトコル(RTCP)、ボイスオーバーインターネットプロトコル(VOIP)、ファイル転送プロトコル(FTP)、ウェブソケット(WS)、ワイヤレスアクセスプロトコル(WAP)、様々なメッセージングプロトコル(SMS、MMS、XMS、IMAP、SMTP、POP、WebDAVなど)、または他の既知のプロトコルを使用して、ネットワークを介して送信されうる。
最後に、本明細書において提示されるアルゴリズムおよび表示は特定のコンピュータや他の装置と本来的に関連するものではない。本明細書における説明にしたがったプログラムを有する種々の汎用システムを用いることができるし、また要求された処理ステップを実行するための特定用途の装置を製作することが適した場合もある。これら種々のシステムに要求される構成は、以上の説明において明らかにされる。さらに、本発明は、特定のプログラミング言語と関連づけられるものではない。本明細書で説明される本発明の内容を実装するために種々のプログラミング言語を利用できることは明らかであろう。
実施形態の前述の説明は、例示と説明を目的として行われたものである。したがって、開示された実施形態が本発明の全てではないし、本発明を上記の実施形態に限定するものでもない。本発明は、上記の開示にしたがって、種々の変形が可能である。本発明の範囲は上述の実施形態に限定解釈されるべきではなく、特許請求の範囲にしたがって解釈されるべきである。本発明の技術に詳しい者であれば、本発明はその思想や本質的特徴から離れることなくその他の種々の形態で実現できることを理解できるであろう。同様に、モジュール・処理・特徴・属性・方法およびその他の本発明の態様に関する名前付けや分割方法は必須なものでものないし重要でもない。また、本発明やその特徴を実装する機構は異なる名前や分割方法や構成を備えていても構わない。
さらに、モジュール・処理・特徴・属性・方法およびその他の本発明の態様は、ソフトウェア、ハードウェア、ファームウェアもしくはこれらの組合せとして実装できる。また、本発明をソフトウェアとして実装する場合には、モジュールなどの各要素は、どのような様式で実装されても良い。例えば、スタンドアローンのプログラム、大きなプログラムの一部、異なる複数のプログラム、静的あるいは動的なリンクライブラリー、カーネルローダブルモジュール、デバイスドライバー、その他コンピュータプログラミングの当業者にとって既知な方式として実装することができる。さらに、本発明の実装は特定のプログラミング言語に限定されるものではないし、特定のオペレーティングシステムや環境に限定されるものでもない。
100 システム
101 サーバ
103 車両プラットフォーム
103a〜103n 車両プラットフォーム
105 ネットワーク
107 路側機
107a〜107n 路側機
113 センサ
115 プロセッサ
117 メモリ
119 通信ユニット
120 合流アプリケーション、構成要素
120a〜120n インスタンス
121 車両データストア
141 信号線
145 信号線
147 信号線
147a〜147n 信号線
152 コンピューティングデバイス
154 バス
202 状態生成器、構成要素
204 状態マネジャ、構成要素
206 影響計算機
300 ブロック図
302 トレーニング段階
304 実施段階
400 方法
402 ブロック
404 ブロック
406 ブロック
408 ブロック
410 ブロック
412 ブロック
500 状態
502 画像セット
504 画像セット
506 画像セット
508 画像セット
510 画像セット
512 画像セット
514 画像セット
516 画像セット
518 画像セット
552 状態
554 状態
556 状態
558 状態
560 状態
562 状態
564 状態
566 状態
568 状態
600 方法
700 方法
800 合流区域
802 高速道路区間
804 入口ランプ区間
806 上り側高速道路区間
808 下り側高速道路区間

Claims (15)

  1. 第1のタイムスタンプに関連付けられた1つまたは複数の第1の画像を含む第1の画像セットであって、合流区域を描写する第1の画像セットを受信することと、
    トレーニング済みの第1の機械学習ロジックと前記第1の画像セットとを使用して、前記第1のタイムスタンプにおける前記合流区域の通行状況を示す第1の状態を決定することと、
    トレーニング済みの第2の機械学習ロジックとトレーニング済みの後方時間距離とを使用して、一連のタイムスタンプにおける前記合流区域の前記通行状況を示す一連の状態から、前記第1の状態の前記第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定することと、
    トレーニング済みの第3の機械学習ロジックと、前記第1の状態および前記1つまたは複数の第2の状態と、を使用して、複数の合流動作についての1つまたは複数の影響指標を計算することと、
    前記1つまたは複数の影響指標に基づいて、前記複数の合流動作から第1の合流動作を選択することと、
    前記合流区域内で前記第1の合流動作を実行するように命令する合流命令を合流車両に提供することと、を含む、情報処理方法。
  2. 前記一連の状態から前記1つまたは複数の第2の状態を決定することは、
    前記第1の状態の前記第1のタイムスタンプおよび前記トレーニング済みの後方時間距離に基づいて、過去の時間範囲を決定することと、
    前記一連の状態から、前記過去の時間範囲内の複数の第2のタイムスタンプに関連付けられた複数の第2の状態を決定することと、を含む、請求項1に記載の情報処理方法。
  3. 前記1つまたは複数の合流動作は、1つまたは複数の目標合流速度への1つまたは複数の速度調節、1つまたは複数の目標加速度への1つまたは複数の加速度調節、および1つまたは複数の目標操舵角への1つまたは複数の角度調節を含む、請求項1に記載の情報処理方法。
  4. 前記合流車両の制御ユニットにおいて前記合流命令を処理することで、前記合流区域内で前記第1の合流動作を実行するように前記合流車両を制御することをさらに含む、
    請求項1に記載の情報処理方法。
  5. 前記合流区域は、入口ランプ区間、上り側高速道路区間、および下り側高速道路区間を含み、
    前記第1の画像セットは、前記合流区域に位置する1つまたは複数の路側機、前記入口ランプ区間に位置する1つまたは複数の合流車両、前記上り側高速道路区間に位置する1つまたは複数の上り側本線車両、および前記下り側高速道路区間に位置する1つまたは複数の下り側本線車両から受信した、前記第1のタイムスタンプに関連付けられた前記1つまたは複数の第1の画像を含む、
    請求項1に記載の情報処理方法。
  6. 前記合流区域は、入口ランプ区間、上り側高速道路区間、および下り側高速道路区間を含み、
    前記情報処理方法は、
    前記一連のタイムスタンプにおける対応するタイムスタンプに関連付けられた前記一連の状態におけるそれぞれの状態を、前記トレーニング済みの第1の機械学習ロジックと、前記対応するタイムスタンプに関連付けられた画像セットと、を使用して決定することを含み、
    前記画像セットは、前記合流区域に位置する1つまたは複数の路側機、前記入口ランプ区間に位置する1つまたは複数の合流車両、前記上り側高速道路区間に位置する1つまたは複数の上り側本線車両、および前記下り側高速道路区間に位置する1つまたは複数の下り側本線車両から受信した、前記対応するタイムスタンプに関連付けられた1つまたは複数の画像を含む、請求項1に記載の情報処理方法。
  7. 前記一連の状態および前記第1の状態における各状態は、
    前記合流区域の1つまたは複数の車道構成要素を示す車道データと、
    1つまたは複数の合流車両の第1の車両動作データ、1つまたは複数の上り側本線車両の第2の車両動作データ、および1つまたは複数の下り側本線車両の第3の車両動作データと、
    入口ランプ区間の第1の区間通行データ、上り側高速道路区間の第2の区間通行データ、および下り側高速道路区間の第3の区間通行データと、を含む、請求項1に記載の情報処理方法。
  8. 前記1つまたは複数の合流車両、前記1つまたは複数の上り側本線車両、および前記1つまたは複数の下り側本線車両に含まれる各車両の前記第1の車両動作データ、前記第2の車両動作データ、または前記第3の車両動作データは、各車両に関連付けられた車両位置、車両速度、および加速度パターンのうちの1つまたは複数を指定し、
    前記入口ランプ区間、前記上り側高速道路区間、および前記下り側高速道路区間のうちの各道路区間の前記第1の区間通行データ、前記第2の区間通行データ、または前記第3の区間通行データは、前記道路区間に関連付けられた通行流量、速度密度、平均車両速度、および平均追従距離のうちの1つまたは複数を指定する、
    請求項7に記載の情報処理方法。
  9. 一連のタイムスタンプにおける合流区域の通行状況を示す一連の状態を取得することと、
    前記一連の状態のうち、第1のタイムスタンプに関連付けられた第1の状態が、第1の合流車両の合流動作を示すと決定することと、
    後方時間距離に基づいて、前記一連の状態から、前記第1の状態の前記第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定することと、
    前記一連の状態から、前記第1の状態の前記第1のタイムスタンプに続く第3のタイムスタンプに関連付けられた第3の状態を決定することと、
    前記第1の状態、前記1つまたは複数の第2の状態、および前記合流動作に基づいて決定された前記合流動作の影響指標と、前記第3の状態に基づいて決定された前記合流動作の目標影響指標と、を使用して計算されたフィードバック値を受信することと、
    前記フィードバック値に基づいて前記後方時間距離を調節することと、を含む、情報処理方法。
  10. 前記第3の状態を決定することは、
    前方時間距離に基づいて、前記一連の状態から、前記第1の状態の前記第1のタイムスタンプに続く前記第3のタイムスタンプに関連付けられた前記第3の状態を決定することを含み、
    前記情報処理方法は、
    前記フィードバック値に基づいて前記前方時間距離を調節することをさらに含む、請求項9に記載の情報処理方法。
  11. 前記前方時間距離に基づいて前記第3の状態を決定することは、
    前記第1の状態の前記第1のタイムスタンプおよび前記前方時間距離に基づいて、前記
    第3のタイムスタンプを決定することと、
    前記一連の状態から、前記第3のタイムスタンプに関連付けられた前記第3の状態を決定することと、を含む、請求項10に記載の情報処理方法。
  12. 機械学習ロジックを使用して、前記第1の状態、前記1つまたは複数の第2の状態、および前記合流動作に基づいて前記合流動作の前記影響指標が決定され、
    前記合流動作の前記目標影響指標が、前記第3の状態に含まれる1つまたは複数の通行状況態様に基づいて決定され、
    前記第3の状態に含まれる前記1つまたは複数の通行状況態様は、
    1つまたは複数の合流車両の第1の車両動作データおよび入口ランプ区間の第1の区間通行データと、
    1つまたは複数の上り側本線車両の第2の車両動作データおよび上り側高速道路区間の第2の区間通行データと、
    1つまたは複数の下り側本線車両の第3の車両動作データおよび下り側高速道路区間の第3の区間通行データと、
    前記第1の合流車両の合流時間長さと合流点位置とを含む、
    請求項9に記載の情報処理方法。
  13. 前記合流動作の前記目標影響指標は、前記第3の状態に含まれる1つまたは複数の通行状況態様と、前記1つまたは複数の通行状況態様に割り当てられた1つまたは複数の重み値と、に基づいて決定される、
    請求項9に記載の情報処理方法。
  14. 第1のタイムスタンプに関連付けられた1つまたは複数の第1の画像を含む第1の画像セットであって、合流区域を描写する第1の画像セットを受信することと、
    トレーニング済みの第1の機械学習ロジックと前記第1の画像セットとを使用して、前記第1のタイムスタンプにおける前記合流区域の通行状況を示す第1の状態を決定することと、
    トレーニング済みの第2の機械学習ロジックとトレーニング済みの後方時間距離とを使用して、一連のタイムスタンプにおける前記合流区域の前記通行状況を示す一連の状態から、前記第1の状態の前記第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定することと、
    トレーニング済みの第3の機械学習ロジックと、前記第1の状態および前記1つまたは複数の第2の状態と、を使用して、複数の合流動作についての1つまたは複数の影響指標を計算することと、
    前記1つまたは複数の影響指標に基づいて、前記複数の合流動作から第1の合流動作を選択することと、
    前記合流区域内で前記第1の合流動作を実行するように命令する合流命令を合流車両に提供することと、を実行する制御部を備える情報処理システム。
  15. 一連のタイムスタンプにおける合流区域の通行状況を示す一連の状態を取得することと、
    前記一連の状態のうち、第1のタイムスタンプに関連付けられた第1の状態が、第1の合流車両の合流動作を示すと決定することと、
    後方時間距離に基づいて、前記一連の状態から、前記第1の状態の前記第1のタイムスタンプの前の1つまたは複数の第2のタイムスタンプに関連付けられた1つまたは複数の第2の状態を決定することと、
    前記一連の状態から、前記第1の状態の前記第1のタイムスタンプに続く第3のタイムスタンプに関連付けられた第3の状態を決定することと、
    前記第1の状態、前記1つまたは複数の第2の状態、および前記合流動作に基づいて決
    定された前記合流動作の影響指標と、前記第3の状態に基づいて決定された前記合流動作の目標影響指標と、を使用して計算されたフィードバック値を受信することと、
    前記フィードバック値に基づいて前記後方時間距離を調節することと、を実行する制御部を備える情報処理システム。
JP2019065433A 2018-04-09 2019-03-29 情報処理方法および情報処理システム Active JP6693587B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/949,067 US10725475B2 (en) 2018-04-09 2018-04-09 Machine learning enhanced vehicle merging
US15/949,067 2018-04-09

Publications (2)

Publication Number Publication Date
JP2019185770A JP2019185770A (ja) 2019-10-24
JP6693587B2 true JP6693587B2 (ja) 2020-05-13

Family

ID=68097136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019065433A Active JP6693587B2 (ja) 2018-04-09 2019-03-29 情報処理方法および情報処理システム

Country Status (3)

Country Link
US (2) US10725475B2 (ja)
JP (1) JP6693587B2 (ja)
CN (1) CN110364006B (ja)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
WO2019005547A1 (en) * 2017-06-28 2019-01-03 Panasonic Intellectual Property Corporation Of America MOBILE BODY CONTROL APPARATUS, MOBILE BODY CONTROL METHOD, AND LEARNING METHOD
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US10757485B2 (en) 2017-08-25 2020-08-25 Honda Motor Co., Ltd. System and method for synchronized vehicle sensor data acquisition processing using vehicular communication
US10916135B2 (en) * 2018-01-13 2021-02-09 Toyota Jidosha Kabushiki Kaisha Similarity learning and association between observations of multiple connected vehicles
US10963706B2 (en) 2018-01-13 2021-03-30 Toyota Jidosha Kabushiki Kaisha Distributable representation learning for associating observations from multiple vehicles
US10586118B2 (en) 2018-01-13 2020-03-10 Toyota Jidosha Kabushiki Kaisha Localizing traffic situation using multi-vehicle collaboration
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
DE102019202090A1 (de) * 2018-03-14 2019-09-19 Robert Bosch Gmbh Verfahren zum Erzeugen eines Trainingsdatensatzes zum Trainieren eines Künstlichen-Intelligenz-Moduls für eine Steuervorrichtung eines Roboters
US10725475B2 (en) * 2018-04-09 2020-07-28 Toyota Jidosha Kabushiki Kaisha Machine learning enhanced vehicle merging
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
EP3588211A1 (de) * 2018-06-27 2020-01-01 Siemens Aktiengesellschaft Steuereinrichtung zum steuern eines technischen systems und verfahren zum konfigurieren der steuereinrichtung
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11181929B2 (en) 2018-07-31 2021-11-23 Honda Motor Co., Ltd. System and method for shared autonomy through cooperative sensing
US11163317B2 (en) 2018-07-31 2021-11-02 Honda Motor Co., Ltd. System and method for shared autonomy through cooperative sensing
US10788841B2 (en) * 2018-08-24 2020-09-29 Baidu Usa Llc Hardware centralized time synchronization hub for an autonomous driving vehicle
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US20240177536A9 (en) * 2018-09-30 2024-05-30 Strong Force Tp Portfolio 2022, Llc Intelligent transportation systems including digital twin interface for a passenger vehicle
KR20210072048A (ko) 2018-10-11 2021-06-16 테슬라, 인크. 증강 데이터로 기계 모델을 훈련하기 위한 시스템 및 방법
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11242050B2 (en) * 2019-01-31 2022-02-08 Honda Motor Co., Ltd. Reinforcement learning with scene decomposition for navigating complex environments
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US11145197B2 (en) * 2019-03-13 2021-10-12 Mitsubishi Electric Research Laboratories, Inc. Joint control of vehicles traveling on different intersecting roads
US20210221377A1 (en) * 2020-01-21 2021-07-22 Here Global B.V. Method, apparatus, and computer program product for dynamically detecting dangerous merging situations
CN111341125B (zh) * 2020-02-07 2021-09-03 中国联合网络通信集团有限公司 车辆通行方法及装置
US11468774B2 (en) * 2020-03-17 2022-10-11 Honda Motor Co., Ltd. Systems and methods for cooperative ramp merge
US11400934B2 (en) 2020-03-17 2022-08-02 Honda Motor Co., Ltd. Systems and methods for cooperative ramp merge
US11485360B2 (en) * 2020-04-03 2022-11-01 Baidu Usa Llc Dynamic speed limit adjustment system based on perception results
KR20210132496A (ko) * 2020-04-27 2021-11-04 한국전자기술연구원 영상 기반 차선 검출 및 주행 차로 인식 방법 및 장치
US11433924B2 (en) 2020-04-30 2022-09-06 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for controlling one or more vehicles with one or more controlled vehicles
JP7235015B2 (ja) 2020-07-17 2023-03-08 トヨタ自動車株式会社 自動操舵システム
CN112590792B (zh) * 2020-12-18 2024-05-10 的卢技术有限公司 一种基于深度强化学习算法的车辆汇合控制方法
CN112885088B (zh) * 2021-01-25 2022-05-17 浙江工业大学 一种基于动态交通流的多匝道协调控制方法
JP2022121103A (ja) * 2021-02-08 2022-08-19 パナソニックIpマネジメント株式会社 合流支援装置、合流支援システム、及び合流支援方法
CN113223324B (zh) * 2021-03-25 2022-05-24 东南大学 高速匝道入口合流的控制方法
JP7487709B2 (ja) 2021-06-02 2024-05-21 トヨタ自動車株式会社 車両駆動ユニットの制御装置及び制御方法
CN114023067B (zh) * 2021-11-08 2022-09-16 河海大学 一种车联网环境稳健性导向的道路行程时间预测方法
CN114708734B (zh) * 2022-05-07 2023-01-10 合肥工业大学 一种入口匝道网联人工驾驶车辆汇入主线协同控制方法
CN118430252B (zh) * 2024-04-30 2024-10-11 浙江省交通运输科学研究院 基于强化学习和事件触发预测的高速公路匝道管控方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263793A (ja) * 1995-03-23 1996-10-11 Honda Motor Co Ltd 車両制御装置
JPH10105893A (ja) * 1996-09-30 1998-04-24 Mitsubishi Motors Corp 合流制御システム
JPH1153685A (ja) 1997-07-31 1999-02-26 Toyota Motor Corp 合流支援装置
US7146345B2 (en) * 2000-08-24 2006-12-05 Weik Iii Martin Herman Parking barrier with accident event logging and self-diagnostic control system
DE10358034A1 (de) * 2003-12-11 2005-07-14 Daimlerchrysler Ag Adaption einer automatischen Folgeführung an potentiell auf die eigene Fahrspur einscherende Verkehrsteilnehmer
JP2007323178A (ja) * 2006-05-30 2007-12-13 Nissan Motor Co Ltd 合流支援装置及び合流支援方法
WO2008086293A2 (en) * 2007-01-05 2008-07-17 Nestor, Inc. A system and method for measuring the speed of vehicles or other objects
CA2742126A1 (en) * 2007-10-30 2009-05-07 Allen E. Webster Vehicle safety camera system
CA2712576C (en) * 2009-08-11 2012-04-10 Certusview Technologies, Llc Systems and methods for complex event processing of vehicle-related information
US9047781B2 (en) * 2011-05-31 2015-06-02 Georgia Tech Research Corporation Safety zone detection, enforcement and alarm system and related methods
JP2015052902A (ja) * 2013-09-06 2015-03-19 株式会社デンソー 合流情報提供装置
US9738280B2 (en) 2013-10-03 2017-08-22 Robert Bosch Gmbh Adaptive cruise control with on-ramp detection
US9002647B1 (en) * 2014-06-27 2015-04-07 Google Inc. Generating turn-by-turn direction previews
CN104464317B (zh) * 2014-12-03 2016-05-11 武汉理工大学 高速公路入口匝道合流区引导控制系统和方法
US20160191945A1 (en) * 2014-12-24 2016-06-30 Sony Corporation Method and system for processing video content
JP6422812B2 (ja) * 2015-04-09 2018-11-14 三菱電機株式会社 運転支援装置および運転支援方法
JP6606369B2 (ja) * 2015-07-21 2019-11-13 株式会社Soken 物体検出装置及び物体検出方法
US9996756B2 (en) * 2015-08-31 2018-06-12 Lytx, Inc. Detecting risky driving with machine vision
JP2018537794A (ja) * 2015-12-17 2018-12-20 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. 支援付きの交通合流
CN105654754B (zh) 2016-01-20 2018-11-27 深圳前海达闼云端智能科技有限公司 一种车辆控制方法及装置
CN105912814A (zh) * 2016-05-05 2016-08-31 苏州京坤达汽车电子科技有限公司 智能驾驶车辆换道决策模型
CN106981193B (zh) * 2017-04-20 2020-05-01 西南交通大学 基于车辆间相互作用势的入口匝道交通流模型仿真方法
CN109591817A (zh) * 2017-09-30 2019-04-09 上海欧菲智能车联科技有限公司 车道偏离预警系统的测试装置和测试方法
US10725475B2 (en) * 2018-04-09 2020-07-28 Toyota Jidosha Kabushiki Kaisha Machine learning enhanced vehicle merging

Also Published As

Publication number Publication date
CN110364006B (zh) 2022-01-07
CN110364006A (zh) 2019-10-22
JP2019185770A (ja) 2019-10-24
US20200257303A1 (en) 2020-08-13
US10725475B2 (en) 2020-07-28
US11294388B2 (en) 2022-04-05
US20190310648A1 (en) 2019-10-10

Similar Documents

Publication Publication Date Title
JP6693587B2 (ja) 情報処理方法および情報処理システム
US10867404B2 (en) Distance estimation using machine learning
JP6741107B2 (ja) 交通状況のリアルタイム検出
US11151868B2 (en) Remote vehicle control at intersections
US10916135B2 (en) Similarity learning and association between observations of multiple connected vehicles
US12128901B2 (en) Virtualized driver assistance
US11232705B2 (en) Mitigation of traffic oscillation on roadway
JP6642745B2 (ja) 複数のコネクティッド車両による観測値を関連付けるための学習方法
US11451974B2 (en) Managing regionalized vehicular communication
US20210389133A1 (en) Systems and methods for deriving path-prior data using collected trajectories
US11482109B2 (en) Cooperative vehicle monitoring
US20220375345A1 (en) Hierarchical Computing Architecture for Traffic Management

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200330

R151 Written notification of patent or utility model registration

Ref document number: 6693587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151