JP2021136021A - 運転者中心危険評価:意図認識運転モデルを用いた因果推論を介する危険物体識別 - Google Patents
運転者中心危険評価:意図認識運転モデルを用いた因果推論を介する危険物体識別 Download PDFInfo
- Publication number
- JP2021136021A JP2021136021A JP2021018618A JP2021018618A JP2021136021A JP 2021136021 A JP2021136021 A JP 2021136021A JP 2021018618 A JP2021018618 A JP 2021018618A JP 2021018618 A JP2021018618 A JP 2021018618A JP 2021136021 A JP2021136021 A JP 2021136021A
- Authority
- JP
- Japan
- Prior art keywords
- self
- driving scene
- driver
- graph
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001364 causal effect Effects 0.000 title description 7
- 238000011156 evaluation Methods 0.000 title description 2
- 238000000034 method Methods 0.000 claims abstract description 72
- 230000006399 behavior Effects 0.000 claims description 115
- 238000013528 artificial neural network Methods 0.000 claims description 57
- 230000014509 gene expression Effects 0.000 claims description 37
- 230000003993 interaction Effects 0.000 claims description 31
- 230000004936 stimulating effect Effects 0.000 claims description 20
- 230000015654 memory Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 17
- 230000004927 fusion Effects 0.000 claims description 11
- 230000003068 static effect Effects 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 9
- 230000000694 effects Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000033001 locomotion Effects 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 4
- 230000002457 bidirectional effect Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 15
- 230000009471 action Effects 0.000 abstract description 10
- 230000010354 integration Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000008571 general function Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0097—Predicting future conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0635—Risk analysis of enterprise or organisation activities
-
- G06Q50/40—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/84—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20072—Graph-based image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Abstract
Description
本出願は、2020年2月26日に出願された米国特許仮出願第62/981,785号のそれぞれに優先権を主張する、2020年6月30日に出願された米国特許出願第16/916,428号の一部継続出願であり、これらの両方が参照により本明細書に明示的に組み込まれる。
I.システムの概要
II.運転シーンモデリング運転者行動予測アプリケーション及び関連する方法
Claims (20)
- 意図認識運転モデルに基づいて運転行動を予測するためのコンピュータ実施方法であって、
自車両の運転シーンの少なくとも1つの画像を受信することと、
前記少なくとも1つの画像を分析して、前記運転シーン内に位置する動的物体を検出及び追跡し、前記運転シーンに関連付けられた運転シーン特性を検出及び識別することと、
前記動的物体に関連付けられた自己−事物グラフ、及び前記運転シーン特性に関連付けられた自己−要素グラフを処理することと、
前記自己−事物グラフ及び前記自己−要素グラフの表現の融合に基づく運転者の刺激行動と、前記自車両の運転者の運転意図に関連付けられた意図表現に基づく運転者の意図行動と、を予測することと、を含む、コンピュータ実施方法。 - 前記自車両の前記運転シーンの前記少なくとも1つの画像を受信することが、ニューラルネットワークを利用して、前記運転シーンの前記少なくとも1つの画像に関連付けられた画像フレームの入力を受信することを含み、前記画像フレームが、前記運転シーンの自己中心ビューを含む、請求項1に記載のコンピュータ実施方法。
- 前記少なくとも1つの画像を分析することが、前記動的物体に関連付けられた物体境界ボックスを計算することと、前記計算された物体境界ボックスから動的物体特徴を抽出することと、を含む、請求項1に記載のコンピュータ実施方法。
- 前記少なくとも1つの画像を分析することが、セマンティックセグメンテーションを実行して、前記運転シーンの静的物体及び車道特徴に関連付けられた前記運転シーン特性を検出することを含み、セマンティックマスクからの不規則的な形状の物体が、前記セマンティックセグメンテーションに基づいて適用されて、前記運転シーン特性を識別する、請求項1に記載のコンピュータ実施方法。
- 前記動的物体に関連付けられた前記自己−事物グラフを処理することが、前記動的物体を自己−事物として分類することと、ニューラルネットワークのグラフ生成器を実行させて、前記動的物体に対応する事物ノードを有する前記自己−事物グラフを計算することと、を含み、前記自己−事物グラフが、双方向に、前記動的物体同士の間、及び前記自車両との相互作用に関連する、請求項1に記載のコンピュータ実施方法。
- 前記運転シーン特性に関連付けられた前記自己−要素グラフを処理することが、前記運転シーン特性を自己−要素として分類することと、ニューラルネットワークのグラフ生成器を実行させて、前記運転シーン特性に対応する要素ノードを有する前記自己−要素グラフを計算することと、を含み、前記自己−要素グラフが、前記自車両の動作時の前記自己−要素の効果に関連する、請求項1に記載のコンピュータ実施方法。
- 前記運転者の刺激行動を予測することが、前記自己−事物グラフからの自己−事物特徴と、前記自己−要素グラフからの自己−要素特徴と、を抽出及び融合して、前記運転シーンの時空間運転シーンモデリングを達成することを含み、融合データが処理されて、時空間判定を行い、前記動的物体同士の間、及び前記自車両との双方向相互作用を捕捉する相互作用表現を出力する、請求項1に記載のコンピュータ実施方法。
- 前記運転者の刺激行動を予測することが、前記運転シーンの抽出された視覚的特徴に関連付けられた運転者の意図に関連する前記相互作用表現及び前記意図表現を、ニューラルネットワークの時間デコーダに入力することを含み、前記時間デコーダが、過去、現在、及び予測された未来の情報から未来を集約して、前記運転者の刺激行動を予測する、請求項7に記載のコンピュータ実施方法。
- 前記運転者の意図行動を予測することが、前記少なくとも1つの画像の畳み込み分析を使用して、視覚的特徴の抽出に基づいて、前記自車両の前記運転者の前記意図を分析して、前記意図表現を出力することを含み、前記運転者の意図行動が、前記自車両の将来の動作に対する運転者の意図に関連付けられている、請求項1に記載のコンピュータ実施方法。
- 意図認識運転モデルに基づいて運転行動を予測するためのシステムであって、
命令を記憶しているメモリを備え、前記命令が、プロセッサによって実行されるとき、前記プロセッサに、
自車両の運転シーンの少なくとも1つの画像を受信することと、
前記少なくとも1つの画像を分析して、前記運転シーン内に位置する動的物体を検出及び追跡し、前記運転シーンに関連付けられた運転シーン特性を検出及び識別することと、
前記動的物体に関連付けられた自己−事物グラフ、及び前記運転シーン特性に関連付けられた自己−要素グラフを処理することと、
前記自己−事物グラフ及び前記自己−要素グラフの表現の融合に基づく運転者の刺激行動と、前記自車両の運転者の運転意図に関連付けられた意図表現に基づく運転者の意図行動と、を予測することと、を行わせる、システム。 - 前記自車両の前記運転シーンの前記少なくとも1つの画像を受信することが、ニューラルネットワークを利用して、前記運転シーンの前記少なくとも1つの画像に関連付けられた画像フレームの入力を受信することを含み、前記画像フレームが、前記運転シーンの自己中心ビューを含む、請求項10に記載のシステム。
- 前記少なくとも1つの画像を分析することが、前記動的物体に関連付けられた物体境界ボックスを計算することと、前記計算された物体境界ボックスから動的物体特徴を抽出することと、を含む、請求項10に記載のシステム。
- 前記少なくとも1つの画像を分析することが、セマンティックセグメンテーションを実行して、前記運転シーンの静的物体及び車道特徴に関連付けられた前記運転シーン特性を検出することを含み、セマンティックマスクからの不規則的な形状の物体が、前記セマンティックセグメンテーションに基づいて適用されて、前記運転シーン特性を識別する、請求項10に記載のシステム。
- 前記動的物体に関連付けられた前記自己−事物グラフを処理することが、前記動的物体を自己−事物として分類することと、ニューラルネットワークのグラフ生成器を実行させて、前記動的物体に対応する事物ノードを有する前記自己−事物グラフを計算することと、を含み、前記自己−事物グラフが、双方向に、前記動的物体同士の間、及び前記自車両との相互作用に関連する、請求項10に記載のシステム。
- 前記運転シーン特性に関連付けられた前記自己−要素グラフを処理することが、前記運転シーン特性を自己−要素として分類することと、ニューラルネットワークのグラフ生成器を実行させて、前記運転シーン特性に対応する要素ノードを有する前記自己−要素グラフを計算することと、を含み、前記自己−要素グラフが、前記自車両の動作時の前記自己−要素の効果に関連する、請求項10に記載のシステム。
- 前記運転者の刺激行動を予測することが、前記自己−事物グラフからの自己−事物特徴と、前記自己−要素グラフからの自己−要素特徴と、を抽出及び融合して、前記運転シーンの時空間運転シーンモデリングを達成することを含み、融合データが処理されて、時空間判定を行い、前記動的物体同士の間、及び前記自車両との双方向相互作用を捕捉する相互作用表現を出力する、請求項10に記載のシステム。
- 前記運転者の刺激行動を予測することが、前記運転シーンの抽出された視覚的特徴に関連付けられた運転者意図に関連する前記相互作用表現及び前記意図表現を、ニューラルネットワークの時間デコーダに入力することを含み、前記時間デコーダが、過去、現在、及び予測された未来の情報から未来を集約し、前記運転者の刺激行動を予測する、請求項16に記載のシステム。
- 前記運転者の意図行動を予測することが、前記少なくとも1つの画像の畳み込み分析を使用して、視覚的特徴の抽出に基づいて、前記自車両の前記運転者の前記意図を分析して、前記意図表現を出力することを含み、前記運転者の意図行動が、前記自車両の将来の動作に対する運転者の意図に関連付けられている、請求項10に記載のシステム。
- 命令を記憶している非一時的コンピュータ可読記憶媒体であって、前記命令が、プロセッサを含むコンピュータによって実行されるとき、方法を実行し、前記方法が、
自車両の運転シーンの少なくとも1つの画像を受信することと、
前記少なくとも1つの画像を分析して、前記運転シーン内に位置する動的物体を検出及び追跡し、前記運転シーンに関連付けられた運転シーン特性を検出及び識別することと、
前記動的物体に関連付けられた自己−事物グラフ、及び前記運転シーン特性に関連付けられた自己−要素グラフを処理することと、
前記自己−事物グラフ及び前記自己−要素グラフの表現の融合に基づく運転者の刺激行動と、前記自車両の運転者の運転意図に関連付けられた意図表現に基づく運転者の意図行動と、を予測することと、を含む、非一時的コンピュータ可読記憶媒体。 - 前記運転者の刺激行動を予測することが、前記自己−事物グラフからの自己−事物特徴と、前記自己−要素グラフからの自己−要素特徴と、を抽出及び融合して、前記運転シーンの時空間運転シーンモデリングを達成することを含み、融合データが処理されて、時空間判定を行い、前記動的物体同士の間、及び前記自車両との双方向相互作用を捕捉する相互作用表現を出力する、請求項19に記載の非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062981785P | 2020-02-26 | 2020-02-26 | |
US62/981,785 | 2020-02-26 | ||
US16/916,428 US11544935B2 (en) | 2020-02-26 | 2020-06-30 | System for risk object identification via causal inference and method thereof |
US16/916,428 | 2020-06-30 | ||
US17/005,833 | 2020-08-28 | ||
US17/005,833 US11458987B2 (en) | 2020-02-26 | 2020-08-28 | Driver-centric risk assessment: risk object identification via causal inference with intent-aware driving models |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021136021A true JP2021136021A (ja) | 2021-09-13 |
JP7126575B2 JP7126575B2 (ja) | 2022-08-26 |
Family
ID=77366811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021018618A Active JP7126575B2 (ja) | 2020-02-26 | 2021-02-08 | 運転者中心危険評価:意図認識運転モデルを用いた因果推論を介する危険物体識別 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11458987B2 (ja) |
JP (1) | JP7126575B2 (ja) |
CN (1) | CN113392692A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024057502A1 (ja) * | 2022-09-15 | 2024-03-21 | 本田技研工業株式会社 | 学習装置 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11881016B2 (en) * | 2018-09-21 | 2024-01-23 | Toyota Motor Europe | Method and system for processing an image and performing instance segmentation using affinity graphs |
US11604936B2 (en) * | 2020-03-23 | 2023-03-14 | Toyota Research Institute, Inc. | Spatio-temporal graph for video captioning with knowledge distillation |
CN113978259B (zh) * | 2021-11-19 | 2022-10-18 | 张展浩 | 一种基于驾驶场景及驾驶习惯的电动汽车制动控制方法 |
CN114627454B (zh) * | 2022-03-18 | 2024-02-09 | 柳州柳工叉车有限公司 | 一种驾驶员举升意图感知方法、装置、设备及介质 |
CN115202351B (zh) * | 2022-07-15 | 2023-04-25 | 沈阳工业大学 | 一种考虑意图及个体操作习惯的智能避障方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018101403A (ja) * | 2016-12-21 | 2018-06-28 | トヨタ自動車株式会社 | 運転支援装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2654028B1 (en) * | 2012-04-20 | 2018-09-26 | Honda Research Institute Europe GmbH | Orientation sensitive traffic collision warning system |
DE102015211736A1 (de) * | 2015-06-24 | 2016-12-29 | Bayerische Motoren Werke Aktiengesellschaft | Engstellenassistenzsystem in einem Kraftfahrzeug |
US20180225554A1 (en) * | 2017-02-06 | 2018-08-09 | Honda Motor Co., Ltd. | Systems and methods of a computational framework for a driver's visual attention using a fully convolutional architecture |
US10635927B2 (en) | 2017-03-06 | 2020-04-28 | Honda Motor Co., Ltd. | Systems for performing semantic segmentation and methods thereof |
JP7057717B2 (ja) | 2018-05-28 | 2022-04-20 | 日本放送協会 | 位相差検出器及び画像処理装置、並びにプログラム |
DE102018210280A1 (de) | 2018-06-25 | 2020-01-02 | Robert Bosch Gmbh | Anpassung der Trajektorie eines Ego-Fahrzeugs an bewegte Fremdobjekte |
US11205082B2 (en) * | 2019-10-08 | 2021-12-21 | Toyota Research Institute, Inc. | Spatiotemporal relationship reasoning for pedestrian intent prediction |
-
2020
- 2020-08-28 US US17/005,833 patent/US11458987B2/en active Active
-
2021
- 2021-01-26 CN CN202110103512.0A patent/CN113392692A/zh active Pending
- 2021-02-08 JP JP2021018618A patent/JP7126575B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018101403A (ja) * | 2016-12-21 | 2018-06-28 | トヨタ自動車株式会社 | 運転支援装置 |
Non-Patent Citations (3)
Title |
---|
CHENGXI LI ET AL: "Learning 3D-aware Egocentric Spatial-Temporal Interaction via Graph Convolutional Networks", ARXIV, JPN7021005773, 23 September 2019 (2019-09-23), US, ISSN: 0004677712 * |
PATRICK GEBERT ET AL: "End-to-end Prediction of Driver Intention using 3D Convolutional Neural Networks", 2019 IEEE INTELLIGENT VEHICLES SYMPOSIUM (IV), JPN7021005772, 12 June 2019 (2019-06-12), US, ISSN: 0004677714 * |
R. IZQUIERDO ET AL: "Experimental validation of lane-change intention prediction methodologies based on CNN and LSTM", 2019 IEEE INTELLIGENT TRANSPORTATION SYSTEMS CONFERENCE (ITSC), JPN7021005771, 30 October 2019 (2019-10-30), US, ISSN: 0004677713 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024057502A1 (ja) * | 2022-09-15 | 2024-03-21 | 本田技研工業株式会社 | 学習装置 |
Also Published As
Publication number | Publication date |
---|---|
US20210261148A1 (en) | 2021-08-26 |
JP7126575B2 (ja) | 2022-08-26 |
US11458987B2 (en) | 2022-10-04 |
CN113392692A (zh) | 2021-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11034357B2 (en) | Scene classification prediction | |
US11042156B2 (en) | System and method for learning and executing naturalistic driving behavior | |
JP7126575B2 (ja) | 運転者中心危険評価:意図認識運転モデルを用いた因果推論を介する危険物体識別 | |
US11584379B2 (en) | System and method for learning naturalistic driving behavior based on vehicle dynamic data | |
JP6833936B2 (ja) | 自己中心映像に基づく将来の車両位置特定のためのシステム及び方法 | |
CN111050116B (zh) | 利用时间递归网络进行在线动作检测的系统和方法 | |
US11886506B2 (en) | System and method for providing object-level driver attention reasoning with a graph convolution network | |
US11587329B2 (en) | Method and apparatus for predicting intent of vulnerable road users | |
US11370446B2 (en) | System and method for learning and predicting naturalistic driving behavior | |
JP7042937B2 (ja) | 因果推論を用いた危険物体識別のためのシステム及びその方法 | |
JP7072030B2 (ja) | アクション事前分布を使用して将来予測するためのシステム及び方法 | |
US11188766B2 (en) | System and method for providing context aware road-user importance estimation | |
US11845464B2 (en) | Driver behavior risk assessment and pedestrian awareness | |
US20220144260A1 (en) | System and method for completing risk object identification | |
JP2022179383A (ja) | ジョイントリスクの位置特定を完了し、かつ運転シナリオにおいて推論するためのシステム及び方法 | |
US20230256973A1 (en) | System and method for predicting driver situational awareness |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20210216 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210610 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220816 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7126575 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |