JP2021136021A - 運転者中心危険評価:意図認識運転モデルを用いた因果推論を介する危険物体識別 - Google Patents

運転者中心危険評価:意図認識運転モデルを用いた因果推論を介する危険物体識別 Download PDF

Info

Publication number
JP2021136021A
JP2021136021A JP2021018618A JP2021018618A JP2021136021A JP 2021136021 A JP2021136021 A JP 2021136021A JP 2021018618 A JP2021018618 A JP 2021018618A JP 2021018618 A JP2021018618 A JP 2021018618A JP 2021136021 A JP2021136021 A JP 2021136021A
Authority
JP
Japan
Prior art keywords
self
driving scene
driver
graph
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021018618A
Other languages
English (en)
Other versions
JP7126575B2 (ja
Inventor
チェンシ・リ
Chengxi Li
イーチェン・チェン
Yi-Ting Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/916,428 external-priority patent/US11544935B2/en
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2021136021A publication Critical patent/JP2021136021A/ja
Application granted granted Critical
Publication of JP7126575B2 publication Critical patent/JP7126575B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0635Risk analysis of enterprise or organisation activities
    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

【課題】自車両の運転シーンの少なくとも1つの画像を受信することを含む、意図認識運転モデルに基づいて、運転行動を予測するためのシステム及び方法を提供する。【解決手段】方法は、少なくとも1つの画像を分析して、運転シーン内に位置する動的物体を検出及び追跡し、運転シーンに関連付けられた運転シーン特性を検出及び識別することと、動的物体に関連付けられた自己−事物グラフ、及び運転シーン特性に関連付けられた自己−要素グラフを処理することと、自己−事物グラフ及び自己−要素グラフの表現の融合に基づく運転者の刺激行動と、自車両の運転者の運転意図に関連付けられた意図表現に基づく運転者の意図行動と、を予測することと、を含む。【選択図】図3

Description

(関連出願の相互参照)
本出願は、2020年2月26日に出願された米国特許仮出願第62/981,785号のそれぞれに優先権を主張する、2020年6月30日に出願された米国特許出願第16/916,428号の一部継続出願であり、これらの両方が参照により本明細書に明示的に組み込まれる。
運転者中心の危険を研究するには、運転シーンを敏感に理解する必要がある。データの収集及び分析は、より高いレベルの運転シーンの理解という課題の多くに対処していない。インテリジェント自動運転システムでは、そのような能力を有するシステムを可能にすることが重要であり得る。最終的な目標を達成するために、危険物体識別のための既存の取り組みは、大量の処理能力を利用しながら、多数の入力を受容することにより、ノイズが多く、時間がかかる方法で危険物体をラベリングすることを含み、危険物体を識別するための明示的な推論を提供していない。
一態様によれば、自車両の運転シーンの少なくとも1つの画像を受信することを含む、意図認識運転モデルに基づいて、運転行動を予測するためのコンピュータ実施方法である。コンピュータ実施方法はまた、少なくとも1つの画像を分析して、運転シーン内に位置する動的物体を検出及び追跡し、運転シーンに関連付けられた運転シーン特性を検出及び識別することと、動的物体に関連付けられた自己−事物グラフ、及び運転シーン特性に関連付けられた自己−要素グラフを処理することと、を含む。コンピュータ実施方法は、自己−事物グラフ及び自己−要素グラフの表現の融合に基づく運転者の刺激行動と、自車両の運転者の運転意図に関連付けられた意図表現に基づく運転者の意図行動と、を予測することを更に含む。
別の態様によれば、意図認識運転モデルに基づいて運転行動を予測するためのシステムであって、命令を記憶しているメモリを含み、命令が、プロセッサによって実行されるとき、プロセッサに、自車両の運転シーンの少なくとも1つの画像を受信させる、システムである。命令はまた、プロセッサに、少なくとも1つの画像を分析して、運転シーン内に位置する動的物体を検出及び追跡し、運転シーンに関連付けられた運転シーン特性を検出及び識別することと、動的物体に関連付けられた自己−事物グラフ、及び運転シーン特性に関連付けられた自己−要素グラフを処理することと、を行わせる。命令は、プロセッサに、自己−事物グラフ及び自己−要素グラフの表現の融合に基づく運転者の刺激行動と、自車両の運転者の運転意図に関連付けられた意図表現に基づく運転者の意図行動と、を予測することを更に行わせる。
更に別の態様によれば、命令を記憶する非一時的コンピュータ可読記憶媒体であって、プロセッサを含むコンピュータによって実行されるとき、自車両の運転シーンの少なくとも1つの画像を受信することを含む方法を実行する、非一時的コンピュータ可読記憶媒体である。方法はまた、少なくとも1つの画像を分析して、運転シーン内に位置する動的物体を検出及び追跡し、運転シーンに関連付けられた運転シーン特性を検出及び識別することと、動的物体に関連付けられた自己−事物グラフ、及び運転シーン特性に関連付けられた自己−要素グラフを処理することと、を含む。方法は、自己−事物グラフ及び自己−要素グラフの表現の融合に基づく運転者の刺激行動と、自車両の運転者の運転意図に関連付けられた意図表現に基づく運転者の意図行動と、を予測することを更に含む。
本開示に特徴的であると考えられる新規な特徴は、添付の特許請求の範囲に記載される。以下の説明において、明細書及び図面をとおして、同様の部分にはそれぞれ同一の符号を付す。図面は必ずしも縮尺どおりに描画されておらず、明確性及び簡潔さのために、特定の図面は、誇張された又は一般化された形態で示され得る。しかしながら、本開示自体、並びにその好ましい使用モード、更なる目的及び進歩は、添付図面と併せて読むと、例示的な実施形態の以下の詳細な説明を参照することによって最も良く理解されるであろう。
本開示の例示的実施形態による、意図認識運転モデルに基づく運転行動を予測するための例示的なシステムの概略図である。
本開示の例示的な実施形態による、ニューラルネットワークの行動予測アプリケーションの動作の例示的なフレームワークである。
本開示の例示的な実施形態による、動的物体及び自車両の運転シーンの運転シーン特性に関連付けられた自己−事物グラフ及び自己−要素グラフを生成するための方法のプロセスフロー図である。
本開示の例示的な実施形態による、自車両の運転シーン内に位置する動的物体の第1の例示的な例である。
本開示の例示的な実施形態による、自車両の運転シーン内に位置する動的物体の第2の例示的な例である。
本開示の例示的な実施形態による、自車両の運転シーン内に含まれる運転シーン特性の第1の例示的な例である。
本開示の例示的な実施形態による、自車両の運転シーン内に含まれる運転シーン特性の第2の例示的な例である。
本開示の例示的な実施形態による、自己中心表現を判定して、運転者の刺激行動及び運転者の意図行動を出力するための方法のプロセスフロー図である。
本開示の例示的実施形態による、時間デコーダの構造の概略図である。
本開示の例示的な実施形態による、意図認識運転モデルに基づいて、運転行動を予測するための方法のプロセスフロー図である。
以下は、本明細書で用いられる選択された用語の定義を含む。定義は、用語の範囲内に含まれかつ実施に使用され得る構成要素の様々な実施例及び/又は形態を含む。実施例は、限定することを意図するものではない。
本明細書で使用される場合、「バス」とは、コンピュータ内部又はコンピュータ間の他のコンピュータ構成要素に操作可能に接続された、相互接続されたアーキテクチャを指す。バスは、コンピュータ構成要素間でデータを転送することができる。バスは、とりわけ、メモリバス、メモリコントローラ、周辺バス、外部バス、クロスバースイッチ、及び/又はローカルバスであってもよい。バスはまた、とりわけ、媒体配向システム輸送(Media Oriented Systems Transport、MOST)、コントローラエリアネットワーク(Controller Area network、CAN)、ローカル相互接続ネットワーク(Local Interconnect Network、LIN)などのプロトコルを使用して、車両内部の構成要素を相互接続する、車両バスであってもよい。
本明細書で使用される場合、「コンピュータ通信」とは、2つ以上のコンピューティングデバイス(例えば、コンピュータ、パーソナルデジタルアシスタント、セルラー電話、ネットワークデバイス)間の通信を指し、例えば、ネットワーク転送、ファイル転送、アプレット転送、電子メール、ハイパーテキスト転送プロトコル(hypertext transfer protocol、HTTP)転送などであってもよい。コンピュータ通信は、例えば、とりわけ、無線システム(例えば、IEEE802.11)、イーサネットシステム(例えば、IEEE802.3)、トークンリングシステム(例えば、IEEE802.5)、ローカルエリアネットワーク(local area network、LAN)、広域ネットワーク(wide area network、WAN)、ポイントツーポイントシステム、回路スイッチングシステム、パケットスイッチングシステムを介して発生し得る。
本明細書で使用される場合、「ディスク」とは、例えば、磁気ディスクドライブ、ソリッドステートディスクドライブ、フロッピーディスクドライブ、テープドライブ、Zipドライブ、フラッシュメモリカード、及び/又はメモリスティックであってもよい。更に、ディスクは、CD−ROM(compact disk ROM、コンパクトディスクROM)、CD記録可能ドライブ(CD recordable drive、CD−Rドライブ)、CD書き換え可能ドライブ(CD rewritable drive、CD−RWドライブ)、及び/又はデジタルビデオROMドライブ(digital video ROM、DVD−ROM)であってもよい。ディスクは、コンピューティングデバイスのリソースを制御する又は割り振る、オペレーティングシステムを記憶することができる。
本明細書で使用される場合、「メモリ」は、揮発性メモリ及び/又は不揮発性メモリを含み得る。不揮発性メモリには、例えば、ROM(read only memory、読み取り専用メモリ)、PROM(programmable read only memory、プログラマブル読み取り専用メモリ)、EPROM(erasable PROM、消去可能なPROM)、及びEEPROM(electrically erasable PROM、電気的消去可能なPROM)が含まれ得る。揮発性メモリには、例えば、RAM(random access memory、ランダムアクセスメモリ)、同期RAM(synchronous RAM、SRAM)、ダイナミックRAM(dynamic RAM、DRAM)、シンクロナスDRAM(synchronous DRAM、SDRAM)、ダブルデータレートSDRAM(double data rate SDRAM、DDR SDRAM)、及びダイレクトRAMバスRAM(direct RAM bus RAM、DRRAM)が含まれ得る。メモリは、コンピューティングデバイスのリソースを制御する又は割り振る、オペレーティングシステムを記憶することができる。
本明細書で使用される場合、「モジュール」は、機能(複数可)若しくは行動(複数可)を実行するため、並びに/又は別のモジュール、メソッド、及び/若しくはシステムからの機能若しくは行動を引き起こすための、命令を記憶する非一時的コンピュータ可読媒体、機械上で実行される命令、ハードウェア、ファームウェア、機械で実行中のソフトウェア、及び/又はそれぞれの組み合わせを含むが、これらに限定されない。モジュールはまた、論理、ソフトウェア制御マイクロプロセッサ、別個の論理回路、アナログ回路、デジタル回路、プログラムされた論理デバイス、実行命令を含むメモリデバイス、論理ゲート、ゲートの組み合わせ、及び/又は他の回路構成要素を含んでもよい。複数のモジュールは、1つのモジュールに組み合わされてもよく、単一モジュールは、複数のモジュール間に分散されてもよい。
「操作可能な接続」、又はエンティティが「操作可能に接続される」ことによる接続は、信号、物理的通信、及び/又は論理的通信が、送信及び/又は受信され得るものである。操作可能な接続は、無線インターフェース、物理的インターフェース、データインターフェース、及び/又は電気インターフェースを含んでもよい。
本明細書で使用される場合、「プロセッサ」は、信号を処理し、一般的なコンピューティング及び演算機能を行う。プロセッサによって処理された信号は、デジタル信号、データ信号、コンピュータ命令、プロセッサ命令、メッセージ、ビット、ビットストリーム、又は受信、送信、及び/若しくは検出され得る他の手段を含んでもよい。一般に、プロセッサは、複数の単一及びマルチコアのプロセッサ及びコプロセッサ並びに他の複数の単一及びマルチコアのプロセッサ及びコプロセッサアーキテクチャを含む、多種の様々なプロセッサであってもよい。プロセッサは、様々な機能を実行するための様々なモジュールを含んでもよい。
本明細書で使用される場合、「車両」は、1人以上の人間の乗員を運ぶことができ、任意の形態のエネルギーによって電力供給される、任意の移動車両を指し得る。「車両」という用語には、限定するものではないが、自動車、トラック、バン、ミニバン、SUV、オートバイ、スクータ、ボート、ゴーカート、アミューズメントライドカー、鉄道輸送、水上バイク、及び航空機が含まれる。場合によっては、モータ車両は、1つ以上のエンジンを含む。更に、「車両」という用語は、1人以上の人間の乗員を運ぶことができ、電気電池によって電力供給される1つ以上の電気モータによって、完全に又は部分的に電力供給される、電気車両(electric vehicle、EV)を指し得る。EVは、電池電気自動車(battery electric vehicle、BEV)及びプラグインハイブリッド電気自動車(plug-in hybrid electric vehicle、PHEV)を含んでもよい。追加的に、「車両」という用語は、任意の形態のエネルギーによって動力を供給される、自律型車両及び/又は自動運転型車両を指し得る。自律型車両は、1人以上の人間の乗員を運んでいても運んでいなくてもよい。更に、「車両」という用語は、所定の経路又は自由移動車両で自動化又は非自動化される車両を含んでもよい。
本明細書で使用される場合、「値」及び「レベル」とは、とりわけ、百分率、非数値、離散的な状態、離散値、連続値などの数値、又は他の種類の値若しくはレベルを含むことができるが、これらに限定されない。「Xの値」又は「Xのレベル」という用語は、この詳細な説明全体を通じて、及び特許請求の範囲で使用される場合、Xの2つ以上の状態を区別するための任意の数値又は他の種類の値を指す。例えば、場合によっては、Xの値又はレベルは、0%〜100%の割合として与えられてもよい。他の場合には、Xの値又はレベルは、1〜10の範囲の値であり得る。更に他の場合では、Xの値又はレベルは数値でなくてもよいが、「非X」、「わずかにx」、「x」、「非常にx」、及び「極x」などの所与の離散した状態に関連付けることができる。
I.システムの概要
ここで図面を参照すると、表示は、1つ以上の例示的な実施形態を例示する目的のためであり、限定する目的のためではなく、図1は、本開示の例示的な実施形態による、意図認識運転モデルに基づいて運転行動を予測するための例示的システム100の概略図である。システム100の構成要素、並びに本明細書で考察される他のシステム、ハードウェアアーキテクチャ、及びソフトウェアアーキテクチャの構成要素は、様々な実施形態のために異なるアーキテクチャに組み合わされるか、省略されるか、又は編成されてもよい。
一般的に、システム100は、自車両102を含んでもよい。自車両102は、1種類以上の環境内で走行し得る自動車、ロボット、フォークリフト、自転車/オートバイ、車椅子/スクータなどを挙げられ得るが、これらに限定されない。簡略化のために、本開示は、乗用車(例えば、車)としての自車両102に対するシステム100の実施形態を説明する。自車両102は、とりわけ、1つ以上のアプリケーション、オペレーティングシステム、自車両システム、及びサブシステムユーザインターフェースを実行する電子制御ユニット(electronic control unit、ECU)104を含む。ECU104は、本開示の例示的な実施形態による、意図認識運転モデルに基づいて運転行動を予測するように構成され得る運転シーンモデリング運転者行動予測アプリケーション(行動予測アプリケーション)106を実行させることができる。
以下でより詳細に考察されるように、行動予測アプリケーション106は、機械学習及び深層学習を有するニューラルネットワーク108を利用して、多層注釈スキームに関連付けられた注釈を有する自然的な運転挙動データセット(図示せず)を構築及び維持するために利用され得る人工知能能力を提供するように構成されていてもよい。行動予測アプリケーション106は、入力として提供される様々なソースからの情報を処理することができ、また、コンピュータビジョン、物体分類、特徴認識、多層知覚、及び自律運転コマンドを含むがこれらに限定されない様々な機能を提供するために、ニューラルネットワーク108を利用してもよい。
多層注釈スキームは、自車両102の操作に対応する操作プロセス、自車両102、交通参加者、及び自車両102の周辺環境との間の相互作用を含む戦略的プロセス、並びにより高いレベルの推論、計画、及び意思決定のための戦略的プロセスを含むが、これらに限定されない、運転プロセスのクラスを含むように利用されてもよい。例示的な実施形態では、多層注釈スキームは、運転者が運転操作(複数可)を行う可能性のある意図に基づくナビゲーションタスク(例えば、右折)における自車両102の運転者の操作(複数可)を含み得る目標指向の行動として、1つ以上の運転操作のカテゴリ化を含んでもよい。多層注釈スキームは、運転操作(複数可)を行うための理由(運転者の反応による)又は1つ以上の外部刺激を示し得る刺激駆動行動(例えば、自車両102の停止)として、1つ以上の運転操作のカテゴリ化を含んでもよい。
多層注釈スキームはまた、1つ以上の運転操作(例えば、自車両102の前方に停止している車両が、自車両102を停止させる直接の原因である)を実行する際の運転者の行動に関する推論を説明するために、刺激駆動行動として分類された1つ以上の運転操作の因果的推論の判定を含んでもよい。更に、多層注釈スキームは、運転者が1つ以上の運転操作(例えば、自車両102の運転者が注意を向ける可能性のある黄色信号及び歩行者)を行う際に、運転者が注意を向ける可能性のある1つ以上の注意捕捉交通関連物体に関連付けられた運転者行動の判定を含んでもよい。
以下でより詳細に考察されるように、行動予測アプリケーション106は、刺激駆動行動に分類される1つ以上の運転操作と、運転者が1つ以上の運転操作を行う際に運転者が注意を向け得る1つ以上の注意捕捉交通関連物体との因果的推論の判定に基づいて、自車両102の動作に関連する刺激駆動行動及び運転者の意図行動を予測するように構成されていてもよい。因果的推論及び注意捕捉交通関連物体は、自車両102の運転シーン内に位置し得る1つ以上の動的物体、及び/又は自車両102の運転シーン内に含まれ得る1つ以上の運転シーン特性に基づいてもよい。運転シーンは、自車両102が操作されているときに、自車両102の所定の近傍を含んでもよい。
特に、行動予測アプリケーション106は、画像を分析して、自車両102の時空間運転シーンをモデリングするように構成されていてもよい。行動予測アプリケーション106は、画像を分析して、自車両102の運転シーンを更に分析し、運転シーン内を走行する動的物体を検出して追跡し、かつ運転シーンの運転シーン特性を検出して識別するように構成されていてもよい。一実施形態では、動的物体は、自車両102の周囲環境内に位置し得る交通参加者を含んでもよく、追加の車両、歩行者、自転車運転者などを含み得るが、これらに限定されない。運転シーン特性としては、運転シーン内の車道に含まれる路面表示(例えば、車線区分線、横断歩道)、自車両102の運転シーン内に含まれる交通灯、交通標識、車道構成(例えば、交差点、入口/出口ランプ、合流レーン)などが含まれ得るが、これらに限定されない。
行動予測アプリケーション106及びニューラルネットワーク108の動作のフレームワーク200である、図2を参照すると、1つの構成において、行動予測アプリケーション106は、ニューラルネットワーク108を利用して、運転シーンの自己中心ビューの画像フレーム202の入力を受信し、自車両102の周辺環境の画像フレーム202に対してI3Dヘッド(I3D)204を用いてI3D畳み込みを行うための機械学習/深層学習処理を実行するように構成されていてもよい。更に、I3D畳み込みは、画像フレーム202から視覚的特徴を抽出するために適用されてもよい。ニューラルネットワーク108は、画像フレーム202内に捕捉された、自車両102の周囲環境内に位置する動的物体に関連付けられている計算された物体境界ボックス206から動的物体特徴を抽出するために、ROIアライン208を適用することができる。ニューラルネットワーク108はまた、マスクアライン212を適用して、画像フレーム202のセマンティックセグメンテーション210に基づいて、不規則的な形状の物体の特徴をセマンティックマスクから抽出してもよい。
以下で考察されるように、行動予測アプリケーション106は、ニューラルネットワーク108を利用して、グラフ生成器214を実行し、ROIアライン208からデータを受信し、運転シーン内の自車両102と動的物体との間の相互作用をモデリングするように設計された自己−事物グラフ218を構築することができる。動的物体は、運転シーン内のその位置、存在、及び/又は移動に基づいて、自車両102及び/又は動的物体の操作を引き起こす、自車両102の運転シーン内に位置する自己−事物として分類されてもよい。
行動予測アプリケーション106はまた、ニューラルネットワーク108を利用して、グラフ生成器216を実行させて、マスクアライン212からデータを受信し、横断歩道、車線区分線、車線分離帯、踏切遮断器、サービス車線、安全地帯、信号機、及び交通標識などを含むが、これらに限定されない、静的物体及び道路の特徴などの運転シーンの特性に関連する自己−要素グラフ220を構築してもよい。運転シーンの特性は、自車両102、動的物体、及び/又は互いに影響を受けない自己−要素として分類されてもよい。
特に、自己−要素グラフ220に関連付けられた要素−物体として分類された運転シーン特性と、自己−事物グラフ218に関連付けられた事物−物体として分類された動的物体とを区別するために使用される基準は、状態の変化が双方向の影響によって引き起こされ得るかどうかに基づいていてもよい。換言すれば、1つの動的物体の存在が別の動的物体及び/又は自車両102の運転操作に影響を与えるように、動的物体は、その存在が別の動的物体に停止、合流、方向転換等の刺激として相互に影響を与えるため、自己−事物として分類されてもよい。
例として、1つ以上の動的物体及び/又は自車両102は、運転シーン内で停止、横断、合流、及び/又は方向転換する1つ以上の追加の動的物体の存在に基づいて、その状態を「前進」から「停止」に変化させてもよい。あるいは、運転シーン内に位置する静的物体などの運転シーン特性は、互いに、又は追加の物体によって影響されないため、要素−物体として分類されてもよい。例えば、緑色から黄色から赤色に切り替わる信号機の動作は、信号機のコントローラ(図示せず)の電気的動作によって独立して発生し、物体の存在によって引き起こされることはない。
一実施形態では、2つのグラフ218,220の出力を融合し、エンコーダLSTMモジュール(エンコーダLSTM)222に供給して、運転シーンの相互作用表現224を形成してもよい。更に、ニューラルネットワーク108は、I3D畳み込みを利用して、1つ以上の運転操作を実行する自車両102の運転者の運転意図に関連付けられた意図表現226を出力するように構成されてもよい。相互作用表現224及び意図表現226は、運転シーン内に含まれる特定の外部刺激に関連付けられた運転操作に関連する運転者刺激行動232を予測するための入力として、時間リカレントネットワークを使用する、時間デコーダ228を用いて集約されてもよい。ニューラルネットワーク108はまた、運転シーンの抽出された視覚的特徴の意図表現226に基づいて、運転者の意図に関連付けられた運転者の意図行動234の予測を可能にし得る。
再び図1を参照すると、ECU104に加えて、自車両102はまた、車両カメラシステム110、記憶ユニット112、車両システム/制御ユニット114を含む複数の構成要素を含んでもよい。1つ以上の実施形態では、ECU104は、マイクロプロセッサ、1つ以上の特定用途向け集積回路(複数可)(application-specific integrated circuit、ASIC)、又は他の同様のデバイスを含んでもよい。ECU104はまた、内部処理メモリ、インターフェース回路、及びデータを転送し、コマンドを送信し、自車両102の複数の構成要素と通信するためのバスラインを含むことができる。ECU104はまた、自車両102内で(例えば、1つ以上の構成要素間で)データを内部に送信し、外部ホスト型コンピューティングシステム(例えば、自車両102の外部)と通信するための通信デバイス(図示せず)を含んでもよい。
車両カメラシステム110は、自車両102の周囲環境の1つ以上の画像(例えば、自車両102が走行している車道の画像)を捕捉するために、1つ以上の方向で、かつ1つ以上のエリアにおいて位置決めされ得るカメラ(図示せず)のうちの1つ以上を含み得る。車両カメラシステム110の1つ以上のカメラは、限定されるものではないが、自車両ダッシュボード、自車両バンパ、自車両前方照明ユニット、自車両フェンダ、及びフロントガラスの異なる部分を含む、自車両102の外部前部分に配設され得る。一実施形態では、1つ以上のカメラは、RGB映像/画像を捕捉し得るRGBカメラとして構成されてもよい。1つ以上のカメラは、物体の外観に関する豊富な情報、並びに自車両102と自車両102の周囲環境内の動的物体との間の相互作用を捕捉するように構成することができる。
他の実施形態では、1つ以上のカメラは、三次元画像の形態で、環境情報を捕捉するように構成された立体カメラとして構成されてもよい。1つ以上の構成では、1つ以上のカメラは、RGB画像/映像として自車両102の運転シーンを捕捉するように構成されてもよい。車両カメラシステム110は、1つ以上のRGB画像/ビデオ(例えば、画像のシーケンス)を、行動予測アプリケーション106に伝達されて分析される画像データに変換するように構成されてもよい。
概して、ECU104は、記憶ユニット112内に記憶される1つ以上のアプリケーション、オペレーティングシステム、自車両システム、及びサブシステムユーザインターフェースなどを実行するために、記憶ユニット112と通信してもよい。1つ以上の実施形態では、自車両102の記憶ユニット112は、行動予測アプリケーション106によってアクセスされて、データ、例えば、1つ以上の画像、ビデオ、1組以上の画像座標、自車両102に関連付けられた車両動的データなどを記憶してもよい。
いくつかの実施形態では、記憶ユニット112は、異なる種類の動的物体及び静的物体(例えば、信号機、外灯、交通標識など)に関連付けられたサイズ及び特徴の範囲を含む、値を表す1つ以上の動的物体に関連付けられた1つ以上の物体モデル(図示せず)を含んでもよい。いくつかの構成では、物体モデルは、行動予測アプリケーション106によって分析されて、運転シーン内に位置する物体及び特徴を、運転シーン内に位置し、自己−事物として分類される動的物体、又は運転シーンに関連付けられて、自己−要素として分類される運転シーン特徴として識別し、それによって、自己−事物グラフ218及び自己−要素グラフ220を生成するようにしてもよい。
例示的な実施形態では、記憶ユニット112は、ニューラルネットワーク108を記憶するように構成され得る。ニューラルネットワーク108は、車両カメラシステム110によって提供される画像フレームを分析するように構成されている畳み込みニューラルネットワーク((Convolutional Neural Networks、CNN)として構成されてもよい。一実施例では、ニューラルネットワーク108は、処理ユニット116によって制御されてもよい。処理ユニット116は、画像データの形態で入力されたデータを分析するために機械学習/深層学習を利用するように構成されている処理能力を提供するように構成されてもよく、車両カメラシステム110によって提供される画像フレーム202からデータを決定するために、I3D204、ROIアライン208、及びマスクアライン212を利用して、それによって、自己−事物グラフ218及び自己−要素グラフ220を生成してもよい。
ニューラルネットワーク108は、更に、自己−事物グラフ218及び自己−要素グラフ220に関連付けられた融合データに基づいて、時空間判定を行う時間デコーダ228のためのバックボーンとして構成され得るエンコーダLSTM222を含んでもよい。エンコーダLSTMモジュール222は、1XD特徴ベクトルを得るために、2種類のグラフ218、220から要素ごとの総和によって自己特徴を集約するように構成されていてもよい。
ニューラルネットワーク108はまた、時間リカレントネットワーク(temporal recurrent network、TRN)として構成されている時間デコーダ228を含んでもよい。時間デコーダ228は、自車両102の運転シーンにおける発展的相互作用の特徴表現を学習するように構成されてもよい。時間デコーダ228は、自車両102の動作に対して現在発生している行動をより良く認識するために、両方の蓄積された過去の証拠を使用し、未来の情報を予測するように更に構成されてもよい。より具体的には、時間デコーダ228は、運転シーンにおける発展的相互作用の特徴表現を学習するように構成されている。未来ゲートは、時間デコーダ228から隠れた状態のベクトルを受信し、これらの特徴を、未来の状況における運転シーンの自己中心表現230として、要素ごとの総和を用いて織り込む。以下で考察されるように、運転者の刺激行動232は、自己中心表現230内に含まれる過去、現在、及び予測される未来情報からの時空間特徴の連結演算及びび捕捉に基づいて予測され、次の画像フレーム内の(例えば、t+1における)運転者の刺激行動232を予測してもよい。
引き続き図1参照すると、車両システム/制御ユニット114は、自車両102の動作に関連する1つ以上の警告、制御、及び/又は1つ以上の自律コマンドの実行を提供するように構成されていてもよい。車両システム/制御ユニット114は、1つ以上の未来のタイムスタンプ(例えば、t+1、t+2、t+n)において、予測された運転者の刺激行動232及び予測された運転者の意図行動234に基づいて警告を提供するように構成され得る、高度な運転者支援システムを含むように構成されてもよい。いくつかの実施形態では、車両システム/制御ユニット114は、行動予測アプリケーション106によって伝達される自律的コマンドに基づいて、自車両102が自律運転するように制御するために、エンジン制御ユニット、ブレーキ制御ユニット、トランスミッション制御ユニット、ステアリング制御ユニットなどを含むように構成されていてもよい。
以下でより詳細に考察されるように、行動予測アプリケーション106は、図2のフレームワーク200で表されるように、行動予測アプリケーション106によって利用されると、ニューラルネットワーク108によって実行される機械学習/深層学習処理に基づく、1つ以上の未来のタイムスタンプ(例えば、t+1、t+2、t+n)における予測された運転者の刺激行動232及び予測された運転者の意図行動234に基づいて、自車両102の運転者に提供される警告を出力するように、車両システム/制御ユニット114と通信するように構成されていてもよい。
II.運転シーンモデリング運転者行動予測アプリケーション及び関連する方法
行動予測アプリケーション106の構成要素を、例示的な実施形態に従って、かつ図1を参照して説明する。例示的な実施形態では、行動予測アプリケーション106は、記憶ユニット112上に記憶され、自車両102のECU104によって実行され得る。別の実施形態では、行動予測アプリケーション106は、外部ホスト型コンピューティングインフラストラクチャ上に記憶され得、自車両102のテレマティクス制御ユニット(図示せず)によってアクセスされて、自車両102のECU104によって実行され得る。
ここで、行動識別アプリケーション106の一般的な機能について考察する。例示的な実施形態では、行動予測アプリケーション106は、意図認識運転モデルに基づいて運転行動を予測するように構成され得る複数のモジュール118〜124を含んでもよい。複数のモジュール118〜124は、データ受信モジュール118、動的物体検出モジュール120、シーン特性モジュール122、及び運転行動予測モジュール124を含み得る。しかしながら、行動予測アプリケーション106は、モジュール118〜124の代わりに含まれる1つ以上の追加のモジュール及び/又はサブモジュールを含み得ることが理解される。
図3は、本開示の例示的な実施形態による、動的物体及び自車両102の運転シーンの運転シーン特性に関連付けられた自己−事物グラフ218及び自己−要素グラフ220を生成するための方法300のプロセスフロー図である。図3は、図1及び図2の構成要素を参照して説明されるが、図3の方法300は、他のシステム/構成要素と共に使用されてもよいことを理解されたい。方法300は、ブロック302に進み得、ここで方法300は、自車両102の周囲環境に関連付けられた画像を受信することを含んでもよい。
例示的な実施形態では、行動予測アプリケーション106のデータ受信モジュール118は、自車両102の車両カメラシステム110によって提供され得る、自車両102の周囲環境の捕捉された画像に関連付けられ得る画像データを受信するように構成されていてもよい。上で考察されるように、画像データは、車両カメラシステム110に動作可能に接続された1つ以上のカメラによって捕捉される、自車両102の周囲環境内に位置する動的物体及び運転シーン特徴の1つ以上のRGB画像/映像に関連してもよい。いくつかの実施形態では、データ受信モジュール118は、1つ以上の時点において評価されるように、記憶ユニット112上で画像データをパッケージ化及び記憶してもよい。
方法300は、ブロック304に進み得、ここで方法300は、自車両102の運転シーン内で動的物体を検出し、追跡することを含んでもよい。一実施形態では、データ受信モジュール118は、画像データを評価するように構成されていてもよく、自車両102の運転シーンを含む画像データから画像フレーム202を抽出してもよい。一実施形態では、データ受信モジュール118は、画像フレーム202をニューラルネットワーク108に入力して、I3D204によって分析するように構成されていてもよい。I3D204は、運転シーン内に位置する動的物体及び運転シーンの運転シーン特性を検出するために、インスタンスセグメンテーション及びセマンティックセグメンテーション210を適用するように構成されている。上で考察されるように、動的物体は、自己−事物に分類され得、動的シーン特性は、自己−要素として分類され得る。
自己−事物については、ニューラルネットワーク108は、時刻tにおいて捕捉された特定の画像フレーム、時刻tの前(例えば、t−1、t−2、t−n)に捕捉された複数の画像フレーム、及び現在の時刻tの後(例えば、t+1、t+2、t+n)に捕捉された複数の画像フレームを評価し、停止、進入継続/加速、直進、右折、左折、右合流、左合流などを含むがこれらに限定されない、自車両102の1つ以上の運転挙動を検出するように構成されていてもよい。データ受信モジュール118は、更に、ニューラルネットワーク108を利用して、1つ以上の動的物体を検出して追跡し、時刻tの画像フレーム内で捕捉された自車両102の運転シーン内に位置し得る自己−事物として分類するように構成されていてもよい。
具体的には、データ受信モジュール118は、ニューラルネットワーク108を利用して、画像フレーム内に含まれる動的物体のそれぞれの周りの、それぞれの境界ボックス206を計算するように構成されていてもよい。動的物体特徴を抽出するために、ROIアライン208を用いてもよい。図4A及び図4Bに示すように、ニューラルネットワーク108は、機械学習/深層習処理を実行して、運転シーン400内に位置する動的物体のそれぞれを含む、境界ボックス206のそれぞれの中にカプセル化された画像フレーム202のそれぞれの画素のサブセット上に1チャネルバイナリマスクを提供するように構成されていてもよい。
例示的な実施形態では、ニューラルネットワーク108は、それぞれの境界ボックス206内に含まれる各動的物体が単独で除去され、その除去が分析されて、特定の除去された動的物体に対して運転挙動の変化レベルを出力するように、動的物体のそれぞれに独立して関連付けられた画素のそれぞれを電子的に除去し、置換するために画像修復を完了させることができる。特に、ニューラルネットワーク108によって実行される画像修復は、各層において畳み込み結果がマスクされていない領域のみに依存するため、マスクされた領域でのハルシネーションを可能にする、マスク及び再正規化された畳み込み演算に基づいている。この演算は、介入のために各動的物体を独立して除去することを可能にする。
一実施形態では、ニューラルネットワーク108は、それによって、2つの代替的な運転挙動(例えば、停止/前進)の予測因果性スコアを出力してもよく、運転シーン400を分析して、画像フレームに含まれる運転シーン400から電子的に除去されるように、動的物体の存在下、及び動的物体の非存在下での2つの運転挙動に関連する変化レベルを判定してもよい。換言すれば、動的物体検出モジュール120は、動的物体のそれぞれの除去に対する運転挙動に関連付けられた変化レベルを分析することができ、それによって、変化レベルに基づいて運転挙動との因果関係に関連付けられた因果性スコアを割り当ててもよい。
因果性スコアは、動的物体のそれぞれの電子的除去に関連する変化レベルに基づいて、各動的物体の存在と特定の運転挙動(例えば、停止対前進)との間の因果関係に関連付けられていてもよい(例えば、特定の動的物体の存在がなければ、自車両102は停止せず、前進し得る)。ニューラルネットワーク108は、最も高い因果性スコアが割り当てられた1つ以上のそれぞれの物体を、危険物体として更に分類してもよい。換言すれば、ニューラルネットワーク108は、運転挙動に対して最も実質的な因果的効果をもたらす1つ以上の動的物体を、危険物体として分類してもよい。
したがって、自車両102の操作に対する停止予測などの予測が発生した場合、ニューラルネットワーク108は、一度にトラックレットを除去し、各画像フレーム内の除去された領域を修復することによって入力画像に介入し、トラックレットの存在しない運転シーンをシミュレートすることができる。次いで、トレーニングされた運転モデルを使用して、除去の効果を予測する。これにより、大規模な自然運転データセット(図示せず)が、ニューラルネットワーク108によって取り込まれ、かつ維持されて、運転者の刺激行動232を予測するのに使用され得る。
引き続き図3の方法300を参照すると、方法300はブロック306に進むことができ、方法300は、動的物体に対する自車両102間の相互作用をモデリングするために、自己−事物グラフを生成することを含んでもよい。例示的な実施形態では、ニューラルネットワーク108が自然運転データセットを取り込むと、ニューラルネットワーク108は、自然運転データセットの更新に関するデータを、行動予測アプリケーション106の動的物体検出モジュール120に伝達してもよい。一実施形態では、ROIアライン208を用いた物体特徴の抽出時に、ニューラルネットワーク108は、自動車、歩行者、自転車、オートバイ、バス、列車、及びトラックを含み得るがこれらに限定されない動的物体クラスから、各画像フレーム上の上位Kの動的物体検出を維持するように構成されていてもよい。ROIアライン208と最大プーリング層を適用して、グラフ生成器214の動作に基づいて、自己−事物グラフ218の事物ノード特徴として、1XD次元の外観特徴を得る。
自己−事物グラフ218については、グラフ生成器214は、フレーム単位の自己−事物グラフのシーケンスを、
Figure 2021136021
として表すように構成されていてもよく、ここで、Tはフレーム数であり、
Figure 2021136021
は、事物−物体と自車両102との間の対での相互作用を表すフレームtにおける自己−事物親和性マトリックスである。具体的には、
Figure 2021136021
は、動的物体iに対する動的物体jの影響を示す。自己−事物グラフ218の事物ノードは、動的オブジェクトの集合
Figure 2021136021
に対応し、ここで、
Figure 2021136021
はi番目の動的物体の外観特徴であり、
Figure 2021136021
は、世界フレーム内の動的物体の3D位置である。指標K+1は、自車両102に対応し、i=1,...,Kは、運転シーンン内に位置し、自己−事物グラフ218の事物−物体として分類される動的物体に対応する。
自己−事物の相互作用(すなわち、運転シーン内の動的物体のうちの1つ以上の間での相互作用)は、2次相互作用として定義され、元の状態だけでなく、他の物体によって引き起こされる事物−物体の変化する状態も自己の状態に完全に影響を与えることになる。これらの相互作用を十分にモデリングするために、ニューラルネットワーク108は、外観特徴と距離制約の両方を考慮し、エッジ値
Figure 2021136021
は、以下のように計算される。
Figure 2021136021
ここで、
Figure 2021136021
は、2つの動的物体間の外観関係を示す。距離制約は、空間関係
Figure 2021136021
を用いて設定される。ソフトマックス関数は、運転シーン内に位置する他の動的物体からの動的物体iへの影響を正規化するために使用される。外観関係は、以下のように計算される。
Figure 2021136021
ここで、
Figure 2021136021
である。
Figure 2021136021
は共に、外観特徴を部分空間にマッピングし、2つの物体の相関関係を学習できるようにする学習可能なパラメータである。
Figure 2021136021
は正規化係数である。
空間関係を定義する必要性は、2つの遠方の物体の相互作用が、通常は乏しいことから生じる。この関係を計算するために、ニューラルネットワーク108は、2D画像面から世界フレーム内の3D空間への物体をアンプロジェクトすることができる。
Figure 2021136021
ここで、[uv1]及び[xyz1]は、2D及び3D座標系における均質な表現であり、Pはカメラ固有マトリックスであり、δu,vは、深度推定によって得られる(u,v)における相対深度である。
2D平面では、境界ボックス206の中心は、動的物体を見つけ出すように選択される。自車両102の位置は、画像フレーム202のそれぞれの中央下部画素に固定されている。空間関係関数fは、以下のように定式化される。
Figure 2021136021
ここで、
Figure 2021136021
は指標機能であり、
Figure 2021136021
は、3D空間内の動的物体iと動的物体jとの間のユークリッド距離を計算し、μは、距離が上限を超えている場合に空間関係値をゼロに調節する距離閾値である。例示的な実施形態では、自己−事物グラフ218が生成されると、ニューラルネットワーク108は、自己−事物グラフ218に関連するデータを動的物体検出モジュール120に伝達することができる。動的物体検出モジュール120は、生成された自己−事物グラフ218に関連するデータを、行動予測アプリケーション106のシーン特性モジュール122に伝達することができる。
引き続き図3の方法300を参照すると、方法300はブロック308に進むことができ、方法300は、運転シーン特性に対する自車両102の動作をモデリングするために、自己−要素グラフ220を生成することを含んでもよい。例示的な実施形態では、動的物体検出モジュール120が自己−事物グラフ218の生成の伝達を受信すると、シーン特性モジュール122は、ニューラルネットワーク108と通信して、運転シーンの運転シーン特性に関連付けられた自己−要素グラフ220を生成することができる。
一実施形態では、ニューラルネットワーク108は、I3D204を実行して、画像フレーム202のそれぞれの上で、セマンティックセグメンテーション210を行い、それによって、画像フレーム内に捕捉された運転シーンの運転シーン特性を識別することができる。それにより、セマンティックセグメンテーション210は、運転シーン特性を検出することを許容して、運転シーン内に位置する、静的物体及び路面標識(例えば、レーンマーカ、譲れマーカ、停止マーカ)、信号機(例えば、赤色光、黄色光、緑色光)、交通標識(例えば、停止標識、譲れ標識)などの他の車道特徴を更に識別することができる。
図4C及び図4Dの例示的な実施例に示すように、ニューラルネットワーク108は、状態の変化が生じ得るかどうか、及び/又は物体が境界ボックス内にカプセル化され得るかどうかの分析に基づいて、運転シーン400内に含まれる信号機402、道路マーカ404、中央分離帯406などの静的物体を識別することができる。特に、一実施形態では、要素−物体として分類される運転シーン特性を、事物−物体として分類される動的物体から区別するために使用される基準は、状態の変化が他の物体によって引き起こされ得るかどうかに基づいている。例えば、車は停止して人に譲るが、信号機は単独で赤から緑に変わる。別の違いは、ほとんどの要素−物体の輪郭が長方形の境界ボックスとして十分に表現されないという点である。
ニューラルネットワーク108は、それによって、識別された運転シーン特性402、404、406を、要素−物体として分類することができる。ニューラルネットワーク108は、マスクアライン212を利用して、時刻tにおけるi番目の要素物体であるバイナリマスク
Figure 2021136021
のための特徴を抽出することができる。
Figure 2021136021
は、中間I3D特徴マップX(T×W×H×D)と同じ空間次元を有する
Figure 2021136021
にダウンサンプリングされる。要素物体特徴は、以下のようにマスクアライン212によって計算される。
Figure 2021136021
自己−要素グラフ220を特に参照すると、自己−要素グラフGESは、上述したように、自己−要素(運転シーン特性)に対して、自己−事物(動的物体)の状態の変化が独立しているのではなく、双方向であるので、ノード特徴抽出を除いて、上で考察される式1の自己−事物グラフ218GETと同様に、グラフ生成器216によって生成される。したがって、自己−要素グラフ220内では、自己−要素が自車両102自体の動作に与える影響のみが考慮される。
そのため、ニューラルネットワーク108は、fを物体の対ごとにゼロに設定してもよく、要素−物体が自車両102の動作に作用する影響に注意を払うことができる。この分析は、一次相互作用と称され得る。空間関係をより良好にモデリングするために、境界ボックス中心をアンプロジェクトする代わりに、ニューラルネットワーク108は、ダウンサンプリングされたバイナリマスク
Figure 2021136021
内の全ての画素を3D空間にマッピングすることができ、自車両102との全ての画素間のユークリッド距離を更に計算することができる。距離は、全ての画素の最小距離である。
図5は、本開示の例示的な実施形態による、自己中心表現230を判定して、運転者の刺激行動232及び運転者の意図行動234を出力するための方法500のプロセスフロー図である。図5は、図1及び図2の構成要素を参照して説明されるが、図5の方法500は、他のシステム/構成要素と共に使用されてもよいことを理解されたい。方法500は、ブロック502で開始することができ、方法500は、インタラクティブ表現及び意図表現を判定することを含み得る。
特に、グラフ218、220での推論を行うために、ニューラルネットワーク108は、グラフ畳み込みネットワーク(graph convolutional networks、GCN)を含むように構成されてもよい。GCNは、各グラフ218,220を入力とし、学習したエッジを用いて情報を通過させ、ノードの特徴を出力としてリフレッシュすることができる。具体的には、グラフ畳み込みは、以下のように表現され得る。
Figure 2021136021
ここで、Gはグラフ218、220からの親和性マトリックスである。自己−事物グラフ218を例に取ると、
Figure 2021136021
は、l番目の層のノードの外観特徴マトリックスである。
Figure 2021136021
は、学習可能な重みマトリックスである。残留接続は、Zを加えることによって構築される。各層の端部では、層正規化が採用され、Zl+1の前のReLUを次の層に送る。
例示的な実施形態では、自己−事物グラフ218から抽出された自己−事物特徴と、自己−要素グラフ220から抽出された自己−要素特徴とは、自車両102の運転シーンの時空間運転行シーンのモデリングを達成するために、融合することができる。グラフ218、220から抽出された自己特徴が融合されると、融合されたデータは、エンコーダLSTM222を用いて処理され、融合されたデータに基づいて時空間判定を行い、インタラクティブ表現224を判定する。1つの構成では、自己−事物グラフ218及び自己−要素グラフ220からの自己特徴は、要素ごとの総和によって集約され、エンコーダLSTM222に供給されて、インタラクティブ表現224としての1XD特徴ベクトルを得る。したがって、インタラクティブ表現224は、画像フレームt−n、t−2、t−1、t、t+1、t+2、t+n内に捕捉された時間枠にわたって、動的物体同士、及び自車両102との間の相互作用を捕捉する。
一実施形態では、意図表現226は、自車両102の1つ以上の行動、自車両102が走行している車線、自車両102の軌跡、及び1つ以上の自己−要素(例えば、右折信号機)の状態に基づいて、自車両102の運転者の意図が画像フレーム202内に捕捉されるように、I3D204から判定される。
方法500は、ブロック504に進んでもよく、方法500は、予測された運転者の刺激行動232を出力するために、相互作用表現及び意図表現を時間デコーダ228に入力することを含んでもよい。例示的な実施形態では、行動予測アプリケーション106の運転行動予測モジュール124は、ニューラルネットワーク108にコマンドを送信して、相互作用表現224及び意図表現226を時間デコーダ228に入力し、I3D204によって出力された意図表現226を相互作用表現224に関連付けられたインタラクティブ特徴と集約することによって、時間的状況を追加するように構成されていてもよい。
時間デコーダ228の構造の概略図である図6に示すように、意図表現226と相互作用表現224は、時間デコーダ228に入力される。意図表現226は、デコーダLSTM602に対して初期の隠れ状態として機能する。未来ゲート604及び時空間アキュームレータ(spatiotemporal accumulator、STA)606は、過去、現在、及び予測される未来の情報から未来を集約し、例示的な例として停止及び前進として示される運転者の刺激行動作232を推定する。
特に、時間デコーダ228は、運転シーンにおける発展的相互作用の特徴表現を学習する。未来ゲート604は、時間デコーダ228から隠れ状態のベクトルを受信し、これらの特徴を、未来の状況として、要素ごとの総和を用いて織り込む。STA606は、集中動作であり、過去、現在、及び予測された未来の情報から時空間的特徴を捕捉し、次のフレーム内で(例えば、t+1において)発生する運転者の刺激行動232を推定する。
再び図5の方法500を参照すると、方法500はブロック506に進むことができ、方法500は、予測された運転者の意図行動234を出力するために意図表現226を分析することを含み得る。例示的な実施形態では、ニューラルネットワーク108は、分析される運転者の意図の意図表現226が、動的物体の重要性を推定し、危険性を評価することを可能にし得る。ニューラルネットワーク108は、I3D204からの意図表現226を、時間デコーダ228の第1のデコーダLSTM602に対して初期化された隠れ状態として使用することにより、意図情報を組み込むように構成されてもよい。ニューラルネットワーク108は、この意図表現を用いて自車両の意図行動を予測し、この意図行動は、総損失として刺激行動の損失と組み合わされるクロスエントロピー損失によって管理される。
方法500はブロック508に進んでもよく、方法500は、予測に基づいて警告を出力するために、自車両102の車両システム/制御ユニットを制御することを含み得る。例示的な実施形態では、運転者の刺激行動232及び/又は運転者の意図行動234が予測されると、ニューラルネットワーク108は、行動予測アプリケーション106の運転行動予測モジュール124に予測に関するデータを伝達することができる。一実施形態では、行動予測アプリケーション106は、自車両102のECU104と通信し、1つ以上の車両システム/制御ユニット114を動作可能に制御して、運転者の刺激行動232及び/又は運転者の意図行動234の予測に基づいて、1つ以上の警告を提供し、予測された行動232、234に基づいて、運転シーン内の動的物体及び/又は静的物体との潜在的な重なりを自車両102の運転者に警告するように構成することができる。車両システム/制御ユニット114は、1つ以上の未来のタイムスタンプ(例えば、t+1、t+2、t+n)の前の所定の時間フレームにおいて、予測された運転者の刺激行動232及び予測された運転者の意図行動234に基づいて警告を提供し、運転者がいずれかの潜在的な重なりを回避するために、1つ以上の運転操作を完了させることを可能にするように構成され得る、高度な運転者支援システムを含むように構成され得る。
代替的な実施形態では、運転行動予測モジュール124は、運転シーン内の動的物体及び/又は静的物体との潜在的な重なりを回避するために、運転者の刺激行動232及び/又は運転者の意図行動234の予測に基づいて、自車両102の動作を自律的又は半自律的に制御するように、自車両102のECU104と通信するように構成され得る。したがって、ECU104は、1つ以上の車両システム/制御ユニット114と通信し、それによって、走行シーンの走行シーンの特性(例えば、車線の数、車線区分線に基づくナビゲート可能な経路、信号機の状態)に応じて、静的物体及び/又は動的物体との重なりを回避するそれぞれの速度、制動比、ステアリング比、加速度などで、走行シーン内を走行するための1つ以上の操作を行うように自車両102を制御することができる。
図7は、本開示の例示的な実施形態による、意図認識運転モデルに基づいて、運転行動を予測するための方法700のプロセスフロー図である。図7は、図1及び図2の構成要素を参照して説明されるが、図7の方法700は、他のシステム/構成要素と共に使用されてもよいことを理解されたい。方法700は、ブロック702において開始することができ、方法700は、自車両102の運転シーンの少なくとも1つの画像を受信することを含み得る。
方法700は、ブロック702に進み得、方法700は、自車両102の運転シーンの少なくとも1つの画像を受信することを含み得る。方法700は、ブロック704に進み得、方法700は、少なくとも1つの画像を分析し、運転シーン内に位置する動的物体を検出して追跡し、かつ運転シーンに関連付けられた運転シーン特性を検出して識別することを含み得る。方法700は、ブロック706に進み得、方法700は、動的物体に関連付けられた自己−事物グラフ、及び運転シーン特性に関連付けられた自己−要素グラフを処理することを含み得る。方法700は、ブロック708に進み得、方法700は、自己−事物グラフ及び自己−要素グラフの表現の融合に基づく運転者の刺激行動232と、自車両の運転者の運転意図に関連付けられた意図表現に基づく運転者の意図行動234と、を予測することを含み得る。
上述の説明から、本発明の様々な例示的な実施形態がハードウェアで実施され得ることが明らかであるべきである。更に、様々な例示的な実施形態は、本明細書で詳細に説明される操作を行うために少なくとも1つのプロセッサによって読み取り及び実行され得る、揮発性又は不揮発性メモリなどの非一時的機械可読記憶媒体上に記憶された命令として実施されてもよい。機械可読記憶媒体は、パーソナルコンピュータ又はラップトップコンピュータ、サーバ、又は他のコンピューティングデバイスなどの機械によって読み取り可能な形態で情報を記憶するための任意の機構を含んでもよい。したがって、非一時的機械可読記憶媒体は、一時信号を除外するが、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光学記憶媒体、フラッシュメモリデバイス、及び同様の記憶媒体を含むがこれらに限定されない揮発性及び不揮発性メモリの両方を含んでもよい。
本明細書の任意のブロック図は、本発明の原理を具現化する例示的な回路の概念図を表すことを当業者は理解すべきである。同様に、任意のフローチャート、フロー図、状態遷移図、擬似コードなどは、そのようなコンピュータ又はプロセッサが明示的に示されているか否かにかかわらず、機械可読媒体に実質的に表され、コンピュータ又はプロセッサによって実行され得る様々なプロセスを表すことが理解されるであろう。
上記に開示された及び他の特徴並びに機能又はこれらの代替物若しくは変形の様々な実施が、望ましくは多くの他の異なるシステム又はアプリケーションに組み合わされ得ることが理解されるであろう。また、当業者であれば、現在予測されていない、又は予期されていない様々な代替例、修正例、変形例、又は改良例を連続的に行うことができ、これらも添付の特許請求の範囲によって包含されることが意図される。

Claims (20)

  1. 意図認識運転モデルに基づいて運転行動を予測するためのコンピュータ実施方法であって、
    自車両の運転シーンの少なくとも1つの画像を受信することと、
    前記少なくとも1つの画像を分析して、前記運転シーン内に位置する動的物体を検出及び追跡し、前記運転シーンに関連付けられた運転シーン特性を検出及び識別することと、
    前記動的物体に関連付けられた自己−事物グラフ、及び前記運転シーン特性に関連付けられた自己−要素グラフを処理することと、
    前記自己−事物グラフ及び前記自己−要素グラフの表現の融合に基づく運転者の刺激行動と、前記自車両の運転者の運転意図に関連付けられた意図表現に基づく運転者の意図行動と、を予測することと、を含む、コンピュータ実施方法。
  2. 前記自車両の前記運転シーンの前記少なくとも1つの画像を受信することが、ニューラルネットワークを利用して、前記運転シーンの前記少なくとも1つの画像に関連付けられた画像フレームの入力を受信することを含み、前記画像フレームが、前記運転シーンの自己中心ビューを含む、請求項1に記載のコンピュータ実施方法。
  3. 前記少なくとも1つの画像を分析することが、前記動的物体に関連付けられた物体境界ボックスを計算することと、前記計算された物体境界ボックスから動的物体特徴を抽出することと、を含む、請求項1に記載のコンピュータ実施方法。
  4. 前記少なくとも1つの画像を分析することが、セマンティックセグメンテーションを実行して、前記運転シーンの静的物体及び車道特徴に関連付けられた前記運転シーン特性を検出することを含み、セマンティックマスクからの不規則的な形状の物体が、前記セマンティックセグメンテーションに基づいて適用されて、前記運転シーン特性を識別する、請求項1に記載のコンピュータ実施方法。
  5. 前記動的物体に関連付けられた前記自己−事物グラフを処理することが、前記動的物体を自己−事物として分類することと、ニューラルネットワークのグラフ生成器を実行させて、前記動的物体に対応する事物ノードを有する前記自己−事物グラフを計算することと、を含み、前記自己−事物グラフが、双方向に、前記動的物体同士の間、及び前記自車両との相互作用に関連する、請求項1に記載のコンピュータ実施方法。
  6. 前記運転シーン特性に関連付けられた前記自己−要素グラフを処理することが、前記運転シーン特性を自己−要素として分類することと、ニューラルネットワークのグラフ生成器を実行させて、前記運転シーン特性に対応する要素ノードを有する前記自己−要素グラフを計算することと、を含み、前記自己−要素グラフが、前記自車両の動作時の前記自己−要素の効果に関連する、請求項1に記載のコンピュータ実施方法。
  7. 前記運転者の刺激行動を予測することが、前記自己−事物グラフからの自己−事物特徴と、前記自己−要素グラフからの自己−要素特徴と、を抽出及び融合して、前記運転シーンの時空間運転シーンモデリングを達成することを含み、融合データが処理されて、時空間判定を行い、前記動的物体同士の間、及び前記自車両との双方向相互作用を捕捉する相互作用表現を出力する、請求項1に記載のコンピュータ実施方法。
  8. 前記運転者の刺激行動を予測することが、前記運転シーンの抽出された視覚的特徴に関連付けられた運転者の意図に関連する前記相互作用表現及び前記意図表現を、ニューラルネットワークの時間デコーダに入力することを含み、前記時間デコーダが、過去、現在、及び予測された未来の情報から未来を集約して、前記運転者の刺激行動を予測する、請求項7に記載のコンピュータ実施方法。
  9. 前記運転者の意図行動を予測することが、前記少なくとも1つの画像の畳み込み分析を使用して、視覚的特徴の抽出に基づいて、前記自車両の前記運転者の前記意図を分析して、前記意図表現を出力することを含み、前記運転者の意図行動が、前記自車両の将来の動作に対する運転者の意図に関連付けられている、請求項1に記載のコンピュータ実施方法。
  10. 意図認識運転モデルに基づいて運転行動を予測するためのシステムであって、
    命令を記憶しているメモリを備え、前記命令が、プロセッサによって実行されるとき、前記プロセッサに、
    自車両の運転シーンの少なくとも1つの画像を受信することと、
    前記少なくとも1つの画像を分析して、前記運転シーン内に位置する動的物体を検出及び追跡し、前記運転シーンに関連付けられた運転シーン特性を検出及び識別することと、
    前記動的物体に関連付けられた自己−事物グラフ、及び前記運転シーン特性に関連付けられた自己−要素グラフを処理することと、
    前記自己−事物グラフ及び前記自己−要素グラフの表現の融合に基づく運転者の刺激行動と、前記自車両の運転者の運転意図に関連付けられた意図表現に基づく運転者の意図行動と、を予測することと、を行わせる、システム。
  11. 前記自車両の前記運転シーンの前記少なくとも1つの画像を受信することが、ニューラルネットワークを利用して、前記運転シーンの前記少なくとも1つの画像に関連付けられた画像フレームの入力を受信することを含み、前記画像フレームが、前記運転シーンの自己中心ビューを含む、請求項10に記載のシステム。
  12. 前記少なくとも1つの画像を分析することが、前記動的物体に関連付けられた物体境界ボックスを計算することと、前記計算された物体境界ボックスから動的物体特徴を抽出することと、を含む、請求項10に記載のシステム。
  13. 前記少なくとも1つの画像を分析することが、セマンティックセグメンテーションを実行して、前記運転シーンの静的物体及び車道特徴に関連付けられた前記運転シーン特性を検出することを含み、セマンティックマスクからの不規則的な形状の物体が、前記セマンティックセグメンテーションに基づいて適用されて、前記運転シーン特性を識別する、請求項10に記載のシステム。
  14. 前記動的物体に関連付けられた前記自己−事物グラフを処理することが、前記動的物体を自己−事物として分類することと、ニューラルネットワークのグラフ生成器を実行させて、前記動的物体に対応する事物ノードを有する前記自己−事物グラフを計算することと、を含み、前記自己−事物グラフが、双方向に、前記動的物体同士の間、及び前記自車両との相互作用に関連する、請求項10に記載のシステム。
  15. 前記運転シーン特性に関連付けられた前記自己−要素グラフを処理することが、前記運転シーン特性を自己−要素として分類することと、ニューラルネットワークのグラフ生成器を実行させて、前記運転シーン特性に対応する要素ノードを有する前記自己−要素グラフを計算することと、を含み、前記自己−要素グラフが、前記自車両の動作時の前記自己−要素の効果に関連する、請求項10に記載のシステム。
  16. 前記運転者の刺激行動を予測することが、前記自己−事物グラフからの自己−事物特徴と、前記自己−要素グラフからの自己−要素特徴と、を抽出及び融合して、前記運転シーンの時空間運転シーンモデリングを達成することを含み、融合データが処理されて、時空間判定を行い、前記動的物体同士の間、及び前記自車両との双方向相互作用を捕捉する相互作用表現を出力する、請求項10に記載のシステム。
  17. 前記運転者の刺激行動を予測することが、前記運転シーンの抽出された視覚的特徴に関連付けられた運転者意図に関連する前記相互作用表現及び前記意図表現を、ニューラルネットワークの時間デコーダに入力することを含み、前記時間デコーダが、過去、現在、及び予測された未来の情報から未来を集約し、前記運転者の刺激行動を予測する、請求項16に記載のシステム。
  18. 前記運転者の意図行動を予測することが、前記少なくとも1つの画像の畳み込み分析を使用して、視覚的特徴の抽出に基づいて、前記自車両の前記運転者の前記意図を分析して、前記意図表現を出力することを含み、前記運転者の意図行動が、前記自車両の将来の動作に対する運転者の意図に関連付けられている、請求項10に記載のシステム。
  19. 命令を記憶している非一時的コンピュータ可読記憶媒体であって、前記命令が、プロセッサを含むコンピュータによって実行されるとき、方法を実行し、前記方法が、
    自車両の運転シーンの少なくとも1つの画像を受信することと、
    前記少なくとも1つの画像を分析して、前記運転シーン内に位置する動的物体を検出及び追跡し、前記運転シーンに関連付けられた運転シーン特性を検出及び識別することと、
    前記動的物体に関連付けられた自己−事物グラフ、及び前記運転シーン特性に関連付けられた自己−要素グラフを処理することと、
    前記自己−事物グラフ及び前記自己−要素グラフの表現の融合に基づく運転者の刺激行動と、前記自車両の運転者の運転意図に関連付けられた意図表現に基づく運転者の意図行動と、を予測することと、を含む、非一時的コンピュータ可読記憶媒体。
  20. 前記運転者の刺激行動を予測することが、前記自己−事物グラフからの自己−事物特徴と、前記自己−要素グラフからの自己−要素特徴と、を抽出及び融合して、前記運転シーンの時空間運転シーンモデリングを達成することを含み、融合データが処理されて、時空間判定を行い、前記動的物体同士の間、及び前記自車両との双方向相互作用を捕捉する相互作用表現を出力する、請求項19に記載の非一時的コンピュータ可読記憶媒体。
JP2021018618A 2020-02-26 2021-02-08 運転者中心危険評価:意図認識運転モデルを用いた因果推論を介する危険物体識別 Active JP7126575B2 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US202062981785P 2020-02-26 2020-02-26
US62/981,785 2020-02-26
US16/916,428 US11544935B2 (en) 2020-02-26 2020-06-30 System for risk object identification via causal inference and method thereof
US16/916,428 2020-06-30
US17/005,833 2020-08-28
US17/005,833 US11458987B2 (en) 2020-02-26 2020-08-28 Driver-centric risk assessment: risk object identification via causal inference with intent-aware driving models

Publications (2)

Publication Number Publication Date
JP2021136021A true JP2021136021A (ja) 2021-09-13
JP7126575B2 JP7126575B2 (ja) 2022-08-26

Family

ID=77366811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021018618A Active JP7126575B2 (ja) 2020-02-26 2021-02-08 運転者中心危険評価:意図認識運転モデルを用いた因果推論を介する危険物体識別

Country Status (3)

Country Link
US (1) US11458987B2 (ja)
JP (1) JP7126575B2 (ja)
CN (1) CN113392692A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024057502A1 (ja) * 2022-09-15 2024-03-21 本田技研工業株式会社 学習装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11881016B2 (en) * 2018-09-21 2024-01-23 Toyota Motor Europe Method and system for processing an image and performing instance segmentation using affinity graphs
US11604936B2 (en) * 2020-03-23 2023-03-14 Toyota Research Institute, Inc. Spatio-temporal graph for video captioning with knowledge distillation
CN113978259B (zh) * 2021-11-19 2022-10-18 张展浩 一种基于驾驶场景及驾驶习惯的电动汽车制动控制方法
CN114627454B (zh) * 2022-03-18 2024-02-09 柳州柳工叉车有限公司 一种驾驶员举升意图感知方法、装置、设备及介质
CN115202351B (zh) * 2022-07-15 2023-04-25 沈阳工业大学 一种考虑意图及个体操作习惯的智能避障方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018101403A (ja) * 2016-12-21 2018-06-28 トヨタ自動車株式会社 運転支援装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2654028B1 (en) * 2012-04-20 2018-09-26 Honda Research Institute Europe GmbH Orientation sensitive traffic collision warning system
DE102015211736A1 (de) * 2015-06-24 2016-12-29 Bayerische Motoren Werke Aktiengesellschaft Engstellenassistenzsystem in einem Kraftfahrzeug
US20180225554A1 (en) * 2017-02-06 2018-08-09 Honda Motor Co., Ltd. Systems and methods of a computational framework for a driver's visual attention using a fully convolutional architecture
US10635927B2 (en) 2017-03-06 2020-04-28 Honda Motor Co., Ltd. Systems for performing semantic segmentation and methods thereof
JP7057717B2 (ja) 2018-05-28 2022-04-20 日本放送協会 位相差検出器及び画像処理装置、並びにプログラム
DE102018210280A1 (de) 2018-06-25 2020-01-02 Robert Bosch Gmbh Anpassung der Trajektorie eines Ego-Fahrzeugs an bewegte Fremdobjekte
US11205082B2 (en) * 2019-10-08 2021-12-21 Toyota Research Institute, Inc. Spatiotemporal relationship reasoning for pedestrian intent prediction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018101403A (ja) * 2016-12-21 2018-06-28 トヨタ自動車株式会社 運転支援装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHENGXI LI ET AL: "Learning 3D-aware Egocentric Spatial-Temporal Interaction via Graph Convolutional Networks", ARXIV, JPN7021005773, 23 September 2019 (2019-09-23), US, ISSN: 0004677712 *
PATRICK GEBERT ET AL: "End-to-end Prediction of Driver Intention using 3D Convolutional Neural Networks", 2019 IEEE INTELLIGENT VEHICLES SYMPOSIUM (IV), JPN7021005772, 12 June 2019 (2019-06-12), US, ISSN: 0004677714 *
R. IZQUIERDO ET AL: "Experimental validation of lane-change intention prediction methodologies based on CNN and LSTM", 2019 IEEE INTELLIGENT TRANSPORTATION SYSTEMS CONFERENCE (ITSC), JPN7021005771, 30 October 2019 (2019-10-30), US, ISSN: 0004677713 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024057502A1 (ja) * 2022-09-15 2024-03-21 本田技研工業株式会社 学習装置

Also Published As

Publication number Publication date
US20210261148A1 (en) 2021-08-26
JP7126575B2 (ja) 2022-08-26
US11458987B2 (en) 2022-10-04
CN113392692A (zh) 2021-09-14

Similar Documents

Publication Publication Date Title
US11034357B2 (en) Scene classification prediction
US11042156B2 (en) System and method for learning and executing naturalistic driving behavior
JP7126575B2 (ja) 運転者中心危険評価:意図認識運転モデルを用いた因果推論を介する危険物体識別
US11584379B2 (en) System and method for learning naturalistic driving behavior based on vehicle dynamic data
JP6833936B2 (ja) 自己中心映像に基づく将来の車両位置特定のためのシステム及び方法
CN111050116B (zh) 利用时间递归网络进行在线动作检测的系统和方法
US11886506B2 (en) System and method for providing object-level driver attention reasoning with a graph convolution network
US11587329B2 (en) Method and apparatus for predicting intent of vulnerable road users
US11370446B2 (en) System and method for learning and predicting naturalistic driving behavior
JP7042937B2 (ja) 因果推論を用いた危険物体識別のためのシステム及びその方法
JP7072030B2 (ja) アクション事前分布を使用して将来予測するためのシステム及び方法
US11188766B2 (en) System and method for providing context aware road-user importance estimation
US11845464B2 (en) Driver behavior risk assessment and pedestrian awareness
US20220144260A1 (en) System and method for completing risk object identification
JP2022179383A (ja) ジョイントリスクの位置特定を完了し、かつ運転シナリオにおいて推論するためのシステム及び方法
US20230256973A1 (en) System and method for predicting driver situational awareness

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220816

R150 Certificate of patent or registration of utility model

Ref document number: 7126575

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150