JP7042937B2 - 因果推論を用いた危険物体識別のためのシステム及びその方法 - Google Patents

因果推論を用いた危険物体識別のためのシステム及びその方法 Download PDF

Info

Publication number
JP7042937B2
JP7042937B2 JP2021018598A JP2021018598A JP7042937B2 JP 7042937 B2 JP7042937 B2 JP 7042937B2 JP 2021018598 A JP2021018598 A JP 2021018598A JP 2021018598 A JP2021018598 A JP 2021018598A JP 7042937 B2 JP7042937 B2 JP 7042937B2
Authority
JP
Japan
Prior art keywords
dynamic
vehicle
image
dynamic object
driving scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021018598A
Other languages
English (en)
Other versions
JP2021136020A (ja
Inventor
イーチェン・チェン
チェンシ・リ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2021136020A publication Critical patent/JP2021136020A/ja
Application granted granted Critical
Publication of JP7042937B2 publication Critical patent/JP7042937B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0635Risk analysis of enterprise or organisation activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06393Score-carding, benchmarking or key performance indicator [KPI] analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Description

(関連出願の相互参照)
本出願は、2020年2月26日に出願された米国特許仮出願第62/981,785号の優先権を主張し、参照により本明細書に明示的に組み込まれる。
危険物体識別は、ドライバー中心の危険性評価に向けての必須のステップであり得る。人間のドライバーは、危険物体を識別し、安全に運転するために、その危険性を評価する能力を有し得る。例えば、交差点で左に旋回する間、ドライバーは、関連する物体(例えば、対向車両又は横断する歩行者)に効率的に注意を払い、意思決定のためにその危険性を評価することができる。
インテリジェント自動運転システムでは、そのような能力を持つシステムを可能にすることが重要であり得る。最終的な目標を達成するために、危険物体識別のための既存の取り組みは、大量の処理能力を利用しながら、多数の入力を受容することにより、ノイズが多く、時間がかかる方法で危険物体をラベリングすることを含み、危険物体を識別するための明示的な推論を提供していない。
一態様によれば、自車両の運転シーンの少なくとも1つの画像を受信することと、少なくとも1つの画像内に捕捉された動的物体のそれぞれを除去するためのマスクを実施することと、を含む、因果推論を用いた危険物体識別のためのコンピュータ実施方法である。コンピュータ実施方法は、少なくとも1つの画像内に捕捉された動的物体のそれぞれを除去するためのマスクを実施することも含む。コンピュータ実施方法は、動的物体のそれぞれの除去に対する運転挙動に関連付けられた変化レベルを分析することを更に含む。少なくとも1つの動的物体は、運転挙動に対して最も高い影響レベルを有する危険物体として識別される。
別の態様によれば、命令を記憶しているメモリを含み、命令が、プロセッサによって実行されると、プロセッサに、自車両の運転シーンの少なくとも1つの画像を受信することと、少なくとも1つの画像を分析して、自車両の運転シーン内の動的物体を検出及び追跡することと、を行わせる、因果推論を用いた危険物体識別のためのシステム及び方法である。命令はまた、プロセッサに、少なくとも1つの画像内に捕捉された動的物体のそれぞれを除去するために、マスクを実施させることも行わせる。命令は、プロセッサに、動的物体のそれぞれの除去に対する運転挙動に関連付けられた変化レベルを分析することも更に行わせる。少なくとも1つの動的物体は、運転挙動に対して最も高い影響レベルを有する危険物体として識別される。
更に別の態様によれば、コンピュータによって実行されると、自車両の運転シーンの少なくとも1つの画像を受信することと、少なくとも1つの画像内に捕捉された動的物体のそれぞれを除去するためにマスクを実施することと、を含む方法をプロセッサが実行する命令を記憶する、非一時的コンピュータ可読記憶媒体である。方法はまた、少なくとも1つの画像内に捕捉された動的物体のそれぞれを除去するためのマスクを実施することを含む。方法は、動的物体のそれぞれの除去に対する運転挙動に関連付けられた変化レベルを分析することを更に含む。少なくとも1つの動的物体は、運転挙動に対して最も高い影響レベルを有する危険物体として識別される。
本開示に特徴的であると考えられる新規な特徴は、添付の特許請求の範囲に記載される。以下の説明において、明細書及び図面を通して、同様の部分にはそれぞれ同一の符号を付す。図面は必ずしも縮尺どおりに描画されておらず、明確性及び簡潔さのために、特定の図面は、誇張された又は一般化された形態で示され得る。しかしながら、本開示自体、並びにその好ましい使用モード、更なる目的及び進歩は、添付図面と併せて読むと、例示的な実施形態の以下の詳細な説明を参照することによって最も良く理解されるであろう。
本開示の例示的実施形態による、因果推論を用いた危険物体識別のための例示的なシステムの概略図である。
本開示の例示的な実施形態による、動的物体を含む運転シーンの自中心図である。
本開示の例示的な実施形態による、動的物体を含む運転シーンの俯瞰図である。
本開示の例示的な実施形態による、運転シーンから電子的に除去された少なくとも1つの動的物体を含む運転シーンの自中心図である。
本開示の例示的な実施形態による、運転シーンから電子的に除去された少なくとも1つの動的物体を含む運転シーンの俯瞰図である。
本開示の例示的実施形態による、動的物体のそれぞれの除去に対する運転挙動に関連付けられた変化のレベルを分析し、1つ以上の動的物体を危険物体として分類する反復処理の方法のプロセスフロー図である。
本開示の例示的な実施形態による、因果推論を用いた危険物体識別のための方法のプロセスフロー図である。
以下は、本明細書で用いられる選択された用語の定義を含む。定義は、用語の範囲内に含まれかつ実施に使用され得る構成要素の様々な実施例及び/又は形態を含む。実施例は、限定することを意図するものではない。
本明細書で使用される場合、「バス」とは、コンピュータ内部又はコンピュータ間の他のコンピュータ構成要素に操作可能に接続された、相互接続されたアーキテクチャを指す。バスは、コンピュータ構成要素間でデータを転送することができる。バスは、とりわけ、メモリバス、メモリコントローラ、周辺バス、外部バス、クロスバースイッチ、及び/又はローカルバスであってもよい。バスはまた、とりわけ、媒体配向システム輸送(Media Oriented Systems Transport、MOST)、コントローラエリアネットワーク(Controller Area network、CAN)、ローカル相互接続ネットワーク(Local Interconnect Network、LIN)などのプロトコルを使用して、車両内部の構成要素を相互接続する、車両バスであってもよい。
本明細書で使用される場合、「コンピュータ通信」とは、2つ以上のコンピューティングデバイス(例えば、コンピュータ、パーソナルデジタルアシスタント、セルラー電話、ネットワークデバイス)間の通信を指し、例えば、ネットワーク転送、ファイル転送、アプレット転送、電子メール、ハイパーテキスト転送プロトコル(hypertext transfer protocol、HTTP)転送などであってもよい。コンピュータ通信は、例えば、とりわけ、無線システム(例えば、IEEE802.11)、イーサネットシステム(例えば、IEEE802.3)、トークンリングシステム(例えば、IEEE802.5)、ローカルエリアネットワーク(local area network、LAN)、広域ネットワーク(wide area network、WAN)、ポイントツーポイントシステム、回路スイッチングシステム、パケットスイッチングシステムを介して発生し得る。
本明細書で使用される場合、「ディスク」とは、例えば、磁気ディスクドライブ、ソリッドステートディスクドライブ、フロッピーディスクドライブ、テープドライブ、Zipドライブ、フラッシュメモリカード、及び/又はメモリスティックであってもよい。更に、ディスクは、CD-ROM(compact disk ROM、コンパクトディスクROM)、CD記録可能ドライブ(CD recordable drive、CD-Rドライブ)、CD書き換え可能ドライブ(CD rewritable drive、CD-RWドライブ)、及び/又はデジタルビデオROMドライブ(digital video ROM、DVD-ROM)であってもよい。ディスクは、コンピューティングデバイスのリソースを制御する又は割り振る、オペレーティングシステムを記憶することができる。
本明細書で使用される場合、「メモリ」は、揮発性メモリ及び/又は不揮発性メモリを含み得る。不揮発性メモリには、例えば、ROM(read only memory、読取り専用メモリ)、PROM(programmable read only memory、プログラマブル読取り専用メモリ)、EPROM(erasable PROM、消去可能なPROM)、及びEEPROM(electrically erasable PROM、電気的消去可能なPROM)が含まれ得る。揮発性メモリには、例えば、RAM(random access memory、ランダムアクセスメモリ)、同期RAM(synchronous RAM、SRAM)、ダイナミックRAM(dynamic RAM、DRAM)、シンクロナスDRAM(synchronous DRAM、SDRAM)、ダブルデータレートSDRAM(double data rate SDRAM、DDR SDRAM)、及びダイレクトRAMバスRAM(direct RAM bus RAM、DRRAM)が含まれ得る。メモリは、コンピューティングデバイスのリソースを制御する又は割り振る、オペレーティングシステムを記憶することができる。
本明細書で使用される場合、「モジュール」は、機能(複数可)若しくは行動(複数可)を実行するため、並びに/又は別のモジュール、メソッド、及び/若しくはシステムからの機能若しくは行動を引き起こすための、命令を記憶する非一時的コンピュータ可読媒体、機械上で実行される命令、ハードウェア、ファームウェア、機械で実行中のソフトウェア、及び/又はそれぞれの組み合わせを含むが、これらに限定されない。モジュールはまた、論理、ソフトウェア制御マイクロプロセッサ、別個の論理回路、アナログ回路、デジタル回路、プログラムされた論理デバイス、実行命令を含むメモリデバイス、論理ゲート、ゲートの組み合わせ、及び/又は他の回路構成要素を含んでもよい。複数のモジュールは、1つのモジュールに組み合わされてもよく、単一モジュールは、複数のモジュール間に分散されてもよい。
「操作可能な接続」、又はエンティティが「操作可能に接続される」ことによる接続は、信号、物理的通信、及び/又は論理的通信が、送信及び/又は受信され得るものである。操作可能な接続は、無線インターフェース、物理的インターフェース、データインターフェース、及び/又は電気インターフェースを含んでもよい。
本明細書で使用される場合、「プロセッサ」は、信号を処理し、一般的なコンピューティング及び演算機能を行う。プロセッサによって処理された信号は、デジタル信号、データ信号、コンピュータ命令、プロセッサ命令、メッセージ、ビット、ビットストリーム、又は受信、送信、及び/若しくは検出され得る他の手段を含んでもよい。一般に、プロセッサは、複数の単一及びマルチコアのプロセッサ及びコプロセッサ並びに他の複数の単一及びマルチコアのプロセッサ及びコプロセッサアーキテクチャを含む、多種の様々なプロセッサであってもよい。プロセッサは、様々な機能を実行するための様々なモジュールを含んでもよい。
本明細書で使用される場合、「車両」は、1人以上の人間の乗員を運ぶことができ、任意の形態のエネルギーによって電力供給される、任意の移動車両を指し得る。「車両」という用語には、限定するものではないが、自動車、トラック、バン、ミニバン、SUV、オートバイ、スクータ、ボート、ゴーカート、アミューズメントライドカー、鉄道輸送、水上バイク、及び航空機が含まれる。場合によっては、モータ車両は、1つ以上のエンジンを含む。更に、「車両」という用語は、1人以上の人間の乗員を運ぶことができ、電気電池によって電力供給される1つ以上の電気モータによって、完全に又は部分的に電力供給される、電気車両(electric vehicle、EV)を指し得る。EVは、電池電気自動車(battery electric vehicle、BEV)及びプラグインハイブリッド電気自動車(plug-in hybrid electric vehicle、PHEV)を含んでもよい。追加的に、「車両」という用語は、任意の形態のエネルギーによって動力を供給される、自律型車両及び/又は自動運転型車両を指し得る。自律型車両は、1人以上の人間の乗員を運んでいても運んでいなくてもよい。更に、「車両」という用語は、所定の経路又は自由移動車両で自動化又は非自動化される車両を含んでもよい。
本明細書で使用される場合、「値」及び「レベル」とは、とりわけ、百分率、非数値、離散的な状態、離散値、連続値などの数値、又は他の種類の値若しくはレベルを含むことができるが、これらに限定されない。「Xの値」又は「Xのレベル」という用語は、この詳細な説明全体を通じて、及び特許請求の範囲で使用される場合、Xの2つ以上の状態を区別するための任意の数値又は他の種類の値を指す。例えば、場合によっては、Xの値又はレベルは、0%~100%の割合として与えられてもよい。他の場合には、Xの値又はレベルは、1~10の範囲の値であり得る。更に他の場合では、Xの値又はレベルは数値でなくてもよいが、「非X」、「わずかにx」、「x」、「非常にx」、及び「極x」などの所与の離散した状態と関連付けることができる。
I.システムの概要
ここで図面を参照すると、表示は、1つ以上の例示的な実施形態を例示する目的のためであり、限定する目的のためではなく、図1は、本開示の例示的な実施形態による、因果推論を用いた危険物体識別のための例示的システム100の概略図である。システム100の構成要素、並びに本明細書で考察される他のシステム、ハードウェアアーキテクチャ、及びソフトウェアアーキテクチャの構成要素は、様々な実施形態のために異なるアーキテクチャに組み合わされるか、省略されるか、又は編成されてもよい。
一般的に、システム100は、自車両102を含んでもよい。自車両102は、1種類以上の環境内で走行し得る自動車、ロボット、フォークリフト、自転車/オートバイ、車椅子/スクータなどを挙げることができるが、これらに限定されない。簡略化のために、本開示は、乗用車(例えば、車)としての自車両102に対するシステム100の実施形態を説明する。自車両102は、とりわけ、1つ以上のアプリケーション、オペレーティングシステム、自車両システム、及びサブシステムユーザインターフェースを実行する電子制御ユニット(electronic control unit、ECU)104を含む。ECU104はまた、因果推論を介して危険物体識別を提供するように構成され得る危険物体因果性識別アプリケーション(因果性識別アプリケーション)106を実行してもよい。
以下でより詳細に説明するように、因果性識別アプリケーション106は、自車両102が1種類以上の環境内で走行しているときに、自車両102の周囲環境の画像を受信するように構成されてもよい。因果性識別アプリケーション106は、画像からの自車両102の運転シーンを分析するように構成されてもよい。運転シーンは、自車両102が操作されているときに、自車両102の所定の近傍を含んでもよい。因果性識別アプリケーション106は、自車両102の運転シーンの画像を分析して、停止、前進継続/加速、直進、右折、左折、右合流、左合流などを含むがこれらに限定されない1つ以上の運転挙動を検出するように構成されていてもよい。因果性識別アプリケーション106はまた、自車両102の運転シーンの画像を分析して、自車両102の運転シーン内に位置し得る1つ以上の動的物体を検出及び追跡するように構成されていてもよい。1つ以上の動的物体は、自車両102の運転シーン内に含まれる1つ以上の道路上で走行する交通参加者を含んでもよい。具体的には、1つ以上の動的物体は、自車両102の運転シーン内を走行する追加の車両、歩行者、自転車などを含んでもよいが、これらに限定されない。周囲の動的物体は、自車両102の前方に、自車両102の経路を横切って、自車両102に隣接して、自車両102の現在の車線に合流して、自車両102の後方などに位置してよい。
動的物体のそれぞれを検出及び追跡すると、因果性識別アプリケーション106は、画像内に捕捉された動的物体のそれぞれを電子的に除去するためのマスクを実施するように構成されてもよい。後述するように、マスクは、ニューラルネットワーク108を使用して実施されて、自車両102の運転シーンの画像内に含まれる各動的物体を電子的に除去することによって、因果的効果を反復的に促すことができる。そうすることによって、アプリケーション106は、運転シーン内の動的物体のそれぞれに関連し得る1つ以上の運転挙動に対して因果的効果を定量化するように構成されていてもよい。したがって、自車両102の運転シーン内に捕捉された動的物体それぞれを独立して除去することを利用して、自車両102の運転シーン内のそれぞれの動的物体の存在に基づいて呈され得る特定の運転挙動に対するそれぞれの除去された動的物体の因果的効果を評価することができる。
動的物体のそれぞれを独立して電子的に除去することによって、因果性識別アプリケーション106は、それぞれの動的物体が自車両102の運転シーン内に含まれなかった場合に、運転挙動に関連付けられ得る変化レベルを評価することができる。変化レベルは、特定の運転挙動をもたらすそれぞれの動的物体の存在がなければ、運転挙動が変化する量に関係し得る。別の言い方をすれば、画像を考慮すると、アプリケーション106は、各動的物体を運転シーンの残りの部分から個別に除去することによって介入する。したがって、アプリケーション106は、その特定の動的オブジェクトの除去に基づいて因果的効果を反復的にシミュレートする、その特定の動的物体の不在下で、対応する行動を予測するように構成されていてもよい。
したがって、因果性識別アプリケーション106は、自車両102の運転シーン内に位置する動的物体それぞれの間の因果関係レベルと、自車両102の動作に対して呈される特定の運転挙動と、を識別する。因果性識別アプリケーション106は、動的物体のそれぞれの除去に対する運転挙動に関連付けられた変化レベルを分析し、それによって、各動的物体に関連付けられた因果性スコアを割り当てるように構成されていてもよい。因果性スコアは、静的物体のそれぞれの電子的除去に関連する変化レベルに基づいて、各動的物体の存在と特定の運転挙動(例えば、自車両102の停止)との間の因果関係に関連付けられていてもよい(例えば、特定の運転物体の存在がなければ、自車両102は停止しておらず、加速を維持し得る)。
一実施形態では、因果性スコアは、因果関係レベルに関連付けられ得る範囲(例えば、1~10)の一部として含まれてもよい。したがって、運転シーン内の動的物体のそれぞれは、運転挙動の変化レベルにおける影響のその独立した電子的除去及び分析時に、それぞれの因果性スコアが割り当てられてもよい。したがって、運転挙動に最も影響を及ぼし得る動的物体は、自車両102のドライバーに特定の運転挙動(例えば、自車両102の停止など)を実施させる原因となるので、自車両102の運転シーン内に配置され得る周辺の動的物体よりも高い因果性スコアが割り当てられてもよい。
1つの構成では、因果性識別アプリケーション106は、運転シーン内の他の動的物体に対して最も高い因果性スコアが割り当てられた、自車両102の運転シーン内に位置する動的物体のうちの1つ以上を更に判定してもよい。因果性識別アプリケーション106は、特定の動的物体(複数可)を危険物体として更に分類することができる。換言すれば、因果性識別アプリケーション106は、特定の運転挙動に対して最も高い影響レベルに関連付けられ得る危険物体として、運転挙動に対して最も実質的な因果的効果を引き起こす1つ以上の動的物体を分類することができる。因果性識別アプリケーション106の機能は、アプリケーション106が単に画像フレームレベルにおける戦略的な挙動ラベル(例えば、前進、停止、直進、左折、右折など)を必要とするので、最小限の注釈を必要とする。したがって、運転シーンの撮像画像フレーム毎に重要な物体位置を分類し、ラベル化する必要はない。
図2A~2Dを参照すると、因果性識別アプリケーション106の機能の例示的な例であり、因果性識別アプリケーション106は、自車両102の運転シーンの画像200を受信するように構成されていてもよい。図示するように、図2A及び図2Bの運転シーンの俯瞰図において、運転シーンは、自車両102よりも前方、かつ自車両102に隣接して位置する追加の車両として構成されている動的物体202~208を含んでもよい。自車両102を停止する運転挙動に基づいて、自車両102は、動的物体202の後方で停止するように操作される。
例示的な実施形態では、画像200を受信すると、因果性識別アプリケーション106が、動的物体202~208のそれぞれを検出及び追跡するように構成されてもよい。アプリケーション106は、動的物体202~208のそれぞれに独立してマスクを適用して、画像200からそれらを電子的に除去し、それによって画像200を修復するように構成されていてもよい。したがって、画像200は、他の動的物体を更に含む一方で、動的物体202~208のうちの1つを独立して含まない運転シーンとして分析することができる。
図2Cに示すように、例えば、動的物体202は、運転シーンから除去されるようにマスクされ、他方の動的物体204~208は運転シーン内に残る。それにより、アプリケーション106は、それぞれの動的物体202~208の各々についてこのマスキングを完了し、運転シーンを評価して、それぞれの動的物体202のそれぞれの除去に基づいて、運転挙動の変化レベル又は停止を判定するように構成されている。したがって、因果性識別アプリケーション106は、動的物体202~208のそれぞれが存在しない運転シーンを独立して分析し、停止運転挙動に対して変化レベルを判定してもよい。
図2A及び2Bに示すように、動的物体204~208は、自車両102の周辺に位置し、アプリケーション106は、それによって、運転シーンからのそれらの除去が、自車両102を停止させる運転挙動に対して高い変化レベルをもたらさない可能性があると判定することができる。つまり、アプリケーション106は、動的物体204~208が運転シーン内に含まれていなかった場合、動的物体202が自車両102よりも先に停止しているため、自車両102を停止させる運転挙動が高度に変化しない可能性があると判定することができる。
一方、図2C及び図2Dに示すように、因果性識別アプリケーション106は、自車両102の経路が遮断されなくなったため、動的物体202の電子的な除去に基づいて、自車両102の停止運転挙動に対する高い変化レベルを判定することができる。したがって、因果性識別アプリケーション106は、運転シーン内でのそれぞれの存在に基づいて、停止から非停止/加速という運転挙動の変化に関連する変化レベルに基づいて、動的物体202に対して最も高い因果性スコアを割り当ててもよく、かつ動的オブジェクト204~208の各々に対して、より低い因果性スコアを割り当ててもよい。因果性識別アプリケーション106は、特定の動的物体202を、自車両102を停止する運転挙動に対して最も実質的な因果的効果をもたらし得る危険物体として、更に分類してもよい。
再び図1を参照すると、ECU104に加えて、自車両102はまた、車両カメラシステム110及び記憶ユニット112を含む複数の構成要素を含んでもよい。1つ以上の実施形態では、ECU104は、マイクロプロセッサ、1つ以上の特定用途向け集積回路(複数可)(application-specific integrated circuit、ASIC)、又は他の同様のデバイスを含んでもよい。ECU104はまた、内部処理メモリ、インターフェース回路、及びデータを転送し、コマンドを送信し、自車両102の複数の構成要素と通信するためのバスラインを含むことができる。ECU104はまた、自車両102内で(例えば、1つ以上の構成要素間で)データを内部に送信し、外部ホスト型コンピューティングシステム(例えば、自車両102の外部)と通信するための通信デバイス(図示せず)を含んでもよい。
車両カメラシステム110は、自車両102の周囲環境の1つ以上の画像(例えば、自車両102が走行している車道の画像)を捕捉するために、1つ以上の方向で、かつ1つ以上のエリアにおいて位置決めされ得るカメラ(図示せず)のうちの1つ以上を含み得る。車両カメラシステム110の1つ以上のカメラは、限定されるものではないが、自車両ダッシュボード、自車両バンパ、自車両前方照明ユニット、自車両フェンダ、及びフロントガラスの異なる部分を含む、自車両102の外部前部分に配設され得る。一実施形態では、1つ以上のカメラは、RGB映像/画像を捕捉し得るRGBカメラとして構成されてもよい。1つ以上のカメラは、物体の外観に関する豊富な情報、並びに自車両102と自車両102の周囲環境内の動的物体との間の相互作用を捕捉するように構成することができる。
他の実施形態では、1つ以上のカメラは、三次元画像の形態で、環境情報を捕捉するように構成された立体カメラとして構成されてもよい。1つ以上の構成では、1つ以上のカメラは、RGB画像/映像として自車両102の運転シーンを捕捉するように構成されてもよい。車両カメラシステム110は、1つ以上のRGB画像/映像(例えば、画像のシーケンス)を、分析すべき因果性に対して伝達される画像データに変換するように構成されていてもよい。
概して、ECU104は、記憶ユニット112内に記憶される1つ以上のアプリケーション、オペレーティングシステム、自車両システム、及びサブシステムユーザインターフェースなどを実行するために、記憶ユニット112と通信してもよい。一実施形態では、記憶ユニット112は物体データセット114を記憶してもよい。物体データセット114は、様々な種類の運転シーン(例えば、2車線幹線道路、3車線幹線道路、交差点、入口/出口ランプ、車道サークル)、様々な種類の運転シーン内の動的物体の様々な位置、様々な種類の運転シーン内の様々な動的物体に関連付けられた因果性スコア、及び適用可能な場合には、危険物体としての様々な動的物体の指定に関連する電子データセットとして構成されていてもよい。説明したように、自車両102の運転シーン内に位置する動的物体のそれぞれに関連付けられた因果性スコアを決定し、各運転シーンの危険物体を分類すると、因果性識別アプリケーション106は、物体データセット114にアクセスして、物体データセット114に、運転シーンの種類、様々な種類の運転シーン内の動的物体の様々な位置、様々な種類の運転シーン内の様々な動的物体に関連付けられた因果性スコア、及び適用可能であれば、様々な動的物体の危険物体としての指定を入力するように構成されていてもよい。
いくつかの実施形態では、因果性識別アプリケーション106は、物体データセット114にアクセスして記憶されているデータを検索し、物体データセット114に記憶されているものと類似の種類の運転シーンにおいて類似の位置にある動的物体に危険スコアを効率的に割り当てるように構成されてもよい。したがって、物体データセット114は、1つ以上の将来の時点において、様々な運転シーンに位置する様々な動的物体に危険スコアを割り当てるために、様々なノードに関連付けられたモデルとして構成されてもよい。したがって、因果性識別アプリケーション106が、動的物体のそれぞれの除去に対して運転挙動に関連付けられた変化レベルを分析する反復処理と、変化レベルに基づいて、運転挙動の因果関係に関連付けられた因果性スコアを割り当てることと、1つ以上の動的物体を危険物体として割り当てることと、を実行すると、アプリケーション106は、物体データセット114上にそれぞれのデータを記憶することができる。一つ以上の将来の時点で、因果性識別アプリケーション106は、それによって、対話型プロセスを実行することなく、物体データセット114上に記憶されている類似の種類の運転シーンにおける類似の位置にある動的物体に危険スコアを割り当てることができる。
いくつかの実施形態では、因果性識別アプリケーション106は、様々な種類の運転シーンにおける様々な動的物体に関連付けられた因果性スコア及び様々な動的物体の危険物体としての指定に基づいて、1つ以上の運転挙動を実行するように、自車両102の1つ以上の車両システム及び/又は制御ユニット(図示せず)を制御するように、1つ以上のコマンドをECU104に送信することによって、自車両102の自律/半自律動作を制御するために利用され得る入力を提供するように構成されていてもよい。
例示的な実施形態では、記憶ユニット112は、ニューラルネットワーク108を記憶するように構成され得る。ニューラルネットワーク108は、車両カメラシステム110によって提供される画像フレームを分析するように構成されている畳み込みニューラルネットワーク(Convolutional Neural Networks、CNN)として構成されてもよい。一実施形態では、ニューラルネットワーク108は、処理ユニット116によって制御されてもよい。処理ユニット116は、画像データの形態で入力されたデータを分析するために機械学習/深層学習を利用するように、かつマスクR-CNN120及び長・短期記憶モジュール(Long short-term memory、LSTM)118を利用して人工知能機能を提供するように構成されていてもよい。以下に説明するように、マスクR-CNN 120は、各運転シーン内に含まれる全ての動的物体を、時間を通して検出及び追跡するように構成されていてもよい。LSTM118は、時刻tにおいて、自車両特徴及び物体特徴を更新するように構成されていてもよい。
1つの構成では、因果性識別アプリケーション106は、車両カメラシステム110によって提供される画像データに関連付けられた画像フレームから抽出された各運転シーン上で、バイナリマスク及び物体トラックレットのシーケンスを実行するためにニューラルネットワーク108を利用するように構成されていてもよい。ニューラルネットワーク108は、自車両102に関連付けられた自機能を得るために、部分的畳み込み及び平均プーリングを完了するように構成されていてもよい。ニューラルネットワーク108は、動的物体を含む各画像フレームの部分のそれぞれの周囲の境界ボックスを計算することにより、関心領域プーリングアライン(Region of Interest pooling Align、ROI Align)を実行してもよい。ニューラルネットワーク108は、それによって、動的物体のそれぞれに関連付けられた画像フレームの関心領域を等しいサイズのボックスに分割して、動的物体特徴を判定するために、それらに対して双線形補間を適用することができる。ニューラルネットワーク108はまた、各特徴を時間的にモデル化するように構成されていてもよく、かつ各運転シーンの視覚的表現を形成するために情報を伝播して、畳み込みマスクを使用して個別にマスクされ、トラックレットから除去される、動的物体のそれぞれの除去に対して、運転挙動に関連した変化レベルを分析するための反復処理を実行してもよい。したがって、ニューラルネットワーク108の機能は、因果性識別アプリケーション106が、変化レベルに基づいて、運転挙動との因果関係に関連付けられた因果性スコアを割り当て、1つ以上の動的物体を危険物体として更に分類することを可能にする。
II.危険物体の因果性識別アプリケーション及び関連方法
因果性識別アプリケーション106の構成要素を、例示的な実施形態に従い、図1を参照して説明する。例示的な実施形態では、因果性識別アプリケーション106は、記憶ユニット112上に記憶され、自車両102のECU104によって実行され得る。別の実施形態では、因果性識別アプリケーション106は、外部ホスト型コンピューティングインフラストラクチャ上に記憶され得、自車両102のテレマティクス制御ユニット(図示せず)によってアクセスされて、自車両102のECU104によって実行され得る。
ここで、因果性識別アプリケーション106の一般的な機能について考察する。例示的な実施形態では、因果性識別アプリケーション106は、因果推論を用いた危険物体識別のために構成され得る複数のモジュール122~126を含んでもよい。複数のモジュール122~126は、データ受信モジュール122、物体マスキングモジュール124、及び因果性判定モジュール126を含んでもよい。しかしながら、因果性識別アプリケーション106は、モジュール122~126の代わりに含まれる1つ以上の追加のモジュール及び/又はサブモジュールを含み得ることが理解される。
図3は、本開示の例示的実施形態による、動的物体のそれぞれの除去に対する運転挙動に関連付けられた変化のレベルを分析し、1つ以上の動的物体を危険物体として分類する反復処理の方法300のプロセスフロー図である。図3は、図1の構成要素を参照して説明されるが、図3の方法300は、他のシステム/構成要素と共に使用されてもよいことを理解されたい。方法300は、ブロック302に進み得、ここで方法300は、自車両102の周囲環境と関連付けられた画像を受信することを含んでもよい。
例示的な実施形態では、因果性識別アプリケーション106のデータ受信モジュール122は、自車両102の車両カメラシステム110によって提供され得る、自車両102の周囲環境の捕捉された画像と関連付けられ得る画像データを受信するように構成されてもよい。上述のように、画像データは、車両カメラシステム110に動作可能に接続された1つ以上のカメラによって捕捉された、自車両102の周囲環境内に位置する動的物体の1つ以上のRGB画像/映像に関連してもよい。いくつかの実施形態では、データ受信モジュール122は、1つ以上の時点において評価されるように、記憶ユニット112上に画像データをパッケージ化し、記憶してもよい。
方法300は、ブロック304に進み得、ここで方法300は、自車両102の運転シーン内で動的物体を検出し、追跡することを含んでもよい。一実施形態では、データ受信モジュール122は、画像データを評価するように構成されていてもよく、自車両102の運転シーンを含む画像データから画像フレームを抽出してもよい。一実施形態では、データ受信モジュール122は、時刻tにおいて捕捉された特定の画像フレーム、時刻tの前(例えば、t-1、t-2、t-n)に捕捉された複数の画像フレーム、及び現在の時刻tの後(例えば、t+1、t+2、t+n)に捕捉された複数の画像フレームを評価し、停止、進入継続/加速、直進、右折、左折、右合流、左合流などを含むがこれらに限定されない、自車両102の1つ以上の運転挙動を検出するように構成されていてもよい。データ受信モジュール122は、更に、ニューラルネットワーク108を利用して、時刻tにおける画像フレーム内で捕捉された自車両102の走行シーン内に位置し得る1つ以上の動的物体を検出し、追跡するように構成されていてもよい。
具体的には、データ受信モジュール122は、ニューラルネットワーク108を利用して、画像フレーム内に含まれる動的物体のそれぞれの周りのそれぞれの境界ボックスを計算するように構成されていてもよい。換言すれば、ニューラルネットワーク108は、運転シーン内に位置する動的物体のそれぞれの周囲の境界ボックスを計算するように構成されていてもよい。1つの構成では、マスクR-CNN120及びディープソート(図示せず)を適用し、時間を通してあらゆる動的物体を検出及び追跡することができる。上述のように、動的物体表現を抽出するために、ROIアラインを用いてもよい。時刻tにおいて、自車両特徴及び動的物体特徴は、LSTM118を用いて更新される。したがって、ニューラルネットワーク108によって実行されるこの時間モデリング処理は、自車両102のダイナミクスと運転シーン内に位置する動的物体を捕捉し、ニューラルネットワーク108は、検出及び追跡データをデータ受信モジュール122に出力することができる。
引き続き図3を参照すると、方法300は、ブロック306に進むことができ、方法300は、動的物体のそれぞれの上でマスクを実施することを含み得る。例示的な実施形態では、ニューラルネットワーク108からの検出及び追跡データを受信すると、データ受信モジュール122は、それぞれのデータを因果性識別アプリケーション106の物体マスキングモジュール124に通信するように構成されていてもよい。物体マスキングモジュール124は、ニューラルネットワーク108を利用して、機械学習/深層習処理を実行して、運転シーン内に位置する動的物体のそれぞれを含む、境界ボックスのそれぞれの中にカプセル化された画像フレームの画素のサブセット上に1チャネルバイナリマスクを提供するように構成されていてもよい。
例示的な実施形態では、ニューラルネットワーク108は、各動的物体が単独で除去され、その除去が分析されて、特定の除去された動的物体に対して運転挙動の変化レベルを出力するように、動的物体のそれぞれに独立して関連付けられた画素のそれぞれを電子的に除去し、置換するために画像修復を完了させることができる。特に、ニューラルネットワーク108によって実行される画像修復は、各層において畳み込み結果がマスクされていない領域のみに依存するため、マスクされた領域でのハルシネーションを可能にする、マスク及び再正規化された畳み込み演算に基づいている。この演算は、介入のために各動的物体を独立して除去することを可能にする。
一実施形態では、マスクの画素値は、デフォルトで1に設定される。運転シーンから除去される動的物体の画素値は0に設定される。物体レベルの表現を得るために、ニューラルネットワーク108は、メッセージ受渡しを用いて(上述したように)LSTM118によって更新される自車両特徴及び物体特徴を集約するように構成されている。
Figure 0007042937000001
式中、gは集約された特徴として定義され、hは時間モデリング後に得られた自車両の特徴を表し、
Figure 0007042937000002
はN個の物体特徴であり、
Figure 0007042937000003
は連結演算を示す。
1つの構成では、物体レベルにおける表現を操作するために、ニューラルネットワーク108は、電子的に除去された動的物体の位置において、値を0に設定する。マスクは、部分的な畳み込みから抽出された特徴に影響を及ぼし、選択された物体のメッセージを残りの部分から切り離す。最後に、この表現gは、完全に接続された層を通過し、ドライバー挙動の最終的な分類が得られる。
方法300は、ブロック308に進んでもよく、方法300は、動的物体の各々に対して運転挙動に関連付けられた変化レベルを分析することと、動的物体のそれぞれに関連付けられた因果性スコアを割り当てることを含んでもよい。例示的な実施形態では、運転シーン内に含まれる各動的物体が除去されると、物体マスキングモジュール124が、特定の動的物体の除去に関するデータを、因果性識別アプリケーション106の因果性判定モジュール126に通信するように構成されていてもよい。
一実施形態では、因果判定決定モジュール126は、トレーニング運転モデルを用いて分析されるように、ニューラルネットワーク108を通して、各除去された動的物体のない運転シーンを通過させるように構成されていてもよい。ニューラルネットワーク108は、それによって、2つの代替的な運転挙動(例えば、停止/前進)の予測因果性スコアを出力してもよく、運転シーンを分析して、画像フレームに含まれる運転シーンから電子的に除去されるように、動的物体の存在下での動的物体の存在下、及び動的物体の非存在下での2つの運転挙動に関連する変化レベルを判定してもよい。換言すれば、因果性判定モジュール126は、動的物体のそれぞれの除去に対する運転挙動に関連付けられた変化レベルを分析することができ、それによって、変化レベルに基づいて運転挙動との因果関係に関連付けられた因果性スコアを割り当ててもよい。
具体的には、ニューラルネットワーク108は、因果性判定モジュール126が、自車両102の運転シーン内に位置する動的物体それぞれの間の因果関係のレベル、及び自車両102の動作に対して呈された特定の運転挙動を判定することを可能にし得る。因果性判定モジュール126は、動的物体のそれぞれの除去に対する運転挙動に関連付けられた変化レベルを分析し、それによって、各動的物体に関連付けられた因果性スコアを割り当てるように構成されていてもよい。因果性スコアは、静的物体のそれぞれの電子的除去に関連する変化レベルに基づいて、各動的物体の存在と特定の運転挙動(例えば、停止対前進)との間の因果関係に関連付けられていてもよい(例えば、特定の運転物体の存在がなければ、自車両102は停止せず、前進し得る)。
説明されるように、因果性スコアは、因果関係レベルに関連付けられ得る範囲の一部として含まれてもよい。したがって、運転シーン内の動的物体のそれぞれは、運転挙動の変化レベルにおける影響のその独立した電子的除去及び分析時に、それぞれの因果性スコアが割り当てられてもよい。ニューラルネットワーク108は、自車両102の運転シーン内に位置し得る周辺の動的物体よりも、より高い影響レベルを有する動的物体に、より高い因果性スコアを有する運転挙動を割り当てるように構成されていてもよい。
引き続き図3を参照すると、方法300は、ブロック310に進むことができ、方法300は、1つ以上の危険物体を判定することを含み得る。例示的な実施形態では、運転シーン内に含まれる動的物体のそれぞれに関連付けられた因果性スコアを割り当てると、因果性判定ジュール126は、最も高い因果性スコアが割り当てられた自車両102の運転シーン内に位置する動的物体のうちの1つ以上を判定するように構成されていてもよい。因果性判定モジュール126は、最も高い因果性スコアが割り当てられた1つ以上のそれぞれの物体を、危険物体として更に分類してもよい。換言すれば、因果判定モジュール126は、運転挙動に対して最も実質的な因果的効果をもたらす1つ以上の動的物体を、危険物体として分類してもよい。
図4は、本開示の例示的な実施形態による、因果推論を用いた危険物体識別のための方法400のプロセスフロー図である。図4は、図1の構成要素を参照して説明されるが、図4の方法400は、他のシステム/構成要素と共に使用されてもよいことを理解されたい。方法400は、ブロック402において開始することができ、方法400は、自車両102と関連付けられた運転シーンの少なくとも1つの画像を受信することを含み得る。
方法400は、ブロック404に進み得、方法400は、少なくとも1つの画像を分析し、自車両102の運転シーン内で動的物体を検出し、追跡することを含み得る。方法400は、ブロック406に進むことができ、方法400は、少なくとも1つの画像内に捕捉された動的物体のそれぞれを除去するためのマスクを実施することを含み得る。方法400は、ブロック408に進むことができ、方法400は、動的物体のそれぞれの除去に対する運転挙動に関連付けられた変化レベルを分析することを含み得る。一実施形態では、少なくとも1つの動的物体は、運転挙動に対して最も高い影響レベルを有する危険物体として識別される。
上述の説明から、本発明の様々な例示的な実施形態がハードウェアで実施され得ることが明らかであるべきである。更に、様々な例示的な実施形態は、本明細書で詳細に説明される操作を行うために少なくとも1つのプロセッサによって読み取り及び実行され得る、揮発性又は不揮発性メモリなどの非一時的機械可読記憶媒体上に記憶された命令として実施されてもよい。機械可読記憶媒体は、パーソナルコンピュータ又はラップトップコンピュータ、サーバ、又は他のコンピューティングデバイスなどの機械によって読み取り可能な形態で情報を記憶するための任意の機構を含んでもよい。したがって、非一時的機械可読記憶媒体は、一時信号を除外するが、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光学記憶媒体、フラッシュメモリデバイス、及び同様の記憶媒体を含むがこれらに限定されない揮発性及び不揮発性メモリの両方を含んでもよい。
本明細書の任意のブロック図は、本発明の原理を具現化する例示的な回路の概念図を表すことを当業者は理解すべきである。同様に、任意のフローチャート、フロー図、状態遷移図、擬似コードなどは、そのようなコンピュータ又はプロセッサが明示的に示されているか否かにかかわらず、機械可読媒体に実質的に表され、コンピュータ又はプロセッサによって実行され得る様々なプロセスを表すことが理解されるであろう。
上記に開示された及び他の特徴並びに機能又はこれらの代替物若しくは変形の様々な実施が、望ましくは多くの他の異なるシステム又はアプリケーションに組み合わされ得ることが理解されるであろう。また、当業者であれば、現在予測されていない、又は予期されていない様々な代替例、修正例、変形例、又は改良例を連続的に行うことができ、これらも添付の特許請求の範囲によって包含されることが意図される。

Claims (20)

  1. 因果推論を用いた危険物体識別のためのコンピュータ実施方法であって、
    自車両の運転シーンの少なくとも1つの画像を受信することと、
    前記少なくとも1つの画像を分析して、前記自車両の前記運転シーン内の動的物体を検出及び追跡することと、
    前記少なくとも1つの画像内に捕捉された前記動的物体のそれぞれを除去するためのマスクを実施することと、
    前記動的物体のそれぞれの除去に対する運転挙動に関連付けられた変化レベルを分析することであって、少なくとも1つの動的物体が、前記運転挙動に対して最も高い影響レベルを有する危険物体として識別される、分析することと、を含む、コンピュータ実施方法。
  2. 前記少なくとも1つの画像を受信することが、前記自車両の周囲環境のRGB画像を受信することと、前記動的物体を含む前記自車両の前記運転シーンを含む画像フレームを抽出することと、を含み、前記動的物体が、前記運転シーン内に位置する交通参加者を含む、請求項1に記載のコンピュータ実施方法。
  3. 前記少なくとも1つの画像を分析することが、画像フレーム内に含まれる各動的物体の周囲の境界ボックスを計算することと、ニューラルネットワークによって実行される時間モデリングプロセスを実行して、前記自車両及び前記動的物体を検出及び追跡することと、を含む、請求項1に記載のコンピュータ実施方法。
  4. 前記動的物体のそれぞれを除去するために前記マスクを実施することが、前記運転シーン内に位置する各動的物体を含む前記境界ボックス内にカプセル化された前記画像フレームの画素のサブセット上に1チャネルバイナリマスクを提供するための機械学習処理を実行することを含む、請求項3に記載のコンピュータ実施方法。
  5. 前記ニューラルネットワークが、前記動的物体のそれぞれに関連付けられた画素のそれぞれを独立して電子的に除去し、置換するために画像修復を完了し、前記ニューラルネットワークによって実行される前記画像修復が、マスクされた領域内でハルシネーションを可能にするマスクされ、かつ再正規化された畳み込み演算に基づく、請求項4に記載のコンピュータ実施方法。
  6. 前記マスクが、部分畳み込みから抽出された特徴に影響を及ぼし、前記除去された動的物体のメッセージを前記運転シーンの残りの部分から切り離す、請求項1に記載のコンピュータ実施方法。
  7. 前記変化レベルを分析することが、前記動的物体が前記運転シーンから除去されるときに、前記動的物体が存在する場合と、前記動的物体が存在しない場合との2つの運転挙動に関連する前記変化レベルを判定することを含む、請求項1に記載のコンピュータ実施方法。
  8. 前記動的物体のそれぞれに、前記変化レベルに基づいて、前記運転挙動との因果関係に関連付けられた、因果性スコアが割り当てられる、請求項7に記載のコンピュータ実施方法。
  9. 前記運転シーン内に含まれる追加の動的物体と比較して、前記少なくとも1つの動的物体に最も高い因果性スコアが割り当てられていると判定することに基づいて、前記少なくとも1つの動的物体が前記危険物体として識別される、請求項8に記載のコンピュータ実施方法。
  10. 因果推論を用いた危険物体識別のためのシステムであって、
    命令を記憶しているメモリを備え、前記命令が、プロセッサによって実行されると、前記プロセッサに、
    自車両の運転シーンの少なくとも1つの画像を受信することと、
    前記少なくとも1つの画像を分析して、前記自車両の前記運転シーン内の動的物体を検出及び追跡することと、
    前記少なくとも1つの画像内に捕捉された前記動的物体のそれぞれを除去するためのマスクを実施することと、
    前記動的物体のそれぞれの除去に対する運転挙動に関連付けられた変化レベルを分析することであって、少なくとも1つの動的物体が、前記運転挙動に対して最も高い影響レベルを有する危険物体として識別される、分析することと、を行わせる、システム。
  11. 前記少なくとも1つの画像を受信することが、前記自車両の周囲環境のRGB画像を受信することと、前記動的物体を含む前記自車両の前記運転シーンを含む画像フレームを抽出することと、を含み、前記動的物体が、前記運転シーン内に位置する交通参加者を含む、請求項10に記載のシステム。
  12. 前記少なくとも1つの画像を分析することが、画像フレーム内に含まれる各動的物体の周囲の境界ボックスを計算することと、ニューラルネットワークによって実行される時間モデリングプロセスを実行して、前記自車両及び前記動的物体を検出及び追跡することと、を含む、請求項10に記載のシステム。
  13. 前記動的物体のそれぞれを除去するために前記マスクを実施することが、前記運転シーン内に位置する各動的物体を含む前記境界ボックス内にカプセル化された前記画像フレームの画素のサブセット上に1チャネルバイナリマスクを提供するための機械学習処理を実行することを含む、請求項12に記載のシステム。
  14. 前記ニューラルネットワークが、前記動的物体のそれぞれに関連付けられた画素のそれぞれを独立して電子的に除去し、置換するために画像修復を完了し、前記ニューラルネットワークによって実行される前記画像修復が、マスクされた領域内でハルシネーションを可能にするマスクされ、かつ再正規化された畳み込み演算に基づく、請求項13に記載のシステム。
  15. 前記マスクが、部分畳み込みから抽出された特徴に影響を及ぼし、前記除去された動的物体のメッセージを前記運転シーンの残りの部分から切り離す、請求項10に記載のシステム。
  16. 前記変化レベルを分析することが、前記動的物体が前記運転シーンから除去されるときに、前記動的物体が存在する場合と、前記動的物体が存在しない場合との2つの運転挙動に関連する前記変化レベルを判定することを含む、請求項10に記載のシステム。
  17. 前記動的物体のそれぞれに、前記変化レベルに基づいて、前記運転挙動との因果関係に関連付けられた、因果性スコアが割り当てられる、請求項16に記載のシステム。
  18. 前記運転シーン内に含まれる追加の動的物体と比較して、前記少なくとも1つの動的物体に最も高い因果性スコアが割り当てられていると判定することに基づいて、前記少なくとも1つの動的物体が前記危険物体として識別される、請求項17に記載のシステム。
  19. 命令を記憶している非一時的コンピュータ可読記憶媒体であって、前記命令がコンピュータによって実行されると、プロセッサが方法を実行し、前記方法が、
    自車両の運転シーンの少なくとも1つの画像を受信することと、
    前記少なくとも1つの画像を分析して、前記自車両の前記運転シーン内の動的物体を検出及び追跡することと、
    前記少なくとも1つの画像内に捕捉された前記動的物体のそれぞれを除去するためのマスクを実施することと、
    前記動的物体のそれぞれの除去に対する運転挙動に関連付けられた変化レベルを分析することであって、少なくとも1つの動的物体が、前記運転挙動に対して最も高い影響レベルを有する危険物体として識別される、分析することと、を含む、非一時的コンピュータ可読記憶媒体。
  20. 前記運転シーン内に含まれる追加の動的物体と比較して、前記変化レベルに基づく前記運転挙動との因果関係に関連付けられた、最も高い因果性スコアが前記少なくとも1つの動的物体に割り当てられていると判定することに基づいて、前記少なくとも1つの動的物体が前記危険物体として識別される、請求項19に記載の非一時的コンピュータ可読記憶媒体。
JP2021018598A 2020-02-26 2021-02-08 因果推論を用いた危険物体識別のためのシステム及びその方法 Active JP7042937B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202062981785P 2020-02-26 2020-02-26
US62/981,785 2020-02-26
US16/916,428 2020-06-30
US16/916,428 US11544935B2 (en) 2020-02-26 2020-06-30 System for risk object identification via causal inference and method thereof

Publications (2)

Publication Number Publication Date
JP2021136020A JP2021136020A (ja) 2021-09-13
JP7042937B2 true JP7042937B2 (ja) 2022-03-28

Family

ID=77365292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021018598A Active JP7042937B2 (ja) 2020-02-26 2021-02-08 因果推論を用いた危険物体識別のためのシステム及びその方法

Country Status (3)

Country Link
US (1) US11544935B2 (ja)
JP (1) JP7042937B2 (ja)
CN (1) CN113312954A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018121879A (ja) * 2017-01-31 2018-08-09 株式会社三洋物産 遊技機
US11727576B2 (en) * 2020-12-18 2023-08-15 Qualcomm Incorporated Object segmentation and feature tracking
CN115796589B (zh) * 2022-12-05 2023-09-29 三亚学院 纯电动汽车三电系统风险隐患灵敏度分析方法
US11748664B1 (en) * 2023-03-31 2023-09-05 Geotab Inc. Systems for creating training data for determining vehicle following distance

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003169323A (ja) 2001-11-29 2003-06-13 Clarion Co Ltd 車両周囲監視装置
WO2011114442A1 (ja) 2010-03-16 2011-09-22 トヨタ自動車株式会社 運転支援装置
US20180253622A1 (en) 2017-03-06 2018-09-06 Honda Motor Co., Ltd. Systems for performing semantic segmentation and methods thereof
US20210171061A1 (en) 2018-06-25 2021-06-10 Robert Bosch Gmbh Adaptation of the trajectory of an ego vehicle to moving extraneous objects

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2654028B1 (en) 2012-04-20 2018-09-26 Honda Research Institute Europe GmbH Orientation sensitive traffic collision warning system
US9904852B2 (en) * 2013-05-23 2018-02-27 Sri International Real-time object detection, tracking and occlusion reasoning
DE102015211736A1 (de) 2015-06-24 2016-12-29 Bayerische Motoren Werke Aktiengesellschaft Engstellenassistenzsystem in einem Kraftfahrzeug
WO2018019354A1 (en) * 2016-07-25 2018-02-01 Swiss Reinsurance Company Ltd. An apparatus for a dynamic, score-based, telematics connection search engine and aggregator and corresponding method thereof
US10657388B2 (en) * 2018-03-13 2020-05-19 Honda Motor Co., Ltd. Robust simultaneous localization and mapping via removal of dynamic traffic participants
JP7057717B2 (ja) 2018-05-28 2022-04-20 日本放送協会 位相差検出器及び画像処理装置、並びにプログラム
US11205082B2 (en) 2019-10-08 2021-12-21 Toyota Research Institute, Inc. Spatiotemporal relationship reasoning for pedestrian intent prediction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003169323A (ja) 2001-11-29 2003-06-13 Clarion Co Ltd 車両周囲監視装置
WO2011114442A1 (ja) 2010-03-16 2011-09-22 トヨタ自動車株式会社 運転支援装置
US20180253622A1 (en) 2017-03-06 2018-09-06 Honda Motor Co., Ltd. Systems for performing semantic segmentation and methods thereof
US20210171061A1 (en) 2018-06-25 2021-06-10 Robert Bosch Gmbh Adaptation of the trajectory of an ego vehicle to moving extraneous objects

Also Published As

Publication number Publication date
US20210264167A1 (en) 2021-08-26
CN113312954A (zh) 2021-08-27
JP2021136020A (ja) 2021-09-13
US11544935B2 (en) 2023-01-03

Similar Documents

Publication Publication Date Title
JP7042937B2 (ja) 因果推論を用いた危険物体識別のためのシステム及びその方法
US11034357B2 (en) Scene classification prediction
CN110909587B (zh) 场景分类
US11584379B2 (en) System and method for learning naturalistic driving behavior based on vehicle dynamic data
US10482334B1 (en) Driver behavior recognition
CN110895674B (zh) 用于基于自我中心视觉的未来车辆定位的系统和方法
CN111050116B (zh) 利用时间递归网络进行在线动作检测的系统和方法
US11042156B2 (en) System and method for learning and executing naturalistic driving behavior
US11886506B2 (en) System and method for providing object-level driver attention reasoning with a graph convolution network
JP7126575B2 (ja) 運転者中心危険評価:意図認識運転モデルを用いた因果推論を介する危険物体識別
JP7072030B2 (ja) アクション事前分布を使用して将来予測するためのシステム及び方法
US11370446B2 (en) System and method for learning and predicting naturalistic driving behavior
US11845464B2 (en) Driver behavior risk assessment and pedestrian awareness
US11150656B2 (en) Autonomous vehicle decision making
US20220144260A1 (en) System and method for completing risk object identification
CN115376095A (zh) 用于在驾驶场景中完成联合风险定位和推理的系统和方法
CN113312955A (zh) 用于执行交叉口情景检索的系统及其方法
US20230256973A1 (en) System and method for predicting driver situational awareness
Hamad et al. How Do Drivers Behave at Roundabouts in a Mixed Traffic? A Case Study Using Machine Learning
CN116486583A (zh) 汽车并线预警方法、系统、设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220315

R150 Certificate of patent or registration of utility model

Ref document number: 7042937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150