JP6833936B2 - 自己中心映像に基づく将来の車両位置特定のためのシステム及び方法 - Google Patents
自己中心映像に基づく将来の車両位置特定のためのシステム及び方法 Download PDFInfo
- Publication number
- JP6833936B2 JP6833936B2 JP2019156911A JP2019156911A JP6833936B2 JP 6833936 B2 JP6833936 B2 JP 6833936B2 JP 2019156911 A JP2019156911 A JP 2019156911A JP 2019156911 A JP2019156911 A JP 2019156911A JP 6833936 B2 JP6833936 B2 JP 6833936B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- future
- self
- past
- hidden state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 115
- 230000003287 optical effect Effects 0.000 claims description 57
- 230000033001 locomotion Effects 0.000 claims description 43
- 230000015654 memory Effects 0.000 claims description 29
- 230000004927 fusion Effects 0.000 claims description 20
- 238000011176 pooling Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 description 46
- 230000008569 process Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000012546 transfer Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G06Q50/40—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Tourism & Hospitality (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Human Computer Interaction (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
Description
I.システムの概要
II.将来の車両位置特定アプリケーション及び関連方法
X={x t0− τ +1 ,x t0− τ +2..., x t0 }
式中、x t= [x t, y t, w t, h t ]は、時間t(フレーム)における各交通参加者の境界ボックスの画素座標を、画素のその幅及び高さと共に含む。
O t= [u 1 ,v 1 ,u 2 ,v 2 ,u 2 ,...u n ,v n ] t ,
式中、nはプール化された領域のサイズである。1つ以上の実施形態では、プール化操作206を完了すると、過去のデータ符号化モジュール130は、密なオプティカルフローフィールド204及び車両102の周囲環境内に位置する1つ以上の交通参加者のそれぞれの過去の境界ボックス軌道202からの双線形補間に基づいてプール化データを出力することができる。過去のデータ符号化モジュール130は、以下に説明するように、別の完全に接続された層208bに、ニューラルネットワーク処理ユニット122を通じてプール化データを更に運動エンコーダ126に入力してもよい。
Claims (20)
- 自己中心映像に基づく将来の車両位置特定のためのコンピュータ実装方法であって、
車両の周囲環境の少なくとも1つの自己中心一人称視点画像を受信することと、
前記少なくとも1つの自己中心一人称視点画像内にキャプチャされた少なくとも1つの交通参加者に関連付けられた少なくとも1つの過去の境界ボックス軌道を符号化することであって、前記少なくとも1つの過去の境界ボックス軌道の符号化の最終隠れ状態が出力される、符号化することと、
前記少なくとも1つの交通参加者に関連付けられた前記自己中心一人称視点画像の密なオプティカルフローを符号化することであって、前記密なオプティカルフロー符号化の最終隠れ状態が出力される、符号化することと、
前記少なくとも1つの過去の境界ボックス軌道符号化の前記最終隠れ状態及び前記密なオプティカルフロー符号化の前記最終隠れ状態に基づいて、前記少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスを復号することと、
前記少なくとも1つの交通参加者に関連付けられた前記少なくとも1つの将来の境界ボックスに基づいて、自律的に運転されるように前記車両を制御することと、を含む、コンピュータ実装方法。 - 前記少なくとも1つの自己中心一人称視点画像を受信することが、対象物に関連する少なくとも1つの時空間的特徴を抽出することと、少なくとも1つの交通参加者モデルに対する前記対象物の画素位置及びスケールの比較に基づいて、前記対象物を前記少なくとも1つの交通参加者として分類することと、を含む、請求項1に記載のコンピュータ実装方法。
- 前記少なくとも1つの過去の境界ボックス軌道を符号化することが、分類された前記少なくとも1つの交通参加者の周りの少なくとも1つの境界ボックスを計算することを含み、少なくとも1つの過去の軌道が、前記少なくとも1つの過去の境界ボックスに基づいて計算される、請求項2に記載のコンピュータ実装方法。
- 前記少なくとも1つの過去の境界ボックス軌道を符号化することが、前記少なくとも1つの交通参加者の前記少なくとも1つの自己中心一人称視点画像の画素内の幅及び高さと共に、前記少なくとも1つの交通参加者の境界ボックスの画素座標によって指定された画素位置及びスケールに基づいて、前記少なくとも1つの交通参加者の過去の位置、場所、及び軌道を一度に符号化することを含む、請求項3に記載のコンピュータ実装方法。
- 前記自己中心一人称視点画像の前記密なオプティカルフローを符号化することが、過去の画像フレームの画素のそれぞれに対する画素レベル情報を評価して、過去の画像フレームの前記密なオプティカルフローを決定することを含み、2つの連続する画像フレーム間の前記少なくとも1つの交通参加者の明らかな運動変化のパターンが、前記少なくとも1つの交通参加者の移動によって引き起こされる、請求項1に記載のコンピュータ実装方法。
- 前記自己中心一人称視点画像の前記密なオプティカルフローを符号化することが、オプティカルフローフィールド及び前記過去の境界ボックス軌道の対象領域のプール化を完了することを含み、前記少なくとも1つの交通参加者に関連付けられた特徴を抽出するために、対象領域が、境界ボックスから拡張され得る、請求項5に記載のコンピュータ実装方法。
- 前記少なくとも1つの過去の境界ボックス軌道符号化の前記最終隠れ状態と、前記密なオプティカルフロー符号化の前記最終隠れ状態とを融合することを更に含み、最終融合隠れ状態が、特定の時間にゲート化された反復単位モデルの隠れ状態ベクトルとして出力される、請求項1に記載のコンピュータ実装方法。
- 前記車両の将来の自己運動を推定することを更に含み、前記車両の前記将来の自己運動が、前記車両の意図された目的地、前記車両が走行しているレーン、交通信号のステータス、交通パターン、及び交通規制のうちの少なくとも1つに基づく自律運転計画によって決定される、請求項7に記載のコンピュータ実装方法。
- 前記少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスを復号することが、前記少なくとも1つの交通参加者に関連付けられた前記少なくとも1つの将来の境界ボックスを復号するために、前記最終融合隠れ状態及び前記車両の前記将来の自己運動を将来の位置特定デコーダに入力することを含む、請求項8に記載のコンピュータ実装方法。
- 自己中心映像に基づく将来の車両位置特定のためのシステムであって、
命令を記憶するメモリを含み、前記メモリは、プロセッサによって実行されると、
車両の周囲環境の少なくとも1つの自己中心一人称視点画像を受信することと、
前記少なくとも1つの自己中心一人称視点画像内にキャプチャされた少なくとも1つの交通参加者に関連付けられた少なくとも1つの過去の境界ボックス軌道を符号化することであって、前記少なくとも1つの過去の境界ボックス軌道の最終隠れ状態が出力される、符号化することと、
前記少なくとも1つの交通参加者に関連付けられた前記自己中心一人称視点画像の密なオプティカルフローを符号化することであって、前記密なオプティカルフロー符号化の最終隠れ状態が出力される、符号化することと、
前記少なくとも1つの過去の境界ボックス軌道符号化の前記最終隠れ状態及び前記密なオプティカルフロー符号化の前記最終隠れ状態に基づいて、前記少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスを復号することと、
前記少なくとも1つの交通参加者に関連付けられた前記少なくとも1つの将来の境界ボックスに基づいて、自律的に運転されるように前記車両を制御することと、を前記プロセッサに行わせる、システム。 - 前記少なくとも1つの自己中心一人称視点画像を受信することが、対象物に関連する少なくとも1つの時空間的特徴を抽出することと、少なくとも1つの交通参加者モデルに対する前記対象物の画素位置及びスケールの比較に基づいて、前記対象物を前記少なくとも1つの交通参加者として分類することと、を含む、請求項10に記載のシステム。
- 前記少なくとも1つの過去の境界ボックス軌道を符号化することが、分類された前記少なくとも1つの交通参加者の周りの少なくとも1つの境界ボックスを計算することを含み、少なくとも1つの過去の軌道が、前記少なくとも1つの過去の境界ボックスに基づいて計算される、請求項11に記載のシステム。
- 前記少なくとも1つの過去の境界ボックス軌道を符号化することが、前記少なくとも1つの交通参加者の前記少なくとも1つの自己中心一人称視点画像の画素内の幅及び高さと共に、前記少なくとも1つの交通参加者の境界ボックスの画素座標によって指定された画素位置及びスケールに基づいて、前記少なくとも1つの交通参加者の過去の位置、場所、及び軌道を一度に符号化することを含む、請求項12に記載のシステム。
- 前記自己中心一人称視点画像の前記密なオプティカルフローを符号化することが、過去の画像フレームの画素のそれぞれに対する画素レベル情報を評価して、過去の画像フレームの前記密なオプティカルフローを決定することを含み、2つの連続する画像フレーム間の前記少なくとも1つの交通参加者の明らかな運動変化のパターンが、前記少なくとも1つの交通参加者の移動によって引き起こされる、請求項10に記載のシステム。
- 前記自己中心一人称視点画像の前記密なオプティカルフローを符号化することが、オプティカルフローフィールド及び前記過去の境界ボックス軌道の対象領域のプール化を完了することを含み、前記少なくとも1つの交通参加者に関連付けられた特徴を抽出するために、対象領域が境界ボックスから拡張され得る、請求項14に記載のシステム。
- 前記少なくとも1つの過去の境界ボックス軌道符号化の前記最終隠れ状態と、前記密なオプティカルフロー符号化の前記最終隠れ状態とを融合することを更に含み、最終融合隠れ状態が、特定の時間にゲート化された反復単位モデルの隠れ状態ベクトルとして出力される、請求項10に記載のシステム。
- 前記車両の将来の自己運動を推定することを更に含み、前記車両の前記将来の自己運動が、前記車両の意図された目的地、前記車両が走行しているレーン、交通信号のステータス、交通パターン、及び交通規制のうちの少なくとも1つに基づく自律運転計画によって決定される、請求項16に記載のシステム。
- 前記少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスを復号することが、前記少なくとも1つの交通参加者に関連付けられた前記少なくとも1つの将来の境界ボックスを復号するために、前記最終融合隠れ状態及び前記車両の前記将来の自己運動を将来の位置特定デコーダに入力することを含む、請求項17に記載のシステム。
- 命令を記憶する非一時的コンピュータ可読記憶媒体であって、前記命令は、プロセッサを含むコンピュータによって実行されると、
車両の周囲環境の少なくとも1つの自己中心一人称視点画像を受信することと、
前記少なくとも1つの自己中心一人称視点画像内にキャプチャされた少なくとも1つの交通参加者に関連付けられた少なくとも1つの過去の境界ボックス軌道を符号化することであって、前記少なくとも1つの過去の境界ボックス軌道の符号化の最終隠れ状態が出力される、符号化することと、
前記少なくとも1つの交通参加者に関連付けられた前記自己中心一人称視点画像の密なオプティカルフローを符号化することであって、前記密なオプティカルフロー符号化の最終隠れ状態が出力される、符号化することと、
前記少なくとも1つの過去の境界ボックス軌道符号化の前記最終隠れ状態及び前記密なオプティカルフロー符号化の前記最終隠れ状態に基づいて、前記少なくとも1つの交通参加者に関連付けられた少なくとも1つの将来の境界ボックスを復号することと、
前記少なくとも1つの交通参加者に関連付けられた前記少なくとも1つの将来の境界ボックスに基づいて、自律的に運転されるように前記車両を制御することと、を含む方法を実行する、非一時的コンピュータ可読記憶媒体。 - 前記少なくとも1つの過去の境界ボックス軌道符号化の前記最終隠れ状態と、前記密なオプティカルフロー符号化の前記最終隠れ状態とを融合することを更に含み、最終融合隠れ状態が、特定の時間にゲート化された反復単位モデルの隠れ状態ベクトルとして出力される、請求項19に記載の非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862730788P | 2018-09-13 | 2018-09-13 | |
US62/730788 | 2018-09-13 | ||
US16/386,964 US11155259B2 (en) | 2018-09-13 | 2019-04-17 | System and method for egocentric-vision based future vehicle localization |
US16/386964 | 2019-04-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020042808A JP2020042808A (ja) | 2020-03-19 |
JP6833936B2 true JP6833936B2 (ja) | 2021-02-24 |
Family
ID=69772370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019156911A Active JP6833936B2 (ja) | 2018-09-13 | 2019-08-29 | 自己中心映像に基づく将来の車両位置特定のためのシステム及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11155259B2 (ja) |
JP (1) | JP6833936B2 (ja) |
CN (1) | CN110895674B (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11501441B2 (en) * | 2019-05-14 | 2022-11-15 | Aic Innovations Group, Inc. | Biomarker determination using optical flows |
KR20200132468A (ko) * | 2019-05-17 | 2020-11-25 | 삼성전자주식회사 | 첨단 운전자 지원 장치 및 이의 객체를 검출하는 방법 |
US11420625B2 (en) * | 2019-07-03 | 2022-08-23 | Ford Global Technologies, Llc | Vehicle intersection operation |
US11292458B2 (en) | 2019-07-31 | 2022-04-05 | Toyota Research Institute, Inc. | Autonomous vehicle user interface with predicted trajectories |
US11292457B2 (en) * | 2019-07-31 | 2022-04-05 | Toyota Research Institute, Inc. | Autonomous vehicle user interface with predicted trajectories |
US11328593B2 (en) | 2019-07-31 | 2022-05-10 | Toyota Research Institute, Inc. | Autonomous vehicle user interface with predicted trajectories |
KR20210030147A (ko) * | 2019-09-09 | 2021-03-17 | 삼성전자주식회사 | 3d 렌더링 방법 및 장치 |
US11416774B2 (en) * | 2019-10-23 | 2022-08-16 | Samsung Electronica Da Amazonia Ltda. | Method for video recognition capable of encoding spatial and temporal relationships of concepts using contextual features |
US11967106B2 (en) * | 2019-12-27 | 2024-04-23 | Motional Ad Llc | Object tracking supporting autonomous vehicle navigation |
US20210295171A1 (en) * | 2020-03-19 | 2021-09-23 | Nvidia Corporation | Future trajectory predictions in multi-actor environments for autonomous machine applications |
JP6899986B1 (ja) * | 2020-04-28 | 2021-07-07 | 楽天グループ株式会社 | オブジェクト領域特定装置、オブジェクト領域特定方法、及びオブジェクト領域特定プログラム |
CN112001838B (zh) * | 2020-07-23 | 2022-09-20 | 浙江大学 | 基于自交叉编码器的跨域图像转换方法、装置、计算机设备和存储介质 |
CN114708723B (zh) * | 2020-12-16 | 2023-07-21 | 华为技术有限公司 | 轨迹预测方法和装置 |
US11720108B2 (en) * | 2020-12-22 | 2023-08-08 | Baidu Usa Llc | Natural language based indoor autonomous navigation |
US20220371622A1 (en) * | 2021-05-21 | 2022-11-24 | Honda Motor Co., Ltd. | System and method for completing joint risk localization and reasoning in driving scenarios |
CN113538520B (zh) * | 2021-08-02 | 2022-03-18 | 北京易航远智科技有限公司 | 行人轨迹预测方法、装置、电子设备及存储介质 |
US11887317B2 (en) * | 2021-08-30 | 2024-01-30 | Ford Global Technologies, Llc | Object trajectory forecasting |
CN114368387A (zh) * | 2021-12-21 | 2022-04-19 | 吉林大学 | 一种基于注意力机制的驾驶员意图识别及车辆轨迹预测方法 |
CN115984970B (zh) * | 2023-03-13 | 2023-08-18 | 浙江宇视科技有限公司 | 行人身高确定方法、装置、电子设备和存储介质 |
CN116933041B (zh) * | 2023-09-14 | 2024-05-03 | 深圳市力准传感技术有限公司 | 力传感器编号校对系统及方法 |
CN117560638B (zh) * | 2024-01-10 | 2024-03-22 | 山东派蒙机电技术有限公司 | 应用于移动端通信系统的融合通信方法、装置及设备 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2523740B (en) * | 2014-02-26 | 2020-10-14 | Sony Interactive Entertainment Inc | Image encoding and display |
CN106937531B (zh) * | 2014-06-14 | 2020-11-06 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
CA2976344A1 (en) * | 2015-02-10 | 2016-08-18 | Mobileye Vision Technologies Ltd. | Sparse map for autonomous vehicle navigation |
US10121082B2 (en) * | 2015-10-07 | 2018-11-06 | Honda Motor Co., Ltd. | System and method for providing laser camera fusion for identifying and tracking a traffic participant |
CN110352153A (zh) * | 2018-02-02 | 2019-10-18 | 辉达公司 | 自主车辆中用于障碍物躲避的安全程序分析 |
US10800408B2 (en) * | 2018-05-24 | 2020-10-13 | Baidu Usa Llc | Determining driving paths for autonomous driving that avoid moving obstacles |
US10936922B2 (en) * | 2018-06-20 | 2021-03-02 | Zoox, Inc. | Machine learning techniques |
WO2020055759A1 (en) * | 2018-09-11 | 2020-03-19 | Nvidia Corporation | Future object trajectory predictions for autonomous machine applications |
US11494937B2 (en) * | 2018-11-16 | 2022-11-08 | Uatc, Llc | Multi-task multi-sensor fusion for three-dimensional object detection |
US10963709B2 (en) * | 2019-01-02 | 2021-03-30 | Zoox, Inc. | Hierarchical machine-learning network architecture |
US11482011B2 (en) * | 2019-03-28 | 2022-10-25 | Intel Corporation | Acceleration of data processing for object detection |
US11554785B2 (en) * | 2019-05-07 | 2023-01-17 | Foresight Ai Inc. | Driving scenario machine learning network and driving environment simulation |
US11345342B2 (en) * | 2019-09-27 | 2022-05-31 | Intel Corporation | Potential collision warning system based on road user intent prediction |
-
2019
- 2019-04-17 US US16/386,964 patent/US11155259B2/en active Active
- 2019-08-27 CN CN201910797187.5A patent/CN110895674B/zh active Active
- 2019-08-29 JP JP2019156911A patent/JP6833936B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US11155259B2 (en) | 2021-10-26 |
JP2020042808A (ja) | 2020-03-19 |
US20200086858A1 (en) | 2020-03-19 |
CN110895674A (zh) | 2020-03-20 |
CN110895674B (zh) | 2024-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6833936B2 (ja) | 自己中心映像に基づく将来の車両位置特定のためのシステム及び方法 | |
US11312372B2 (en) | Vehicle path prediction | |
US11042156B2 (en) | System and method for learning and executing naturalistic driving behavior | |
US9672446B1 (en) | Object detection for an autonomous vehicle | |
CN111050116B (zh) | 利用时间递归网络进行在线动作检测的系统和方法 | |
US11587329B2 (en) | Method and apparatus for predicting intent of vulnerable road users | |
JP7072030B2 (ja) | アクション事前分布を使用して将来予測するためのシステム及び方法 | |
US10800430B2 (en) | Driving intervention in vehicles | |
US11608067B2 (en) | Probabilistic-based lane-change decision making and motion planning system and method thereof | |
US11188766B2 (en) | System and method for providing context aware road-user importance estimation | |
CN111986128A (zh) | 偏心图像融合 | |
US20210082283A1 (en) | Systems and methods for providing future object localization | |
JP2021136021A (ja) | 運転者中心危険評価:意図認識運転モデルを用いた因果推論を介する危険物体識別 | |
CN114463714A (zh) | 用于完成风险对象识别的系统和方法 | |
CN116674593A (zh) | 用于自主车辆的具有异常检测的安全增强规划系统 | |
US11745744B2 (en) | System and method for determining object-wise situational awareness | |
US20220308581A1 (en) | System and method for completing continual multi-agent trajectory forecasting | |
US11216001B2 (en) | System and method for outputting vehicle dynamic controls using deep neural networks | |
US20240157977A1 (en) | Systems and methods for modeling and predicting scene occupancy in the environment of a robot | |
US11546503B1 (en) | Dynamic image compression for multiple cameras of autonomous vehicles | |
US11954921B2 (en) | System and method for improving driver situation awareness prediction using human visual sensory and memory mechanism | |
EP4137845A1 (en) | Methods and systems for predicting properties of a plurality of objects in a vicinity of a vehicle | |
CN115200583A (zh) | 用于提供针对轨迹预测的长期和关键意图的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190829 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191008 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191015 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20191219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201008 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6833936 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |