JP7032387B2 - 単眼動画データに基づく車両の挙動推定システム及び方法 - Google Patents
単眼動画データに基づく車両の挙動推定システム及び方法 Download PDFInfo
- Publication number
- JP7032387B2 JP7032387B2 JP2019512864A JP2019512864A JP7032387B2 JP 7032387 B2 JP7032387 B2 JP 7032387B2 JP 2019512864 A JP2019512864 A JP 2019512864A JP 2019512864 A JP2019512864 A JP 2019512864A JP 7032387 B2 JP7032387 B2 JP 7032387B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- video data
- neural network
- convolutional neural
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 37
- 238000013527 convolutional neural network Methods 0.000 claims description 50
- 238000012549 training Methods 0.000 claims description 45
- 230000006399 behavior Effects 0.000 claims description 37
- 230000015654 memory Effects 0.000 claims description 20
- 230000001360 synchronised effect Effects 0.000 claims description 13
- 230000000007 visual effect Effects 0.000 claims description 8
- 230000002087 whitening effect Effects 0.000 claims description 7
- 230000001133 acceleration Effects 0.000 claims description 4
- 230000002123 temporal effect Effects 0.000 claims description 4
- 230000003542 behavioural effect Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 description 19
- 230000010365 information processing Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000009977 dual effect Effects 0.000 description 7
- 238000010606 normalization Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 1
- 240000001436 Antirrhinum majus Species 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Analysis (AREA)
Description
105 プロセッサ
110 メモリ
115 ディスプレイ
120 ユーザ入力
125 GPS
130 カメラ
135 バス
140 送信機/受信機
145 スピーカ
150 運転者補助システム
200 プロセス
210 トレーニング動画データをキャプチャする
220 画像処理を行う
230 オートエンコーダフィルタをトレーニングする
240 畳み込みニューラルネットワークをトレーニングする
400 プロセス
410 リアルタイム動画データをキャプチャする
420 畳み込みニューラルネットワークにデータを提供する
430 車両の挙動を推定する
440 車両の挙動の情報を出力する
Claims (11)
- 車両に搭載され、単眼動画データをキャプチャするカメラと、
データと、プロセッサ実行可能な命令とを格納するメモリと、
メモリに格納されてあるプロセッサ実行可能な命令を実行する、プロセッサと、
を備える、空間及び時間に係る挙動の特徴を符号化することにより、単眼動画データに基づいて車両速度を推定するシステムであって、
プロセッサは、
車両が動いている間にキャプチャされた、プレトレーニング動画データをカメラから受け取り、
プレトレーニング動画データを使用して、同期オートエンコーダの一つ又は複数のフィルタをトレーニングし、
ZCA白色化によってプレトレーニング動画データを前処理してから、同期オートエンコーダのトレーニングされた一つ又は複数のフィルタを使用して、畳み込みニューラルネットワークをプレトレーニングし、
プレトレーニングされた畳み込みニューラルネットワークに従い、
プロセッサはさらに、
車両が動いている間にリアルタイム動画データをカメラから受け取り、
リアルタイム動画データをプレトレーニングされた畳み込みニューラルネットワークに提供し、
プレトレーニングされた畳み込みニューラルネットワークから推定された車両挙動変数を受け取り、
推定された車両挙動変数を、車両の、音声と視覚との少なくとも一方のシステムと、運転者補助システムとの少なくとも一方に、出力する、
空間及び時間に係る挙動の特徴を符号化することにより、単眼動画データに基づいて車両速度を推定するシステム。 - プロセッサは、同期オートエンコーダからのトレーニングされた1つ又は複数のフィルタを使用して、畳み込みニューラルネットワークの第1の層を初期化することによって畳み込みニューラルネットワークをプレトレーニングする、請求項1に記載のシステム。
- 畳み込みニューラルネットワークはさらに反復的にトレーニングされ、第1層の出力は畳み込みニューラルネットワークの次の層に渡され、対応する出力を畳み込みニューラルネットワークの別の層に渡す請求項2に記載のシステム。
- プロセッサは、プレトレーニング動画データの第1のチャネルをトレーニング前動画データのプレトレーニング動画データの第2のチャネルとして複製し、プレトレーニング動画データの第1のチャネルと、プレトレーニング動画データの第2のチャネルとは、同期オートエンコーダの一つ又は複数のフィルタをトレーニングするために提供された、請求項1に記載のシステム。
- 前記車両挙動変数は、車両の速度を含む、請求項1に記載のシステム。
- 運転者補助システムは、少なくとも部分的に、前記推定された車両挙動変数に基づいて、ステアリングと、加速/減速操作との中の一つを実行する、請求項1に記載のシステム。
- 畳み込みニューラルネットワークをプレトレーニングすることを備える、空間及び時間に係る挙動の特徴を符号化することにより、単眼動画データに基づいて車両速度を推定する方法であって、
プレトレーニングは、
車両が動いている間にキャプチャされたプレトレーニング動画データを、車両に搭載された単眼カメラから受け取ることと、
プレトレーニング動画データを使用して、車両メモリに格納された同期オートエンコーダの一つ又は複数のフィルタをトレーニングすることと、
ZCA白色化によってプレトレーニング動画データを前処理してから、同期オートエンコーダのトレーニングされた一つ又は複数のフィルタを使用して、車両メモリに格納された畳み込みニューラルネットワークをプレトレーニングすることと、
を備え、
プレトレーニングされた畳み込みニューラルネットワークに従うことにおいて、さらに、車両が動いている間にリアルタイム動画データをカメラから受け取ることと、
リアルタイム動画データをプレトレーニングされた畳み込みニューラルネットワークに提供することと、
プレトレーニングされた畳み込みニューラルネットワークから推定された車両挙動変数を受け取ることと、
推定された車両挙動変数を、車両の、音声と視覚との少なくとも一方のシステムと、運転者補助システムとの少なくとも一方に、出力することと、
を備える、空間及び時間に係る挙動の特徴を符号化することにより、単眼動画データに基づいて車両速度を推定する方法。 - 畳み込みニューラルネットワークをプレトレーニングすることは、同期オートエンコーダからのトレーニングされた1つ又は複数のフィルタを使用して畳み込みニューラルネットワークの第1層を初期化することによって畳み込みニューラルネットワークをプレトレーニングすることを備える、請求項7に記載の方法。
- プレトレーニング動画データの第1のチャネルを、プレトレーニング動画データの第2のチャネルとして複製することをさらに備え、プレトレーニング動画データの第1チャネルと、プレトレーニング動画データの第2のチャネルは、同期オートエンコーダの1つ又は複数のフィルタをトレーニングするために提供される、請求項7に記載の方法。
- 前記車両挙動変数が、車両の速度を含む、請求項7に記載の方法。
- 少なくとも部分的に前記推定された車両挙動変数に基づいて、ステアリングと、加速/減速操作との中の一つを車両の運転者補助システムによって実行することをさらに備える、請求項7に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/367,993 | 2016-12-02 | ||
US15/367,993 US10068140B2 (en) | 2016-12-02 | 2016-12-02 | System and method for estimating vehicular motion based on monocular video data |
PCT/US2017/064234 WO2018102697A1 (en) | 2016-12-02 | 2017-12-01 | System and method for estimating vehicular motion based on monocular video data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020500759A JP2020500759A (ja) | 2020-01-16 |
JP7032387B2 true JP7032387B2 (ja) | 2022-03-08 |
Family
ID=62240087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019512864A Active JP7032387B2 (ja) | 2016-12-02 | 2017-12-01 | 単眼動画データに基づく車両の挙動推定システム及び方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10068140B2 (ja) |
EP (1) | EP3548353B1 (ja) |
JP (1) | JP7032387B2 (ja) |
WO (1) | WO2018102697A1 (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10121103B2 (en) * | 2016-12-09 | 2018-11-06 | Cisco Technologies, Inc. | Scalable deep learning video analytics |
US10762635B2 (en) | 2017-06-14 | 2020-09-01 | Tusimple, Inc. | System and method for actively selecting and labeling images for semantic segmentation |
US11482018B2 (en) * | 2017-07-19 | 2022-10-25 | Nec Corporation | Number-of-occupants detection system, number-of-occupants detection method, and program |
US10268205B2 (en) * | 2017-09-13 | 2019-04-23 | TuSimple | Training and testing of a neural network method for deep odometry assisted by static scene optical flow |
US10552979B2 (en) * | 2017-09-13 | 2020-02-04 | TuSimple | Output of a neural network method for deep odometry assisted by static scene optical flow |
US10671083B2 (en) * | 2017-09-13 | 2020-06-02 | Tusimple, Inc. | Neural network architecture system for deep odometry assisted by static scene optical flow |
US10875540B2 (en) * | 2018-07-19 | 2020-12-29 | Beijing Voyager Technology Co., Ltd. | Ballistic estimation of vehicle data |
WO2020031586A1 (ja) * | 2018-08-10 | 2020-02-13 | 古野電気株式会社 | 船舶操縦支援システム、船舶制御装置、船舶制御方法、及びプログラム |
US11783500B2 (en) * | 2018-09-05 | 2023-10-10 | Google Llc | Unsupervised depth prediction neural networks |
US11468575B2 (en) * | 2018-11-16 | 2022-10-11 | Uatc, Llc | Deep structured scene flow for autonomous devices |
US11544620B2 (en) | 2019-01-22 | 2023-01-03 | Raytheon Technologies Corporation | System and method for context-based training of a machine learning model |
CN109919969B (zh) * | 2019-01-22 | 2022-11-22 | 广东工业大学 | 一种利用深度卷积神经网络实现视觉运动控制的方法 |
CN109871778B (zh) * | 2019-01-23 | 2022-11-15 | 长安大学 | 基于迁移学习的车道保持控制方法 |
US10635917B1 (en) * | 2019-01-30 | 2020-04-28 | StradVision, Inc. | Method and device for detecting vehicle occupancy using passenger's keypoint detected through image analysis for humans' status recognition |
KR102690429B1 (ko) * | 2019-02-28 | 2024-07-31 | 에이치디현대인프라코어 주식회사 | 휠 로더의 제어 방법 및 시스템 |
CN110084773A (zh) * | 2019-03-25 | 2019-08-02 | 西北工业大学 | 一种基于深度卷积自编码网络的图像融合方法 |
CN111738037B (zh) * | 2019-03-25 | 2024-03-08 | 广州汽车集团股份有限公司 | 一种自动驾驶方法及其系统、车辆 |
US11657694B2 (en) | 2019-04-12 | 2023-05-23 | Stoneridge Electronics Ab | Mobile device usage monitoring for commercial vehicle fleet management |
WO2020210605A1 (en) | 2019-04-12 | 2020-10-15 | Stoneridge Electronics, AB | Mobile device usage monitoring for commercial vehicle fleet management |
CN110211190B (zh) * | 2019-05-31 | 2022-11-01 | 北京百度网讯科技有限公司 | 相机自运动参数估计模型的训练方法、装置及存储介质 |
US11095741B2 (en) * | 2019-07-11 | 2021-08-17 | Ghost Locomotion Inc. | Value-based transmission in an autonomous vehicle |
WO2021108031A1 (en) * | 2019-11-26 | 2021-06-03 | Mythic, Inc. | Systems and methods for implementing operational transformations for restricted computations of a mixed-signal integrated circuit |
JP2021135770A (ja) * | 2020-02-27 | 2021-09-13 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに観測装置 |
KR102225108B1 (ko) * | 2020-08-07 | 2021-03-09 | 건국대학교 산학협력단 | 이동체의 자율 주행 제어 방법 및 이를 수행하는 장치들 |
GB2597944A (en) * | 2020-08-11 | 2022-02-16 | Daimler Ag | A method for predicting a user of a user with an autoencoder algorithm, as well as electronic computing device |
CN112529104B (zh) * | 2020-12-23 | 2024-06-18 | 东软睿驰汽车技术(沈阳)有限公司 | 一种车辆故障预测模型生成方法、故障预测方法及装置 |
US20240331195A1 (en) * | 2021-06-25 | 2024-10-03 | Intel Corporation | Methods and apparatus for scale recovery from monocular video |
CN114966090A (zh) * | 2022-06-15 | 2022-08-30 | 南京航空航天大学 | 一种基于深度学习的船舶视频测速方法 |
CN117520788B (zh) * | 2024-01-05 | 2024-03-22 | 成都亚度克升科技有限公司 | 基于人工智能和大数据分析的音箱参数确定方法和系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005525010A (ja) | 2002-04-16 | 2005-08-18 | ソニー エレクトロニクス インク | Pidマッピングによるコンテンツの差替え |
JP2014501401A (ja) | 2010-12-15 | 2014-01-20 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | 車両の自己運動を求めるための方法およびシステム |
CN103914985A (zh) | 2014-04-25 | 2014-07-09 | 大连理工大学 | 一种混合动力客车未来车速轨迹预测方法 |
US20150170004A1 (en) | 2011-11-21 | 2015-06-18 | Google Inc. | Evaluating image similarity |
US20150274161A1 (en) | 2012-09-14 | 2015-10-01 | Robert Bosch Gmbh | Method for operating a driver assistance system of a vehicle |
WO2016017787A1 (en) | 2014-07-30 | 2016-02-04 | Mitsubishi Electric Corporation | Method for transforming input signals |
WO2016175923A1 (en) | 2015-04-28 | 2016-11-03 | Qualcomm Incorporated | Filter specificity as training criterion for neural networks |
JP2016219004A (ja) | 2015-05-18 | 2016-12-22 | ゼロックス コーポレイションXerox Corporation | 一般物体提案を用いる複数物体の追跡 |
CN107430693A (zh) | 2015-03-13 | 2017-12-01 | 北京市商汤科技开发有限公司 | 用于车辆分类和验证的设备和系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7242773B2 (en) | 2002-09-09 | 2007-07-10 | Sony Corporation | Multiple partial encryption using retuning |
US9727824B2 (en) | 2013-06-28 | 2017-08-08 | D-Wave Systems Inc. | Systems and methods for quantum processing of data |
US9346167B2 (en) | 2014-04-29 | 2016-05-24 | Brain Corporation | Trainable convolutional network apparatus and methods for operating a robotic vehicle |
US9392431B2 (en) | 2014-09-30 | 2016-07-12 | Verizon Patent And Licensing Inc. | Automatic vehicle crash detection using onboard devices |
US10046229B2 (en) * | 2016-05-02 | 2018-08-14 | Bao Tran | Smart device |
-
2016
- 2016-12-02 US US15/367,993 patent/US10068140B2/en not_active Expired - Fee Related
-
2017
- 2017-12-01 EP EP17875213.5A patent/EP3548353B1/en active Active
- 2017-12-01 JP JP2019512864A patent/JP7032387B2/ja active Active
- 2017-12-01 WO PCT/US2017/064234 patent/WO2018102697A1/en unknown
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005525010A (ja) | 2002-04-16 | 2005-08-18 | ソニー エレクトロニクス インク | Pidマッピングによるコンテンツの差替え |
JP2014501401A (ja) | 2010-12-15 | 2014-01-20 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | 車両の自己運動を求めるための方法およびシステム |
US20150170004A1 (en) | 2011-11-21 | 2015-06-18 | Google Inc. | Evaluating image similarity |
US20150274161A1 (en) | 2012-09-14 | 2015-10-01 | Robert Bosch Gmbh | Method for operating a driver assistance system of a vehicle |
CN103914985A (zh) | 2014-04-25 | 2014-07-09 | 大连理工大学 | 一种混合动力客车未来车速轨迹预测方法 |
WO2016017787A1 (en) | 2014-07-30 | 2016-02-04 | Mitsubishi Electric Corporation | Method for transforming input signals |
CN107430693A (zh) | 2015-03-13 | 2017-12-01 | 北京市商汤科技开发有限公司 | 用于车辆分类和验证的设备和系统 |
WO2016175923A1 (en) | 2015-04-28 | 2016-11-03 | Qualcomm Incorporated | Filter specificity as training criterion for neural networks |
JP2016219004A (ja) | 2015-05-18 | 2016-12-22 | ゼロックス コーポレイションXerox Corporation | 一般物体提案を用いる複数物体の追跡 |
Non-Patent Citations (1)
Title |
---|
KONDA et al.,Learning to encode motion usingspatio-temporal synchrony,Retrieved from the Internet,ドイツ,2014年02月10日,p. 1-9,https://arxiv.org/pdf/1306.3162.pdf |
Also Published As
Publication number | Publication date |
---|---|
WO2018102697A1 (en) | 2018-06-07 |
EP3548353B1 (en) | 2023-07-19 |
US20180157918A1 (en) | 2018-06-07 |
US10068140B2 (en) | 2018-09-04 |
JP2020500759A (ja) | 2020-01-16 |
EP3548353A4 (en) | 2020-07-08 |
EP3548353A1 (en) | 2019-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7032387B2 (ja) | 単眼動画データに基づく車両の挙動推定システム及び方法 | |
US11449727B2 (en) | Method, storage medium and electronic device for detecting vehicle crashes | |
US10810754B2 (en) | Simultaneous localization and mapping constraints in generative adversarial networks for monocular depth estimation | |
EP3549102B1 (en) | Determining structure and motion in images using neural networks | |
CN108388834B (zh) | 利用循环神经网络和级联特征映射的对象检测 | |
JP6812538B2 (ja) | イメージ深度予測ニューラルネットワーク | |
CN107622527B (zh) | 支持开发基于视觉的雨水检测算法的虚拟传感器数据生成系统和方法 | |
US20200041276A1 (en) | End-To-End Deep Generative Model For Simultaneous Localization And Mapping | |
US11042999B2 (en) | Advanced driver assist systems and methods of detecting objects in the same | |
CN111738037B (zh) | 一种自动驾驶方法及其系统、车辆 | |
CN111695717A (zh) | 自主机器应用中的时间信息预测 | |
US11527077B2 (en) | Advanced driver assist system, method of calibrating the same, and method of detecting object in the same | |
WO2019230339A1 (ja) | 物体識別装置、移動体用システム、物体識別方法、物体識別モデルの学習方法及び物体識別モデルの学習装置 | |
CN114332907A (zh) | 包括使用神经网络进行鲁棒预测的背景修改的数据增强 | |
JP2019091102A (ja) | 位置姿勢推定システム及び位置姿勢推定装置 | |
US20230252658A1 (en) | Depth map completion in visual content using semantic and three-dimensional information | |
JP2023039926A (ja) | 知覚フィールドベースの運転関連操作 | |
US12112622B2 (en) | Systems and methods for heterogeneous multi-agent multi-modal trajectory prediction with evolving interaction graphs | |
WO2021056327A1 (en) | Systems and methods for analyzing human driving behavior | |
Lee et al. | Latency-Free Driving Scene Prediction for On-Road Teledriving With Future-Image-Generation | |
Wang et al. | Time-to-contact control: improving safety and reliability of autonomous vehicles | |
US20230023126A1 (en) | Partial supervision in self-supervised monocular depth estimation | |
CN113554179B (zh) | 信息处理系统 | |
Zhu et al. | Multi-frame network feature fusion model and self-attention mechanism for vehicle lane line detection | |
Zhu et al. | Saliency detection for underwater moving object with sonar based on motion estimation and multi-trajectory analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200618 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200703 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220224 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7032387 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |