JP7309817B2 - 自動車の車体の運動を検出するための方法、システム及びコンピュータプログラム - Google Patents
自動車の車体の運動を検出するための方法、システム及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7309817B2 JP7309817B2 JP2021186643A JP2021186643A JP7309817B2 JP 7309817 B2 JP7309817 B2 JP 7309817B2 JP 2021186643 A JP2021186643 A JP 2021186643A JP 2021186643 A JP2021186643 A JP 2021186643A JP 7309817 B2 JP7309817 B2 JP 7309817B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- vehicle
- sensor
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims description 43
- 238000000034 method Methods 0.000 title claims description 33
- 238000004590 computer program Methods 0.000 title claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 31
- 238000001514 detection method Methods 0.000 claims description 30
- 238000007405 data analysis Methods 0.000 claims description 29
- 238000004458 analytical method Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 230000009471 action Effects 0.000 claims description 9
- 238000013473 artificial intelligence Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000010191 image analysis Methods 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 claims description 5
- 238000002604 ultrasonography Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 description 11
- 238000011176 pooling Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000001454 recorded image Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000004205 output neuron Anatomy 0.000 description 2
- 244000132059 Carica parviflora Species 0.000 description 1
- 235000014653 Carica parviflora Nutrition 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000031018 biological processes and functions Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/38—Services specially adapted for particular environments, situations or purposes for collecting sensor information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Analysis (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
Description
第2の自動車のカメラ・センサ装置を用いて、少なくとも第1の自動車を含む第2の自動車の周辺状況(環境)を表す画像・センサデータを記録する工程;
画像・センサデータをデータ解析装置へ転送する工程であって、データ解析装置は、第1の自動車の車体の運動を検出するための検出システムであって人工知能(AI)及び機械画像解析の分野からのアルゴリズムを使用する検出システムを含む、工程;
車体のあり得る運動を分類するために検出システムを用いてデータ解析装置内で画像・センサデータを処理する工程;
車体の分類された運動を一組の定義された状態S1,S2,...,Snから少なくとも1つ選択された状態Sjへ割り当てる工程;及び
出力データを、自動運転機能におけるさらなる使用のために及び/又はユーザインターフェースのために、該選択された状態Sjから生成する工程。
工程S10では、画像・センサデータ32は第2の自動車20のカメラ・センサ装置30により記録され、画像・センサデータ32は、少なくとも第1の自動車10を含む自動車20の周辺状況を表す。
12 車体
20 第2の自動車
22 道路
30 カメラ・センサ装置
32 画像・センサデータ
35 RGBカメラ
37 音響センサ
39 LiDARシステム、超音波システム、レーダシステム
40 データ解析装置
41 プロセッサ
50 メモリユニット
55 ソフトウェアモジュール
60 データベース
70 ユーザインターフェース
100 システム
400 検出システム
410 解析モジュール
430 分類モジュール
450 出力データ
500 コンピュータプログラム
550 プログラムコード
Claims (8)
- データ解析装置(40)を用いて第1の自動車(10)の車体(12)の運動であって、前記車体(12)の水平運動又は上下運動の変動を検出するための方法であって、前記方法は、
第2の自動車(20)のカメラ・センサ装置(30)を用いて画像・センサデータ(32)を記録する工程(S10)であって、前記画像・センサデータ(32)は少なくとも前記第1の自動車(10)を含む前記第2の自動車(20)の周辺状況を表し、前記カメラ・センサ装置(30)が少なくとも3,840×2,160ピクセル(4k)のウルトラHD解像度を有する少なくとも1つのアクションカメラ(35)を備える、工程;
前記画像・センサデータ(32)を前記データ解析装置(40)へ転送する工程(S20)であって、前記データ解析装置(40)は、前記第1の自動車(10)の前記車体(12)の運動を検出するための検出システム(400)であって人工知能(AI)及び機械画像解析の分野からのアルゴリズムを使用する検出システムを含み、前記データ解析装置(40)は、クラウド計算インフラストラクチャにおけるクラウドベースソリューションとして設計され、移動無線接続を介して前記第2の自動車(20)に接続され、前記検出システム(400)は解析モジュール(410)及び分類モジュール(430)を含み、前記分類モジュール(430)は、前記分類モジュール(430)のトレーニング段階において判断された又は予め定められた前記第1の自動車(10)の前記車体(12)の運動の特徴(M 1 ,M 2 ,...,M n )を含み、前記特徴(M 1 、M 2 、…、M n )は前記第1の自動車(10)の周辺状況についての一組の定義された状態(S 1 、S 2 、…、S n )に割り当てられる、工程;
前記車体(12)のあり得る運動を分類するために前記検出システム(400)を用いて前記データ解析装置(40)内で前記画像・センサデータ(32)を処理する工程(S30);
前記車体(12)の前記分類された運動を前記第1の自動車(10)の周辺状況についての前記一組の定義された状態(S1,S2,...,Sn)から少なくとも1つ選択された状態(Sj)へ割り当てる工程(S40);
出力データ(450)を、自動運転機能におけるさらなる使用のために及び/又はユーザインターフェースのために、前記選択された状態(Sj)から生成する工程(S50)を含む、方法であって、
前記画像・センサデータ(32)は処理され、前記出力データ(450)はリアルタイムで生成され、前記画像・センサデータ(32)は、5G無線モジュールが使用される移動無線接続を用いて前記データ解析装置(40)へ送信され、前記画像・センサデータ(32)の解析と計算は、前記クラウド計算インフラストラクチャで実行され、当該解析と計算の結果はリアルタイムで第2の自動車(20)に送り返され、前記自動運転機能に取り込まれ、第2の自動車(20)の前車軸及び/又は後車軸の制動ユニットは、自動的によりソフトな制動へ設定される、方法。 - 前記検出システム(400)はニューラルネットワークによる深層学習を使用する、請求項1に記載の方法。
- 前記ニューラルネットワークは畳み込みニューラルネットワークの形式である、請求項2に記載の方法。
- 前記カメラ・センサ装置(30)は、音響センサ(37)及び/又はLiDARシステム及び/又は超音波システム及び/又はレーダシステム(39)を含む、請求項1~3のいずれか一項に記載の方法。
- 第1の自動車(10)の車体(12)の運動であって、前記車体(12)の水平運動又は上下運動の変動を検出するためのシステム(100)であって、前記システムは、
第2の自動車(20)のカメラ・センサ装置(30)であって、画像・センサデータ(32)が少なくとも前記第1の自動車(10)を含む前記第2の自動車(20)の周辺状況を表し、前記カメラ・センサ装置(30)が少なくとも3,840×2,160ピクセル(4k)のウルトラHD解像度を有する少なくとも1つのアクションカメラ(35)を備える、カメラ・センサ装置(30);及び、
データ解析装置(40)を含み、
前記データ解析装置(40)は、前記第1の自動車(10)の前記車体(12)の運動を検出するための検出システム(400)であって人工知能(AI)及び機械画像解析の分野からのアルゴリズムを使用する検出システム(400)を含み、前記データ解析装置(40)は、クラウド計算インフラストラクチャにおけるクラウドベースソリューションとして設計され、移動無線接続を介して前記第2の自動車(20)に接続され、、前記検出システム(400)は解析モジュール(410)及び分類モジュール(430)を含み、前記分類モジュール(430)は、前記分類モジュール(430)のトレーニング段階において判断された又は予め定められた前記第1の自動車(10)の前記車体(12)の運動の特徴(M 1 ,M 2 ,...,M n )を含み、前記特徴(M 1 、M 2 、…、M n )は前記第1の自動車(10)の周辺状況についての一組の定義された状態(S 1 、S 2 、…、S n )に割り当てられ、前記データ解析装置(40)は、前記検出システム(400)を用いて画像・センサデータ(32)を処理し、前記車体(12)のあり得る運動を分類し、前記第1の自動車(10)の周辺状況の前記一組の定義された状態(S1,S2,...,Sn)から少なくとも1つ選択された状態(Sj)を前記車体(12)の分類された運動へ割り当て、そして出力データ(450)を、自動運転機能におけるさらなる使用のために及び/又はユーザインターフェース(70)のために、前記選択された状態(Sj)から生成するように設計され、前記画像・センサデータ(32)は処理され、前記出力データ(450)はリアルタイムで生成され、前記画像・センサデータ(32)は、5G無線モジュールが使用される移動無線接続を用いて前記データ解析装置(40)へ送信され、前記画像・センサデータ(32)の解析と計算は、前記クラウド計算インフラストラクチャで実行され、当該解析と計算の結果はリアルタイムで第2の自動車(20)に送り返され、前記自動運転機能に取り込まれ、第2の自動車(20)の前車軸及び/又は後車軸の制動ユニットは、自動的によりソフトな制動へ設定される、システム。 - 前記検出システム(400)は畳み込みニューラルネットワークの形式のニューラルネットワークによる深層学習を使用する、請求項5に記載のシステム(100)。
- 前記カメラ・センサ装置(30)は、音響センサ(37)及び/又はLiDARシステム及び/又は超音波システム及び/又はレーダシステム(39)を含む、請求項5又は6に記載のシステム(100)。
- 実行中に請求項1~4のいずれか一項に記載の方法を行うように構成された実行可能プログラムコード(550)を含むコンピュータプログラム(500)。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020130886.8 | 2020-11-23 | ||
DE102020130886.8A DE102020130886A1 (de) | 2020-11-23 | 2020-11-23 | Verfahren, System und Computerprogrammprodukt zur Erkennung von Bewegungen des Fahrzeugsaufbaus bei einem Kraftfahrzeug |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022082510A JP2022082510A (ja) | 2022-06-02 |
JP7309817B2 true JP7309817B2 (ja) | 2023-07-18 |
Family
ID=81453061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021186643A Active JP7309817B2 (ja) | 2020-11-23 | 2021-11-16 | 自動車の車体の運動を検出するための方法、システム及びコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220165067A1 (ja) |
JP (1) | JP7309817B2 (ja) |
KR (2) | KR20220071116A (ja) |
DE (1) | DE102020130886A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003228800A (ja) | 2002-02-01 | 2003-08-15 | Nissan Motor Co Ltd | 車両用推奨操作量生成装置 |
JP2008117082A (ja) | 2006-11-01 | 2008-05-22 | Toyota Motor Corp | 走行制御計画評価装置 |
JP2018205940A (ja) | 2017-06-01 | 2018-12-27 | 日立オートモティブシステムズ株式会社 | 移動体挙動予測装置 |
JP2019008709A (ja) | 2017-06-28 | 2019-01-17 | 京セラ株式会社 | 車両、情報処理システム、情報処理装置、およびデータ構造 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05262113A (ja) * | 1992-03-18 | 1993-10-12 | Fujitsu Ten Ltd | 車両のサスペンション制御装置 |
JP2003276538A (ja) * | 2002-03-26 | 2003-10-02 | Toyota Central Res & Dev Lab Inc | 障害物予測装置 |
CN101029823B (zh) * | 2006-02-28 | 2010-09-15 | 东软集团股份有限公司 | 基于车辆状态分类的车辆跟踪方法和装置 |
JP4868426B2 (ja) * | 2010-02-08 | 2012-02-01 | 富士通セミコンダクター株式会社 | 移動体を含む画像の処理方法及び装置 |
DE102011007608A1 (de) | 2011-04-18 | 2012-10-18 | Robert Bosch Gmbh | Verfahren und System zur aktiven Fahrwerksregelung |
JP6564577B2 (ja) * | 2015-02-16 | 2019-08-21 | 修一 田山 | 自動車における近接体警報知装置 |
DE102016000209A1 (de) | 2016-01-11 | 2017-07-13 | Trw Automotive Gmbh | Steuerungs-System und Verfahren zum Ermitteln einer Straßenbelagsunregelmäßigkeit |
US20180144636A1 (en) * | 2016-06-30 | 2018-05-24 | Faraday&Future Inc. | Distracted driver detection, classification, warning, avoidance system |
CN106250838A (zh) * | 2016-07-27 | 2016-12-21 | 乐视控股(北京)有限公司 | 车辆识别方法及系统 |
DE102016012230A1 (de) * | 2016-10-13 | 2018-04-19 | Man Truck & Bus Ag | Verfahren zum Betreiben eines Fahrzeugs und Fahrzeug |
DE102017201838A1 (de) | 2017-02-06 | 2018-08-09 | Continental Automotive Gmbh | Erkennung von Straßenunebenheiten anhand einer Situationsanalyse |
JP6539297B2 (ja) | 2017-03-31 | 2019-07-03 | 株式会社Subaru | 車両の走行支援装置 |
CN108182428A (zh) * | 2018-01-31 | 2018-06-19 | 福州大学 | 前车状态识别和车辆跟随的方法 |
EP3786882A4 (en) * | 2018-04-26 | 2022-01-19 | Nippon Telegraph And Telephone Corporation | MOTION STATE RECOGNITION LEARNING DEVICE, MOTION STATE RECOGNITION DEVICE, METHOD AND PROGRAM |
US10981564B2 (en) * | 2018-08-17 | 2021-04-20 | Ford Global Technologies, Llc | Vehicle path planning |
KR20200107023A (ko) * | 2019-03-05 | 2020-09-16 | 현대자동차주식회사 | 차량 안전주행 지원 장치 및 방법 |
DE102019204196B4 (de) | 2019-03-27 | 2021-03-18 | Continental Automotive Gmbh | Verfahren zum Erfassen des Umfeldes eines Fortbewegungsmittels |
US11157007B2 (en) * | 2019-06-28 | 2021-10-26 | Lyft, Inc. | Approaches for encoding environmental information |
US11100801B2 (en) * | 2019-08-12 | 2021-08-24 | Toyota Motor North America, Inc. | Utilizing sensors to detect hazard from other vehicle while driving |
JP7388971B2 (ja) * | 2020-04-06 | 2023-11-29 | トヨタ自動車株式会社 | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム |
-
2020
- 2020-11-23 DE DE102020130886.8A patent/DE102020130886A1/de active Pending
-
2021
- 2021-11-16 JP JP2021186643A patent/JP7309817B2/ja active Active
- 2021-11-18 KR KR1020210159083A patent/KR20220071116A/ko not_active IP Right Cessation
- 2021-11-23 US US17/533,556 patent/US20220165067A1/en active Pending
-
2023
- 2023-11-28 KR KR1020230168070A patent/KR102700467B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003228800A (ja) | 2002-02-01 | 2003-08-15 | Nissan Motor Co Ltd | 車両用推奨操作量生成装置 |
JP2008117082A (ja) | 2006-11-01 | 2008-05-22 | Toyota Motor Corp | 走行制御計画評価装置 |
JP2018205940A (ja) | 2017-06-01 | 2018-12-27 | 日立オートモティブシステムズ株式会社 | 移動体挙動予測装置 |
JP2019008709A (ja) | 2017-06-28 | 2019-01-17 | 京セラ株式会社 | 車両、情報処理システム、情報処理装置、およびデータ構造 |
Also Published As
Publication number | Publication date |
---|---|
KR102700467B1 (ko) | 2024-09-02 |
KR20220071116A (ko) | 2022-05-31 |
JP2022082510A (ja) | 2022-06-02 |
US20220165067A1 (en) | 2022-05-26 |
DE102020130886A1 (de) | 2022-05-25 |
KR20230170614A (ko) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11468582B2 (en) | Leveraging multidimensional sensor data for computationally efficient object detection for autonomous machine applications | |
CN111133447B (zh) | 适于自主驾驶的对象检测和检测置信度的方法和系统 | |
CN113168505B (zh) | 用于自主驾驶机器的基于回归的线检测 | |
US11170299B2 (en) | Distance estimation to objects and free-space boundaries in autonomous machine applications | |
CN112989914B (zh) | 具有自适应加权输入的注视确定机器学习系统 | |
US11112791B2 (en) | Selective compression of image data during teleoperation of a vehicle | |
JP2021095117A (ja) | 顔のランドマーク及び関連する信頼値を使用したニューラルネットワークベースの顔分析 | |
WO2019182974A2 (en) | Stereo depth estimation using deep neural networks | |
CN114155272A (zh) | 自主机器应用中的自适应目标跟踪算法 | |
CN113950702A (zh) | 在视频分析应用中使用相关滤波器的多对象跟踪 | |
CN113767389A (zh) | 从用于自主机器应用的经变换的真实世界传感器数据模拟逼真的测试数据 | |
CN111566612A (zh) | 基于姿势和视线的视觉数据采集系统 | |
CN111133448A (zh) | 使用安全到达时间控制自动驾驶车辆 | |
US20210312203A1 (en) | Projecting images captured using fisheye lenses for feature detection in autonomous machine applications | |
CN114270294A (zh) | 使用眩光作为输入的注视确定 | |
US11886634B2 (en) | Personalized calibration functions for user gaze detection in autonomous driving applications | |
US12073604B2 (en) | Using temporal filters for automated real-time classification | |
CN114170826B (zh) | 自动驾驶控制方法和装置、电子设备和存储介质 | |
CN117015792A (zh) | 有凹图像放大用于自动驾驶生成物体检测标签的系统和方法 | |
CN116263688A (zh) | 在自主系统和应用程序中使用特征描述符绘图进行单个和跨传感器对象追踪 | |
CN116795091A (zh) | 自主系统和应用程序的环境重建和路径规划 | |
JP7363118B2 (ja) | 外部環境認識装置 | |
JP7309817B2 (ja) | 自動車の車体の運動を検出するための方法、システム及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221226 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230517 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230705 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7309817 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |