JP7309817B2 - 自動車の車体の運動を検出するための方法、システム及びコンピュータプログラム - Google Patents

自動車の車体の運動を検出するための方法、システム及びコンピュータプログラム Download PDF

Info

Publication number
JP7309817B2
JP7309817B2 JP2021186643A JP2021186643A JP7309817B2 JP 7309817 B2 JP7309817 B2 JP 7309817B2 JP 2021186643 A JP2021186643 A JP 2021186643A JP 2021186643 A JP2021186643 A JP 2021186643A JP 7309817 B2 JP7309817 B2 JP 7309817B2
Authority
JP
Japan
Prior art keywords
image
data
vehicle
sensor
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021186643A
Other languages
English (en)
Other versions
JP2022082510A (ja
Inventor
ペーテルス ヤニク
シュターデルマイヤー マティアス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dr Ing HCF Porsche AG
Original Assignee
Dr Ing HCF Porsche AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dr Ing HCF Porsche AG filed Critical Dr Ing HCF Porsche AG
Publication of JP2022082510A publication Critical patent/JP2022082510A/ja
Application granted granted Critical
Publication of JP7309817B2 publication Critical patent/JP7309817B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)

Description

本発明は、自動車の車体の運動を検出するための方法、システム及びコンピュータプログラムに関する。
自動車が人間により制御されれば、自動車の運転手はルート上に何らかの起こり得る危険の源があるかどうかを非常に厳密且つ直観的に観測する。特に、前を走る車両は、様々な情報(例えば、前を走る車両の速度、又は追い越し策略が計画されるかどうか)を取得するために厳密に観測される。この場合、車両の車体がまっすぐに動いているかどうか又は水平運動又は上下運動の変動(道路上のバンプ又は障害を指示し得る)が発生するかどうかもまた観測される。人間運転手は、運転中にこれらの観察を直観的に行い、そしてどのように情報を処理するかについてしばしば完全に承知しており、これをあり得る危険な状況へ割り当て、そしてこれに従って車両を制御する。
自律的やり方で及び部分的に自律的やり方で運転する車両の場合、カメラシステム及びセンサが、車両の周辺状況(環境)に関係する情報を取得するために使用される。したがって、高度に自動化された運転の開発は、好適なセンサデータ(特に画像データなど)を記録するための車両センサシステムに課せられる必要要件の増加を伴う。加えて、記録されたセンサデータは、あり得る危険な状況に関して正しい結論をそれから取得するために注意深く解釈されなければならない。
(特許文献1)は、誘導ルート仕様ユニット、運転環境情報判断ユニット、目標ルート仕様ユニット、車両距離を維持するための制御ユニット、水平運動度計算ユニット、障害回避処理検出ユニット、及び前を走る車両に追随するための追随コントローラを有する運転支援装置について説明する。水平運動度計算ユニットは前を走る車両の水平運動の程度を計算する。障害回避処理検出ユニットは前を走る車両の障害回避過程を検出する。
独国特許出願公開第102018104011A1号明細書
したがって、本発明の目的は、自動車の車体の運動(この運動は、計算能力の高度信頼性及び効率的利用により区別される)を検出するための方法、システム及びコンピュータプログラムを提供することである。
この目的は、本発明に従って達成され、方法に関しては特許請求項1の特徴を用いて、システムに関しては特許請求項9の特徴を用いて、コンピュータプログラムに関しては特許請求項15の特徴を用いて達成される。別の請求項は本発明の好ましい構成に関する。
第1の態様によると、本発明は、データ解析装置を用いて第1の自動車の車体の運動を検出する方法に関する。本方法は、以下の方法工程を含む:
第2の自動車のカメラ・センサ装置を用いて、少なくとも第1の自動車を含む第2の自動車の周辺状況(環境)を表す画像・センサデータを記録する工程;
画像・センサデータをデータ解析装置へ転送する工程であって、データ解析装置は、第1の自動車の車体の運動を検出するための検出システムであって人工知能(AI)及び機械画像解析の分野からのアルゴリズムを使用する検出システムを含む、工程;
車体のあり得る運動を分類するために検出システムを用いてデータ解析装置内で画像・センサデータを処理する工程;
車体の分類された運動を一組の定義された状態S,S,...,Sから少なくとも1つ選択された状態Sへ割り当てる工程;及び
出力データを、自動運転機能におけるさらなる使用のために及び/又はユーザインターフェースのために、該選択された状態Sから生成する工程。
本発明のさらなる展開は、リアルタイムで画像・センサデータが処理されそして出力データが生成されることを可能にする。
一つの実施形態では、検出システムは解析モジュール及び分類モジュールを含む。
検出システムは有利には、ニューラルネットワークによる深層学習を使用する。
特に、ニューラルネットワークは畳み込みニューラルネットワークの形式である。
さらなる展開は、分類モジュールが、車両の分類モジュールのトレーニング段階において判断された又は予め定められた車体の運動の特徴M,M,...,Mを含むことを可能にする。
画像・センサデータは有利には、移動無線接続を用いて(特に5G無線モジュールが使用される)データ解析装置へ送信される。
一つの実施形態は、画像・センサ装置がアクションカメラ及び/又は音響センサ及び/又はLiDARシステム及び/又は超音波システム及び/又はレーダシステムを含むことを可能にする。
第2の態様によると、本発明は第1の自動車の車体の運動を検出するためのシステムに関する。本システムは、画像・センサデータを記録するための第2の自動車の画像・センサ装置及びデータ解析装置を含む。画像・センサデータは、少なくとも第1の自動車を含む第2の自動車の周辺状況を表す。データ解析装置は、第1の自動車の車体の運動を検出するための検出システムを含む。検出システムは、人工知能(AI)及び機械画像解析の分野からのアルゴリズムを使用する。データ解析装置は、検出システムを用いて画像・センサデータを処理し、車体のあり得る運動を分類し、一組の定義された状態S,S,...,Sから少なくとも1つ選択された状態Sを車体の分類された運動へ割り当て、そして出力データを、自動運転機能におけるさらなる使用のために及び/又はユーザインターフェースのために、該選択された状態Sから生成するように設計される。
本発明のさらなる展開は、リアルタイムで画像・センサデータが処理されそして出力データが生成されることを可能にする。
一つの実施形態では、検出システムは解析モジュール及び分類モジュールを含む。
検出システムは有利には、ニューラルネットワーク(特には、畳み込みニューラルネットワークの形式である)による深層学習を使用する。
特に、分類モジュールは、分類モジュールのトレーニング段階において判断された又は予め定められた第1の自動車の車体の運動の特徴M,M,...,Mを含む。
さらなる展開では、画像・センサデータは、移動無線接続を用いて(特に5G無線モジュールが使用される)データ解析装置へ送信される。
特に、画像・センサ装置はアクションカメラ及び/又は音響センサ及び/又はLiDARシステム及び/又は超音波システム及び/又はレーダシステムを含む。
第3の態様によると、本発明は、その実行中に第1の態様に従って本方法を行うように構成された実行可能プログラムコードを含むコンピュータプログラムに関する。
本発明は、添付図面に示される例示的実施形態に基づき以下にさらに詳細に説明される。
第1の自動車の車体の運動を検出するための本発明によるシステムの概略図を示す。 本発明による検出システムの例示的実施形態を示す。 本発明による方法の個々の方法工程を説明するための流れ図を示す。 本発明の第3の態様の一実施形態によるコンピュータプログラムを示す。
本発明の追加特徴、態様及び利点又はその例示的実施形態は特許請求の範囲と併せて詳細説明を通して明確になる。
図1は本発明によるシステム100を示す。前を走る第1の自動車10は、車体12を有し、そして追随する第2の自動車20により観測される。第2の自動車20は、画像・センサデータ32を記録エリア内に記録するためのカメラ・センサ装置30を有する。カメラ・センサ装置30は、第2の自動車20の周辺状況(特に第2の自動車20の前に在りそして第1の自動車10が居る道路22に向いた)を記録エリア内に記録する。第1の自動車10の車体12はこの場合はまっすぐに移動し得る、又は水平運動又は上下運動の変動(道路上のバンプ又は障害を指示し得る)が発生する。さらに、制動及び加速過程が発生し得、その結果、車体12は変更された速度で移動することとなる。カメラ・センサ装置30は、記録された画像・センサデータ32をさらなる処理のためにデータ解析装置40へ転送する。
カメラ・センサ装置30は特に、青、緑及び赤の原色を含む可視範囲内のRGBカメラ35を含む。しかし、紫外線範囲内のUVカメラ及び/又は赤外線領域内のIRカメラもまた追加的に設けられ得る。したがって、それらの記録スペクトルの観点で異なるカメラが様々な光条件を記録エリア内に撮像し得る。
カメラ・センサ装置30のカメラの記録周波数は、前を走る第1の自動車10の高速度用に設計されており、そして画像・センサデータ32を高い画像記録周波数で記録し得る。さらに、カメラ・センサ装置30は、音響信号を捕捉するための音響センサ37(マイクロホンなど)を備え得る。これはタイヤの横揺れ雑音又はエンジン雑音を記録することを可能にする。さらに、画像・センサ装置30は、例えば前を走る第1の自動車10とそれに続く第2の自動車20との間の距離、又は前を走る第1の自動車10の速度を測定するためにLiDARシステム、超音波システム及び/又はレーダシステム39を有し得る。特に、これは三次元空間の情報を捕捉することを可能にする。
カメラ・センサ装置30の記録エリア内のサイズの著しい変化があると(例えば第1の自動車10がカメラ・センサ装置30の記録エリア内に出現すれば)カメラ・センサ装置30が画像記録過程を自動的に開始するための手立てもなされ得る。これは選択的データ収集過程を可能にし、そして関連する画像・センサデータ32だけがデータ解析装置40により処理される。これは、計算能力をより効率的に使用することを可能にする。
加えて、GPS接続(全地球測位システム)が有利には、地理的場所を判断しそして地理的場所を、記録された画像・センサデータ32へ割り当てるために設けられる。
特に、第2の自動車20の外側領域内に配置され得る耐候性アクションカメラがカメラ35として使用されるための手立てがなされる。アクションカメラは広角魚眼レンズを有し、したがってほぼ180°の可視半径を実現することを可能にする。アクションカメラは通常、フルHD(1920×1080画素)の映像を記録し得るが、ウルトラHD又は4K(少なくとも3840×2160画素)のアクションカメラを使用することも可能であり、したがって画質が著しく向上する。画像記録周波数は通常、4Kでは60画像・秒、そしてフルHDでは最大240画像/秒である。加えて、一体型画像振れ補正装置もまた設けられ得る。アクションカメラはまた、一体型マイクロホンをしばしば備える。背景雑音を特別なやり方で隠すために、差動信号処理方法も使用され得る。
カメラ・センサ装置30により記録される画像・センサデータ32は好適には、ワイヤレス移動無線接続を介しデータ解析装置40へ転送される。
データ解析装置40は好適には、検出システム400を用いて画像・センサデータ32を処理するプロセッサ41を有する。プロセッサ41又は別のプロセッサはまた、カメラ・センサ装置30を制御するために設計される。しかし、画像・センサデータ32がまず第一にメモリユニット50又はソフトウェアモジュール55内に格納され、そしてしばらく経ってだけデータ解析装置40により処理されることも考えられる。データ解析装置40及びプロセッサ41は、第2の自動車20へ組み込まれ得てもよいし、移動無線接続を介し第2の自動車20へ接続されるクラウド計算インフラストラクチャを備えるクラウドベースソリューションの形式であってもよい。
加えて、データ解析装置40は1つ又は複数の別のデータベース60にアクセスし得る。データベース60は、例えば記録された画像・センサデータ32又は別の画像及び/又は特徴変数を解析するための分類パラメータを格納し得る。さらに、安全基準を定義する目標変数及び目標値がデータベース60内に格納され得る。別のデータを入力するためのそしてデータ解析装置40により生成された計算結果を表示するためのユーザインターフェース70もまた設けられ得る。特に、ユーザインターフェース70はタッチスクリーンを有するディスプレイの形式である。
本発明に関連して、「プロセッサ」は、例えばマシン、又は電子回路、又は強力コンピュータを意味するものと理解され得る。プロセッサは、特にメインプロセッサ(中央処理ユニット、CPU)、マイクロプロセッサ又はマイクロコントローラであり得、例えば可能性としてプログラム命令などを格納するためのメモリユニットと組み合わせた特定用途向け集積回路又はデジタルシグナルプロセッサであり得る。プロセッサはまた、仮想プロセッサ、仮想マシン又はソフトCPUを意味するものとして理解され得る。プロセッサはまた、例えば本発明の部品の、モジュールの、又は他の態様及び/又は部分的態様の、特徴を本方法の発明に従って実施するようなやり方で本発明に従って前記方法を行うための構成工程を備えた又は同構成工程により構成されるプログラム可能プロセッサであり得る。高度に並列な計算ユニット及び強力グラフィックスモジュールも設けられ得る。
本発明に関連して、「メモリユニット」又は「メモリモジュール」などは、例えばランダムアクセスメモリ(RAM)の形式の揮発性メモリ、又はハードディスク若しくはデータストレージ媒体などの永続メモリ、又は例えば交換可能メモリモジュールを意味するものと理解され得る。しかし、メモリモジュールはまたクラウドベースのメモリソリューションであり得る。
本発明に関連して、「モジュール」は、例えばプロセッサ、及び/又はプログラム命令を格納するためのメモリユニットを意味するものと理解され得る。例えば、プロセッサは特に、プロセッサが本発明による方法又は本発明に従って本方法の工程を実施又は実行するために機能を行うようにプログラム命令を実行するように構成される。
本発明に関連して、記録された画像・センサデータ32は、画像・センサ装置30の記録結果からの生データと既に前処理されたデータとの両方を意味するものと理解されるべきである。
特に、画像・センサ装置30は5G標準規格の移動無線モジュールを有し得る。5Gは、第5世代移動無線標準規格であり、そして4G移動無線標準規格と比較して、最大10ギガビット/秒のより高いデータ速度、より高い周波数(例えば2100、2600又は3600メガヘルツ)範囲の使用、増加された周波数能力、そして、したがって最大100万装置/平方キロメートルが同時に対処され得るので増加されたデータスループット及びリアルタイムデータ送信により区別される。待ち時間は数ミリ秒~1ミリ秒未満であり、その結果、データ及び計算結果のリアルタイム送信が可能である。画像・センサ装置30により記録された画像・センサデータ32は、対応する解析及び計算が行われるクラウド計算プラットホームへリアルタイムで送信される。解析及び計算結果は、第2の自動車20へリアルタイムで送信され、そして、したがって運転手の命令を処理する際に又は自動運転機能内に迅速に取り込まれ得る。データを送信する際のこの速度は、クラウドベースソリューションが画像・センサデータ32を処理するために使用されるように意図されていれば必要である。クラウドベースソリューションは、高いそしてしたがって速い計算能力の利点を提供する。
データ解析装置40が車両へ組み込まれれば、Coral Dev BoardなどのAIハードウェアアクセラレーションが、実時間処理を可能にするためにプロセッサ41のために有利に使用される。これはテンソル処理ユニット(TPU:tensor processing unit)を有するマイクロコンピュータであり、その結果、予めトレーニングされたソフトウェアアプリケーションが最大70画像/秒を評価し得る。
図2は、第1の自動車10の車体12の運動の変化を検出するために、捕捉及び/又は格納された画像・センサデータ32を解析及び処理するためのソフトウェアアプリケーションの形式である本発明による検出システム400を示す。特に、検出システム400は、捕捉された画像・センサデータ32を、選択及び分類するために人工知能及びマシン画像解析アルゴリズムを用いて処理する。検出システム400は有利には、例えば捕捉された画像・センサデータ32を解析するための機械学習(好適には畳み込みニューラルネットワークによる深層学習)の分野からのアルゴリズムを使用する。加えて、光学、音響及び距離測定などの様々なセンサ源からの画像・センサデータ32が、運転状況の包括的ピクチャを取得するために互いに組み合わせられ得る。
ニューラルネットワークは、複数の層内に配置されそして異なるやり方で互いに接続されるニューロンを含む。ニューロンは、特別なやり方で評価するために、そしてニューロン出力において、変更された形式で別のニューロンへ転送するために、又は最終結果としてそれを出力するために、情報を外部から又はその入力における別のニューロンから受信することができる。隠れニューロンが入力ニューロン及び出力ニューロンとの間に配置される。ネットワークタイプに依存して、隠れニューロンの複数の層が存在し得る。これらは、情報が転送され処理されることを保証する。出力ニューロンは、結果及び出力を外界へ最終的に提供する。ニューロンを配置及びリンクすることは、フィードフォワードネットワーク、リカレントネットワーク、又は畳み込みニューラルネットワークなどの様々なタイプのニューラルネットワークを生成する。ネットワークは教師無し学習又は監視付き学習を用いてトレーニングされ得る。
特に、検出システム400は、畳み込みニューラルネットワーク(CNN:convolutional neural network)の形式である解析モジュール410を有する。カメラ・センサ装置30からの画像・センサデータ32は解析モジュール410の入力データとして使用される。加えて、データベース60からのデータも使用され得る。入力データのデータフォーマットは好適にはテンソルの形式である。加えて、様々な画像形式が有利に使用され得る。
畳み込みニューラルネットワークは人工ニューラルネットワークの特殊形式である。畳み込みニューラルネットワークは、複数の畳み込み層を有し、そして、画像及び音声認識の分野における人工知能(AI)による機械学習及びアプリケーションに非常に適する。畳み込みニューラルネットワークの操作方法は、生物過程をある程度モデルにしており、そしてその構造は脳の視覚野に匹敵する。畳み込みニューラルネットワークは通常、監視されたやり方でトレーニングされる。従来のニューラルネットワークは、複数のレベルにおいて十分にメッシュ化された又は部分的にメッシュ化されたニューロンを含む。しかし、これらの構造は、画素の数に対応する入力の数が利用可能である必要があると思われるので画像を処理する際にその限界に達する。畳み込みニューラルネットワークは、様々な層で構成され、そして、基本原理の観点では、部分的且つ局所的にメッシュ化された神経フィードフォワードネットワークである。CNNの個々の層は、畳み込み層、プーリング層、及び十分にメッシュ化された層である。プーリング層は、畳み込み層に続いており、そして、この組み合わせで連続して複数回存在し得る。プーリング層及び畳み込み層は局所的にメッシュ化されたサブネットワークであるので、これらの層内の接続の数は、大きな入力データ容量の場合ですら制限されたままであり、そして、管理可能フレームワーク内で制限されたままである。十分にメッシュ化された層は終端を形成する。畳み込み層は、実際の畳み込みレベルであり、そして、入力データ内の個々の特徴を検出及び抽出することができる。画像処理中、これらは線、縁、又は特定形状などの特徴であり得る。入力データは、マトリクス又はベクトルなどのテンソルの形式で処理される。サブサンプリング層とも呼ばれるプーリング層は、適切なフィルタ機能を用いて、検出された特徴の解像度を圧縮し低減する。特に、最大プール機能が、この目的に使用され、そしてデータの(通常は)非重畳部分の最大値を計算する。しかし、平均値プーリングがまた、最大プーリングに加えて使用され得る。プーリングは余計な情報を排除し、データ容量を低減する。機械学習中の性能は結果として低下されない。計算速度は低減されたデータ容量の結果として増加される。
十分にリンクされた層が畳み込みニューラルネットワークの終端を形成する。これは、畳み込み層及びプーリング層の系列の反復の結果である。上流層のすべての特徴及び要素は各出力特徴へリンクされる。十分に接続されたニューロンが複数のレベル内に配置され得る。ニューロンの数は、畳み込みニューラルネットワークにより処理されるように意図された入力データに依存する。
したがって、従来の非畳み込みニューラルネットワークと比較して、畳み込みニューラルネットワーク(CNN)は数々の利点を提供する。畳み込みニューラルネットワーク(CNN)は、大量の入力データを有する機械学習及び人工知能アプリケーション(画像認識など)に好適である。ネットワークは、確実に動作し、そして歪み又は他の光学的変化に対し不感である。CNNは、様々な光条件でそして様々な観点から記録された画像を処理し得る。それにもかかわらず、CNNは画像の典型的特徴を検出する。CNNは、複数の局所的、部分的にメッシュ化された層に分割されるので、十分にメッシュ化されたニューラルネットワークより著しく低いメモリ空間必要要件を有する。畳み込み層はメモリ要件を劇的に低減する。同様に、畳み込み層は、畳み込みニューラルネットワークのトレーニング時間を大いに短縮する。CNNは、最近のグラフィックプロセッサを非常に効率的に使用することによりトレーニングされ得る。CNNは、フィルタの助けを借りて入力画像の特徴を検出及び抽出する。CNNはまず第一に、第1の層内の線、色特徴、又は縁などの単純構造を検出する。別の層では、畳み込みニューラルネットワークは、これらの構造(単純な形状又は曲線など)の組み合せを学習する。より複雑な構造は各レベルにより識別され得る。データはレベル内で再三再サンプリングされ、濾過される。
したがって、画像・センサデータ32は好適には、解析モジュール410内の畳み込みニューラルネットワークを用いて処理される。車両の車体12の運動の特徴M,M,...,Mを含む分類モジュール430も設けられる。加えて、第1の自動車10の周辺状況のいくつかの状態S,S,...,Sがこれらの特徴M,M,...,Mへ割り当てられ得る。したがって、車体12のいくつかの高速上下運動は、道路22の表面のあり得るバンプ及び/又は凹凸並びに損傷を指示し得る。車体12の水平運動は、道路22上に在りそして前を走る第1の自動車10により回避される障害の指標であり得る。前を走る第1の自動車10までの過度に短い距離が、検出され得、そして危急な運転状況を指示し得る。安全性レベル(低い安全性レベル~高い安全性レベル)が状態S,S,...,Sへ割り当てられる。第1の自動車10の周辺状況のこれらの特徴M,M,...,M及び/又は状態S,S,...,Sは好適には、CNNによりトレーニング段階中に判断される又は予め定義されそして分類モジュール430へ送信される。
このようなやり方で処理された画像・センサデータ32は、自動運転機能において出力データ450として一体化される、及び/又はユーザインターフェース70へ送信される。これらは、第2の自動車20の運転手への推奨行為又は警告としてそこで出力され得る。例えば、変更された運転振る舞いを運転手に採用するように促すように意図された警告トーン又は光指標が、ユーザインターフェース70を介し出力され得る。自動運転機能の場合、運転速度は例えば自動的に低下され得る。さらに、第2の自動車20の前車軸及び/又は後車軸の制動ユニットが自動的に適応化されるための手立てがなされ得、その結果、制動は例えばよりソフトな制動へ設定され、第2の自動車20はより安全に且つ乗員にとってより快適なやり方でバンプ又は道路破損を乗り越え得る。
したがって、本発明による前を走る第1の自動車の車体の運動を検出するための方法は、以下の工程を含む:
工程S10では、画像・センサデータ32は第2の自動車20のカメラ・センサ装置30により記録され、画像・センサデータ32は、少なくとも第1の自動車10を含む自動車20の周辺状況を表す。
工程S20では、画像・センサデータ32はデータ解析装置40へ転送され、データ解析装置40は、第1の自動車10の車体12の運動を検出するための検出システム400であって人工知能(AI)及び機械画像解析の分野からのアルゴリズムを使用する検出システムを含む。
工程S30では、画像・センサデータ32は、車体12のあり得る運動を分類するために検出システム400を用いてデータ解析装置40内で処理される。
工程S40では、一組の定義された状態S,S,...,Sから少なくとも1つ選択された状態Sが、分類された運動へ割り当てられる。
工程S50では、出力データ450が、自動運転機能におけるさらなる使用のために及び/又はユーザインターフェース70のために、該選択された状態Sから生成される。
したがって、第2の自動車20の周辺状況からの画像は、前を走る第1の自動車10の車体12の運動に関して、人工知能(AI)及びマシン画像解析の分野からのアルゴリズムを使用する検出システム400を用いてリアルタイムで解析され得る。本発明は、第1の自動車10の車体12の運動を自動的に捕捉することを可能にする。バンプ又は道路面に対する破損の発生などの道路状況は、分類された運動から導出され得る。解析の結果は、例えば、前を走る第1の自動車10の車体12の運動が第2の自動車20の危急な運転状況を指示すれば、第2の自動車20のユーザインターフェース70上に例えば光学的及び/又は音響的警報信号として出力される。
加えて、運転振る舞い又は車両部品の設定に対する適合化(前車軸及び/又は後車軸の制動の程度など)は自動又は半自動運転機能によりなされ得る。前を走る第1の自動車10までの過度に短い距離が検出されれば、第2の自動車20の運転速度は自動的に低下され得る又は制動過程が開始され得る。データはリアルタイムで送信され評価されるので、ミリ秒の領域内の高速応答が可能である。これは、特に第2の自動車20の高い運転速度の場合、このやり方だけで自動運転機能は現在の運転状況に適切に反応し得るということを保証することが可能であるので非常に重要である。したがって、本発明は運転中の安全性をさらに増加することを可能にする。
10 第1の自動車
12 車体
20 第2の自動車
22 道路
30 カメラ・センサ装置
32 画像・センサデータ
35 RGBカメラ
37 音響センサ
39 LiDARシステム、超音波システム、レーダシステム
40 データ解析装置
41 プロセッサ
50 メモリユニット
55 ソフトウェアモジュール
60 データベース
70 ユーザインターフェース
100 システム
400 検出システム
410 解析モジュール
430 分類モジュール
450 出力データ
500 コンピュータプログラム
550 プログラムコード

Claims (8)

  1. データ解析装置(40)を用いて第1の自動車(10)の車体(12)の運動であって、前記車体(12)の水平運動又は上下運動の変動を検出するための方法であって、前記方法は、
    第2の自動車(20)のカメラ・センサ装置(30)を用いて画像・センサデータ(32)を記録する工程(S10)であって、前記画像・センサデータ(32)は少なくとも前記第1の自動車(10)を含む前記第2の自動車(20)の周辺状況を表し、前記カメラ・センサ装置(30)が少なくとも3,840×2,160ピクセル(4k)のウルトラHD解像度を有する少なくとも1つのアクションカメラ(35)を備える、工程;
    前記画像・センサデータ(32)を前記データ解析装置(40)へ転送する工程(S20)であって、前記データ解析装置(40)は、前記第1の自動車(10)の前記車体(12)の運動を検出するための検出システム(400)であって人工知能(AI)及び機械画像解析の分野からのアルゴリズムを使用する検出システムを含み、前記データ解析装置(40)は、クラウド計算インフラストラクチャにおけるクラウドベースソリューションとして設計され、移動無線接続を介して前記第2の自動車(20)に接続され、前記検出システム(400)は解析モジュール(410)及び分類モジュール(430)を含み、前記分類モジュール(430)は、前記分類モジュール(430)のトレーニング段階において判断された又は予め定められた前記第1の自動車(10)の前記車体(12)の運動の特徴(M ,M ,...,M )を含み、前記特徴(M 、M 、…、M )は前記第1の自動車(10)の周辺状況についての一組の定義された状態(S 、S 、…、S )に割り当てられる、工程;
    前記車体(12)のあり得る運動を分類するために前記検出システム(400)を用いて前記データ解析装置(40)内で前記画像・センサデータ(32)を処理する工程(S30);
    前記車体(12)の前記分類された運動を前記第1の自動車(10)の周辺状況についての前記一組の定義された状態(S,S,...,S)から少なくとも1つ選択された状態(S)へ割り当てる工程(S40);
    出力データ(450)を、自動運転機能におけるさらなる使用のために及び/又はユーザインターフェースのために、前記選択された状態(S)から生成する工程(S50)を含む、方法であって、
    前記画像・センサデータ(32)は処理され、前記出力データ(450)はリアルタイムで生成され、前記画像・センサデータ(32)は、5G無線モジュールが使用される移動無線接続を用いて前記データ解析装置(40)へ送信され、前記画像・センサデータ(32)の解析と計算は、前記クラウド計算インフラストラクチャで実行され、当該解析と計算の結果はリアルタイムで第2の自動車(20)に送り返され、前記自動運転機能に取り込まれ、第2の自動車(20)の前車軸及び/又は後車軸の制動ユニットは、自動的によりソフトな制動へ設定される、方法。
  2. 前記検出システム(400)はニューラルネットワークによる深層学習を使用する、請求項に記載の方法。
  3. 前記ニューラルネットワークは畳み込みニューラルネットワークの形式である、請求項に記載の方法。
  4. 前記カメラ・センサ装置(30)は、音響センサ(37)及び/又はLiDARシステム及び/又は超音波システム及び/又はレーダシステム(39)を含む、請求項1~のいずれか一項に記載の方法。
  5. 第1の自動車(10)の車体(12)の運動であって、前記車体(12)の水平運動又は上下運動の変動を検出するためのシステム(100)であって、前記システムは、
    第2の自動車(20)のカメラ・センサ装置(30)であって、画像・センサデータ(32)が少なくとも前記第1の自動車(10)を含む前記第2の自動車(20)の周辺状況を表し、前記カメラ・センサ装置(30)が少なくとも3,840×2,160ピクセル(4k)のウルトラHD解像度を有する少なくとも1つのアクションカメラ(35)を備える、カメラ・センサ装置(30);及び、
    データ解析装置(40)を含み、
    前記データ解析装置(40)は、前記第1の自動車(10)の前記車体(12)の運動を検出するための検出システム(400)であって人工知能(AI)及び機械画像解析の分野からのアルゴリズムを使用する検出システム(400)を含み、前記データ解析装置(40)は、クラウド計算インフラストラクチャにおけるクラウドベースソリューションとして設計され、移動無線接続を介して前記第2の自動車(20)に接続され、、前記検出システム(400)は解析モジュール(410)及び分類モジュール(430)を含み、前記分類モジュール(430)は、前記分類モジュール(430)のトレーニング段階において判断された又は予め定められた前記第1の自動車(10)の前記車体(12)の運動の特徴(M ,M ,...,M )を含み、前記特徴(M 、M 、…、M )は前記第1の自動車(10)の周辺状況についての一組の定義された状態(S 、S 、…、S )に割り当てられ、前記データ解析装置(40)は、前記検出システム(400)を用いて画像・センサデータ(32)を処理し、前記車体(12)のあり得る運動を分類し、前記第1の自動車(10)の周辺状況の前記一組の定義された状態(S,S,...,S)から少なくとも1つ選択された状態(S)を前記車体(12)の分類された運動へ割り当て、そして出力データ(450)を、自動運転機能におけるさらなる使用のために及び/又はユーザインターフェース(70)のために、前記選択された状態(S)から生成するように設計され、前記画像・センサデータ(32)は処理され、前記出力データ(450)はリアルタイムで生成され、前記画像・センサデータ(32)は、5G無線モジュールが使用される移動無線接続を用いて前記データ解析装置(40)へ送信され、前記画像・センサデータ(32)の解析と計算は、前記クラウド計算インフラストラクチャで実行され、当該解析と計算の結果はリアルタイムで第2の自動車(20)に送り返され、前記自動運転機能に取り込まれ、第2の自動車(20)の前車軸及び/又は後車軸の制動ユニットは、自動的によりソフトな制動へ設定される、システム。
  6. 前記検出システム(400)は畳み込みニューラルネットワークの形式のニューラルネットワークによる深層学習を使用する、請求項に記載のシステム(100)。
  7. 前記カメラ・センサ装置(30)は、音響センサ(37)及び/又はLiDARシステム及び/又は超音波システム及び/又はレーダシステム(39)を含む、請求項5又は6に記載のシステム(100)。
  8. 実行中に請求項1~のいずれか一項に記載の方法を行うように構成された実行可能プログラムコード(550)を含むコンピュータプログラム(500)。
JP2021186643A 2020-11-23 2021-11-16 自動車の車体の運動を検出するための方法、システム及びコンピュータプログラム Active JP7309817B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020130886.8 2020-11-23
DE102020130886.8A DE102020130886A1 (de) 2020-11-23 2020-11-23 Verfahren, System und Computerprogrammprodukt zur Erkennung von Bewegungen des Fahrzeugsaufbaus bei einem Kraftfahrzeug

Publications (2)

Publication Number Publication Date
JP2022082510A JP2022082510A (ja) 2022-06-02
JP7309817B2 true JP7309817B2 (ja) 2023-07-18

Family

ID=81453061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021186643A Active JP7309817B2 (ja) 2020-11-23 2021-11-16 自動車の車体の運動を検出するための方法、システム及びコンピュータプログラム

Country Status (4)

Country Link
US (1) US20220165067A1 (ja)
JP (1) JP7309817B2 (ja)
KR (2) KR20220071116A (ja)
DE (1) DE102020130886A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003228800A (ja) 2002-02-01 2003-08-15 Nissan Motor Co Ltd 車両用推奨操作量生成装置
JP2008117082A (ja) 2006-11-01 2008-05-22 Toyota Motor Corp 走行制御計画評価装置
JP2018205940A (ja) 2017-06-01 2018-12-27 日立オートモティブシステムズ株式会社 移動体挙動予測装置
JP2019008709A (ja) 2017-06-28 2019-01-17 京セラ株式会社 車両、情報処理システム、情報処理装置、およびデータ構造

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05262113A (ja) * 1992-03-18 1993-10-12 Fujitsu Ten Ltd 車両のサスペンション制御装置
JP2003276538A (ja) * 2002-03-26 2003-10-02 Toyota Central Res & Dev Lab Inc 障害物予測装置
CN101029823B (zh) * 2006-02-28 2010-09-15 东软集团股份有限公司 基于车辆状态分类的车辆跟踪方法和装置
JP4868426B2 (ja) * 2010-02-08 2012-02-01 富士通セミコンダクター株式会社 移動体を含む画像の処理方法及び装置
DE102011007608A1 (de) 2011-04-18 2012-10-18 Robert Bosch Gmbh Verfahren und System zur aktiven Fahrwerksregelung
JP6564577B2 (ja) * 2015-02-16 2019-08-21 修一 田山 自動車における近接体警報知装置
DE102016000209A1 (de) 2016-01-11 2017-07-13 Trw Automotive Gmbh Steuerungs-System und Verfahren zum Ermitteln einer Straßenbelagsunregelmäßigkeit
US20180144636A1 (en) * 2016-06-30 2018-05-24 Faraday&Future Inc. Distracted driver detection, classification, warning, avoidance system
CN106250838A (zh) * 2016-07-27 2016-12-21 乐视控股(北京)有限公司 车辆识别方法及系统
DE102016012230A1 (de) * 2016-10-13 2018-04-19 Man Truck & Bus Ag Verfahren zum Betreiben eines Fahrzeugs und Fahrzeug
DE102017201838A1 (de) 2017-02-06 2018-08-09 Continental Automotive Gmbh Erkennung von Straßenunebenheiten anhand einer Situationsanalyse
JP6539297B2 (ja) 2017-03-31 2019-07-03 株式会社Subaru 車両の走行支援装置
CN108182428A (zh) * 2018-01-31 2018-06-19 福州大学 前车状态识别和车辆跟随的方法
EP3786882A4 (en) * 2018-04-26 2022-01-19 Nippon Telegraph And Telephone Corporation MOTION STATE RECOGNITION LEARNING DEVICE, MOTION STATE RECOGNITION DEVICE, METHOD AND PROGRAM
US10981564B2 (en) * 2018-08-17 2021-04-20 Ford Global Technologies, Llc Vehicle path planning
KR20200107023A (ko) * 2019-03-05 2020-09-16 현대자동차주식회사 차량 안전주행 지원 장치 및 방법
DE102019204196B4 (de) 2019-03-27 2021-03-18 Continental Automotive Gmbh Verfahren zum Erfassen des Umfeldes eines Fortbewegungsmittels
US11157007B2 (en) * 2019-06-28 2021-10-26 Lyft, Inc. Approaches for encoding environmental information
US11100801B2 (en) * 2019-08-12 2021-08-24 Toyota Motor North America, Inc. Utilizing sensors to detect hazard from other vehicle while driving
JP7388971B2 (ja) * 2020-04-06 2023-11-29 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003228800A (ja) 2002-02-01 2003-08-15 Nissan Motor Co Ltd 車両用推奨操作量生成装置
JP2008117082A (ja) 2006-11-01 2008-05-22 Toyota Motor Corp 走行制御計画評価装置
JP2018205940A (ja) 2017-06-01 2018-12-27 日立オートモティブシステムズ株式会社 移動体挙動予測装置
JP2019008709A (ja) 2017-06-28 2019-01-17 京セラ株式会社 車両、情報処理システム、情報処理装置、およびデータ構造

Also Published As

Publication number Publication date
KR102700467B1 (ko) 2024-09-02
KR20220071116A (ko) 2022-05-31
JP2022082510A (ja) 2022-06-02
US20220165067A1 (en) 2022-05-26
DE102020130886A1 (de) 2022-05-25
KR20230170614A (ko) 2023-12-19

Similar Documents

Publication Publication Date Title
US11468582B2 (en) Leveraging multidimensional sensor data for computationally efficient object detection for autonomous machine applications
CN111133447B (zh) 适于自主驾驶的对象检测和检测置信度的方法和系统
CN113168505B (zh) 用于自主驾驶机器的基于回归的线检测
US11170299B2 (en) Distance estimation to objects and free-space boundaries in autonomous machine applications
CN112989914B (zh) 具有自适应加权输入的注视确定机器学习系统
US11112791B2 (en) Selective compression of image data during teleoperation of a vehicle
JP2021095117A (ja) 顔のランドマーク及び関連する信頼値を使用したニューラルネットワークベースの顔分析
WO2019182974A2 (en) Stereo depth estimation using deep neural networks
CN114155272A (zh) 自主机器应用中的自适应目标跟踪算法
CN113950702A (zh) 在视频分析应用中使用相关滤波器的多对象跟踪
CN113767389A (zh) 从用于自主机器应用的经变换的真实世界传感器数据模拟逼真的测试数据
CN111566612A (zh) 基于姿势和视线的视觉数据采集系统
CN111133448A (zh) 使用安全到达时间控制自动驾驶车辆
US20210312203A1 (en) Projecting images captured using fisheye lenses for feature detection in autonomous machine applications
CN114270294A (zh) 使用眩光作为输入的注视确定
US11886634B2 (en) Personalized calibration functions for user gaze detection in autonomous driving applications
US12073604B2 (en) Using temporal filters for automated real-time classification
CN114170826B (zh) 自动驾驶控制方法和装置、电子设备和存储介质
CN117015792A (zh) 有凹图像放大用于自动驾驶生成物体检测标签的系统和方法
CN116263688A (zh) 在自主系统和应用程序中使用特征描述符绘图进行单个和跨传感器对象追踪
CN116795091A (zh) 自主系统和应用程序的环境重建和路径规划
JP7363118B2 (ja) 外部環境認識装置
JP7309817B2 (ja) 自動車の車体の運動を検出するための方法、システム及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230517

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230705

R150 Certificate of patent or registration of utility model

Ref document number: 7309817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150