JP7140922B2 - マルチセンサデータ融合方法、及び装置 - Google Patents
マルチセンサデータ融合方法、及び装置 Download PDFInfo
- Publication number
- JP7140922B2 JP7140922B2 JP2021536829A JP2021536829A JP7140922B2 JP 7140922 B2 JP7140922 B2 JP 7140922B2 JP 2021536829 A JP2021536829 A JP 2021536829A JP 2021536829 A JP2021536829 A JP 2021536829A JP 7140922 B2 JP7140922 B2 JP 7140922B2
- Authority
- JP
- Japan
- Prior art keywords
- static
- data
- dynamic
- feature data
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/52—Discriminating between fixed and moving objects or between objects moving at different speeds
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
- G01S13/60—Velocity or trajectory determination systems; Sense-of-movement determination systems wherein the transmitter and receiver are mounted on the moving object, e.g. for determining ground speed, drift angle, ground track
- G01S13/605—Velocity or trajectory determination systems; Sense-of-movement determination systems wherein the transmitter and receiver are mounted on the moving object, e.g. for determining ground speed, drift angle, ground track using a pattern, backscattered from the ground, to determine speed or drift by measuring the time required to cover a fixed distance
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
Description
(1)検出ポイントは、校正情報と車両ステータス情報とに基づいて地表面座標系に変換され、その高さが閾値(通常0.05m)未満であるポイントが地上ポイントとみなされる。
(2)複数エコーレーザーレーダについて、レーザービームが複数のエコーを有し、非最終エコーのエコー幅が1m(実験値)未満である場合、エコーは、雨滴ポイントである。
(3)各ポイントと、ポイントの最近接ポイントとの間の距離が計算され、距離が解像度の5倍超である場合、そのポイントは、異常ポイントである。
Claims (24)
- 複数のタイプのセンサから特徴データを受信するステップと、
前記特徴データ上でのデータ分類を実行して、静的特徴データと動的特徴データとを取得するステップと、
前記動的特徴データに基づいて、参照動的ターゲット情報を取得するステップと、
前記静的特徴データと前記参照動的ターゲット情報とに基づいて、現在の静的環境情報を構築するステップと、
前記静的特徴データに基づいて、参照静的環境情報を取得するステップと、
前記動的特徴データと前記参照静的環境情報とに基づいて、現在の動的ターゲット情報を構築するステップと、
前記現在の静的環境情報と前記現在の動的ターゲット情報とを出力するステップと、
を含む、マルチセンサデータ融合知覚方法。 - 前記参照動的ターゲット情報は、過去の静的環境情報にさらに基づいて取得される、
請求項1に記載の方法。 - 前記参照静的環境情報は、過去の動的ターゲット情報にさらに基づいて取得される、
請求項1に記載の方法。 - 前記特徴データは、ミリ波レーダ検出データと非ミリ波レーダ検出データとを含み、前記特徴データ上でのデータ分類を実行することは、
前記ミリ波レーダ検出データ上での前記データ分類を実行して、ミリ波レーダ動的検出データと、ミリ波レーダ静的検出データとを取得することと、
前記ミリ波レーダ動的検出データと、前記ミリ波レーダ静的検出データとに基づいて、前記非ミリ波レーダ検出データ上での前記データ分類を実行して、動的非ミリ波特徴データと、静的非ミリ波特徴データとを取得することと、
を含み、
前記動的特徴データは、前記ミリ波レーダ動的検出データと、前記動的非ミリ波特徴データとを含み、前記静的特徴データは、前記ミリ波レーダ静的検出データと、前記静的非ミリ波特徴データとを含む、
請求項1~3のいずれか1項に記載の方法。 - 前記複数のタイプのセンサは、移動キャリア上に載置され、かつ、前記移動キャリアが位置する環境のステータスを観測するように構成され、前記現在の静的環境情報と前記現在の動的ターゲット情報とは、前記環境のステータスを示し、
前記参照動的ターゲット情報は、他の移動キャリアの移動軌跡を含み、前記他の移動キャリアは、前記移動キャリアが位置する前記環境内にあり、前記現在の静的環境情報は、前記環境の現在の静的ラスタマップを含み、
前記静的特徴データと前記参照動的ターゲット情報とに基づいて、現在の静的環境情報を構築する前記ステップは、
前記静的特徴データ上での座標系統一を実行して、同じ座標系における静的特徴データを取得することと、
前記同じ座標系における前記静的特徴データと、前記他の移動キャリアの移動軌跡とに基づいて、過去の静的ラスタマップ上でのローカル更新を実行して、前記現在の静的ラスタマップを取得することであって、
前記ローカル更新は、前記過去の静的ラスタマップ上でのターゲットラスタの値を更新することであって、前記ターゲットラスタは、前記他の移動キャリアによってカバーされるラスタであり、静的ラスタマップは、環境内の静的障害物分布を記述するために利用されるデータフォーマットである、ことを含む、ことと、
を含む、請求項1~4のいずれか1項に記載の方法。 - 前記複数のタイプのセンサは、前記移動キャリアの移動ステータスを観測するようにさらに構成され、前記移動キャリアの前記移動ステータスは、前記移動キャリアの移動速度を含み、
前記静的特徴データと前記参照動的ターゲット情報とに基づいて、現在の静的環境情報を構築する前記ステップの前に、前記方法は、
前記移動キャリアの前記移動速度に基づいて、前記移動キャリアが位置する前記環境の過去の静的ラスタマップ上の各ラスタの値に関するグローバル更新を実行して、更新された過去の静的ラスタマップを取得することであって、前記過去の静的ラスタマップは、現時点の前の時点での静的ラスタマップを含み、前記前の時点が開始時点であるとき、前記過去の静的ラスタマップは、初期静的ラスタマップであり、前記初期静的ラスタマップ上の各ラスタの値は、事前設定された値である、こと、
をさらに含み、
前記同じ座標系における前記静的特徴データと、他の移動キャリアの移動軌跡とに基づいて、過去の静的ラスタマップ上でのローカル更新を実行して、前記現在の静的ラスタマップを取得することは、
前記同じ座標系における前記静的特徴データと、前記他の移動キャリアの前記移動軌跡とに基づいて、前記更新された過去の静的ラスタマップ上での前記ローカル更新を実行して、前記現在の静的ラスタマップを取得すること、
を含む、
請求項5に記載の方法。 - 前記複数のタイプのセンサは、移動キャリア上に載置され、かつ前記移動キャリアが位置する環境のステータスを観測するように構成され、前記現在の静的環境情報と前記現在の動的ターゲット情報とは、前記環境のステータスを示し、
前記参照動的ターゲット情報は、他の移動キャリアの移動軌跡を含み、前記他の移動キャリアは、前記移動キャリアが位置する前記環境内にあり、
前記現在の静的環境情報は、前記移動キャリアが位置する前記環境内の道路構造情報をさらに含み、
前記静的特徴データと、前記参照動的ターゲット情報とに基づいて、現在の静的環境情報を構築する前記ステップは、
前記静的特徴データと、前記他の移動キャリアの前記移動軌跡とに基づいて、前記道路構造情報を構築すること、をさらに含む、
請求項1~4のいずれか1項に記載の方法。 - 前記参照静的環境情報は、前記道路構造情報を含み、前記動的特徴データと前記参照静的環境情報とに基づいて前記現在の動的ターゲット情報を構築する前記ステップは、
前記動的特徴データと前記道路構造情報とに基づいて、前記現在の動的ターゲット情報を構築するステップを含む、
請求項7に記載の方法。 - 前記道路構造情報は、道路端を含み、前記動的特徴データと前記参照静的環境情報とに基づいて現在の動的ターゲット情報を構築する前記ステップは、
前記動的特徴データをクラスタリングして、1つ又は複数のクラスタリング中心を取得することであって、各クラスタリング中心は、可能な動的ターゲットを表すために利用される、ことと、
前記道路構造情報に基づいて、前記1つ又は複数のクラスタリング中心のうちの無効なクラスタリング中心を除外することであって、前記道路端の外側に位置するクラスタリング中心、又は前記道路端に重なるクラスタリング中心は、無効なクラスタリング中心である、ことと、
を含む、
請求項8に記載の方法。 - 前記特徴データを過去の動的ターゲットに関連付けて、動的関連データを取得することであって、前記過去の動的ターゲットは、現時点の前の時点で移動キャリアが位置する環境内の動的ターゲットであり、前記複数のタイプのセンサは、前記移動キャリア上に載置され、かつ前記移動キャリアが位置する前記環境のステータスを観測するように構成されている、ことと、
前記特徴データ内にあり、かつ前記過去の動的ターゲットが位置する場所に置かれるデータを、前記動的関連データとして決定することと、
前記動的関連データを、前記動的特徴データとして決定することと、
をさらに含み、
前記特徴データ上でのデータ分類を実行することは、前記動的関連データが取り除かれた後で得られる特徴データ上での前記データ分類を実行すること、を含む、
請求項1~9のいずれか1項に記載の方法。 - 受信モジュールと、データ前処理モジュールと、静的環境構築モジュールと、動的ターゲット構築モジュールとを含み、
前記受信モジュールは、複数のタイプのセンサから特徴データを受信するように構成され、
前記データ前処理モジュールは、前記特徴データ上でのデータ分類を実行して、静的特徴データと動的特徴データとを取得するように構成され、
前記静的環境構築モジュールは、前記動的特徴データに基づいて、参照動的ターゲット情報を取得し、前記静的特徴データと前記参照動的ターゲット情報とに基づいて現在の静的環境情報を構築するように構成され、
前記動的ターゲット構築モジュールは、前記静的特徴データに基づいて、参照静的環境情報を取得し、前記動的特徴データと前記参照静的環境情報とに基づいて現在の動的ターゲット情報を構築するように構成され、
出力モジュールは、前記現在の静的環境情報と、前記現在の動的ターゲット情報とを出力するように構成される、
マルチセンサデータ融合知覚装置。 - 前記参照動的ターゲット情報は、過去の静的環境情報にさらに基づいて取得される、
請求項11に記載の装置。 - 前記参照静的環境情報は、過去の動的ターゲット情報にさらに基づいて取得される、
請求項11又は12に記載の装置。 - 前記特徴データは、ミリ波レーダ検出データと、非ミリ波レーダ検出データとを含み、前記データ前処理モジュールは、
前記ミリ波レーダ検出データ上での前記データ分類を実行して、ミリ波レーダ動的検出データと、ミリ波レーダ静的検出データとを取得し、
前記ミリ波レーダ動的検出データと、前記ミリ波レーダ静的検出データとに基づいて、前記非ミリ波レーダ検出データ上での前記データ分類を実行して、動的非ミリ波特徴データと、静的非ミリ波特徴データとを取得する
ように構成され、
前記動的特徴データは、前記ミリ波レーダ動的検出データと、前記動的非ミリ波特徴データとを含み、前記静的特徴データは、前記ミリ波レーダ静的検出データと、前記静的非ミリ波特徴データとを含む、
請求項11~13のいずれか1項に記載の装置。 - 前記複数のタイプのセンサは、移動キャリア上に載置され、かつ前記移動キャリアが位置する環境のステータスを観測するように構成され、前記現在の静的環境情報と前記現在の動的ターゲット情報は、前記環境のステータスを示し、
前記参照動的ターゲット情報は、他の移動キャリアの移動軌跡を含み、前記他の移動キャリアは、前記移動キャリアが位置する前記環境内にあり、前記現在の静的環境情報は、前記環境の現在の静的ラスタマップを含み、
前記静的環境構築モジュールは、
前記静的特徴データ上での座標系統一を実行して、同じ座標系における静的特徴データを取得し、
前記同じ座標系における前記静的特徴データと、前記他の移動キャリアの移動軌跡とに基づいて、過去の静的ラスタマップ上でのローカル更新を実行して、前記現在の静的ラスタマップを取得する、
ように構成され、前記ローカル更新は、
前記過去の静的ラスタマップ上のターゲットラスタの値を更新することであって、前記ターゲットラスタは、前記他の移動キャリアによってカバーされるラスタであり、静的ラスタマップは、環境内の静的障害物分布を記述するために利用されるデータフォーマットである、ことを含む、
請求項11~14のいずれか1項に記載の装置。 - 前記複数のタイプのセンサは、前記移動キャリアの移動ステータスを観測するようにさらに構成され、前記移動キャリアの前記移動ステータスは、前記移動キャリアの移動速度を含み、
前記静的環境構築モジュールは、
前記移動キャリアの前記移動速度に基づいて、前記移動キャリアが位置する前記環境の過去の静的ラスタマップ上の各ラスタの値をグローバル更新を実行して、更新された過去の静的ラスタマップを取得することであって、前記過去の静的ラスタマップは、現時点の前の時点での静的ラスタマップを含み、前記前の時点が開始時点であるとき、前記過去の静的ラスタマップは、初期静的ラスタマップであり、前記初期静的ラスタマップ上の各ラスタの値は、事前設定された値である、ことを行うようにさらに構成され、
前記同じ座標系における前記静的特徴データと、他の移動キャリアの移動軌跡とに基づいて、過去の静的ラスタマップ上でのローカル更新を実行して、前記現在の静的ラスタマップを取得することは、
前記同じ座標系における前記静的特徴データと、前記他の移動キャリアの前記移動軌跡とに基づいて、前記更新された過去の静的ラスタマップ上での前記ローカル更新を実行して、前記現在の静的ラスタマップを取得すること、を含む、
請求項15に記載の装置。 - 前記複数のタイプのセンサは、移動キャリア上に載置され、かつ前記移動キャリアが位置する環境のステータスを観測するように構成され、前記現在の静的環境情報と前記現在の動的ターゲット情報とは、前記環境のステータスを示し、
前記参照動的ターゲット情報は、他の移動キャリアの移動軌跡を含み、前記他の移動キャリアは、前記移動キャリアが位置する前記環境内にあり、
前記現在の静的環境情報は、前記移動キャリアが位置する前記環境内の道路構造情報をさらに含み、
前記静的環境構築モジュールは、
前記静的特徴データと、前記他の移動キャリアの前記移動軌跡とに基づいて、前記道路構造情報を構築するようにさらに構成される、
請求項11~14のいずれか1項に記載の装置。 - 前記参照静的環境情報は、前記道路構造情報を含み、前記動的ターゲット構築モジュールは、
前記動的特徴データと、前記道路構造情報とに基づいて、前記現在の動的ターゲット情報を構築するように構成される、
請求項17に記載の装置。 - 前記道路構造情報は、道路端を含み、前記動的ターゲット構築モジュールは、
前記動的特徴データをクラスタリングして、1つ又は複数のクラスタリング中心を取得することであって、各クラスタリング中心は、可能な動的ターゲットを表すために利用される、ことを行い、
前記道路構造情報に基づいて、前記1つ又は複数のクラスタリング中心のうちの無効なクラスタリング中心を除外することであって、前記道路端の外側に位置するクラスタリング中心、又は前記道路端に重なるクラスタリング中心は、前記無効なクラスタリング中心である、ことを行う
ように特に構成されている、
請求項18に記載の装置。 - 前記特徴データ上での前記データ分類を実行する前に、前記データ前処理モジュールは、
前記特徴データを過去の動的ターゲットに関連付けて、動的関連データを取得することであって、前記過去の動的ターゲットは、現時点の前の時点で移動キャリアが位置する環境内の動的ターゲットであり、前記複数のタイプのセンサは、前記移動キャリア上に載置され、かつ前記移動キャリアが位置する前記環境のステータスを観測するように構成されている、ことを行い、
前記特徴データ内にあり、かつ前記過去の動的ターゲットが位置する場所に置かれるデータを、前記動的関連データとして決定し、
前記動的関連データを、前記動的特徴データとして決定する、
ようにさらに構成され、
前記特徴データ上でのデータ分類を実行することは、前記動的関連データが取り除かれた後に得られる特徴データ上での前記データ分類を実行することを含む、
請求項11~19のいずれか1項に記載の装置。 - マルチセンサデータ融合知覚装置であって、
プログラムを格納するように構成されたメモリと、
前記メモリに格納された前記プログラムを実行するように構成されたプロセッサと、
を含み、前記メモリに格納された前記プログラムを実行するとき、前記プロセッサは、請求項1~10のいずれか1項に記載の前記方法を実行するように構成される、
マルチセンサデータ融合知覚装置。 - メモリと、通信バスと、プロセッサとを含むモバイル端末であって、前記メモリは、プログラムコードを格納するように構成され、前記プロセッサは、前記プログラムコードを呼び出して、請求項1~10のいずれか1項に記載の前記方法を実行するように構成される、
モバイル端末。 - コンピュータ可読記録媒体であって、前記コンピュータ可読記録媒体は、命令を格納し、前記命令がコンピュータ上で実行されるとき、前記コンピュータは、請求項1~10のいずれか1項に記載の前記方法を実行することが可能になる、コンピュータ可読記録媒体。
- チップであって、前記チップは、プロセッサと、データインターフェースとを含み、前記プロセッサは、前記データインターフェースを通じて、メモリに格納された命令を読み出すことによって、請求項1~10のいずれか1項に記載の前記方法を実行するように構成される、チップ。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811641186.3 | 2018-12-29 | ||
CN201811641186.3A CN111382768B (zh) | 2018-12-29 | 2018-12-29 | 多传感器数据融合方法和装置 |
PCT/CN2019/129629 WO2020135810A1 (zh) | 2018-12-29 | 2019-12-28 | 多传感器数据融合方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022514975A JP2022514975A (ja) | 2022-02-16 |
JP7140922B2 true JP7140922B2 (ja) | 2022-09-21 |
Family
ID=71129136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021536829A Active JP7140922B2 (ja) | 2018-12-29 | 2019-12-28 | マルチセンサデータ融合方法、及び装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11353553B2 (ja) |
EP (1) | EP3879455A4 (ja) |
JP (1) | JP7140922B2 (ja) |
CN (1) | CN111382768B (ja) |
WO (1) | WO2020135810A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111856507B (zh) * | 2020-07-28 | 2023-03-28 | 上海木木聚枞机器人科技有限公司 | 一种环境感测实现方法、智能移动设备和存储介质 |
CN112148769A (zh) * | 2020-09-15 | 2020-12-29 | 浙江大华技术股份有限公司 | 数据的同步方法、装置、存储介质以及电子装置 |
CN112528763A (zh) * | 2020-11-24 | 2021-03-19 | 浙江大华汽车技术有限公司 | 一种目标检测方法、电子设备和计算机存储介质 |
CN112572471B (zh) * | 2020-12-08 | 2022-11-04 | 西人马帝言(北京)科技有限公司 | 自动驾驶方法、装置、电子设备及计算机存储介质 |
CN114639262B (zh) * | 2020-12-15 | 2024-02-06 | 北京万集科技股份有限公司 | 感知设备的状态检测方法、装置、计算机设备和存储介质 |
CN112505671B (zh) * | 2021-02-07 | 2021-05-25 | 北方工业大学 | Gnss信号缺失环境下毫米波雷达目标定位方法及装置 |
CN113012429B (zh) * | 2021-02-23 | 2022-07-15 | 云控智行(上海)汽车科技有限公司 | 一种车路多传感器数据融合方法及系统 |
CN113051500B (zh) * | 2021-03-25 | 2022-08-16 | 武汉大学 | 一种融合多源数据的钓鱼网站识别方法及系统 |
CN113223090A (zh) * | 2021-04-16 | 2021-08-06 | 天津开发区文博电子有限公司 | 铁路调车动态视觉监控方法 |
CN113267779A (zh) * | 2021-05-17 | 2021-08-17 | 南京师范大学 | 一种基于雷达与图像数据融合的目标检测方法及系统 |
CN113359117A (zh) * | 2021-06-29 | 2021-09-07 | 上海智能网联汽车技术中心有限公司 | 一种静态标定系统及方法 |
CN113535877B (zh) * | 2021-07-16 | 2023-05-30 | 上海高仙自动化科技发展有限公司 | 智能机器人地图的更新方法、装置、设备、介质及芯片 |
CN113688880A (zh) * | 2021-08-02 | 2021-11-23 | 南京理工大学 | 一种基于云计算的障碍地图的创建方法 |
CN113589254A (zh) * | 2021-08-23 | 2021-11-02 | 东莞正扬电子机械有限公司 | 基于雷达的移动目标检测方法、装置及雷达检测设备 |
CN113740843A (zh) * | 2021-09-07 | 2021-12-03 | 中国兵器装备集团自动化研究所有限公司 | 一种跟踪目标的运动状态估计方法、系统及电子装置 |
CN113777601A (zh) * | 2021-09-14 | 2021-12-10 | 无锡威孚高科技集团股份有限公司 | 一种基于特征的目标跟踪优化方法、装置和存储介质 |
CN113879333B (zh) * | 2021-09-30 | 2023-08-22 | 深圳市商汤科技有限公司 | 轨迹预测方法、装置、电子设备及存储介质 |
CN114608589A (zh) * | 2022-03-04 | 2022-06-10 | 西安邮电大学 | 一种多传感器信息融合方法及系统 |
CN114970630B (zh) * | 2022-06-01 | 2024-04-19 | 中国人民解放军63796部队 | 一种时序数据多尺度分段的模型训练方法 |
CN115079168B (zh) * | 2022-07-19 | 2022-11-22 | 陕西欧卡电子智能科技有限公司 | 基于激光雷达与毫米波雷达融合的建图方法、装置及设备 |
CN116106853B (zh) * | 2023-04-12 | 2023-09-01 | 陕西欧卡电子智能科技有限公司 | 基于毫米波雷达的水面场景目标动静状态识别方法 |
CN117372987B (zh) * | 2023-12-08 | 2024-01-30 | 山东高速工程检测有限公司 | 道路三维数据处理方法、装置、存储介质及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016527578A (ja) | 2014-03-27 | 2016-09-08 | ▲ホア▼▲ウェイ▼技術有限公司Huawei Technologies Co.,Ltd. | アプリケーションシナリオの識別方法、電力消費の管理方法、装置、および端末デバイス |
US20180082430A1 (en) | 2016-09-21 | 2018-03-22 | Verizon Patent And Licensing Inc. | Feature tracking and dynamic feature addition in an augmented reality environment |
US20180107214A1 (en) | 2016-10-17 | 2018-04-19 | Steering Solutions Ip Holding Corporation | Sensor fusion for autonomous driving transition control |
US20180239991A1 (en) | 2015-05-15 | 2018-08-23 | Airfusion, Inc. | Portable apparatus and method for decision support for real time automated multisensor data fusion and analysis |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003090877A (ja) * | 2001-07-12 | 2003-03-28 | Murata Mfg Co Ltd | レーダ装置 |
EP1772746B1 (en) * | 2005-10-07 | 2015-03-04 | Saab Ab | Method and arrangement for data fusion |
CN101413806B (zh) | 2008-11-07 | 2011-05-25 | 湖南大学 | 一种实时数据融合的移动机器人栅格地图创建方法 |
DE102010006828B4 (de) * | 2010-02-03 | 2021-07-08 | Volkswagen Ag | Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug |
CN102323854B (zh) * | 2011-03-11 | 2013-10-16 | 中国科学院研究生院 | 人体运动捕获装置 |
CN202216696U (zh) * | 2011-07-07 | 2012-05-09 | 中国矿业大学(北京) | 基于信息融合的煤矿救灾机器人导航装置 |
CN102564431B (zh) | 2011-11-14 | 2014-11-12 | 南京理工大学 | 基于多传感器融合的非结构化环境理解方法 |
US9097800B1 (en) | 2012-10-11 | 2015-08-04 | Google Inc. | Solid object detection system using laser and radar sensor fusion |
CN105445728B (zh) * | 2014-08-27 | 2018-05-11 | 启碁科技股份有限公司 | 预警方法及车用雷达系统 |
US9630619B1 (en) * | 2015-11-04 | 2017-04-25 | Zoox, Inc. | Robotic vehicle active safety systems and methods |
CN105389984A (zh) * | 2015-11-16 | 2016-03-09 | 北京智视信息科技有限公司 | 一种基于移动终端传感信息融合的驾驶行为识别方法 |
US10565468B2 (en) | 2016-01-19 | 2020-02-18 | Aptiv Technologies Limited | Object tracking system with radar/vision fusion for automated vehicles |
US10317519B2 (en) * | 2016-04-15 | 2019-06-11 | Huawei Technologies Co., Ltd. | Systems and methods for environment sensing using radar |
CN106291736A (zh) * | 2016-08-16 | 2017-01-04 | 张家港长安大学汽车工程研究院 | 无人驾驶汽车车道动态障碍物检测方法 |
EP3519770B1 (en) * | 2016-09-28 | 2021-05-05 | TomTom Global Content B.V. | Methods and systems for generating and using localisation reference data |
US10127814B2 (en) * | 2017-02-03 | 2018-11-13 | Ford Global Technologies, Llc | Advanced V2X event dissemination |
CN106908783B (zh) | 2017-02-23 | 2019-10-01 | 苏州大学 | 基于多传感器信息融合的障碍物检测方法 |
US10109198B2 (en) * | 2017-03-08 | 2018-10-23 | GM Global Technology Operations LLC | Method and apparatus of networked scene rendering and augmentation in vehicular environments in autonomous driving systems |
CN106951879B (zh) | 2017-03-29 | 2020-04-14 | 重庆大学 | 基于摄像头与毫米波雷达的多特征融合车辆检测方法 |
CN107202983B (zh) | 2017-05-19 | 2020-11-13 | 深圳佑驾创新科技有限公司 | 基于图像识别和毫米波雷达融合的自动刹车方法和系统 |
US20180307245A1 (en) * | 2017-05-31 | 2018-10-25 | Muhammad Zain Khawaja | Autonomous Vehicle Corridor |
US20190016331A1 (en) * | 2017-07-14 | 2019-01-17 | Nio Usa, Inc. | Programming complex parking maneuvers for driverless vehicles |
CN108090515B (zh) * | 2017-12-27 | 2020-04-21 | 南京邮电大学 | 一种基于数据融合的环境等级评估方法 |
CN108226924B (zh) * | 2018-01-11 | 2020-11-10 | 南京楚航科技有限公司 | 基于毫米波雷达的汽车行驶环境探测方法、装置及其应用 |
CN108711163A (zh) * | 2018-02-24 | 2018-10-26 | 中国人民解放军火箭军工程大学 | 一种基于多传感器的机器人未知环境目标跟踪方法 |
US10404261B1 (en) * | 2018-06-01 | 2019-09-03 | Yekutiel Josefsberg | Radar target detection system for autonomous vehicles with ultra low phase noise frequency synthesizer |
US11353577B2 (en) * | 2018-09-28 | 2022-06-07 | Zoox, Inc. | Radar spatial estimation |
-
2018
- 2018-12-29 CN CN201811641186.3A patent/CN111382768B/zh active Active
-
2019
- 2019-12-28 JP JP2021536829A patent/JP7140922B2/ja active Active
- 2019-12-28 WO PCT/CN2019/129629 patent/WO2020135810A1/zh unknown
- 2019-12-28 EP EP19905209.3A patent/EP3879455A4/en active Pending
-
2021
- 2021-06-21 US US17/353,017 patent/US11353553B2/en active Active
-
2022
- 2022-05-26 US US17/825,601 patent/US20220326350A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016527578A (ja) | 2014-03-27 | 2016-09-08 | ▲ホア▼▲ウェイ▼技術有限公司Huawei Technologies Co.,Ltd. | アプリケーションシナリオの識別方法、電力消費の管理方法、装置、および端末デバイス |
US20180239991A1 (en) | 2015-05-15 | 2018-08-23 | Airfusion, Inc. | Portable apparatus and method for decision support for real time automated multisensor data fusion and analysis |
US20180082430A1 (en) | 2016-09-21 | 2018-03-22 | Verizon Patent And Licensing Inc. | Feature tracking and dynamic feature addition in an augmented reality environment |
US20180107214A1 (en) | 2016-10-17 | 2018-04-19 | Steering Solutions Ip Holding Corporation | Sensor fusion for autonomous driving transition control |
Also Published As
Publication number | Publication date |
---|---|
CN111382768B (zh) | 2023-11-14 |
CN111382768A (zh) | 2020-07-07 |
US11353553B2 (en) | 2022-06-07 |
EP3879455A1 (en) | 2021-09-15 |
EP3879455A4 (en) | 2022-01-12 |
WO2020135810A1 (zh) | 2020-07-02 |
JP2022514975A (ja) | 2022-02-16 |
US20210311167A1 (en) | 2021-10-07 |
US20220326350A1 (en) | 2022-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7140922B2 (ja) | マルチセンサデータ融合方法、及び装置 | |
CN111670468B (zh) | 移动体行为预测装置以及移动体行为预测方法 | |
Yoo et al. | A robust lane detection method based on vanishing point estimation using the relevance of line segments | |
Darms et al. | Obstacle detection and tracking for the urban challenge | |
Mertz et al. | Moving object detection with laser scanners | |
US9127956B2 (en) | Technique for lane assignment in a vehicle | |
JP6800575B2 (ja) | 自己の乗り物のドライバを支援する方法およびシステム | |
US10553117B1 (en) | System and method for determining lane occupancy of surrounding vehicles | |
US11308717B2 (en) | Object detection device and object detection method | |
US11782158B2 (en) | Multi-stage object heading estimation | |
US20210389133A1 (en) | Systems and methods for deriving path-prior data using collected trajectories | |
Kim et al. | Probabilistic threat assessment with environment description and rule-based multi-traffic prediction for integrated risk management system | |
WO2023092451A1 (zh) | 预测可行驶车道的方法和装置 | |
Zhang et al. | A framework for turning behavior classification at intersections using 3D LIDAR | |
JP2021082286A (ja) | 車線変更の検出を改良するためのシステム、非一時的コンピュータ可読媒体および方法 | |
Kuhnt et al. | Lane-precise localization of intelligent vehicles using the surrounding object constellation | |
Michalke et al. | Where can i drive? a system approach: Deep ego corridor estimation for robust automated driving | |
EP4239616A1 (en) | Object tracking device and object tracking method | |
Seeger et al. | Locally adaptive discounting in multi sensor occupancy grid fusion | |
US20230068848A1 (en) | Systems and methods for vehicle camera obstruction detection | |
Li et al. | Composition and application of current advanced driving assistance system: A review | |
Rezaei et al. | Multisensor data fusion strategies for advanced driver assistance systems | |
EP4239574A1 (en) | Object tracking device and object tracking method | |
Seeger | Obstacle Fusion and Scene Interpretation for Autonomous Driving with Occupancy Grids | |
WO2022230738A1 (ja) | 物体追跡装置及び物体追跡方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210623 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210623 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220908 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7140922 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |