JP2022087821A - データ融合方法及び装置 - Google Patents
データ融合方法及び装置 Download PDFInfo
- Publication number
- JP2022087821A JP2022087821A JP2021189745A JP2021189745A JP2022087821A JP 2022087821 A JP2022087821 A JP 2022087821A JP 2021189745 A JP2021189745 A JP 2021189745A JP 2021189745 A JP2021189745 A JP 2021189745A JP 2022087821 A JP2022087821 A JP 2022087821A
- Authority
- JP
- Japan
- Prior art keywords
- data
- fusion
- measurement data
- radar
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/91—Radar or analogous systems specially adapted for specific applications for traffic control
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】本発明の実施例は、データ融合方法及び装置を提供する。【解決手段】該方法は、交通感知システムに適用され、該システムは、少なくとも2つのセンサ群を含み、各センサ群はカメラ及びレーダを含み、該方法は、道路のカメラにより撮影されたビデオデータに基づいて第1の対象測定データを決定し、道路の所定領域に発射されたレーダ信号の反射信号により取得されたレーダデータに基づいて第2の対象測定データを決定し、レーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データとをマッチングし、マッチングデータを取得し、センサ群ごとに対象について電子地図座標系において取得された第1の対象測定データ、第2の対象測定データ及び該マッチングデータを融合し、各センサ群の第1の融合データを取得し、該少なくとも2つのセンサ群について測定された重複領域の測定データを融合し、第2の融合データを取得する。【選択図】図1
Description
本発明は、情報処理技術の分野に関する。
都市交通の発達に伴い、交通状況は益々複雑になっている。高速道路の比較的単純な道路状況と比べて、都市道路交通には、例えば自動車、自転車、トラック、バス、歩行者などの多くの参加者がいる。しかし、これらの参加者の可制御性が低く、その動きに多くの不確実な要因があり、特に都市道路の交差点でこの問題がより明らかになる。また、交差点で事故が発生すると、深刻な渋滞が発生し、交通圧力に繋がり、人口密度の高い都市では特に深刻である。従って、交通効率を改善し、交通圧力を低減させる方法は、都市交通管理において解決されるべき緊急の問題である。
近年、インテリジェントな交通システムは、都市の交通管理に徐々に適用されている。従来のインテリジェントな交通システムは、通常、監視カメラにより撮影された道路ビデオに基づいて対象検出を行い、検出結果に基づいて分析及び交通管理を行う。また、監視レーダの信号に基づく交通管理の技術もある。
なお、上述した技術背景の説明は、本発明の技術案を明確、完全に理解させるための説明であり、当業者を理解させるために記述されているものである。これらの技術案は、単なる本発明の背景技術部分として説明されたものであり、当業者により周知されたものではない。
現在、一般的に様々なタイプのセンサにより、例えば周辺の車両、歩行者、道路上の赤信号の状態などの動的な交通情報を取得する。インテリジェントな交通検知システムで使用される一般的なセンサは、レーザレーダ、カメラ、マイクロ波レーダなどを含む。異なるセンサの感知特性が異なり、異なる対象への適用性や感度も異なり、各センサの性能に長所及び短所がある。このため、感知の完全性、堅牢性、信頼性を確保するために、インテリジェントな交通融合感知システムを形成するように複数のセンサの融合というスキームを採用してもよい。
従来の融合のスキームでは、各センサのデータを取得した後、直接一次融合を行って動的な交通情報を取得し、電子地図で動的に表示する。本発明の発明者の発見によると、異なるタイプのセンサにより測定を行う場合、ノイズの干渉を受けるため、ある程度の測定誤差がある。従って、直接上記の一次融合を行うと、融合の正確度に影響を与え、電子地図の精度に影響を与えてしまう。
上記の問題の少なくとも1つを鑑み、本発明の実施例は、データ融合方法及び装置を提供する。
本発明の実施例の1つの態様では、交通感知システムに適用されるデータ融合方法であって、前記交通感知システムは、少なくとも2つのセンサ群を含み、各センサ群は、同一の位置に配置されたカメラ及びレーダを含み、異なるセンサ群は、異なる位置に配置され、前記データ融合方法は、道路のカメラにより撮影されたビデオデータに基づいて第1の対象測定データを決定するステップと、道路の所定領域に発射されたレーダ信号の反射信号により取得されたレーダデータに基づいて第2の対象測定データを決定するステップと、レーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データとをマッチングし、マッチングデータを取得するステップと、センサ群ごとに、対象について電子地図座標系において取得された第1の対象測定データ、第2の対象測定データ及び前記マッチングデータを融合し、各センサ群の第1の融合データを取得するステップと、前記少なくとも2つのセンサ群について測定された重複領域の測定データを融合し、第2の融合データを取得するステップと、を含む、方法を提供する。
本発明の実施例のもう1つの態様では、交通感知システムに適用されるデータ融合装置であって、前記交通感知システムは、少なくとも2つのセンサ群を含み、各センサ群は、同一の位置に配置されたカメラ及びレーダを含み、異なるセンサ群は、異なる位置に配置され、前記データ融合装置は、道路のカメラにより撮影されたビデオデータに基づいて第1の対象測定データを決定する第1の処理部と、道路の所定領域に発射されたレーダ信号の反射信号により取得されたレーダデータに基づいて第2の対象測定データを決定する第2の処理部と、レーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データとをマッチングし、マッチングデータを取得するマッチング部と、センサ群ごとに、対象について電子地図座標系において取得された第1の対象測定データ、第2の対象測定データ及び前記マッチングデータを融合し、各センサ群の第1の融合データを取得する第1の融合部と、前記少なくとも2つのセンサ群について測定された重複領域の測定データを融合し、第2の融合データを取得する第2の融合部と、を含む、装置を提供する。
本発明の実施例の有利な効果の1つは以下の通りである。センサ群ごとに、群内の測定データをマッチングした後、マッチング後のデータ及び群内の測定データに対して一次融合を行い、複数のセンサ群のデータに対して二次融合を行うことで、融合の正確度を向上させることができるため、電子地図の精度を向上させることができる。
本発明の特定の実施形態は、後述の説明及び図面に示すように、詳細に開示され、本発明の原理を採用されることが可能な方式を示している。なお、本発明の実施形態は、範囲上には限定されるものではない。本発明の実施形態は、添付されている特許請求の範囲の主旨及び内容の範囲内、各種の変更、修正、及び均等的なものが含まれる。
ある一つの実施形態に説明及び又は示されている特徴は、同一又は類似の方式で一つ又は多くの他の実施形態に使用されてもよく、他の実施形態における特徴と組み合わせてもよく、他の実施形態における特徴を代替してもよい。
なお、用語「含む/有する」は、本文に使用される際に、特徴、要素、ステップ又は構成要件の存在を意味し、一つ又は複数の他の特徴、要素、ステップ又は構成要件の存在又は追加を排除するものではない。
本発明の実施例の図面又は実施形態に説明されている要素及び特徴は、1つ又は複数の他の図面又は実施形態に示す要素及び特徴と組み合わせてもよい。図面において、類似する符号は複数の図面における対応する構成部を表し、複数の態様に用いられる対応構成部を表してもよい。
ここで含まれる図面は、本発明の実施例を理解させるためのものであり、本明細書の一部を構成し、本発明の実施例を例示するためのものであり、文言の記載と合わせて本発明の原理を説明する。なお、ここに説明される図面は、単なる本発明の実施例を説明するためのものであり、当業者にとって、これらの図面に基づいて他の図面を容易に得ることができる。
本発明の実施例に係るデータ融合方法の1つの概略図である。
本発明の実施例に係るデータ融合方法の1つの概略図である。
本発明の実施例に係るレーダの偏向角と方位角との関係の概略図である。
本発明の実施例に係るレーダの偏向角と方位角との関係の概略図である。
本発明の実施例に係るセンサに向かって移動する対象の移動軌跡のフィルタリング前後の概略図である。
本発明の実施例に係るセンサから離れるように移動する対象の移動軌跡のフィルタリング前後の概略図である。
本発明の実施例に係るデータ融合装置の1つの概略図である。
本発明の実施例に係るデータ融合装置の1つの概略図である。
本発明の実施例に係るデータ融合装置の1つの概略図である。
本発明の実施例に係るデータ融合プロセスの概略図である。
本発明の上記及びその他の特徴は、図面及び下記の説明により明確になる。明細書及び図面では、本発明の特定の実施形態、即ち本発明の原則に従う一部の実施形態を表すものを公開している。なお、本発明は説明される実施形態に限定されず、本発明は、特許請求の範囲内の全ての修正、変形されたもの、及び均等なものを含む。
本発明の実施例では、用語「第1」、「第2」は異なる要素を名称で区分するためのものであり、これらの要素の空間的配列又は時間的順序などを意味するものではなく、これらの要素はこれらの用語に限定されない。用語「及び/又は」は列挙された用語の1つ又は複数のうち何れか及びその組み合わせを含む。用語「包括」、「含む」、「有する」は説明された特徴、要素、素子又は部材の存在を意味するが、他の1つ又は複数の特徴、要素、素子又は部材の存在又は追加を排除するものではない。
本発明の実施例では、単数形の「一」、「該」等は複数形を含み、「一種」又は「一類」を意味し、「1つ」に限定するものではない。また、用語「前記」は、文脈上明確に指示されない限り、単数形及び複数形両方を含む。また、文脈上明確に指示されない限り、用語「応じて」は「少なくとも部分的に応じて」を意味し、用語「に基づいて」は「少なくとも部分的に基づいて」を意味する。
本発明の実施例では、電子地図座標系における各対象座標は、実世界における対象(object)の位置を反映する。カメラにより取得されたビデオデータは、ビデオ座標系に対応し、各画素の座標は、対象の位置である。レーダにより取得されたレーダデータは、レーダ座標系に対応し、レーダの位置は、レーダ座標系の原点(origin)である。カメラ及びレーダにより感知された情報は、近くの交通参加者に提供する前に、高精度の電子地図における地理的位置情報として最終的にマークする必要がある。従って、レーダ測定データ及びビデオ測定データを電子地図座標系に変換する必要がある。
以下は、図面を参照しながら本発明の実施例の各態様を説明する。これらの態様は単なる例示的なものであり、本発明の実施例を限定するものではない。
<実施例1>
本発明の実施例はデータ融合方法を提供する。図1は、本発明の実施例に係るデータ融合方法の1つの概略図である。該方法は、交通感知システムに適用され、該システムは、少なくとも2つのセンサ群を含み、各センサ群は、同一の位置に配置されたカメラ及びレーダを含み、異なるセンサ群は、異なる位置に配置されている。図1に示すように、該方法は以下のステップを含む。
本発明の実施例はデータ融合方法を提供する。図1は、本発明の実施例に係るデータ融合方法の1つの概略図である。該方法は、交通感知システムに適用され、該システムは、少なくとも2つのセンサ群を含み、各センサ群は、同一の位置に配置されたカメラ及びレーダを含み、異なるセンサ群は、異なる位置に配置されている。図1に示すように、該方法は以下のステップを含む。
ステップ101:道路のカメラにより撮影されたビデオデータに基づいて第1の対象測定データを決定する。
ステップ102:道路の所定領域に発射されたレーダ信号の反射信号により取得されたレーダデータに基づいて第2の対象測定データを決定する。
ステップ103:レーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データとをマッチングし、マッチングデータを取得する。
ステップ104:センサ群ごとに、対象について電子地図座標系において取得された第1の対象測定データ、第2の対象測定データ及び該マッチングデータを融合し、各センサ群の第1の融合データを取得する。
ステップ105:該少なくとも2つのセンサ群について測定された重複領域の測定データを融合し、第2の融合データを取得する。
これによって、センサ群ごとに、群内の測定データをマッチングした後、マッチング後のデータ及び群内の測定データに対して一次融合を行い、複数のセンサ群のデータに対して二次融合を行うことで、融合の正確度を向上させることができるため、電子地図の精度を向上させることができる。
幾つかの実施例では、該交通感知システムは、2種類のセンサ、即ちカメラ及びレーダ(例えば、マイクロ波レーダ)を含み、カメラ及びレーダは道路の上方又は道路の横に設置されてもよい。ここで、同一の位置に配置された2種類のセンサは、センサ群である。該感知システムは、異なる位置に配置された複数のセンサ群を含む。該交通感知システムの検出範囲は、実際のニーズに応じて設定されてもよい。例えば、交差点を中心とする特定の範囲を検出範囲とし、該交差点の南北方向の南に向かって1つのセンサ群が設置され、該交差点の東西方向の西に向かって1つのセンサ群が設置されてもよく、ここで他の例の説明を省略する。該交通感知システムの検出対象は、様々なタイプの自動車、非自動車及び歩行者を含んでもよい。
幾つかの実施例では、カメラは、ビデオデータを取得するために道路の監視ビデオを取得してもよく、レーダは、道路の所定領域にレーダ信号を発射してレーダ反射信号を取得し、該レーダ反射信号に基づいてレーダデータを取得してもよい。レーダ及びカメラを用いて道路上の物体を検出する際に、フレームごとにデータを記録する。レーダデータの各フレーム(以下は、レーダフレームと略称される)は、レーダにより検出された対象の第2の対象測定データ、例えば速度及び位置などのデータを含む。ビデオ検出データの各フレーム(以下は、ビデオフレームと略称される)は、カメラにより検出された対象の第1の測定データ、例えば速度及び位置などのデータなどを含む。レーダ座標系における該第2の対象測定データの位置座標(即ち、レーダに対する対象の位置)は、(x,y)として表されてもよく、速度はvrであり、ビデオ座標系における該第1の対象測定データの位置(画素)座標(即ち、画素点の位置)は、(u,v)として表されてもよく、速度はviである。ここで、レーダデータに基づいて第2の目標測定データを取得する実施方法、及びビデオデータに基づいて第1の目標測定データを取得する実施方法は、従来技術を参照してもよく、ここでその説明を省略する。
幾つかの実施例では、ステップ103において、レーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データとをマッチングし、マッチングデータを取得する。第2の対象測定データと第1の対象測定データとのマッチングは、時間的マッチング及び空間的マッチングを含み、時間的マッチングは、レーダフレームとビデオフレームとが同期又は略同期するように、第2の対象測定データと第1の対象測定データとを同期させることを含む。空間的マッチングは、同期したレーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データに対して空間的なキャリブレーション及びマッチングを行い、マッチングデータを取得することを含む。例えば、レーダは、n個の対象を検出し、n個の対象に対応する第2の対象測定データ(ここで、位置を一例にする)[(x1,y1),(x2,y2),…,(xn,yn)]をビデオ座標系にマッピングして[(u1,v1),(u2,v2),…,(un,vn)]を取得し、[(u1,v1),(u2,v2),…,(un,vn)]とビデオデータで検出されたm(mは1より大きい)個の対象に対応する第1の対象測定データ[(ui1,vi1),(ui2,vi2),…,(uim,vim),…]とをマッチングする。第2の対象測定データと第1の対象測定データとが同一の対象に属する場合、同一の対象に属する第2の対象測定データ及び第1の対象測定データは、対応する第2の対象測定データ及び第1の対象測定データと称される、該マッチングデータは、対応する第2の対象測定データ及び第1の対象測定データを含む。例えば、[(x1,y1),(ui1,vi1)]は、同一の対象識別子(oid)1に属するマッチングデータのペアを表す。具体的なマッピングプロセス及びマッチングプロセスは、従来技術を参照してもよく、この例に限定されない。
本実施例によれば、本発明の実施例では、レーダ座標系における測定データをビデオ座標系における測定データとのマッチングを行うためにビデオ座標系に変換しており、マッチングを行う前にレーダ座標系における測定データとビデオ座標系における測定データの両方を電子地図座標系に変換する必要がないため、計算量を低減させ、マッチング速度を向上させることができる。
幾つかの実施例では、センサ群ごとに、対象について電子地図座標系において取得された第1の対象測定データ、第2の対象測定データ及び前記マッチングデータを融合し、各センサ群の第1の融合データを取得する。ここで、従来の方法を採用して、上記のセンサ群により取得された第1の対象測定データ(u,v,vi)及び第2の測定対象データ(x,y,vr)を電子地図座標系にマッピングして(cxt,cyt,cvt)及び(rxt,ryt,rvt)を取得してもよいが、本実施例はこれに限定されない。電子地図座標系における第1の対象測定データと第2の対象測定データ、及び前に取得されたマッチングデータを融合する。例えば、融合時に、第1の測定データ及び第2の測定データのうちのマッチしていないデータについて、例えば、対象otについてレーダにより測定された第2の対象測定データ(rxt,ryt,rvt)のみ、又はビデオにより測定された第1の対象測定データ(cxt,cyt,cvt)のみが含まれ、該電子地図座標系における第1の測定データ又は第2の測定データが第1の融合データとして使用される。第1の測定データ及び第2の測定レーダのうちのマッチしたデータ(マッチングデータから把握できる)について、例えば、対象otについてレーダにより測定された第2の対象測定データ
(外1)
及びビデオにより測定された第1の対象測定データ
(外2)
の両方が含まれ、所定の条件に従って第1の融合データとして使用されるデータを選択し、或いは、第1の対象測定データと第2の対象測定データとの重み付け平均値を該第1の融合データとする。例えば、レーダにより検出された対象とレーダ座標の原点との距離
(外3)
に基づいて、第1の融合データとして使用されるデータを判断してもよい。該距離が閾値よりも大きい場合、第2の対象測定データを第1の融合データとして選択し、逆に、該距離が閾値よりも小さい場合、第1の対象測定データを第1の融合データとして選択してもよい。これは単なる一例の説明であり、他の従来の融合方法を採用してもよいが、本発明の実施例はこれに限定されない。該第1の融合データは、対象の識別子(ID)、及び電子地図座標系における該対象の対応する位置及び速度の情報を含み、該閾値はニーズに応じて決定されてもよく、ここでその説明を省略する。
(外1)
及びビデオにより測定された第1の対象測定データ
(外2)
の両方が含まれ、所定の条件に従って第1の融合データとして使用されるデータを選択し、或いは、第1の対象測定データと第2の対象測定データとの重み付け平均値を該第1の融合データとする。例えば、レーダにより検出された対象とレーダ座標の原点との距離
(外3)
に基づいて、第1の融合データとして使用されるデータを判断してもよい。該距離が閾値よりも大きい場合、第2の対象測定データを第1の融合データとして選択し、逆に、該距離が閾値よりも小さい場合、第1の対象測定データを第1の融合データとして選択してもよい。これは単なる一例の説明であり、他の従来の融合方法を採用してもよいが、本発明の実施例はこれに限定されない。該第1の融合データは、対象の識別子(ID)、及び電子地図座標系における該対象の対応する位置及び速度の情報を含み、該閾値はニーズに応じて決定されてもよく、ここでその説明を省略する。
幾つかの実施例では、各センサ群について測定された重複領域の測定データを融合し、第2の融合データを取得する。例えば、センサ群ごとに測定された同一の対象に属する測定データを決定し、同一の対象に属する各センサ群の測定データを再度融合し、第2の融合データを取得する。例えば、各センサ群(n個のグループ、nは2以上である)の第1の融合データの平均値を第2の融合データとする。例えば、対象otについて、第1の融合データは、(xg,yg,vg)であり、該第2の融合データは、
(外4)
、
(外5)
である。上記の第2の融合方法は単なる一例であり、本発明の実施例はこれを限定されない。例えば、所定の条件を設定することにより、第2の融合データとして使用される第1の融合データに対応するセンサ群を選択してもよい。該所定の条件はニーズに応じて設定されてもよく、ここでその説明を省略する。
(外4)
、
(外5)
である。上記の第2の融合方法は単なる一例であり、本発明の実施例はこれを限定されない。例えば、所定の条件を設定することにより、第2の融合データとして使用される第1の融合データに対応するセンサ群を選択してもよい。該所定の条件はニーズに応じて設定されてもよく、ここでその説明を省略する。
幾つかの実施例では、動的な表示のために、該第2の融合データを融合感知結果として電子地図に出力してもよい。
なお、上記の図1は単に本発明の実施例を例示的に説明し、本発明はこれに限定されない。例えば、各ステップ間の実行順序を適宜調整してもよいし、他のステップを追加したり、その一部のステップを削除したりしてもよい。当業者は上記の内容に基づいて適宜変形を行ってもよく、上記の図1の記載に限定されない。
本実施例によれば、複数のセンサ群を設置し、複数のセンサ群の測定データに対して二次融合を行うことで、融合の正確度を向上させることができるため、電子地図の精度を向上させることができる。
また、本発明の実施例では、センサ群ごとに、群内の測定データをマッチングした後、一次融合を行う際に、マッチしたデータをさらに考慮し、即ち、群内の測定データを直接融合することではなく、マッチング後のデータ及び群内の測定データに対して一次融合を行うことで、融合の正確度を向上させることができるため、電子地図の精度を向上させることができる。
<実施例2>
融合の正確度をさらに向上させ、電子地図の精度を向上させるために、本発明の実施例は、データ融合方法をさらに提供する。実施例1をベースとして、融合前のデータ処理プロセス及び/又は融合処理プロセスにフィルタリング処理をさらに追加する。図2は、本発明の実施例に係るデータ融合方法の1つの概略図である。該方法は、交通感知システムに適用され、該システムは、少なくとも2つのセンサ群を含み、各センサ群は、同一の位置に配置されたカメラ及びレーダを含み、異なるセンサ群は、異なる位置に配置されている。図2に示すように、該方法は以下のステップを含む。
融合の正確度をさらに向上させ、電子地図の精度を向上させるために、本発明の実施例は、データ融合方法をさらに提供する。実施例1をベースとして、融合前のデータ処理プロセス及び/又は融合処理プロセスにフィルタリング処理をさらに追加する。図2は、本発明の実施例に係るデータ融合方法の1つの概略図である。該方法は、交通感知システムに適用され、該システムは、少なくとも2つのセンサ群を含み、各センサ群は、同一の位置に配置されたカメラ及びレーダを含み、異なるセンサ群は、異なる位置に配置されている。図2に示すように、該方法は以下のステップを含む。
ステップ201:道路のカメラにより撮影されたビデオデータに基づいて第1の対象測定データを決定する。
ステップ202:道路の所定領域に発射されたレーダ信号の反射信号により取得されたレーダデータに基づいて第2の対象測定データを決定する。
ステップ203:レーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データとをマッチングし、マッチングデータを取得する。
ステップ204(オプション):電子地図座標系における第2の対象測定データ及び/又は第1の対象測定データに対して第1のフィルタリングを行う。
ステップ205:センサ群ごとに、対象について電子地図座標系において取得されたフィルタリング後の第1の対象測定データ及び/又はフィルタリング後の第2の対象測定データ、並びに該マッチングデータを融合し、各センサ群の第1の融合データを取得する。
ステップ206:該少なくとも2つのセンサ群について測定された重複領域の測定データを融合し、第2の融合データを取得する。
これによって、センサ群ごとに、群内の測定データをマッチングした後、マッチング後のデータ及び群内の測定データに対して一次融合を行い、複数のセンサ群のデータに対して二次融合を行うことで、融合の正確度を向上させることができるため、電子地図の精度を向上させることができる。また、融合前のデータ処理プロセスにフィルタリング処理を追加することで、移動軌跡を滑らかにし、車線の誤判断を回避することができため、電子地図の精度をさらに向上させることができる。
なお、上記の図2は単に本発明の実施例を例示的に説明し、本発明はこれに限定されない。例えば、各ステップ間の実行順序を適宜調整してもよいし、他のステップを追加したり、その一部のステップを削除したりしてもよい。当業者は上記の内容に基づいて適宜変形を行ってもよく、上記の図2の記載に限定されない。
幾つかの実施例では、ステップ201~203、205~206の実施方法は、実施例1のステップ101~105を参照してもよく、ここで重複する内容の説明を省略する。
図2に示すように、この方法は、以下のステップ207をさらに含んでもよい。ステップ207において、第2の融合データを融合感知結果として動的表示のために電子地図に出力する。
以下は、ステップ204における第2の対象測定データに対する第1のフィルタリングを詳細に説明する。
幾つかの実施例では、該交通感知システムの予測状態は、電子地図座標系における対象の位置座標、並びに対象の速度の電子地図座標系の横軸(x軸)及び縦軸(y軸)方向に沿う成分を含む。例えば、該予測状態は、
(外6)
として表されてもよい。ここで、(x,y)は、電子地図座標系における対象の位置座標であり、(vx,vy)は、対象の速度の電子地図座標系の横軸(x軸)及び縦軸(y軸)方向に沿う成分である。該システムの測定状態は、レーダから対象までの距離、レーダに対する対象の方位角、及び対象のレーダの径方向に沿う速度成分を含む。例えば、該測定状態は、
(外7)
として表されてもよい。ここで、dは、レーダから対象までの距離であり、θは、レーダに対する対象の方位角であり、vrは、対象のレーダの径方向に沿う速度成分である。電子地図座標系におけるレーダの位置(Δx,Δy)、及び電子地図座標系に対するレーダの偏向角αに基づいて、測定状態の空間と予測状態の空間との変換モデルを決定してもよい。ここで、レーダの偏向角の方向が異なり、方位角の計算式も異なる。偏向角αの向き及びレーダに対する対象の方位角θのうちの一方(例えば偏向角α)が道路の直線方向の反時計回り方向であり、他方(例えば方位角θ)が道路の直線方向の時計回り方向である場合、
(外8)
となり、偏向角αの向き及びレーダに対する対象の方位角θの両方が道路の直線方向の反時計回り方向又は時計回り方向である場合、
(外9)
となる。図3A及び図3Bは、本発明の実施例に係る該偏向角αと該方位角θとの関係の概略図である。図3Aに示すように、偏向角αの向きが道路の直線方向の反時計回り方向であり、方位角θが道路の直線方向の時計回り方向である場合、
(外10)
となり、図3Bに示すように、偏向角αの向き及びレーダに対する対象の方位角θの両方が道路の直線方向の時計回り方向である場合、
(外11)
となる。該偏向角αは、対象の軌跡線を測定することによって決定されてもよい。詳細については、従来技術を参照してもよく、ここでその説明を省略する。
(外6)
として表されてもよい。ここで、(x,y)は、電子地図座標系における対象の位置座標であり、(vx,vy)は、対象の速度の電子地図座標系の横軸(x軸)及び縦軸(y軸)方向に沿う成分である。該システムの測定状態は、レーダから対象までの距離、レーダに対する対象の方位角、及び対象のレーダの径方向に沿う速度成分を含む。例えば、該測定状態は、
(外7)
として表されてもよい。ここで、dは、レーダから対象までの距離であり、θは、レーダに対する対象の方位角であり、vrは、対象のレーダの径方向に沿う速度成分である。電子地図座標系におけるレーダの位置(Δx,Δy)、及び電子地図座標系に対するレーダの偏向角αに基づいて、測定状態の空間と予測状態の空間との変換モデルを決定してもよい。ここで、レーダの偏向角の方向が異なり、方位角の計算式も異なる。偏向角αの向き及びレーダに対する対象の方位角θのうちの一方(例えば偏向角α)が道路の直線方向の反時計回り方向であり、他方(例えば方位角θ)が道路の直線方向の時計回り方向である場合、
(外8)
となり、偏向角αの向き及びレーダに対する対象の方位角θの両方が道路の直線方向の反時計回り方向又は時計回り方向である場合、
(外9)
となる。図3A及び図3Bは、本発明の実施例に係る該偏向角αと該方位角θとの関係の概略図である。図3Aに示すように、偏向角αの向きが道路の直線方向の反時計回り方向であり、方位角θが道路の直線方向の時計回り方向である場合、
(外10)
となり、図3Bに示すように、偏向角αの向き及びレーダに対する対象の方位角θの両方が道路の直線方向の時計回り方向である場合、
(外11)
となる。該偏向角αは、対象の軌跡線を測定することによって決定されてもよい。詳細については、従来技術を参照してもよく、ここでその説明を省略する。
幾つかの実施例では、上記の変換モデルは、対象の位置及び速度を予測する非線形モデルであり、直進及び転向を含む対象の様々な移動シナリオに適している。第1のフィルタリングでは、ヤコビ行列H’をカルマンフィルタにおける変換測定行列として使用し、システムの予測状態遷移モデルは、
(外12)
となり(
(外13)
は、k-1番目の時点のシステム状態の推定値であり、k-1回目の反復の計算により取得され、
(外14)
k番目の時点(現在)のシステム状態の推定値である)。計算により、k番目の時点(現在)のシステム状態の推定値を取得し、kは1以上である。具体的なカルマンフィルタのプロセスは、従来技術を参照してもよく、ここでその説明を省略する。該非線形モデルは、速度を予測、測定できるため、対象が転向する時の追跡の問題を回避することができる。
(外12)
となり(
(外13)
は、k-1番目の時点のシステム状態の推定値であり、k-1回目の反復の計算により取得され、
(外14)
k番目の時点(現在)のシステム状態の推定値である)。計算により、k番目の時点(現在)のシステム状態の推定値を取得し、kは1以上である。具体的なカルマンフィルタのプロセスは、従来技術を参照してもよく、ここでその説明を省略する。該非線形モデルは、速度を予測、測定できるため、対象が転向する時の追跡の問題を回避することができる。
幾つかの実施例では、該変換モデルは、速度を予測せず、位置だけを予測する線形モデルであってもよく、対象が直進するシナリオに適している。予測状態及び測定状態は、電子地図座標系における対象の位置座標を含む。即ち、予測状態及び測定状態の両方は、
(外15)
として表されてもよい。該変換モデルは、次の通りである。
(外15)
として表されてもよい。該変換モデルは、次の通りである。
ここで、(x,y)は、電子地図座標系における対象の位置座標である。該変換モデルは、線形モデルであるため、計算量が少なく、カルマンフィルタを直接適用してシステム状態の推定値を取得してもよい。該カルマンフィルタの状態遷移モデルは、次の通りである。
幾つかの実施例では、カルマンフィルタは、状態の予測値と測定値との重み付け合計と見なすことができるため、該重みは、処理ノイズ共分散行列(Q)及び測定ノイズ共分散行列(R)に関連する。処理ノイズ共分散が大きく、測定ノイズ共分散が小さいほど、システム状態の推定値が測定値に近くなり、逆も同様である。従って、本実施例では、ラベル分けて(N個のレベル、N≧2)処理ノイズ共分散行列を決定してもよい。該対象の位置に基づいて、処理ノイズ共分散行列における電子地図座標系の横座標に対応するノイズ共分散を決定してもよい。ここで、該対象とレーダとの距離dが大きいほど、該ノイズ共分散が小さくなる。
幾つかの実施例では、該処理ノイズ共分散行列における電子地図座標系の横座標xに対応するノイズ共分散が第1の数(N≧2)個あり、該道路は、N個の領域に分割される。ここで、同一の領域内の対象は、同一のノイズ共分散に対応し、異なる領域内の対象は、異なるノイズ共分散に対応する。例えば、xは、dの増加(レーダから離れる移動)に伴って増加し、dの減少(レーダに接近する移動)に伴って減少し、y、vx及びvyに対応する処理ノイズ共分散行列におけるノイズ共分散は常に1である。例えば、該道路が3つの領域に分割され、dが40メートル未満である場合、
(外16)
となり、dが40メートルから60メートルである場合、
(外17)
となり、dが60メートルを超えた場合、
(外18)
となる。以上は、単にN=3を一例にして説明し、ここで他の例について説明を省略する。
(外16)
となり、dが40メートルから60メートルである場合、
(外17)
となり、dが60メートルを超えた場合、
(外18)
となる。以上は、単にN=3を一例にして説明し、ここで他の例について説明を省略する。
以上は、レーダを一例にして、一次融合の前に第2の対象測定データに対して第1のフィルタリングを行う方法を説明している。また、第1の対象測定データに対して第1のフィルタリングを行う際に、上記の線形モデルを採用してもよいし、従来技術における他の方法を採用してもよく、本実施例はこれに限定されない。
幾つかの実施例では、第1の対象測定データのみに対して第1のフィルタリングを行い、センサ群ごとに、対象について電子地図座標系において取得されたフィルタリング後の第1の対象測定データ及び第2の対象測定データ、並びに該マッチングデータを融合し、各センサ群の第1の融合データを取得してもよい。
或いは、第2の対象測定データのみに対して第1のフィルタリングを行い、センサ群ごとに、対象について電子地図座標系において取得された第1の対象測定データ及びフィルタリング後の第2の対象測定データ、並びに該マッチングデータを融合し、各センサ群の第1の融合データを取得してもよい。
或いは、第1の対象測定データ及び第2の対象測定データの両方に対して第1のフィルタリングを行い、センサ群ごとに、対象について電子地図座標系において取得されたフィルタリング後の第1の対象測定データ及びフィルタリング後の第2の対象測定データ、並びに該マッチングデータを融合し、各センサ群の第1の融合データを取得してもよい。
幾つかの実施例では、以下で詳細に説明するように、第1の融合の後に第2のフィルタリングを行い、且つ/或いは、第2の融合の後に第3のフィルタリングを行ってもよい。
幾つかの実施例では、該方法は、以下のステップ(オプション)をさらに含んでもよい。
ステップ209:該第1の融合データに対して第2のフィルタリングを行う。第2のフィルタリングを行った後、ステップ206を実行する。
ステップ211:該第2の融合データに対して第3のフィルタリングを行う。第3のフィルタリングを行った後、ステップ207を実行する。
幾つかの実施例では、上記の第1のフィルタリング(ステップ204)、第2のフィルタリング(ステップ209)、及び第3のフィルタリング(ステップ211)は、個別に実施されてもよいし、2つずつ組み合わせて実施されてもよいし、3者を組み合わせて実施されてもよいが、本実施例はこれらに限定されない。
幾つかの実施例では、上記の第2のフィルタリング及び第3のフィルタリングは、対象の移動軌跡の変動をさらに低減し、移動軌跡をより滑らかにすることができる。
幾つかの実施例では、第1のフィルタリングを行った場合、繰り返されたフィルタリングにより引き起こされるエラーを回避するために、該方法は、以下のステップ(オプション)をさらに含んでもよい。
ステップ208:現在のフレームの第1の融合データと直前のフレームの第1の融合データとが何れも同一のタイプのセンサの対象測定データからのものであるか否かを判断する。判断結果がNOである場合、ステップ209を実行し、そうでない場合、ステップ206を実行する。
幾つかの実施例では、第2のフィルタリングの前に、現在のフレームの第1の融合データと直前のフレームの第1の融合データとが同一のタイプのセンサの対象測定データからのものであるか否かを判断し、YESの場合、第2のフィルタリングを実行しない。これによって、繰り返しのフィルタリングによるエラーを回避することができる。
幾つかの実施例では、現在のフレームと上記のレーダフレーム及びビデオフレームと同期され、現在のフレームの第1の融合データ及び直前のフレームの第1の融合データが同一のタイプのセンサの対象測定データからのものであるか否かは、現在のフレーム及び直前のフレームの第1の融合データが全てレーダの第2の対象測定データからのものであるか否かを表し、或いは、現在のフレームの第1の融合データ及び直前のフレームの第1の融合データが全てカメラにより撮影されたビデオの第1の対象測定データからのものであるか否かを表す。例えば、現在のフレーム及び直前のフレームの第1の融合データが全てレーダの第2の対象測定データからのものである場合、第1のフィルタリングは既に行わされているため、上記の第2のフィルタリングを実行する必要はない。該第1の融合データが第2の対象測定データからのものであるか否かの判断方法は、実施例1を参照してもよく、ここでその説明を省略する。
幾つかの実施例では、第1のフィルタリング及び第2のフィルタリングを行う際に、繰り返されるフィルタリングによるエラーを回避するために、該方法は、以下のステップ(オプション)をさらに含んでもよい。
ステップ210:現在のフレームの第2の融合データと直前のフレームの第2の融合データとが同一のセンサ群の対象測定データからのものであるか否かを判断する。判断結果がNOである場合、ステップ211を実行し、そうでない場合、直接ステップ207を実行する。
幾つかの実施例では、第3のフィルタリングの前に、現在のフレームの第2の融合データと直前のフレームの第2の融合データとが何れも同一のセンサ群の対象測定データからのものであるか否かを判断し、YESの場合、第3のフィルタリングを実行しない。これによって、繰り返しのフィルタリングによるエラーを回避することができる。
幾つかの実施例では、現在のフレームと上記のレーダフレーム及びビデオフレームとが同期される。例えば、現在のフレーム及び直前のフレームの第2の融合データが全て同一のセンサ群の対象測定データからのものである場合、第1のフィルタリング及び第2のフィルタリングが既に行われているため、第3のフィルタリングを実行する必要はない。現在のフレームと直前のフレームの第2の融合データが全て同一のセンサ群の対象測定データからのものであることは、現在のフレームの第2の融合データがレーダのG番目の群の第2の対象測定データからのものであり、直前のフレームの第2の融合データもレーダのG番目の群の第2の対象測定データからのものであることを表し、或いは、現在のフレームの第2の融合データがレーダのG番目の群の第1の対象測定データからのものであり、直前のフレームの第2の融合データもレーダのG番目の群の第1の対象測定データからのものであることを表し、直前のフレームの第2の融合データ及び現在のフレームの第2の融合データのうちの一方がレーダのG番目の群の第2の対象測定データからのものであり、他方がレーダのG番目の群の第1の対象測定データからのものであることを表す。本実施例はこれらに限定されない。
幾つかの実施例では、上記の第2のフィルタリング及び第3のフィルタリングのシステムの予測状態は、
(外19)
となり、測定状態は、
(外20)
となり、システム状態遷移モデルは、
(外21)
となり、システムの測定状態と予測状態との変換モデルは次の通りである。
(外19)
となり、測定状態は、
(外20)
となり、システム状態遷移モデルは、
(外21)
となり、システムの測定状態と予測状態との変換モデルは次の通りである。
ここで、第2のフィルタリングと第3のフィルタリングとの変換モデルは、速度を予測せず、位置だけを予測する線形モデルである。該変換モデルは、線形モデルであるため、カルマンフィルタを直接適用してシステム状態(対象位置)の推定値を取得することができる。
これによって、センサ群ごとに、群内の測定データをマッチングした後、マッチング後のデータ及び群内の測定データに対して一次融合を行い、複数のセンサ群のデータに対して二次融合を行うことで、融合の正確度を向上させることができるため、電子地図の精度を向上させることができる。また、融合前のデータ処理プロセスにフィルタリング処理を追加することで、移動軌跡を滑らかにし、車線の誤判断を回避することができため、電子地図の精度をさらに向上させることができる。
図4Aは、本実施例に係るセンサに向かって移動する対象の移動軌跡のフィルタリング前後の概略図であり、図4Bは、本実施例に係るセンサから離れるように移動する対象の移動軌跡のフィルタリング前後の概略図である。図4A及び図4Bに示すように、フィルタリングなしの軌跡は、車線内のジッタが大きく、センサから離れた位置でジッタが強くなり、車線を越えたり、車線を出る現象が現れる。一方、フィルタリングされた軌跡は、滑らかで、車線を越えたり、車線を出る現象を回避し、実際の車両移動の軌跡により近くなる。
<実施例3>
本発明の実施例3は、データ融合装置を提供する。該装置の問題解決の原理は実施例1及び実施例2のデータ融合方法と同様であるため、その具体的な実施は実施例1及び実施例2を参照してもよく、同様な内容についてその説明を省略する。
本発明の実施例3は、データ融合装置を提供する。該装置の問題解決の原理は実施例1及び実施例2のデータ融合方法と同様であるため、その具体的な実施は実施例1及び実施例2を参照してもよく、同様な内容についてその説明を省略する。
図5は、本発明の実施例に係るデータ融合装置の1つの概略図である。該装置は、交通感知システムに適用され、該システムは、少なくとも2つのセンサ群を含み、各センサ群は、同一の位置に配置されたカメラ及びレーダを含み、異なるセンサ群は、異なる位置に配置されている。図5に示すように、データ融合装置500は、以下の各部を含む。
第1の処理部501は、道路のカメラにより撮影されたビデオデータに基づいて第1の対象測定データを決定する。
第2の処理部502は、道路の所定領域に発射されたレーダ信号の反射信号により取得されたレーダデータに基づいて第2の対象測定データを決定する。
マッチング部503は、レーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データとをマッチングし、マッチングデータを取得する。
第1の融合部504は、センサ群ごとに、対象について電子地図座標系において取得された第1の対象測定データ、第2の対象測定データ及び該マッチングデータを融合し、各センサ群の第1の融合データを取得する。
第2の融合部505は、該少なくとも2つのセンサ群について測定された重複領域の測定データを融合し、第2の融合データを取得する。
第1の処理部501、第2の処理部502、マッチング部503、第1の融合部504、及び第2の融合部505の実施方法は、実施例1のステップ101~105を参照してもよく、ここでその説明を省略する。
図6は、本発明の実施例に係るデータ融合装置の1つの概略図である。該装置は、交通感知システムに適用され、該システムは、少なくとも2つのセンサ群を含み、各センサ群は、同一の位置に配置されたカメラ及びレーダを含み、異なるセンサ群は、異なる位置に配置されている。図6に示すように、データ融合装置600は、以下の各部を含む。
第1の処理部601は、道路のカメラにより撮影されたビデオデータに基づいて第1の対象測定データを決定する。
第2の処理部602は、道路の所定領域に発射されたレーダ信号の反射信号により取得されたレーダデータに基づいて第2の対象測定データを決定する。
マッチング部603は、レーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データとをマッチングし、マッチングデータを取得する。
第1のフィルタリング部606(オプション)は、電子地図座標系における第2の対象測定データ及び/又は第1の対象測定データに対して第1のフィルタリングを行う。
第1の融合部604は、センサ群ごとに、対象について電子地図座標系において取得されたフィルタリング後の第1の対象測定データ及び/又はフィルタリング後の第2の対象測定データ、並びに該マッチングデータを融合し、各センサ群の第1の融合データを取得する。
第2の融合部605は、該少なくとも2つのセンサ群について測定された重複領域の測定データを融合し、第2の融合データを取得する。
第1の処理部601、第2の処理部602、マッチング部603、第1の融合部604、第2の融合部605、及び第1のフィルタリング部606の実施方法は、実施例2のステップ201~206を参照してもよく、ここでその説明を省略する。
幾つかの実施例では、第1のフィルタリング部606は、電子地図座標系におけるレーダの位置、及び電子地図座標系に対するレーダの偏向角に基づいて、測定状態の空間と予測状態の空間との変換モデルを決定する。
幾つかの実施例では、第1のフィルタリング部606は、該対象の位置に基づいて、処理ノイズ共分散行列における電子地図座標系の横座標に対応するノイズ共分散を決定する。該対象とレーダとの距離が大きいほど、該ノイズ共分散が小さくなる。
幾つかの実施例では、該予測状態は、電子地図座標系における対象の位置座標、並びに対象の速度の電子地図座標系の横軸及び縦軸方向に沿う成分を含み、該測定状態は、レーダから対象までの距離、レーダに対する対象の方位角、及び対象のレーダの径方向に沿う速度成分を含む。
幾つかの実施例では、該処理ノイズ共分散行列における電子地図座標系の横座標に対応するノイズ共分散が第1の数(N)個あり、該道路は、該第1の数個の領域に分割される。ここで、同一の領域内の対象は、同一のノイズ共分散に対応し、異なる領域内の対象は、異なるノイズ共分散に対応する。
幾つかの実施例では、該装置は、以下の構成部(オプション)をさらに含んでもよい。
第2のフィルタリング部608は、該第1の融合データに対して第2のフィルタリングを行う。
幾つかの実施例では、第1のフィルタリング部が該第1のフィルタリングを行った場合、該装置は、以下の構成部(オプション)をさらに含んでもよい。
第1の判断部607は、現在のフレームの第1の融合データと直前のフレームの第1の融合データとが同一のタイプのセンサの対象測定データからのものであるか否かを判断する。
第1の判断部607の判断結果がNOである場合、第2のフィルタリング部608は、該第1の融合データに対して第2のフィルタリングを行う。
幾つかの実施例では、該装置は、以下の構成部(オプション)をさらに含んでもよい。
第3のフィルタリング部610は、該第2の融合データに対して第3のフィルタリングを行う。
幾つかの実施例では、第1のフィルタリング及び第2のフィルタリングを行った場合、該装置は、以下の構成部(オプション)をさらに含んでもよい。
第2の判断部609は、現在のフレームの第2の融合データと直前のフレームの第2の融合データとが同一のセンサ群の対象測定データからのものであるか否かを判断する。
第2の判断部609の判断結果がNOである場合、第3のフィルタリング部610は、該第2の融合データに対して第3のフィルタリングを行う。
幾つかの実施例では、第1の判断部607、第2のフィルタリング部608、第2の判断部609、及び第3のフィルタリング部610の実施方法は、実施例2のステップ208~211を参照してもよく、ここでその説明を省略する。
幾つかの実施例では、該データ融合装置は、第1のフィルタリング部606、第2のフィルタリング部608及び第3のフィルタリング部610のうちの任意の1つ、任意の2つ、又は3つ全てを含んでもよいが、本実施例はこれらに限定されない。
図8は、本実施例に係るデータ融合プロセスの概略図である。図8に示すように、センサ群ごとに、第1の処理部601及び第2の処理部は、レーダ座標系における第2の対象測定データ及びビデオ座標における第1の対象測定データをそれぞれ取得し、マッチングのためにマッチング部603に入力する。また、第1の処理部601及び第2の処理部602は、電子地図座標系における第2の対象測定データ及び第1の対象測定データをそれぞれ取得し、第1のフィルタリングのために第1のフィルタリング部606にそれぞれ入力する。第1の融合部604は、フィルタリング後の第1の対象測定データ、フィルタリング後の第2の対象測定データ及びマッチングデータを融合する。第2のフィルタリング部608は、第1の融合データに対して第2のフィルタリングを行い(第1の判断部607の判断結果がNOである場合)、第2の融合部605は、複数のセンサ群のフィルタリング後の第1の融合データを融合し、第2の融合データを取得する。第3のフィルタリング部610は、該第2の融合データに対して第3のフィルタリングを行い(第2の判断部609の判断結果がNOである場合)、融合結果を動的表示のために電子地図に出力する。
これによって、センサ群ごとに、群内の測定データをマッチングした後、マッチング後のデータ及び群内の測定データに対して一次融合を行い、複数のセンサ群のデータに対して二次融合を行うことで、融合の正確度を向上させることができるため、電子地図の精度を向上させることができる。また、融合前のデータ処理プロセスにフィルタリング処理を追加することで、移動軌跡を滑らかにし、車線の誤判断を回避することができため、電子地図の精度をさらに向上させることができる。
<実施例4>
本発明の実施例はデータ処理装置を提供する。該データ処理装置は、例えばコンピュータ、サーバ、ワークステーション、ラップトップコンピュータ、スマートフォンなどであってもよいが、本発明の実施例はこれらに限定されない。
本発明の実施例はデータ処理装置を提供する。該データ処理装置は、例えばコンピュータ、サーバ、ワークステーション、ラップトップコンピュータ、スマートフォンなどであってもよいが、本発明の実施例はこれらに限定されない。
図7は、本発明の実施例に係るデータ融合装置の1つの概略図である。図7に示すように、データ処理装置700は、少なくとも1つのインターフェース(図示せず)、プロセッサ(例えば、中央処理装置(CPU))701、及びメモリ702を含む。メモリ702は、プロセッサ701に接続される。メモリ702は、様々なデータを記憶してもよく、データ融合のプログラム703をさらに記憶してもよい。プロセッサ701の制御により該プログラム703を実行する。また、メモリ702は、様々な所定値及び所定条件などを記憶してもよい。
1つの態様では、実施例3のデータ融合装置500又は600の機能はプロセッサ701に統合され、実施例1及び2のデータ融合方法を実現してもよい。該方法は、交通感知システムに適用され、該交通感知システムは、少なくとも2つのセンサ群を含み、各センサ群は、同一の位置に配置されたカメラ及びレーダを含み、異なるセンサ群は、異なる位置に配置されている。例えば、プロセッサ701は、道路のカメラにより撮影されたビデオデータに基づいて第1の対象測定データを決定するステップと、道路の所定領域に発射されたレーダ信号の反射信号により取得されたレーダデータに基づいて第2の対象測定データを決定するステップと、レーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データとをマッチングし、マッチングデータを取得するステップと、センサ群ごとに、対象について電子地図座標系において取得された第1の対象測定データ、第2の対象測定データ及び該マッチングデータを融合し、各センサ群の第1の融合データを取得するステップと、該少なくとも2つのセンサ群について測定された重複領域の測定データを融合し、第2の融合データを取得するステップと、を実行するように構成されてもよい。
幾つかの実施例では、プロセッサ701の実施方法は、実施例1及び2を参照してもよく、ここでその説明を省略する。
もう1つの態様では、実施例3のデータ融合装置500又は600はプロセッサ701とそれぞれ配置されてもよく、例えば、データ融合装置500又は600はプロセッサ701に接続されたチップであり、プロセッサ701の制御によりデータ融合装置500又は600の機能を実現するように構成されてもよい。
なお、データ処理装置700は、ディスプレイ705及び入力出力(I/O)装置704などをさらに含んでもよく、或いは図7に示す全ての構成部を含まなくてもよい。また、データ処理装置700は、図7に示していない構成部を含んでもよく、従来技術を参考してもよい。
本発明の実施例では、プロセッサ701は、コントローラ又は動作制御部とも称され、マイクロプロセッサ又は他のプロセッサデバイス及び/又は論理デバイスを含んでもよい。プロセッサ701は、入力を受け付け、データ処理装置700の各部の動作を制御する。
本発明の実施例では、メモリ702は、例えば、バッファ、フラッシュメモリ、ハードドライブ、リムーバブルメディア、揮発性メモリ、不揮発性メモリ、又は他の適切なデバイスのうちの1つ以上であってもよい。メモリ702は、様々な情報を記憶してもよく、関連情報を実行するためのプログラムをさらに記憶してもよい。また、プロセッサ701は、メモリ702に記憶されたプログラムを実行し、情報の記憶又は処理を実現してもよい。他の部材の機能は従来技術と同様であり、ここでその説明を省略する。データ処理装置700の構成要素は、本発明の範囲から逸脱することなく、専用のハードウェア、ファームウェア、ソフトウェア、又はそれらの組み合わせにより実現されてもよい。
これによって、センサ群ごとに、群内の測定データをマッチングした後、マッチング後のデータ及び群内の測定データに対して一次融合を行い、複数のセンサ群のデータに対して二次融合を行うことで、融合の正確度を向上させることができるため、電子地図の精度を向上させることができる。また、融合前のデータ処理プロセスにフィルタリング処理を追加することで、移動軌跡を滑らかにし、車線の誤判断を回避することができため、電子地図の精度をさらに向上させることができる。
本発明の実施例は、データ処理装置においてプログラムを実行する際に、該データ処理装置に実施例1又は2に記載の方法を実行させる、コンピュータ読み取り可能なプログラムを提供する。
本発明の実施例は、コンピュータに、データ処理装置に実施例1又は2に記載の方法を実行させるためのコンピュータ読み取り可能なプログラムを記憶する、記憶媒体をさらに提供する。
本発明の以上の装置及び方法は、ハードウェアにより実現されてもよく、ハードウェアとソフトウェアを結合して実現されてもよい。本発明はコンピュータが読み取り可能なプログラムに関し、該プログラムは論理部により実行される時に、該論理部に上述した装置又は構成要件を実現させる、或いは該論理部に上述した各種の方法又はステップを実現させることができる。本発明は上記のプログラムを記憶するための記憶媒体、例えばハードディスク、磁気ディスク、光ディスク、DVD、フラッシュメモリ等に関する。
本発明の実施例を参照しながら説明した方法/装置は、ハードウェア、プロセッサにより実行されるソフトウェアモジュール、又は両者の組み合わせで実施されてもよい。例えば、図面に示す機能的ブロック図における1つ若しくは複数、又は機能的ブロック図の1つ若しくは複数の組み合わせは、コンピュータプログラムフローの各ソフトウェアモジュールに対応してもよいし、各ハードウェアモジュールに対応してもよい。これらのソフトウェアモジュールは、図面に示す各ステップにそれぞれ対応してもよい。これらのハードウェアモジュールは、例えばフィールド・プログラマブル・ゲートアレイ(FPGA)を用いてこれらのソフトウェアモジュールをハードウェア化して実現されてもよい。
ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、モバイルハードディスク、CD-ROM又は当業者にとって既知の任意の他の形の記憶媒体に位置してもよい。プロセッサが記憶媒体から情報を読み取ったり、記憶媒体に情報を書き込むように該記憶媒体をプロセッサに接続してもよいし、記憶媒体がプロセッサの構成部であってもよい。プロセッサ及び記憶媒体はASICに位置する。該ソフトウェアモジュールは移動端末のメモリに記憶されてもよいし、移動端末に挿入されたメモリカードに記憶されてもよい。例えば、機器(例えば移動端末)が比較的に大きい容量のMEGA-SIMカード又は大容量のフラッシュメモリ装置を用いる場合、該ソフトウェアモジュールは該MEGA-SIMカード又は大容量のフラッシュメモリ装置に記憶されてもよい。
図面に記載されている一つ以上の機能ブロック及び/又は機能ブロックの一つ以上の組合せは、本発明に記載されている機能を実行するための汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールド・プログラマブル・ゲートアレイ(FPGA)又は他のプログラマブル論理デバイス、ディスクリートゲート又はトランジスタ論理装置、ディスクリートハードウェアコンポーネント、又はそれらの任意の適切な組み合わせで実現されてもよい。図面に記載されている一つ以上の機能ブロック及び/又は機能ブロックの一つ以上の組合せは、例えば、コンピューティング機器の組み合わせ、例えばDSPとマイクロプロセッサの組み合わせ、複数のマイクロプロセッサの組み合わせ、DSP通信と組み合わせた1つ又は複数のマイクロプロセッサ又は他の任意の構成で実現されてもよい。
以上、具体的な実施形態を参照しながら本発明を説明しているが、上記の説明は、例示的なものに過ぎず、本発明の保護の範囲を限定するものではない。本発明の趣旨及び原理を離脱しない限り、本発明に対して各種の変形及び変更を行ってもよく、これらの変形及び変更も本発明の範囲に属する。
また、上述の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
交通感知システムに適用されるデータ融合装置であって、前記交通感知システムは、少なくとも2つのセンサ群を含み、各センサ群は、同一の位置に配置されたカメラ及びレーダを含み、異なるセンサ群は、異なる位置に配置され、
前記データ融合装置は、
道路のカメラにより撮影されたビデオデータに基づいて第1の対象測定データを決定する第1の処理部と、
道路の所定領域に発射されたレーダ信号の反射信号により取得されたレーダデータに基づいて第2の対象測定データを決定する第2の処理部と、
レーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データとをマッチングし、マッチングデータを取得するマッチング部と、
センサ群ごとに、対象について電子地図座標系において取得された第1の対象測定データ、第2の対象測定データ及び前記マッチングデータを融合し、各センサ群の第1の融合データを取得する第1の融合部と、
前記少なくとも2つのセンサ群について測定された重複領域の測定データを融合し、第2の融合データを取得する第2の融合部と、を含む、装置。
(付記2)
前記第1の融合部による融合の前に電子地図座標系における第2の対象測定データ及び/若しくは第1の対象測定データに対して第1のフィルタリングを行う第1のフィルタリング部、並びに/又は、
前記第1の融合データに対して第2のフィルタリングを行う第2のフィルタリング部、並びに/又は、
前記第2の融合データに対して第3のフィルタリングを行う第3のフィルタリング部、をさらに含む、付記1に記載の装置。
(付記3)
前記第1のフィルタリング部が前記第1のフィルタリングを行った場合、
現在のフレームの第1の融合データと直前のフレームの第1の融合データとが同一のタイプのセンサの対象測定データからのものであるか否かを判断する第1の判断部、をさらに含み、
前記第1の判断部の判断結果がNOである場合、前記第2のフィルタリング部は、前記第1の融合データに対して第2のフィルタリングを行う、付記2に記載の装置。
(付記4)
前記第2のフィルタリング部が前記第2のフィルタリングを行った場合、
現在のフレームの第2の融合データと直前のフレームの第2の融合データとが同一のセンサ群の対象測定データからのものであるか否かを判断する第2の判断部、をさらに含み、
前記第2の判断部の判断結果がNOである場合、前記第3のフィルタリング部は、前記第2の融合データに対して第3のフィルタリングを行う、付記2に記載の装置。
(付記5)
前記第1のフィルタリング部は、電子地図座標系におけるレーダの位置、及び電子地図座標系に対するレーダの偏向角に基づいて、測定状態の空間と予測状態の空間との変換モデルを決定する、付記2に記載の装置。
(付記6)
前記第1のフィルタリング部は、前記対象の位置に基づいて、処理ノイズ共分散行列における電子地図座標系の横座標に対応するノイズ共分散を決定する、付記2に記載の装置。
(付記7)
前記対象とレーダとの距離が大きいほど、前記ノイズ共分散が小さくなる、付記6に記載の装置。
(付記8)
予測状態は、電子地図座標系における対象の位置座標、並びに対象の速度の電子地図座標系の横軸及び縦軸方向に沿う成分を含み、
測定状態は、レーダから対象までの距離、レーダに対する対象の方位角、及び対象のレーダの径方向に沿う速度成分を含む、付記5に記載の装置。
(付記9)
前記処理ノイズ共分散行列における電子地図座標系の横座標に対応するノイズ共分散が第1の数(N)個あり、
前記道路は、前記第1の数個の領域に分割され、
同一の領域内の対象は、同一のノイズ共分散に対応し、
異なる領域内の対象は、異なるノイズ共分散に対応する、付記6に記載の装置。
(付記10)
前記予測状態及び前記測定状態は、電子地図座標系における対象の位置座標を含む、付記6に記載の装置。
(付記11)
交通感知システムに適用されるデータ融合方法であって、前記交通感知システムは、少なくとも2つのセンサ群を含み、各センサ群は、同一の位置に配置されたカメラ及びレーダを含み、異なるセンサ群は、異なる位置に配置され、
前記データ融合方法は、
道路のカメラにより撮影されたビデオデータに基づいて第1の対象測定データを決定するステップと、
道路の所定領域に発射されたレーダ信号の反射信号により取得されたレーダデータに基づいて第2の対象測定データを決定するステップと、
レーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データとをマッチングし、マッチングデータを取得するステップと、
センサ群ごとに、対象について電子地図座標系において取得された第1の対象測定データ、第2の対象測定データ及び前記マッチングデータを融合し、各センサ群の第1の融合データを取得するステップと、
前記少なくとも2つのセンサ群について測定された重複領域の測定データを融合し、第2の融合データを取得するステップと、を含む、方法。
(付記12)
データ融合の前に電子地図座標系における第2の対象測定データ及び/若しくは第1の対象測定データに対して第1のフィルタリングを行うステップ、並びに/又は、
前記第1の融合データに対して第2のフィルタリングを行うステップ、並びに/又は、
前記第2の融合データに対して第3のフィルタリングを行うステップ、をさらに含む、付記11に記載の方法。
(付記13)
前記第1のフィルタリングを行った場合、
現在のフレームの第1の融合データと直前のフレームの第1の融合データとが同一のタイプのセンサの対象測定データからのものであるか否かを判断するステップ、をさらに含み、
判断結果がNOである場合、前記第1の融合データに対して第2のフィルタリングを行う、付記12に記載の方法。
(付記14)
前記第2のフィルタリングを行った場合、
現在のフレームの第2の融合データと直前のフレームの第2の融合データとが同一のセンサ群の対象測定データからのものであるか否かを判断するステップ、をさらに含み、
判断結果がNOである場合、前記第2の融合データに対して第3のフィルタリングを行う、付記12に記載の方法。
(付記15)
前記第1のフィルタリングを行う際に、電子地図座標系におけるレーダの位置、及び電子地図座標系に対するレーダの偏向角に基づいて、測定状態の空間と予測状態の空間との変換モデルを決定する、付記12に記載の方法。
(付記16)
前記第1のフィルタリングを行う際に、前記対象の位置に基づいて、処理ノイズ共分散行列における電子地図座標系の横座標に対応するノイズ共分散を決定する、付記12に記載の方法。
(付記17)
前記対象とレーダとの距離が大きいほど、前記ノイズ共分散が小さくなる、付記16に記載の方法。
(付記18)
予測状態は、電子地図座標系における対象の位置座標、並びに対象の速度の電子地図座標系の横軸及び縦軸方向に沿う成分を含み、
測定状態は、レーダから対象までの距離、レーダに対する対象の方位角、及び対象のレーダの径方向に沿う速度成分を含む、付記15に記載の方法。
(付記19)
前記処理ノイズ共分散行列における電子地図座標系の横座標に対応するノイズ共分散が第1の数(N)個あり、
前記道路は、前記第1の数個の領域に分割され、
同一の領域内の対象は、同一のノイズ共分散に対応し、
異なる領域内の対象は、異なるノイズ共分散に対応する、付記16に記載の方法。
(付記20)
前記予測状態及び前記測定状態は、電子地図座標系における対象の位置座標を含む、付記16に記載の方法。
(付記21)
コンピュータ読み取り可能なプログラムが記憶された記憶媒体であって、前記プログラムは、付記11乃至20の何れかに記載のデータ融合方法を前記コンピュータに実行させる、記憶媒体。
(付記1)
交通感知システムに適用されるデータ融合装置であって、前記交通感知システムは、少なくとも2つのセンサ群を含み、各センサ群は、同一の位置に配置されたカメラ及びレーダを含み、異なるセンサ群は、異なる位置に配置され、
前記データ融合装置は、
道路のカメラにより撮影されたビデオデータに基づいて第1の対象測定データを決定する第1の処理部と、
道路の所定領域に発射されたレーダ信号の反射信号により取得されたレーダデータに基づいて第2の対象測定データを決定する第2の処理部と、
レーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データとをマッチングし、マッチングデータを取得するマッチング部と、
センサ群ごとに、対象について電子地図座標系において取得された第1の対象測定データ、第2の対象測定データ及び前記マッチングデータを融合し、各センサ群の第1の融合データを取得する第1の融合部と、
前記少なくとも2つのセンサ群について測定された重複領域の測定データを融合し、第2の融合データを取得する第2の融合部と、を含む、装置。
(付記2)
前記第1の融合部による融合の前に電子地図座標系における第2の対象測定データ及び/若しくは第1の対象測定データに対して第1のフィルタリングを行う第1のフィルタリング部、並びに/又は、
前記第1の融合データに対して第2のフィルタリングを行う第2のフィルタリング部、並びに/又は、
前記第2の融合データに対して第3のフィルタリングを行う第3のフィルタリング部、をさらに含む、付記1に記載の装置。
(付記3)
前記第1のフィルタリング部が前記第1のフィルタリングを行った場合、
現在のフレームの第1の融合データと直前のフレームの第1の融合データとが同一のタイプのセンサの対象測定データからのものであるか否かを判断する第1の判断部、をさらに含み、
前記第1の判断部の判断結果がNOである場合、前記第2のフィルタリング部は、前記第1の融合データに対して第2のフィルタリングを行う、付記2に記載の装置。
(付記4)
前記第2のフィルタリング部が前記第2のフィルタリングを行った場合、
現在のフレームの第2の融合データと直前のフレームの第2の融合データとが同一のセンサ群の対象測定データからのものであるか否かを判断する第2の判断部、をさらに含み、
前記第2の判断部の判断結果がNOである場合、前記第3のフィルタリング部は、前記第2の融合データに対して第3のフィルタリングを行う、付記2に記載の装置。
(付記5)
前記第1のフィルタリング部は、電子地図座標系におけるレーダの位置、及び電子地図座標系に対するレーダの偏向角に基づいて、測定状態の空間と予測状態の空間との変換モデルを決定する、付記2に記載の装置。
(付記6)
前記第1のフィルタリング部は、前記対象の位置に基づいて、処理ノイズ共分散行列における電子地図座標系の横座標に対応するノイズ共分散を決定する、付記2に記載の装置。
(付記7)
前記対象とレーダとの距離が大きいほど、前記ノイズ共分散が小さくなる、付記6に記載の装置。
(付記8)
予測状態は、電子地図座標系における対象の位置座標、並びに対象の速度の電子地図座標系の横軸及び縦軸方向に沿う成分を含み、
測定状態は、レーダから対象までの距離、レーダに対する対象の方位角、及び対象のレーダの径方向に沿う速度成分を含む、付記5に記載の装置。
(付記9)
前記処理ノイズ共分散行列における電子地図座標系の横座標に対応するノイズ共分散が第1の数(N)個あり、
前記道路は、前記第1の数個の領域に分割され、
同一の領域内の対象は、同一のノイズ共分散に対応し、
異なる領域内の対象は、異なるノイズ共分散に対応する、付記6に記載の装置。
(付記10)
前記予測状態及び前記測定状態は、電子地図座標系における対象の位置座標を含む、付記6に記載の装置。
(付記11)
交通感知システムに適用されるデータ融合方法であって、前記交通感知システムは、少なくとも2つのセンサ群を含み、各センサ群は、同一の位置に配置されたカメラ及びレーダを含み、異なるセンサ群は、異なる位置に配置され、
前記データ融合方法は、
道路のカメラにより撮影されたビデオデータに基づいて第1の対象測定データを決定するステップと、
道路の所定領域に発射されたレーダ信号の反射信号により取得されたレーダデータに基づいて第2の対象測定データを決定するステップと、
レーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データとをマッチングし、マッチングデータを取得するステップと、
センサ群ごとに、対象について電子地図座標系において取得された第1の対象測定データ、第2の対象測定データ及び前記マッチングデータを融合し、各センサ群の第1の融合データを取得するステップと、
前記少なくとも2つのセンサ群について測定された重複領域の測定データを融合し、第2の融合データを取得するステップと、を含む、方法。
(付記12)
データ融合の前に電子地図座標系における第2の対象測定データ及び/若しくは第1の対象測定データに対して第1のフィルタリングを行うステップ、並びに/又は、
前記第1の融合データに対して第2のフィルタリングを行うステップ、並びに/又は、
前記第2の融合データに対して第3のフィルタリングを行うステップ、をさらに含む、付記11に記載の方法。
(付記13)
前記第1のフィルタリングを行った場合、
現在のフレームの第1の融合データと直前のフレームの第1の融合データとが同一のタイプのセンサの対象測定データからのものであるか否かを判断するステップ、をさらに含み、
判断結果がNOである場合、前記第1の融合データに対して第2のフィルタリングを行う、付記12に記載の方法。
(付記14)
前記第2のフィルタリングを行った場合、
現在のフレームの第2の融合データと直前のフレームの第2の融合データとが同一のセンサ群の対象測定データからのものであるか否かを判断するステップ、をさらに含み、
判断結果がNOである場合、前記第2の融合データに対して第3のフィルタリングを行う、付記12に記載の方法。
(付記15)
前記第1のフィルタリングを行う際に、電子地図座標系におけるレーダの位置、及び電子地図座標系に対するレーダの偏向角に基づいて、測定状態の空間と予測状態の空間との変換モデルを決定する、付記12に記載の方法。
(付記16)
前記第1のフィルタリングを行う際に、前記対象の位置に基づいて、処理ノイズ共分散行列における電子地図座標系の横座標に対応するノイズ共分散を決定する、付記12に記載の方法。
(付記17)
前記対象とレーダとの距離が大きいほど、前記ノイズ共分散が小さくなる、付記16に記載の方法。
(付記18)
予測状態は、電子地図座標系における対象の位置座標、並びに対象の速度の電子地図座標系の横軸及び縦軸方向に沿う成分を含み、
測定状態は、レーダから対象までの距離、レーダに対する対象の方位角、及び対象のレーダの径方向に沿う速度成分を含む、付記15に記載の方法。
(付記19)
前記処理ノイズ共分散行列における電子地図座標系の横座標に対応するノイズ共分散が第1の数(N)個あり、
前記道路は、前記第1の数個の領域に分割され、
同一の領域内の対象は、同一のノイズ共分散に対応し、
異なる領域内の対象は、異なるノイズ共分散に対応する、付記16に記載の方法。
(付記20)
前記予測状態及び前記測定状態は、電子地図座標系における対象の位置座標を含む、付記16に記載の方法。
(付記21)
コンピュータ読み取り可能なプログラムが記憶された記憶媒体であって、前記プログラムは、付記11乃至20の何れかに記載のデータ融合方法を前記コンピュータに実行させる、記憶媒体。
Claims (10)
- 交通感知システムに適用されるデータ融合装置であって、前記交通感知システムは、少なくとも2つのセンサ群を含み、各センサ群は、同一の位置に配置されたカメラ及びレーダを含み、異なるセンサ群は、異なる位置に配置され、
前記データ融合装置は、
道路のカメラにより撮影されたビデオデータに基づいて第1の対象測定データを決定する第1の処理部と、
道路の所定領域に発射されたレーダ信号の反射信号により取得されたレーダデータに基づいて第2の対象測定データを決定する第2の処理部と、
レーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データとをマッチングし、マッチングデータを取得するマッチング部と、
センサ群ごとに、対象について電子地図座標系において取得された第1の対象測定データ、第2の対象測定データ及び前記マッチングデータを融合し、各センサ群の第1の融合データを取得する第1の融合部と、
前記少なくとも2つのセンサ群について測定された重複領域の測定データを融合し、第2の融合データを取得する第2の融合部と、を含む、装置。 - 前記第1の融合部による融合の前に電子地図座標系における第2の対象測定データ及び/若しくは第1の対象測定データに対して第1のフィルタリングを行う第1のフィルタリング部、並びに/又は、
前記第1の融合データに対して第2のフィルタリングを行う第2のフィルタリング部、並びに/又は、
前記第2の融合データに対して第3のフィルタリングを行う第3のフィルタリング部、をさらに含む、請求項1に記載の装置。 - 前記第1のフィルタリング部が前記第1のフィルタリングを行った場合、
現在のフレームの第1の融合データと直前のフレームの第1の融合データとが同一のタイプのセンサの対象測定データからのものであるか否かを判断する第1の判断部、をさらに含み、
前記第1の判断部の判断結果がNOである場合、前記第2のフィルタリング部は、前記第1の融合データに対して第2のフィルタリングを行う、請求項2に記載の装置。 - 前記第2のフィルタリング部が前記第2のフィルタリングを行った場合、
現在のフレームの第2の融合データと直前のフレームの第2の融合データとが同一のセンサ群の対象測定データからのものであるか否かを判断する第2の判断部、をさらに含み、
前記第2の判断部の判断結果がNOである場合、前記第3のフィルタリング部は、前記第2の融合データに対して第3のフィルタリングを行う、請求項2に記載の装置。 - 前記第1のフィルタリング部は、電子地図座標系におけるレーダの位置、及び電子地図座標系に対するレーダの偏向角に基づいて、測定状態の空間と予測状態の空間との変換モデルを決定する、請求項2に記載の装置。
- 前記第1のフィルタリング部は、前記対象の位置に基づいて、処理ノイズ共分散行列における電子地図座標系の横座標に対応するノイズ共分散を決定する、請求項2に記載の装置。
- 前記対象とレーダとの距離が大きいほど、前記ノイズ共分散が小さくなる、請求項6に記載の装置。
- 予測状態は、電子地図座標系における対象の位置座標、並びに対象の速度の電子地図座標系の横軸及び縦軸方向に沿う成分を含み、
測定状態は、レーダから対象までの距離、レーダに対する対象の方位角、及び対象のレーダの径方向に沿う速度成分を含む、請求項5に記載の装置。 - 前記処理ノイズ共分散行列における電子地図座標系の横座標に対応するノイズ共分散が第1の数(N)個あり、
前記道路は、前記第1の数個の領域に分割され、
同一の領域内の対象は、同一のノイズ共分散に対応し、
異なる領域内の対象は、異なるノイズ共分散に対応する、請求項6に記載の装置。 - 交通感知システムに適用されるデータ融合方法であって、前記交通感知システムは、少なくとも2つのセンサ群を含み、各センサ群は、同一の位置に配置されたカメラ及びレーダを含み、異なるセンサ群は、異なる位置に配置され、
前記データ融合方法は、
道路のカメラにより撮影されたビデオデータに基づいて第1の対象測定データを決定するステップと、
道路の所定領域に発射されたレーダ信号の反射信号により取得されたレーダデータに基づいて第2の対象測定データを決定するステップと、
レーダフレームにおける第2の対象測定データとビデオフレームにおける第1の対象測定データとをマッチングし、マッチングデータを取得するステップと、
センサ群ごとに、対象について電子地図座標系において取得された第1の対象測定データ、第2の対象測定データ及び前記マッチングデータを融合し、各センサ群の第1の融合データを取得するステップと、
前記少なくとも2つのセンサ群について測定された重複領域の測定データを融合し、第2の融合データを取得するステップと、を含む、方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011385369.0 | 2020-12-01 | ||
CN202011385369.0A CN114578343A (zh) | 2020-12-01 | 2020-12-01 | 数据融合方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022087821A true JP2022087821A (ja) | 2022-06-13 |
Family
ID=81766812
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021189745A Pending JP2022087821A (ja) | 2020-12-01 | 2021-11-22 | データ融合方法及び装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2022087821A (ja) |
CN (1) | CN114578343A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115376312A (zh) * | 2022-07-22 | 2022-11-22 | 交通运输部路网监测与应急处置中心 | 一种基于雷达和视频融合的公路监控方法及系统 |
CN116148801A (zh) * | 2023-04-18 | 2023-05-23 | 深圳市佰誉达科技有限公司 | 一种基于毫米波雷达的目标检测方法及系统 |
CN117499887A (zh) * | 2024-01-02 | 2024-02-02 | 江西机电职业技术学院 | 一种基于多传感器融合技术的数据采集方法及系统 |
KR102672315B1 (ko) * | 2023-10-26 | 2024-06-07 | (주)이씨스 | 센서 융합 기반으로 주변 객체의 위치를 판별하는 시스템 및 방법 |
KR102672321B1 (ko) * | 2023-10-26 | 2024-06-07 | (주)이씨스 | 복수의 레이더 및 카메라를 이용한 센서 융합 시스템 및 방법 |
-
2020
- 2020-12-01 CN CN202011385369.0A patent/CN114578343A/zh active Pending
-
2021
- 2021-11-22 JP JP2021189745A patent/JP2022087821A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115376312A (zh) * | 2022-07-22 | 2022-11-22 | 交通运输部路网监测与应急处置中心 | 一种基于雷达和视频融合的公路监控方法及系统 |
CN116148801A (zh) * | 2023-04-18 | 2023-05-23 | 深圳市佰誉达科技有限公司 | 一种基于毫米波雷达的目标检测方法及系统 |
KR102672315B1 (ko) * | 2023-10-26 | 2024-06-07 | (주)이씨스 | 센서 융합 기반으로 주변 객체의 위치를 판별하는 시스템 및 방법 |
KR102672321B1 (ko) * | 2023-10-26 | 2024-06-07 | (주)이씨스 | 복수의 레이더 및 카메라를 이용한 센서 융합 시스템 및 방법 |
CN117499887A (zh) * | 2024-01-02 | 2024-02-02 | 江西机电职业技术学院 | 一种基于多传感器融合技术的数据采集方法及系统 |
CN117499887B (zh) * | 2024-01-02 | 2024-03-19 | 江西机电职业技术学院 | 一种基于多传感器融合技术的数据采集方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114578343A (zh) | 2022-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022087821A (ja) | データ融合方法及び装置 | |
CN109901139B (zh) | 激光雷达标定方法、装置、设备和存储介质 | |
CN110174093B (zh) | 定位方法、装置、设备和计算机可读存储介质 | |
WO2021057612A1 (zh) | 传感器的标定方法和装置 | |
JP6866440B2 (ja) | 物体識別方法、装置、機器、車両及び媒体 | |
CN111025308B (zh) | 车辆定位方法、装置、系统和存储介质 | |
CN110608746B (zh) | 用于确定机动车的位置的方法和装置 | |
CN109188438A (zh) | 偏航角确定方法、装置、设备和介质 | |
US20230065727A1 (en) | Vehicle and vehicle control method | |
CN111536990A (zh) | 在传感器之间的在线外参误标定检测 | |
WO2021254185A1 (zh) | 一种车辆定位方法、装置、设备及存储介质 | |
CN114091561A (zh) | 目标跟踪方法、装置、服务器和可读存储介质 | |
WO2020235466A1 (ja) | 車両制御システム及び車両制御方法 | |
CN114384505A (zh) | 雷达偏转角的确定方法和装置 | |
JP2021135286A (ja) | 座標変換方法、装置及びデータ処理装置 | |
US20240221390A1 (en) | Lane line labeling method, electronic device and storage medium | |
CN112815962A (zh) | 联合应用传感器参数的标定方法及装置 | |
CN111435565A (zh) | 道路交通状态检测方法、装置、电子设备及存储介质 | |
Zhang et al. | A Roadside Millimeter-Wave Radar Calibration Method Based on Connected Vehicle Technology | |
CN111596288B (zh) | 测量速度的方法、装置、车载终端和车载测速系统 | |
CN112665593B (zh) | 一种车辆定位方法及装置 | |
CN111681430B (zh) | 实时预测未来机动车到达信号灯路口停止线台数的方法 | |
CN114460551A (zh) | 一种基于毫米波雷达与视觉的现场自动标定方法及装置 | |
CN114648871B (zh) | 速度融合方法和装置 | |
JP7409163B2 (ja) | 定置センサ較正装置、および、定置センサ較正方法 |